OpenAI Unveils Its Consumer Privacy Terms, Aiming To Redefine AI Model Training By Reducing Personal Data Usage

人工智能研究組織 OpenAI 介紹了其數據保護措施。ChatGPT 的用戶可以通過設置來管理他們的數據,免費用戶和 Plus 用戶都可以決定是否希望他們的數據用於未來的模型改進,從而提供一定程度的控制和透明度。

在最近的公告中,該公司強調,默認情況下不會使用應用程序編程接口 (API)、ChatGPT 企業版客戶和 ChatGPT 團隊版客戶的數據進行模型訓練。此外,ChatGPT 的“臨時聊天”數據也將從模型訓練中排除。

OpenAI 澄清說,模型訓練的目的是爲了增強模型的語言理解和響應能力,而不是收集私人信息。他們不會故意收集個人數據或利用公共互聯網信息來開發個人資料、投放廣告或出售用戶數據。每次響應時,模型都會生成新內容,而不是存儲或重複使用以前的訓練數據。

此外,該公司致力於最大限度地減少模型訓練中使用的個人信息量。他們訓練模型拒絕涉及私人或敏感數據的請求,並努力防止生成包含此類信息的響應。

保護用戶的隱私和安全是我們的核心使命。以下是我們目前保護您數據的方法:https://t.co/QQI9AAzu3H

— OpenAI (@OpenAI) 2024 年 6 月 13 日

OpenAI 開始訓練其下一代 AI 軟件

該公司致力於通用人工智能(AGI)和生成模型領域的研發,目前最突出的成果是創新型聊天機器人ChatGPT。

據該公司介紹,OpenAI 的大型語言模型 (LLM)(包括支持 ChatGPT 的模型)是使用三個主要信息來源開發的:來自互聯網的公開數據、來自第三方的授權信息以及用戶或人類訓練師提供的數據。這種多樣化的數據源支持模型的全面理解和功能。

今年 5 月,OpenAI 開始訓練其下一代人工智能軟件。此外,儘管取得了這一進展,但該公司重新考慮了之前關於開發超越人類智能的“超級智能”系統的主張,反映出對人工智能開發採取了更爲謹慎的態度。

OpenAI 公佈其消費者隱私條款,旨在通過減少個人數據的使用來重新定義 AI 模型訓練,該文章最先出現在 Metaverse Post 上。