人工智能研究組織 OpenAI 介紹了其數據保護措施。ChatGPT 的用戶可以通過設置來管理他們的數據,免費用戶和 Plus 用戶都可以決定是否希望他們的數據用於未來的模型改進,從而提供一定程度的控制和透明度。
在最近的公告中,該公司強調,默認情況下不會使用應用程序編程接口 (API)、ChatGPT 企業版客戶和 ChatGPT 團隊版客戶的數據進行模型訓練。此外,ChatGPT 的“臨時聊天”數據也將從模型訓練中排除。
OpenAI 澄清說,模型訓練的目的是爲了增強模型的語言理解和響應能力,而不是收集私人信息。他們不會故意收集個人數據或利用公共互聯網信息來開發個人資料、投放廣告或出售用戶數據。每次響應時,模型都會生成新內容,而不是存儲或重複使用以前的訓練數據。
此外,該公司致力於最大限度地減少模型訓練中使用的個人信息量。他們訓練模型拒絕涉及私人或敏感數據的請求,並努力防止生成包含此類信息的響應。
保護用戶的隱私和安全是我們的核心使命。以下是我們目前保護您數據的方法:https://t.co/QQI9AAzu3H
— OpenAI (@OpenAI) 2024 年 6 月 13 日
OpenAI 開始訓練其下一代 AI 軟件
該公司致力於通用人工智能(AGI)和生成模型領域的研發,目前最突出的成果是創新型聊天機器人ChatGPT。
據該公司介紹,OpenAI 的大型語言模型 (LLM)(包括支持 ChatGPT 的模型)是使用三個主要信息來源開發的:來自互聯網的公開數據、來自第三方的授權信息以及用戶或人類訓練師提供的數據。這種多樣化的數據源支持模型的全面理解和功能。
今年 5 月,OpenAI 開始訓練其下一代人工智能軟件。此外,儘管取得了這一進展,但該公司重新考慮了之前關於開發超越人類智能的“超級智能”系統的主張,反映出對人工智能開發採取了更爲謹慎的態度。
OpenAI 公佈其消費者隱私條款,旨在通過減少個人數據的使用來重新定義 AI 模型訓練,該文章最先出現在 Metaverse Post 上。