OpenAI Unveils Its Consumer Privacy Terms, Aiming To Redefine AI Model Training By Reducing Personal Data Usage

人工智能研究组织 OpenAI 介绍了其数据保护措施。ChatGPT 的用户可以通过设置来管理他们的数据,免费用户和 Plus 用户都可以决定是否希望他们的数据用于未来的模型改进,从而提供一定程度的控制和透明度。

在最近的公告中,该公司强调,默认情况下不会使用应用程序编程接口 (API)、ChatGPT 企业版客户和 ChatGPT 团队版客户的数据进行模型训练。此外,ChatGPT 的“临时聊天”数据也将从模型训练中排除。

OpenAI 澄清说,模型训练的目的是为了增强模型的语言理解和响应能力,而不是收集私人信息。他们不会故意收集个人数据或利用公共互联网信息来开发个人资料、投放广告或出售用户数据。每次响应时,模型都会生成新内容,而不是存储或重复使用以前的训练数据。

此外,该公司致力于最大限度地减少模型训练中使用的个人信息量。他们训练模型拒绝涉及私人或敏感数据的请求,并努力防止生成包含此类信息的响应。

保护用户的隐私和安全是我们的核心使命。以下是我们目前保护您数据的方法:https://t.co/QQI9AAzu3H

— OpenAI (@OpenAI) 2024 年 6 月 13 日

OpenAI 开始训练其下一代 AI 软件

该公司致力于通用人工智能(AGI)和生成模型领域的研发,目前最突出的成果是创新型聊天机器人ChatGPT。

据该公司介绍,OpenAI 的大型语言模型 (LLM)(包括支持 ChatGPT 的模型)是使用三个主要信息来源开发的:来自互联网的公开数据、来自第三方的授权信息以及用户或人类训练师提供的数据。这种多样化的数据源支持模型的全面理解和功能。

今年 5 月,OpenAI 开始训练其下一代人工智能软件。此外,尽管取得了这一进展,但该公司重新考虑了之前关于开发超越人类智能的“超级智能”系统的主张,反映出对人工智能开发采取了更为谨慎的态度。

OpenAI 公布其消费者隐私条款,旨在通过减少个人数据的使用来重新定义 AI 模型训练,该文章最先出现在 Metaverse Post 上。