经过90天的自我评估,OpenAI宣布了五项重要措施,以增强其人工智能模型的安全性和保障,体现了其对负责任的人工智能发展的承诺。

9月16日,经过90天的工作流程自我评估后,OpenAI宣布了5项重要措施,以增强其人工智能模型的安全性。措施包括设立独立委员会、加强安全措施、提高透明度以及与外部组织的合作。

OpenAI此举展现了该公司在开发安全可靠的人工智能模型方面的持续努力。这是在人工智能技术不断发展的背景下确保人工智能安全开发和部署的战略步骤。

安全保卫委员会发挥关键作用

具体来说,OpenAI成立了安全保障委员会,具有独立监督作用。该委员会由卡内基梅隆大学计算机科学系主任 Zico Kolter 担任主席,其任务是监督 OpenAI 人工智能模型开发和部署的安全流程。

该委员会的其他成员包括 Adam D'Angelo(Quora 联合创始人)、Paul Nakasone(美国退役将军)和 Nicole Seligman(索尼公司前副总裁兼法律顾问)。如果存在安全问题,该委员会将有权推迟模型发布。

参加 OpenAI 安全与安保委员会的成员名单。来源:互联网。

此外,企业将继续应用风险管理方法来保护人工智能模型。 OpenAI 表示,计划增加内部信息细分、扩大 24/7 安全团队,并投资研究和产品基础设施以提高安全性。

其中一项突出举措是考虑为人工智能行业建立信息共享和分析中心(ISAC),以在行业组织之间共享有关网络威胁的信息。

OpenAI 致力于提高其工作中的数据透明度。他们发布了 GPT-4o 和 o1-preview 系统卡,提供了模型发布前安全评估的详细信息。这些卡片还包括外部组织的评估结果和风险缓解措施。

此外,公司还积极与多家组织合作,推动AI行业的安全标准。特别是,OpenAI 正在与洛斯阿拉莫斯国家实验室(美国)合作研究如何在科学实验室中安全地使用人工智能,并与美国和英国的人工智能安全机构合作研究所有人工智能的安全标准。他们重组了研究、安全和政策团队,为人工智能模型开发和监控创建了一个集成的安全框架。

随着人工智能模型变得越来越复杂,该框架将由安全保障委员会批准和调整。