为了改进其人工智能模型,OpenAI 邀请渗透专家来查找其广泛使用的人工智能聊天机器人平台中的漏洞。

图片:Koshiro K / Shutterstock.com

为了增强其流行的人工智能聊天机器人的安全性,OpenAI 正在寻求外部网络安全和渗透专家(也称为“红队”)来寻找人工智能平台中的漏洞。

该公司表示正在寻找各个领域的专家,包括认知和计算机科学、经济学、医疗保健和网络安全。OpenAI 表示,其目的是提高人工智能模型的安全性和道德规范。

此次公开邀请之际,美国联邦贸易委员会对 OpenAI 的数据收集和安全实践展开调查,政策制定者 和 企业正在质疑使用 ChatGPT 的安全性。

Halborn联合创始人兼首席信息安全官 Steven Walbroehl 告诉记者:“这是众包志愿者参与进来,做有趣的安全工作。这是一个交流机会,也是一个站在技术前沿的机会。”

Walbroehl 补充道,“最优秀的黑客喜欢破解最新的新兴技术。”

为了使这笔交易更加顺利,OpenAI 表示,红队成员将获得补偿,并且不需要任何人工智能方面的经验,只需要愿意贡献不同的观点即可。

“我们宣布公开招募 OpenAI 红队网络,并邀请有兴趣提高 OpenAI 模型安全性的领域专家加入我们的努力,”OpenAI写道。“我们正在寻找来自各个领域的专家与我们合作,严格评估和红队我们的人工智能模型。”

红队是指擅长攻击(也称为渗透测试或笔测试)系统和暴露漏洞的网络安全专业人员。相比之下,蓝色团队描述的是保护系统免受攻击的网络安全专业人员。

OpenAI 继续说道,“除了加入网络之外,还有其他合作机会可以为人工智能安全做出贡献。例如,一种选择是对人工智能系统创建或进行安全评估并分析结果。”

OpenAI 于 2015 年推出,去年年底随着 ChatGPT 和更先进的 GPT-4 的公开发布而进入公众视野,席卷了科技界,并将生成式AI引入主流。

7 月,OpenAI 与谷歌、微软和其他公司一起承诺致力于开发安全可靠的人工智能工具。

虽然像 ChatGPT 这样的生成式人工智能工具已经彻底改变了人们创建内容和消费信息的方式,但人工智能聊天机器人也并非没有争议,引发了偏见、种族主义、谎言(幻觉)以及用户数据存储方式和位置缺乏透明度的指控。

对用户隐私的担忧导致意大利、俄罗斯、中国、朝鲜、古巴、伊朗和叙利亚等多个国家禁止在其境内使用 ChatGPT。作为回应,OpenAI 更新了 ChatGPT,添加了删除聊天记录功能,以保护用户隐私。

红队计划是 OpenAI 的最新举措,旨在吸引顶级安全专业人士帮助评估其技术。6 月,OpenAI 承诺投入100 万美元用于使用人工智能的网络安全措施和举措。

虽然该公司表示研究人员不受限制发布他们的发现或寻求其他机会,但 OpenAI 指出,该计划的成员应该意识到,参与红队和其他项目通常受到保密协议 (NDA) 的约束,或者“必须保留”无限期保密。”

OpenAI 总结道,“我们鼓励在评估人工智能系统时发挥创造力和实验性,一旦完成,我们欢迎您将您的评估贡献给开源 Evals 存储库,以供更广泛的人工智能社区使用。”

#OpenAI  #网络安全