总长DR

  • OpenAI 在 2023 年初遭遇了一次安全漏洞,一名黑客获得了内部消息系统的访问权限

  • 黑客从员工讨论中窃取了 OpenAI 人工智能技术设计的细节,但没有窃取核心人工智能代码

  • OpenAI 没有公开披露此次黑客攻击事件,也没有向执法部门报告,因为他们认为这不是国家安全威胁

  • 这一事件引发了部分员工对中国等外国对手的潜在弱点的担忧

  • 此次泄密事件再次引发了关于人工智能安全性、透明度和潜在国家安全影响的争论

有消息称,ChatGPT 的创建者 OpenAI 在 2023 年初遭遇了重大安全漏洞。

据《纽约时报》报道,一名黑客入侵了该公司的内部消息系统,并窃取了有关 OpenAI 人工智能技术设计的详细信息。

此次入侵发生在 2023 年 4 月,入侵者借此可以访问员工讨论 OpenAI 最新技术的在线论坛。

虽然黑客没有侵入该公司存放和构建 AI 的系统,但他们能够从内部讨论中窃取敏感细节。重要的是,核心 AI 代码(OpenAI 最宝贵的资产)仍然安全。

OpenAI 高管在公司旧金山办公室的全体会议上向员工披露了这一事件,并通知了董事会。

然而,他们决定不公开消息或向联邦调查局等执法机构报告。该公司的理由是,没有窃取任何有关客户或合作伙伴的信息,他们相信黑客是一名个人,与外国政府没有任何已知联系。

这一决定引发了人们对快速发展的人工智能领域的透明度和安全实践的质疑。这一事件也再次引发了人们对人工智能公司可能面临外国对手(尤其是中国)攻击的担忧。

此次泄密事件发生后,前 OpenAI 技术项目经理 Leopold Aschenbrenner 向公司董事会发送了一份备忘录。

他认为,OpenAI 在阻止中国政府和其他外国对手窃取其机密方面做得不够。阿申布伦纳后来因无关原因被公司解雇,他担心,如果外国势力渗透到 OpenAI,其安全措施可能不够强大,无法防止关键机密被盗。

OpenAI 驳斥了这些说法。OpenAI 发言人 Liz Bourgeois 表示:“我们理解 Leopold 在 OpenAI 期间提出的担忧,但这并没有导致他离职。”她补充道,“虽然我们和他一样致力于打造安全的 AGI,但我们不同意他后来对我们工作提出的许多说法。这包括他对我们安全性的描述,尤其是这次事件,我们在他加入公司之前就已处理过这个问题并与董事会分享过。”

这一事件凸显了人工智能公司必须在开放性和安全性之间取得微妙的平衡。

虽然有些公司(如 Meta)将他们的 AI 设计作为开源软件免费分享,但其他公司则采取了更为谨慎的态度。OpenAI 以及 Anthropic 和 Google 等竞争对手在向公众提供 AI 应用程序之前一直在为其添加防护措施,旨在防止滥用和潜在问题。

OpenAI 安全主管 Matt Knight 强调了公司对安全的承诺:

“我们在 ChatGPT 出现前几年就开始投资安全领域。我们不仅要了解风险并保持领先,还要增强我们的韧性。”

此次泄密事件也引发了人们对人工智能对国家安全的潜在影响这一更广泛问题的关注。尽管目前的人工智能系统主要用作工作和研究工具,但人们担心未来的应用可能会带来更大的风险。

一些研究人员和国家安全领导人认为,即使当前人工智能系统核心的数学算法现在并不危险,但将来可能会变得危险。

前拜登总统国内政策顾问、前奥巴马总统国家安全顾问苏珊·赖斯强调了认真对待潜在风险的重要性:

“即使最坏情况发生的概率相对较低,但如果影响巨大,我们就有责任认真对待。我不认为这是科幻小说,尽管很多人喜欢这样说。”

为了应对日益增长的担忧,OpenAI 最近成立了一个安全委员会,以探讨如何应对未来技术带来的风险。委员会成员包括前陆军将军、国家安全局和网络司令部负责人保罗·中曾根 (Paul Nakasone)。

OpenAI 2023 年未披露的黑客事件引发了对 AI 安全性和透明度的质疑,该帖子最先出现在 Blockonomi 上。