据华尔街日报,负责开发 ChatGPT 的公司 OpenAI 近期遭遇了一次重大安全漏洞,这引发了对潜在国家安全风险的担忧。该事件发生于去年年初,暴露了研究人员和员工之间的内部讨论,但未损害 OpenAI 系统的核心代码。尽管事件严重,OpenAI 选择不公开披露此事,这一决定导致内部和外部的审查。

OpenAI 内部通讯遭到破坏

2023 年初,一名骇客入侵了 OpenAI 的内部消息系统,提取了有关公司 AI 技术的详细资讯。根据两名知情人士透露,骇客造访了一个员工讨论最新 AI 进展的线上论坛,但未侵入存放核心技术的系统。

OpenAI 执行层选择不向公众揭露

据消息人士,OpenAI 的高层在 2023 年 4 月于公司旧金山总部召开的全员大会上向员工通报了此事,董事会也都知情。尽管遭到入侵,执行层选择不向公众通报,理由是没有客户或合作伙伴的资讯被泄露。他们评估该骇客是一个与外国政府无关的个人,并且没有向包括联邦调查局在内的执法机构报告此事。

外国间谍活动的担忧加剧

此次漏洞事件加剧了 OpenAI 员工对外国对手 (尤其是中国) 可能窃取 AI 技术并威胁美国国家安全的担忧。该事件还引发了公司内部关于 OpenAI 安全措施充分性的辩论,以及与人工智慧相关的更广泛风险。

AI 安全问题突显

事件发生后,OpenAI 的技术专案经理 Leopold Aschenbrenner 向董事会提交了一份备忘录,表达了对公司易受外国实体间谍活动的担忧。Aschenbrenner 后来因涉嫌泄密而被解雇。他认为公司的安全措施不足以抵御来自外国行动者的复杂威胁。

OpenAI 的官方声明

OpenAI 发言人 Liz Bourgeois 承认了 Aschenbrenner 的担忧,但表示他的离职与他提出的问题无关。她强调 OpenAI 致力于建立安全的通用人工智慧 (AGI),但不同意 Aschenbrenner 对其安全协议的评估。

中美战争下的科技间谍活动

对中国的潜在联系的担忧并非毫无根据。例如,微软总裁 Brad Smith 最近作证称,中国骇客利用该公司的系统攻击联邦网路。然而,法律约束禁止 OpenAI 在招聘中基于国籍进行歧视,因为阻止外国人才可能会妨碍美国的 AI 进步。

(从 DEI 还是 MEI:AI 独角兽 ScaleAI 的招募政策,为何让马斯克与 Coinbase 频点头?)

多元化人才的重要性

OpenAI 安全主管 Matt Knight 强调,尽管存在风险,招募顶尖的全球人才是必要的。他强调在安全担忧与需要创新思维以推动 AI 技术进步之间寻求平衡的重要性。

整个 AI 业界都在面临挑战

OpenAI 并非唯一面临这些挑战的公司。像 Meta 和 Google 这样的竞争对手也在开发强大的 AI 系统,其中一些是开源的,促进了业界的透明度和集体问题解决。然而,AI 被用于误导信息和取代工作仍然是令人担忧的问题。

国家安全风险评估:AI 可能创造生化武器

OpenAI、Anthropic 等 AI 公司的一些研究发现,当前的 AI 技术对国家安全构成的风险很小。然而,关于 AI 未来可能创造生化武器或侵入政府系统的争论仍在继续。OpenAI 和 Anthropic 等公司正积极应对这些担忧,通过加强其安全协议并设立专注于 AI 安全的委员会。

政府立法行动:对特定 AI 技术采取限制

联邦和州立法者正在考虑限制某些 AI 技术的发布并对有害使用进行惩罚的法规。这些法规旨在减少长期风险,尽管专家认为 AI 的重大危险仍需数年时间才能显现。

中国在 AI 方面的进展

中国公司在 AI 技术方面的进展迅速,中国拥有世界上大量顶尖 AI 研究人员。像 Hugging Face 的 Clément Delangue 这样的专家认为,中国可能很快在 AI 能力上超越美国。

呼吁负责任的 AI 发展

即使目前的可能性很低,如 Susan Rice 这样的知名人物仍呼吁认真考虑最坏的 AI 情境,强调有责任处理潜在的高影响风险。

这篇文章 华尔街日报:骇客入侵 OpenAI,引发国家安全忧虑 最早出现于 链新闻 ABMedia。