一位前公司内部人士本周向美国参议员表示,OpenAI 最新的 GPT-o1 AI 模型首次展示了能够帮助专家重现已知和新的生物威胁的能力。


OpenAI 前技术人员 William Saunders 向参议院司法委员会隐私、技术和法律小组委员会表示:“OpenAI 的新 AI 系统是第一个显示出生物武器风险迹象的系统,因为它能够帮助专家规划重现已知的生物威胁。”


他警告说,如果在缺乏适当保障的情况下开发 AGI 系统,这种能力可能会造成“灾难性的危害”。


专家们还证实,人工智能发展如此之快,以至于一种被称为“通用人工智能”的潜在危险基准即将出现。在通用人工智能层面,人工智能系统可以在广泛的认知任务中与人类智能相媲美,并能自主学习。如果一个公开可用的系统能够在没有适当监督的情况下理解生物学并开发新武器,那么恶意用户造成严重伤害的可能性就会成倍增加。


桑德斯向参议院委员会表示:“人工智能公司在构建 AGI 方面取得了快速进展。AGI 系统最快可在三年内建成。”


Helen Toner 也是 OpenAI 董事会成员,她投票支持解雇联合创始人兼首席执行官 Sam Altman,她也期待 AGI 能早日实现。“即使最短的估计被证明是错误的,在未来十年或二十年内开发出人类级别的人工智能的想法也应该被视为一种真正的可能性,现在就需要采取重大的准备行动,”她在证词中说道。



曾在 OpenAI 工作三年的 Saunders 强调了该公司最近发布的 GPT-o1,这是一个在能力上“迈过重要里程碑”的人工智能系统。据 Decrypt 报道,就连 OpenAI 也表示,它决定不再以传统的 GPT 版本数字增长为目标,因为这个模型展现了新的能力,这让它不仅仅是一种升级,而是一种进化——一种具有不同技能的全新模型。


桑德斯还担心 AGI 开发缺乏足够的安全措施和监督。他指出,“没有人知道如何确保 AGI 系统是安全和可控的”,并批评 OpenAI 对安全 AI 开发的新方法,更关心盈利能力而不是安全性。


“尽管 OpenAI 率先开展了此类测试,但他们也一再将部署置于严谨性之上,”他警告道。“我认为,他们很有可能会错过未来人工智能系统中重要的危险能力。”


证词还揭露了 OpenAI 内部面临的一些挑战,尤其是在 Altman 被罢免后暴露出来的挑战。“OpenAI 的超级对齐团队,负责开发控制 AGI 的方法,现在已经不复存在。该团队的领导人和许多关键研究人员在努力获取所需资源后辞职,”他说。


他的言论只是人工智能安全专家对 OpenAI 的做法发出的抱怨和警告的又一例证。OpenAI 联合创始人伊利亚·苏茨克弗 (Ilya Sutskever) 在解雇阿尔特曼一事上发挥了关键作用,他在 GPT-4o 发布后辞职,并创办了 Safe Superintelligence Inc.


OpenAI 联合创始人约翰·舒尔曼 (John Schulman) 及其协调负责人简·莱克 (Jan Leike) 离职,加入竞争对手 Anthropic。莱克表示,在奥尔特曼的领导下,安全“让位于闪亮的产品”。


同样,前 OpenAI 董事会成员 Toner 和 Tasha McCauley 在《经济学人》上发表了一篇专栏文章,认为 Sam Altman 优先考虑利润而不是负责任的人工智能开发,向董事会隐瞒关键进展,并在公司内营造了一种不良环境。


桑德斯在声明中呼吁采取紧急监管行动,强调人工智能开发需要采取明确的安全措施,不仅要由公司采取,还要由独立实体采取。他还强调了科技行业举报人保护的重要性。


这位前 OpenAI 员工强调了 AGI 发展的更广泛影响,包括可能加剧现有的不平等现象,并助长操纵和误导。桑德斯还警告说,“失去对自主 AI 系统的控制”可能会导致“人类灭绝”。


由 Josh Quittner 和 Andrew Hayward 编辑