OpenAI 的现任和前任员工对缺乏足够监管的人工智能快速发展表示严重担忧。这些内部人士强调了不受约束的人工智能发展可能带来的危险。他们认为,包括 OpenAI 在内的人工智能公司有强烈的经济动机来避免有效的监管,这可能会导致重大风险。

这些员工的公开信强调了加强举报人保护的必要性。他们认为,如果没有这样的保护,员工就无法有效地追究公司的责任。这封信呼吁人工智能公司允许匿名举报问题,并支持公开批评的文化。

Google 和 OpenAI 在人工智慧进步中的作用

OpenAI、Google和其他科技巨头在人工智慧开发领域处于领先地位。

这场生成式人工智慧军备竞赛将产生可观的收入。据预测,该市场将在十年内突破 1 兆美元。然而,这种快速发展也伴随著巨大的风险。内部人士强调,这些公司拥有大量有关其技术能力的非公开资讯。他们也强调了对安全措施的担忧,但他们没有义务分享这些措施。

公开信强调,这些公司目前向政府揭露关键安全资讯的义务极小。他们也有最低限度的义务向公众披露这些资讯。这种缺乏透明度引发了人们对人工智慧技术潜在滥用和相关风险的担忧。

OpenAI 员工强调的危险

人工智慧技术的危险是多方面的。 OpenAI 和 Google DeepMind 的员工指出了从错误讯息传播到可能失去对自主系统的控制等风险。如果管理不当,人工智慧技术还存在导致人类灭绝的极端风险。

这份题为「警告人工智慧的权利」的请愿书呼吁人工智慧公司允许员工在内部和向公众提出与风险相关的担忧。签署者认为,财务动机往往促使公司将产品开发置于安全之上,损害了监督流程。

一群现任和前任 OpenAI 员工(其中一些是匿名)与 Yoshua Bengio、Geoffrey Hinton 和 Stuart Russell 一起今天早上发布了一封题为“警告高级人工智慧的权利”的公开信。 pic.twitter.com/QnhbUg8WsU

— 安德鲁‧柯兰 (@AndrewCurran_) 2024 年 6 月 4 日

OpenAI 呼吁内部变革

员工敦促 OpenAI 和其他人工智慧公司实施允许匿名报告安全问题的系统。他们主张取消限制性保密协议,这些协议阻止员工说出潜在的危险。这些变化被认为对于培育更安全的人工智慧开发环境至关重要。

OpenAI 前员工 William Saunders 强调,那些对人工智慧系统潜在危险最了解的人往往因为担心后果而无法分享他们的见解。这种保密性阻止了有关人工智慧风险的重要资讯被公众和监管机构知道。

回应与争议

OpenAI 已经认识到安全在人工智慧开发中的重要性。然而,最近的行动,例如解散 Superalignment 安全团队,引发了人们对其对这项原则的承诺的怀疑。 OpenAI 此后成立了安全委员会来解决这些问题。

尽管做出了这些努力,围绕 OpenAI 的管理和安全方法仍存在争议。该公司面临内部冲突,包括执行长萨姆·奥尔特曼(Sam Altman)因透明度问题而被罢免。这些事件凸显了在快速人工智慧创新与必要的安全措施之间取得平衡所面临的持续挑战。

总而言之,虽然人工智慧技术有望取得重大进步,但 OpenAI 和Google员工提出的担忧凸显了迫切需要更好的监督和透明度。确保人工智慧系统的安全必须成为降低潜在风险和保障未来的首要任务。