OpenAI 前首席科学家 Ilya Sutskever 宣布离开 OpenAI 仅一个月后,就创办了一家新的 AI 公司。他周三晚间宣布:“我要创办一家新公司”,名为 Safe Superintelligence Inc. (SSI)。

另请阅读:OpenAI 首席科学家 Ilya Sutskever 告别

SSI 总部位于美国,在帕洛阿尔托和特拉维夫设有办事处。这家初创公司在官方帖子中表示,它“只有一个目标和一个产品:安全的超级智能”。

“我们将一口气追求安全的超级智能,只有一个重点、一个目标和一个产品。我们将通过一支精干的小团队取得革命性的突破来实现这一目标,”Sutskever 说。

SSI 表示:“我们的专注意味著不会分心”

SSI 目前由 Sutskever、Daniel Gross 和另一位前 OpenAI 研究员 Daniel Levy 领导。截至撰写本文时,这家新创公司背后的投资者仍然未知。 

然而,该公司在公告中指出,整个「团队、投资者和商业模式都一致致力于实现「安全的超级智慧」。这句话在某种程度上为 OpenAI 带来了阴影,该公司曾因将利润置于人类之上并放弃了最初的使命而被 Elon Musk 起诉。 

“我们的单一关注点意味著不会因管理费用或产品周期而分心,而我们的商业模式意味著安全、保障和进步都不受短期商业压力的影响。”

SSI

Sutskever 于 5 月 15 日宣布离开 OpenAI,此前他在这家领先的人工智慧公司工作了近十年。在此之前,去年 12 月试图将执行长 Sam Altman 赶出 OpenAI 失败后,他就在无线电中保持沉默。 

近十年后,我做出了离开 OpenAI 的决定。  该公司的发展轨迹堪称奇迹,我相信 OpenAI 将在 @sama、@gdb、@miramurati 的领导下构建既安全又有益的 AGI,而现在,在…

— Ilya Sutskever (@ilyasut) 2024 年 5 月 14 日

OpenAI 的另一位高阶主管 Jan Leike 继 Sutskever 后辞职。他们两人共同领导了 OpenAI 的 Superalignment 团队,该团队负责防止超级智慧 AI 模型失控。

另请阅读:另一位 OpenAI 高管 Jan Leike 辞职

Sutskever 没有明确说明他离开 OpenAI 的原因。然而,雷克提到了公司的安全问题,称“在过去的几年里,安全文化和流程已经让位给闪亮的产品。”

「我加入是因为我认为 OpenAI 将是世界上进行这项研究的最佳场所,」Leike 说。 「然而,相当长一段时间以来,我一直与 OpenAI 领导层关于公司核心优先事项的观点存在分歧,直到我们最终达到了临界点,」他补充道。

SSI 并不是第一个从 OpenAI 分支出来的公司

Leike 于 5 月 28 日加入 OpenAI 的竞争对手 Anthropic,担任机器学习研究员,而 Sutskever 则去建立他的新人工智慧公司——这已经成为一种现象。

值得注意的是,SSI 并不是第一家从 OpenAI 分支出来的公司。 2021 年,OpenAI 的两名前员工离开公司,共同创立了 Anthropic,截至 5 月 13 日,该公司的投后估值为 184 亿美元。

Anthropic 创办人也因与 Sam Altman 在人工智慧安全发展问题上存在分歧而离开了 OpenAI。

Ibiam Wayas 的《加密城》报道