原文标题:OpenAI Co-Founder Ilya Sutskever's Safe AI Startup Raises $1 Billion 

原文作者:Jason Nelson 

原文来源:https://decrypt.co/ 

编译:火星财经,Eason

新公司 Safe Superintelligence 获得了 NFDG、a16z、红杉资本、DST Global 和 SV Angel 的支持。

在从 AI 开发公司 OpenAI 辞职几个月后,前首席科学家伊利亚·苏茨凯弗的新公司 Safe Superintelligence(SSI)宣布已筹集 10 亿美元资金。

据 SSI 称,此次融资包括来自 NFDG、a16z、红杉资本、DST Global 和 SV Angel 的投资。路透社援引“接近此事的消息人士”报道,SSI 的估值已达 50 亿美元。

“山峰已找到。”苏茨凯弗在周三发推文称,“是时候攀登了。”

Safe Superintelligence 尚未对 Decrypt 的置评请求作出回应。

今年 5 月,在安德烈·卡尔帕西 2 月离职后,苏茨凯弗和简·雷克也从 OpenAI 辞职。雷克在推特上发文称,他决定离开 ChatGPT 开发者的原因是缺乏资源和安全关注。

“离开这个工作是我做过的最艰难的事情之一,”雷克写道。“因为我们急需弄清楚如何引导和控制比我们聪明得多的 AI 系统。”

据《纽约时报》报道,苏茨凯弗在 2023 年 11 月带领 OpenAI 董事会和部分高管罢免了联合创始人兼 CEO 山姆·奥特曼,但奥特曼在一周后被恢复职务。

今年 6 月,苏茨凯弗宣布创立了他的 AI 开发新公司 Safe Superintelligence Inc.,共同创始人包括苹果前 AI 负责人丹尼尔·格罗斯和同样曾在 OpenAI 工作过的丹尼尔·利维。

据路透社报道,苏茨凯弗担任 SSI 的首席科学家,利维担任首席科学家,格罗斯负责计算能力和融资。

“SSI 是我们的使命、我们的名字以及我们整个产品路线图,因为这是我们唯一的重点,”Safe Superintelligence 在 6 月的推文中写道。“我们的团队、投资者和商业模式都围绕实现 SSI 这一目标而一致。”

随着生成式 AI 变得越来越普遍,开发者一直在寻找确保其产品安全的方法,以赢得消费者和监管机构的信任。

8 月,OpenAI 和 Claude AI 的开发者 Anthropic 宣布与美国商务部下属的国家标准与技术研究院(NIST)达成协议,与美国 AI 安全研究所(AISI)建立正式合作,这将使该机构能够访问这两家公司推出的主要新 AI 模型。

“我们很高兴与美国 AI 安全研究所达成协议,对我们未来的模型进行预发布测试。” OpenAI 联合创始人兼 CEO 山姆·奥特曼在推特上写道。“出于多种原因,我们认为在国家层面进行这种合作非常重要。美国需要继续保持领先。”