OpenAIの元主任科学者イリヤ・スツケバー氏は、OpenAIからの退社を発表してからわずか1か月後に、新たなAI企業を設立する。同氏は水曜日遅くに「Safe Superintelligence Inc.(SSI)」という新しい会社を設立すると発表した。

こちらもお読みください: OpenAIの主任科学者、イリヤ・スツケヴァー氏が退任

SSIはアメリカに拠点を置き、パロアルトとテルアビブにオフィスを構えている。公式投稿で、このスタートアップは「安全なスーパーインテリジェンスという1つの目標と1つの製品」を掲げていると述べた。

「我々は、1つの焦点、1つの目標、1つの製品で、安全なスーパーインテリジェンスを真っ向から追求します。少数精鋭のチームが生み出す革新的なブレークスルーを通じてそれを実現します」とスツケヴァー氏は語った。

「私たちの焦点は一点に集中することなので、気を散らすことはありません」とSSIは言う。

SSIは現在、Sutskever氏、Daniel Gross氏、そしてもう一人の元OpenAI研究者であるDaniel Levy氏によって率いられています。この記事の執筆時点では、このスタートアップの投資家は不明です。

しかし、同社は発表の中で、「チーム、投資家、ビジネスモデル全体が「安全なスーパーインテリジェンス」の実現に向けて一致団結している」と述べている。この発言は、かつてイーロン・マスク氏から人類よりも利益を優先し、当初の使命を放棄したとして訴えられたことがあるOpenAIを少し批判しているようにも聞こえる。

「当社は、経営管理上の諸経費や製品サイクルに惑わされることなく、集中して取り組んでいます。また、当社のビジネス モデルでは、安全性、セキュリティ、進歩がすべて短期的な商業的プレッシャーから保護されています。」

SSI

サツケバー氏は、大手AI企業で約10年間勤務した後、5月15日にOpenAIを退社すると発表した。それ以前は、昨年12月にCEOのサム・アルトマン氏をOpenAIから追放しようとして失敗した後、音沙汰がなかった。

ほぼ 10 年を経て、私は OpenAI を離れる決断をしました。同社の軌跡はまさに奇跡的なものであり、@sama、@gdb、@miramurati のリーダーシップの下、そして現在は… の下で、OpenAI が安全かつ有益な AGI を構築すると確信しています。

— イリヤ・スツケヴェル (@ilyasut) 2024年5月14日

OpenAIのもう一人の幹部、ヤン・ライケ氏も、サツケヴァー氏の後に辞任した。2人はともに、超知能AIモデルの暴走を防ぐ役割を担うOpenAIのスーパーアライメントチームの共同リーダーだった。

こちらもお読みください: OpenAIのもう一人の幹部、Jan Leikeが辞任

スツケヴァー氏はオープンAIを去った理由をはっきりと述べなかった。しかし、ライケ氏は同社の安全上の懸念を挙げ、「過去数年間、安全文化とプロセスは派手な製品に後回しにされてきた」と述べた。

「私が入社したのは、OpenAIがこの研究を行うのに世界最高の場所だと思ったからです」とライケ氏は語った。「しかし、私はOpenAIの幹部と会社の中核的な優先事項について長い間意見が合わず、ついに限界に達しました」と同氏は付け加えた。

SSIはOpenAIから分岐した最初の企業ではない

ライケ氏は5月28日にOpenAIの競合企業であるAnthropicにML研究者として入社し、一方スツケヴァー氏は新たなAI企業を立ち上げるため去ったが、これは繰り返しになっている。

注目すべきは、SSIがOpenAIから分岐する最初の企業ではないということだ。2021年、OpenAIの元従業員2人が同社を離れ、Anthropicを共同設立した。Anthropicは5月13日時点で、ポストマネーで184億ドルの評価額となっている。

Anthropic の創設者たちも、AI の安全な開発に関してサム・アルトマンと意見が合わなかったため、OpenAI を去っていた。

イビアム・ワヤスによるクリプトポリタンレポート