OpenAIの主要幹部2人が、同社の最新の主力製品であり、より「感情的な」モデルであるGPT-4oの発表からわずか数日後に同社を辞任した。

OpenAIのスーパーアライメントチームの共同リーダーが退任

OpenAIのスーパーアライメントチームの共同リーダーであるJan Leike氏は、X水曜日に「辞職しました」と投稿した。

私が辞任しました

— ジャン・ライケ (@janleike) 2024 年 5 月 15 日

ライケ氏は自身の決断についてまだ詳細を明らかにしていない。しかし、彼の投稿は、OpenAIの共同創設者であるイリヤ・スツケヴァー氏が同社を退社し、「私にとって非常に個人的に意味のあるプロジェクト」に取り組むと発表した数時間後に行われた。

Sutskever氏はOpenAIを辞める前、2023年12月から沈黙していた。沈黙後の最初の投稿が辞職通知だったため、同社におけるSutskever氏の立場を考えると、懸念する人もいたようだ。

Leike氏とSutskever氏はともにOpenAIのSuperalignmentチームの共同リーダーを務めた。このユニットは超知能AIモデルが暴走するのを防ぐために結成された。

こちらもご覧ください: OpenAIが「スーパーアライメント」チームを立ち上げ

今月初め、OpenAIの共同創設者兼CEOのサム・アルトマン氏は、同社がそのようなスーパーモデル、通称人工汎用知能(AGI)を開発する計画があることを認めた。AGIは人間と同等のタスクを実行でき、場合によってはそれ以上のタスクを実行できる。

「年間 5 億ドルを消費しようが、50 億ドルを消費しようが、あるいは 500 億ドルを消費しようが、私は気にしません。本当に気にしません」とアルトマン氏はスタンフォード大学の学生たちに語った。「支払い方法を見つけられる限り、私たちは AGI を作り続けます。それは高くつくでしょう。」

Sutskever氏はOpenAIが安全なAGIを構築すると確信している

AGI の成果についてはさまざまな意見があります。OpenAI は、AGI が「人類の向上」につながる可能性があると述べています。しかし、AGI の大幅な進歩は人類の絶滅につながる可能性があると主張する人も多くいます。

そのため、OpenAIのような企業がどのようにAGIを構築しているのかについて、多くの人が懸念を抱いています。しかし、Sutskever氏は、OpenAIが安全なAGIを構築すると断言しました。

「私は、OpenAI がサム・アルトマン、グレッグ・ブロックマン、ミラ・ムラティ、ヤクブ・パチョッキのリーダーシップの下、安全で有益な AGI を構築すると確信しています。」

Jakub Pachocki 氏が Sutskever 氏の後任として OpenAI の新主任科学者に就任します。Pachocki 氏は以前、研究ディレクターを務めていました。