TechCrunchによると、OpenAIの主要な安全研究者であるリリアン・ウェンが会社からの退職を発表しました。研究と安全の副社長を務めたウェンは、金曜日に決定を明らかにし、スタートアップでの7年間を経て新しい機会を探求する準備ができていると述べました。彼女の最終日は11月15日ですが、将来の計画については明らかにしていません。ウェンは安全システムチームの成果に誇りを持ち、彼らの継続的な成功に自信を示しました。
ウェンの退職は、過去1年間にAI安全性と政策の研究者が数名OpenAIを離れるという広範な傾向の一部です。一部の人々は、OpenAIがAIの安全性よりも商業的利益を優先していると批判しています。ウェンは、今年OpenAIを離れ、他の場所でAIの安全性に焦点を当てるために移ったイリヤ・サツケバーやヤン・ライケなどの著名な人物に加わります。ウェンは2018年にOpenAIに参加し、ルービックキューブを解くことができるロボットハンドを開発したロボティクスチームに貢献しました。OpenAIがGPTパラダイムに焦点を移すと、ウェンは2021年に応用AI研究チームの構築に移行し、2023年には専任の安全システムチームの創設を主導しました。
OpenAIの安全システムユニットは80人以上の科学者、研究者、政策専門家を含む成長を見せていますが、より強力なAIシステムを開発する中で、会社の安全性へのコミットメントについての懸念が残っています。元政策研究者のマイルズ・ブラウンデージは、彼が助言していたAGI準備チームの解散を理由に10月にOpenAIを離れました。さらに、元研究者のスチューチル・バラジは、OpenAIの技術が社会に与える潜在的な危害について懸念を表明しました。OpenAIはウェンの後任を置くための移行計画に取り組んでいると述べ、安全システムチームがAIシステムの安全性と信頼性を確保する上で重要であることを強調しました。
OpenAIからの最近の他の退職者には、CTOのミラ・ムラティ、チーフリサーチオフィサーのボブ・マクグルー、リサーチVPのバレット・ゾフが含まれます。8月には、著名な研究者アンドレイ・カルパティと共同設立者のジョン・シュルマンも退職を発表しました。これらの個人の中には、ライケやシュルマンを含め、OpenAIの競合であるAnthropicに参加した者もいれば、自らの事業を追求した者もいます。