OpenAIとGoogle DeepMindの現従業員と元従業員数名が、両社が人類絶滅の引き金となる可能性のあるAIリスクを隠蔽していると非難した。従業員らは公開書簡で、AI企業は「効果的な[政府の]監督」を避けながら利益を最優先していると主張した。

こちらもお読みください: OpenAI、安全性の懸念から GPT-4 の後継を準備

この公開書簡には、オープンAIの元従業員11名、グーグル・ディープマインドから2名が署名し、元グーグルの「AIのゴッドファーザー」ジェフリー・ヒントン氏も賛同している。公開書簡では、営利目的と規制の抜け穴により、企業は高度な人工知能がもたらす脅威を隠蔽できると述べている。

AIは「人類絶滅」につながる可能性がある

書簡によると、オープンAIやジェミニの開発元であるグーグル・ディープマインドなどのAI企業は、そうすることが義務付けられていないため、自社システムの不十分な安全対策やリスクレベルに関する情報を公開していない。

規制当局の監視がなければ、AIプログラムは人間に大きな危害をもたらす可能性がある。従業員は次のように警告した。

「これらのリスクは、既存の不平等のさらなる固定化から、自律型AIシステムの制御の喪失による人類絶滅の可能性まで多岐にわたります。」

書簡の署名者が指摘しているように、AI企業自身もこれらのリスクを認識している。2023年5月、OpenAI、Anthropic、Google DeepMindのCEOは、AI安全センターの公開書簡に共同署名した。その書簡には、「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争など他の社会規模のリスクと並んで、世界的な優先事項であるべきだ」とだけ書かれていた。

AI企業は、安全性やセキュリティよりも斬新な製品や利益を優先しているとして、ますます厳しい監視を受けるようになっている。ChatGPTの開発元であるOpenAIは、この書簡で提起された懸念に留意し、安全な人工知能の開発に取り組んでいると述べた。

「当社は最も有能かつ安全なAIシステムを提供してきた実績を誇りに思っており、リスクに対処するための科学的アプローチを信じている」とOpenAIの広報担当リンジー・ヘルド氏はニューヨーク・タイムズ紙に語った。

「この技術の重要性を考えると、厳密な議論が不可欠であることに我々は同意しており、今後も世界中の政府、市民社会、その他のコミュニティと連携していくつもりです。」

内部告発者は報復を恐れる

オープンAIとグーグルの元従業員らは、規制当局がAI開発者にプログラムに関するより多くの情報を公開するよう義務付ける法律を策定するまでの間、監督役を務めたいと語った。

しかし、秘密保持契約や雇用主による報復の可能性により、労働者は懸念を公に表明することができない。手紙には次のように記されている。

「業界全体でのこうした事例の歴史を考えると、私たちの中にはさまざまな形の報復を恐れる人がいるのも当然です。こうした問題に遭遇したり、この問題について発言したりするのは私たちが初めてではありません。」

米国では内部告発者は法律で保護されているが、人工知能の危険性について声を上げる人々は、その技術がまだ規制されていないため保護されていない。

こちらもお読みください: ChatGPT は依然として虚偽を広めていると EU データ監視機関が主張

この書簡は、AI企業に対し、検証可能な匿名のフィードバックを促進し、オープンな批判の文化を支持し、内部告発者に対して報復しないよう求めた。

AI研究者のランス・B・エリオット氏は、企業は批判に対してアメとムチのアプローチを取っていると述べた。リスクに対して声を上げない従業員は昇進や昇給で報われる。

一方、内部告発者や批評家はストックオプションを失い、会社から追放され、AI リーダーシップ コミュニティによってひそかにブラックリストに載せられる可能性があります。

ジェフリー・ゴーゴーによるクリプトポリタンレポート