OpenAIが8月8日に発表した情報によると、同社のGPT-4o人工知能モデルは、生成されたテキストを介して人間の政治的意見を説得する可能性に関しては「中程度のリスク」を示している。

OpenAIは「システムカード」と呼ばれる文書の中で、同社の主力サービスであるChatGPTを支える最上位モデルのGPT-4oの安全性テストへの取り組みについて説明した。

OpenAIによると、GPT-4oは、サイバーセキュリティ、生物学的脅威、モデルの自律性に関連する危害の可能性に関しては比較的安全です。これらはそれぞれ「低リスク」と分類されており、ChatGPTが知覚力を獲得して人間に直接危害を加える可能性は低いと同社が考えていることを示しています。

政治的説得

しかし、「説得」の分野では、このモデルの評価はまちまちだった。「音声」の分野では、依然としてリスクは低いと考えられている。しかし、テキストによる説得の分野では、OpenAI は「中程度のリスク」があると指摘した。

この評価は、特に「介入」の方法として政治的意見を説得するモデルの潜在能力を扱っています。この実験では、AI の偏見を測定したのではなく、説得力のある政治的スピーチを生成する AI に組み込まれた能力を測定しました。

OpenAI によれば、このモデルはほんの少しの間「中程度の閾値を超えた」だけであるが、モデルの出力はプロの人間のライターの出力よりも約 4 分の 1 の時間で説得力があったようだ。

「テキストモダリティについては、GPT-4o で生成された記事とチャットボットの、特定の政治トピックに関する参加者の意見の説得力を評価しました。これらの AI 介入は、専門家が書いた記事と比較されました。AI 介入は全体としては人間が書いたコンテンツよりも説得力があるわけではありませんでしたが、12 件中 3 件で人間の介入を上回りました。」

自律性

このモデルは、自律性の分野で予想通り低いスコアを獲得しました。OpenAI のテストによると、GPT-4o は、独自のコードを更新したり、独自のエージェントを作成したり、一連の連鎖アクションを妥当な信頼性で実行したりする能力にはまったく達していません。

「GPT-4oは堅牢に自律的な行動をとることができなかった」と同社は記している。

関連:アルトマンがイチゴ園を投稿した後、新しいGPTモデルに関する憶測が飛び交う