AI が生成した画像は、偽のコンテンツをオリジナルとして認識させるようにユーザーを騙す可能性があります。そのため、ChatGPT の開発元である OpenAI は、画像が同社が開発した画像生成アルゴリズムである DALL-E 3 から生成されたものかどうかを判断できるツールを作成しました。

火曜日、OpenAIは、ベースラインモデルと調整モデルで構成される画像検出ツールをテストする最初の機会をユーザーに提供しました。その目的は、自主的に研究を行う研究者を巻き込み、不安、有用性、適用方法、AI生成コンテンツの原因となる可能性のある要因を調査することです。

ツールの成功率とテスト

OpenAI は社内でこのツールをテストしましたが、いくつかの面では励みになりましたが、その一方で非常に残念な結果となりました。DALL-E 3 によって生成された画像を評価すると、98% が正しくレンダリングされました。さらに、DALL-E 3 によって作成されていない画像を分析する場合、システムが誤ってそれらを DALL-E 3 に帰属させるのはわずか 0.5% でした。

OpenAI は、わずかに有意な差がある画像の変更は発見しませんでした。社内チームは、DALL-E 3 で作成された画像を圧縮、トリミング、彩度の変更を加えることでツールをテストし、ツールが依然として良好なレベルの成功を達成できることを観察しました。

課題と限界

残念ながら、このツールは、広範囲に処理された画像にはあまり効果を発揮しませんでした。OpenAI のこの記事の文言では、説明されているケースでどれだけの変更が行われたかは明確ではなく、「他の変更はパフォーマンスを低下させる可能性がある」と述べています。

研究者のサンディニ・アガルワル氏はウォール・ストリート・ジャーナル紙のインタビューで、このツールは画像の色調を変えるなどの状況では効果が低く、サブスクリプションが必要だと語った。アガルワル氏が述べたように、こうした問題に対処するため、OpenAIは外部のテスターをシステムに招き入れる予定だ。

さらに、社内テストでは、他社のAIモデルで作成された画像を分析するツールの能力にも疑問が投げかけられた。そのような状況では、OpenAIのツールは、他社のモデルと比較して、画像の5%または10%しか認識できなかった。色相の切り替えなど、そのような画像の変更も、効率を大幅に低下させるとアガルワル氏はジャーナルに語った。

AI が作成した画像は人工的であるだけでなく、今年の選挙では問題を引き起こします。国内外を問わず、不満を持つグループは、そのような写真を簡単に利用して、政治家志望者や支持する訴訟を汚す可能性があります。AI 画像ジェネレーターが進化し続ける今日、現実と空想の境界線はかつてないほどわかりにくくなっています。

業界での採用

一方、OpenAIは、企業がユーザーバリューオーガニゼーション(UVG)のメンバーになるにつれて、AI画像のメタデータに透かしを追加することを目指している。C2PAは、ウォーターマークと呼ばれるプロセスでコンテンツのソースとその真正性を明らかにする技術標準を伴うテクノロジー業界のイニシアチブに属している。Facebookの大手Metaは今月初め、同社のAIが今年5月からC2PA標準によってそのようにラベル付けされる予定であると発表した。