以前のツールでは不十分だったため、OpenAI は画像とディープフェイクのリスクの高まりに焦点を当てた別の AI 検出器をリリースしました。

生成人工知能の分野のパイオニアである OpenAI は、ソーシャル メディア上で誤解を招くコンテンツがますます一般的になる中、ディープフェイク画像の検出に挑戦しています。同社の最高技術責任者であるミラ・ムラティ氏は、カリフォルニア州ラグーナビーチで最近開催されたWSJテクノロジーライブカンファレンスで、新しいディープフェイク検出器を発表した。

Murati氏は、OpenAIの新しいツールは、画像がAIを使用して生成されたかどうかを判断する上で「99パーセントの信頼性」があると述べた。

AI によって生成された画像には、ふわふわしたバレンシアガのコートを着たローマ法王フランシスコのような陽気な作品から、経済的大混乱を引き起こす可能性のある欺瞞的な画像まで、あらゆるものが含まれます。 AI の可能性と落とし穴は明らかです。これらのツールがより洗練されるにつれて、実際のコンテンツと AI によって生成されたコンテンツを区別することが課題になっていることが判明しています。

このツールのリリース日はまだ秘密にされているが、特に OpenAI の過去の取り組みを考慮すると、そのリリースは大きな関心を呼んでいる。

同社は2022年1月、ChatGPTなどのモデルで人間が書いたテキストと機械が生成したテキストを区別できると発表したテキスト分類器を発表した。しかし、7月までにOpenAIはこのツールをひっそりと閉鎖し、そのエラー率が容認できないほど高いとしてアップデートを発行した。彼らの分類器は、実際の人間の文章を 9% の確率で AI が生成したものとして誤ってラベル付けしました。

AIが生成した画像を検出する現在の方法は自動化されていないことが多いため、Murati氏の主張が真実であれば、業界にとって重要な瞬間となるだろう。通常、愛好家は直感に頼って、手、歯、パターンのトレースなど、生成 AI の妨げとなるよく知られた課題に焦点を当てます。 AI で生成された画像と AI で編集された画像の区別は、特に AI を使用して AI を検出しようとする場合には依然として曖昧です。

OpenAI は、有害な AI 画像を検出するだけでなく、コンテンツ ガイドラインで公に述べている内容を超えて、独自のモデルの検閲についてもガードレールを設定しています。

Decrypt が発見したように、OpenAI の Dall-E ツールは、公開されているガイドラインに準拠している場合でも、特定の出力を生成するように求められた場合、通知なしにプロンプ​​トを変更し、黙ってエラーをスローし、特定の名前、アーティスト スタイル、人種に関連するメッセージの作成を回避するように構成されているようです。 。

ChatGPT の Dall-E 3 プロンプトの一部。出典: 復号化

ディープフェイクの検出は OpenAI だけの仕事ではありません。 DeepMedia は、政府の顧客とのみ協力してこの機能を開発している会社です。

Microsoft や Adob​​e などの大企業も積極的に取り組んでいます。彼らは「AI透かし」システムと呼ぶものを立ち上げた。このメカニズムは、Content Provenance and Authenticity Alliance (C2PA) によって推進されており、AI によって生成されたコンテンツを示す吹き出し内に固有の「cr」記号が含まれています。このシンボルは、ユーザーがコンテンツの出所を識別できるようにする透明性の標識として機能することを目的としています。

ただし、他のテクノロジーと同様、これも絶対確実というわけではありません。このシンボルを含むメタデータを削除できる脆弱性があります。ただし、解決策として、Adobe は失われたメタデータを回復できるクラウド サービスも開始し、シンボルの存在を保証しました。回避することも難しくありません。

規制当局がディープフェイクの犯罪化を強める中、これらのイノベーションは技術的な成果だけでなく、社会的な必需品でもある。 OpenAI と Microsoft や Adob​​e などの企業による最近の取り組みは、デジタル時代における信頼性を確保するための共同の取り組みを強調しています。これらのツールはより高度な信頼性を提供するためにアップグレードされていますが、その効果的な実装は広く普及するかどうかにかかっています。これには、テクノロジー大手だけでなく、コンテンツクリエーター、ソーシャルメディアプラットフォーム、エンドユーザーも関係します。

生成人工知能の急速な発展により、検出器は依然としてテキスト、画像、音声の信頼性を区別することが困難です。現時点では、人間の判断と警戒が、AI の悪用に対する最善の防御線です。しかしながら、人間は無謬ではありません。永続的な解決策を実現するには、テクノロジーのリーダー、議員、国民が協力してこの複雑な新しい領域をナビゲートする必要があります。 #OpenAI #AI检测