米国の法執行機関は、児童の性的に露骨なAIディープフェイクの量が膨大であるため、実際に苦しんでいる子供と偽物の子供を区別することが困難になっていると、検察官や安全保護団体は警告している。画像があまりにも本物そっくりであるため、実際の子供が虐待を受けたかどうかを知ることが難しくなっていると、ガーディアン紙は報じている。

こちらもお読みください: ChatGPT 搭載のテディベア Poe が子供たちに就寝時のお話を読み聞かせます

ミネソタ州に拠点を置く児童安全非営利団体「ゼロ・アブーズ・プロジェクト」の上級弁護士クリスティーナ・コロボフ氏は、性的虐待を受けていない実際の子供の画像がAIを使って作成されたという報告が同団体で注目され始めていると言う。「しかし、今では虐待を受けた子供の顔が彼らの顔になっているのです」と彼女は言う。

司法省検察官はAIのせいで「我々は溺れつつある」と語る

「ビデオや画像に映っている寝具や背景、犯人、あるいはそれが出回っているシリーズを見ればわかるが、今度はそこに別の子どもの顔が載せられている」とコロボフ氏はガーディアン紙に語った。

AIモデルは、1日に何千枚もの実物の写真に似た画像や動画を大量に生成することができる。報告書によると、これによって、犯罪者がこの技術を利用してダークウェブや一般のインターネット上で好ましくないコンテンツを発信することが容易になったという。

当局にとって、それは悪夢となっている。「法執行の観点から見ると、児童に対する犯罪は最もリソースが不足している分野の一つであり、AIから提供されるコンテンツが爆発的に増加するだろう」と米国司法省(DoJ)の検察官は述べ、次のように付け加えた。

 

「私たちはすでにこのことに溺れつつあるのです。」

 

米国立行方不明・搾取児童センター(NCMEC)によると、2023年にはネット上の児童虐待の報告が12%増加し、3,620万件に達した。報告のほとんどは性的虐待を受けた子供の実際の写真や動画の流通に関連したものだが、同センターには子供の性的搾取に関わるAIディープフェイク画像や動画の報告も4,700件寄せられた。

NCMECによると、犯罪者がAIを利用する最も一般的な方法には、既存のオンライン画像を編集して露骨な表現にするなどがある。犯罪者はまた、児童を虐待の対象に勧誘する方法について、画像による指示を与える生成型人工知能チャットボットも活用している。

現行法はAIディープフェイクに対して十分ではない

犯罪とみなされるものに関してギャップがあるようだ。多くの法域では、児童を性的に対象化する画像を所持することは犯罪だが、AI 生成画像を取り込む法律はまだ進んでいない。

「連邦制度で訴訟を起こす場合、AIによって起訴できる対象が変わることはないが、実在の子供であることを証明しなければならない州はたくさんある」と司法省の検察官は述べた。検察官は次のように付け加えた。

 

「画像の正当性について言い争うと、裁判で問題が起きる。もし私が弁護士だったら、まさにそのことを主張するだろう。」

 

たとえ法律が制定されたとしても、犯罪者を捕まえるにはそれを実現する技術が必要であり、現状では大きなギャップがある。児童安全団体は、警察署に要請が殺到する可能性が高いと警告した。

こちらもお読みください: 国連事務総長、AIが核戦争の可能性を高めると警告

ガーディアン紙の報道によると、AIで生成された性的に露骨な児童画像は、OpenAIによるChatGPTのリリースと同時期の2022年頃からオンラインでの存在感を高め始めたという。

NCMECは、AI企業が搾取的なコンテンツの生成と拡散を防ぐための対策を十分に講じていないと非難している。昨年、同センターに自主的に報告書を提出したAI企業はわずか5社だった。対照的に、ソーシャルメディアプラットフォームの70%が報告書を共有したとNCMECは述べている。