Le grand nombre de deepfakes sexuellement explicites d’enfants par l’IA rend difficile aux forces de l’ordre aux États-Unis de séparer les enfants réels en détresse des faux, ont averti les procureurs et les groupes de sécurité. Ils disent que les images sont si réalistes qu'il est devenu difficile de savoir si de vrais enfants ont été maltraités, rapporte le Guardian.

A lire aussi : Poe, l'ours en peluche alimenté par ChatGPT, lit des histoires aux enfants avant d'aller au lit

Kristina Korobov, avocate principale de Zero Abuse Project, une organisation à but non lucratif basée au Minnesota pour la sécurité des enfants, affirme que le groupe a commencé à remarquer des rapports faisant état d'images d'enfants réels réalisées à l'aide de l'IA, qui n'ont pas été abusés sexuellement. « Mais maintenant, leur visage est tourné vers un enfant qui a été maltraité », dit-elle.

Le procureur du ministère de la Justice déclare que « nous nous noyons » à cause de l’IA

"Parfois, nous reconnaissons le décor ou l'arrière-plan d'une vidéo ou d'une image, l'auteur du crime ou la série dont elle provient, mais maintenant, le visage d'un autre enfant est apposé dessus", a déclaré Korobov, selon le Guardian.

Les modèles d’IA sont capables de produire chaque jour des milliers d’images et de vidéos similaires à des photographies réelles. Selon le rapport, cela a permis aux prédateurs d’utiliser plus facilement cette technologie pour communiquer des contenus peu recommandables sur le dark web et sur l’Internet grand public.

Pour les autorités, c’est devenu un cauchemar. « Du point de vue des forces de l’ordre, les crimes contre les enfants sont l’un des domaines où les ressources sont les plus limitées, et il va y avoir une explosion de contenus issus de l’IA », a déclaré un procureur du ministère américain de la Justice (DoJ), ajoutant :

 

"Nous sommes déjà noyés dans tout ça."

 

Le Centre national américain pour les enfants disparus et exploités (NCMEC) affirme qu'en 2023, les signalements de maltraitance d'enfants en ligne ont augmenté de 12 %, pour atteindre 36,2 millions. Alors que la plupart des signalements étaient liés à la circulation de photos et de vidéos réelles d'enfants abusés sexuellement, le centre a également reçu 4 700 signalements d'images ou de vidéos falsifiées par l'IA impliquant l'exploitation sexuelle d'enfants.

Le NCMEC a déclaré que l'une des façons les plus courantes dont les prédateurs utilisent l'IA consiste à modifier des images en ligne existantes pour les rendre explicites. Les criminels exploitent également des chatbots à intelligence artificielle générative qui donnent des instructions graphiques sur la manière de recruter des enfants à des fins d’abus.

Les lois actuelles ne vont pas assez loin sur les deepfakes de l’IA

Il semble y avoir une lacune dans ce qui peut être considéré comme un crime. Dans de nombreuses juridictions, posséder des images qui objectivent sexuellement des enfants est un crime, mais les lois n’ont pas encore progressé pour intégrer les images générées par l’IA.

"Lorsque l'on inculpe des affaires dans le système fédéral", a déclaré le procureur du DoJ, "l'IA ne change pas ce que nous pouvons poursuivre, mais il existe de nombreux États où vous devez être en mesure de prouver qu'il s'agit d'un véritable enfant." Le procureur a ajouté :

 

« Les arguties sur la légitimité des images poseront des problèmes lors des procès. Si j’étais avocat de la défense, c’est exactement ce que je dirais.

 

Même si les lois sont adoptées, la technologie nécessaire sera toujours nécessaire pour arrêter les criminels, et il existe actuellement un écart considérable. Les groupes de protection des enfants ont averti que les services de police risquaient d'être inondés de demandes.

A lire aussi : Le chef de l'ONU prévient que l'IA rend la guerre nucléaire plus probable

Les images sexuellement explicites d'enfants générées avec l'IA ont commencé à augmenter leur empreinte en ligne vers 2022, coïncidant avec la sortie de ChatGPT par OpenAI, selon le rapport du Guardian.

Le NCMEC accuse les sociétés d’IA de ne pas en faire assez pour empêcher la génération et la diffusion de contenus exploiteurs. L’année dernière, seules cinq sociétés d’IA ont volontairement soumis des rapports au Centre. À titre de comparaison, 70 % des plateformes de médias sociaux ont partagé leurs rapports, indique-t-il.