L’enorme volume di deepfake AI sessualmente espliciti di bambini sta rendendo difficile per le forze dell’ordine negli Stati Uniti separare i bambini reali in difficoltà da quelli falsi, hanno avvertito pubblici ministeri e gruppi di sicurezza. Dicono che le immagini sono così realistiche che è diventato difficile sapere se i veri bambini hanno subito abusi, riferisce il Guardian.

Leggi anche: L'orsacchiotto Poe basato su ChatGPT legge le favole della buonanotte ai bambini

Kristina Korobov, avvocato senior presso Zero Abuse Project, un'organizzazione no-profit per la sicurezza infantile con sede nel Minnesota, afferma che il gruppo ha iniziato a notare segnalazioni di immagini di bambini reali realizzati utilizzando l'intelligenza artificiale, che non hanno subito abusi sessuali. “Ma ora il loro volto è quello di un bambino che ha subito abusi”, dice.

Il procuratore del Dipartimento di Giustizia afferma che “stiamo annegando” a causa dell’intelligenza artificiale

"A volte, riconosciamo la biancheria da letto o lo sfondo di un video o di un'immagine, l'autore del reato o la serie da cui proviene, ma ora c'è il volto di un altro bambino", ha detto Korobov, secondo il Guardian.

I modelli di intelligenza artificiale sono in grado di produrre ogni giorno migliaia di immagini e video simili alle fotografie della vita reale. Secondo il rapporto, ciò ha reso più semplice per i predatori utilizzare la tecnologia per comunicare contenuti sgradevoli sul dark web e sull’internet mainstream.

Per le autorità è diventato un incubo. "Dal punto di vista delle forze dell'ordine, i crimini contro i bambini sono una delle aree con maggiori risorse a corto di risorse e ci sarà un'esplosione di contenuti derivanti dall'intelligenza artificiale", ha affermato un procuratore del Dipartimento di Giustizia degli Stati Uniti (DoJ), aggiungendo:

 

"Stiamo già affogando in questa roba."

 

Il Centro nazionale statunitense per i bambini scomparsi e sfruttati (NCMEC) afferma che, nel 2023, le segnalazioni di abusi sui minori online sono aumentate del 12% arrivando a 36,2 milioni. Mentre la maggior parte delle segnalazioni riguardava la circolazione di foto e video di vita reale di bambini vittime di abusi sessuali, il centro ha ricevuto anche 4.700 segnalazioni di immagini o video deepfake dell’intelligenza artificiale che coinvolgono lo sfruttamento sessuale dei bambini.

L’NCMEC ha affermato che alcuni dei modi più comuni in cui i predatori utilizzano l’intelligenza artificiale includono la modifica di immagini online esistenti per renderle esplicite. I criminali sfruttano anche chatbot generativi di intelligenza artificiale che forniscono istruzioni grafiche su come reclutare bambini per abusi.

Le leggi attuali non vanno abbastanza lontano sui deepfake dell’intelligenza artificiale

Sembra esserci una lacuna in ciò che può essere considerato un crimine. In molte giurisdizioni, possedere immagini che oggettivano sessualmente i bambini è un crimine, ma le leggi non sono ancora avanzate per incorporare immagini generate dall’intelligenza artificiale.

“Quando si accusano casi nel sistema federale”, ha detto il procuratore del DoJ, “l’intelligenza artificiale non cambia ciò che possiamo perseguire, ma ci sono molti stati in cui devi essere in grado di dimostrare che si tratta di un bambino vero”. Il pubblico ministero ha aggiunto:

 

“Discutere sulla legittimità delle immagini causerà problemi ai processi. Se fossi un avvocato difensore, è esattamente quello che direi”.

 

Anche se le leggi verranno emanate, la tecnologia abilitante sarà comunque necessaria per catturare i criminali e attualmente esiste un ampio divario. I gruppi per la sicurezza dei bambini hanno avvertito che è probabile che i dipartimenti di polizia siano inondati di richieste.

Leggi anche: Il capo delle Nazioni Unite avverte che l’intelligenza artificiale rende più probabile la guerra nucleare

Secondo il rapporto del Guardian, le immagini sessualmente esplicite di bambini generate con l'intelligenza artificiale hanno iniziato ad aumentare la loro impronta online intorno al 2022, in coincidenza con il rilascio di ChatGPT da parte di OpenAI.

L’NCMEC accusa le società di intelligenza artificiale di non fare abbastanza per prevenire la generazione e la diffusione di contenuti di sfruttamento. L’anno scorso, solo cinque aziende di intelligenza artificiale hanno presentato volontariamente rapporti al Centro. In confronto, il 70% delle piattaforme di social media ha condiviso i propri rapporti.