Volumul uriaș de falsări profunde cu inteligență artificială sexuală explicită ale copiilor îngreunează forțele de ordine din SUA să separe copiii din viața reală în dificultate de cei falși, au avertizat procurorii și grupurile de siguranță. Ei spun că imaginile sunt atât de reale încât a devenit dificil să știi dacă copii adevărați au fost abuzați, relatează The Guardian.

Citește și: Ursulețul de pluș alimentat de ChatGPT, Poe le citește copiilor povești înainte de culcare

Kristina Korobov, avocat senior la o organizație non-profit pentru siguranța copiilor din Minnesota, Zero Abuse Project, spune că grupul a început să observe rapoarte despre imagini cu copii reali, realizate folosind AI, care nu au fost abuzați sexual. „Dar acum fața lor este pe un copil care a fost abuzat”, spune ea.

Procurorul DoJ spune că „ne înecăm” din cauza AI

„Uneori, recunoaștem așternutul sau fundalul dintr-un videoclip sau dintr-o imagine, făptuitorul sau seria din care provine, dar acum există o față a altui copil”, a spus Korobov, pentru The Guardian.

Modelele AI sunt capabile să producă mii de imagini și videoclipuri similare cu fotografiile din viața reală pe zi. Potrivit raportului, acest lucru a făcut mai ușor pentru prădători să folosească tehnologia pentru a comunica conținut neplăcut pe dark web și pe internetul mainstream.

Pentru autorități, a devenit un coșmar. „Din perspectiva forțelor de ordine, infracțiunile împotriva copiilor sunt una dintre domeniile mai lipsite de resurse și va avea loc o explozie de conținut din IA”, a spus un procuror al Departamentului de Justiție al SUA (DoJ), adăugând:

 

„Ne înecăm deja în chestiile astea.”

 

Centrul Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC) spune că, în 2023, rapoartele privind abuzul online asupra copiilor au crescut cu 12%, până la 36,2 milioane. În timp ce majoritatea rapoartelor au fost legate de circulația de fotografii și videoclipuri din viața reală cu copii abuzați sexual, centrul a primit, de asemenea, 4.700 de rapoarte de imagini sau videoclipuri false profunde prin inteligență artificială care implică exploatarea sexuală a copiilor.

NCMEC a spus că unele dintre cele mai comune moduri în care prădătorii au folosit AI includ editarea imaginilor online existente pentru a le face explicite. De asemenea, criminalii folosesc chatbot-uri generative de inteligență artificială care oferă instrucțiuni grafice despre cum să recruteze copii pentru abuz.

Legile actuale nu merg suficient de departe cu privire la deepfakes AI

Se pare că există un decalaj în ceea ce poate fi considerat o crimă. În multe jurisdicții, deținerea de imagini care obiectivează sexual copiii este o crimă, dar legile nu au avansat încă pentru a include imagini generate de AI.

„Când acuzați cazuri în sistemul federal”, a spus procurorul DoJ, „AI nu schimbă ceea ce putem urmări, dar există multe state în care trebuie să puteți dovedi că este un copil adevărat”. Procurorul a adăugat:

 

„Contestația asupra legitimității imaginilor va cauza probleme la procese. Dacă aș fi avocat al apărării, exact asta aș argumenta.”

 

Chiar dacă legile sunt promulgate, tehnologia de abilitare va fi totuși necesară pentru a prinde criminali și, în prezent, există un decalaj mare. Grupurile pentru siguranța copiilor au avertizat că departamentele de poliție vor fi probabil inundate de solicitări.

Citește și: Șeful ONU avertizează că AI face un război nuclear mai probabil

Imaginile sexual explicite ale copiilor generate cu AI au început să-și crească amprenta online în jurul anului 2022, coincizând cu lansarea ChatGPT de către OpenAI, potrivit raportului Guardian.

NCMEC acuză companiile AI că nu fac suficient pentru a preveni generarea și răspândirea conținutului de exploatare. Anul trecut, doar cinci firme de IA au transmis în mod voluntar rapoarte Centrului. Prin comparație, 70% dintre platformele de social media și-au împărtășit rapoartele, se spune.