Obrovské množství sexuálně explicitních hlubokých padělků umělé inteligence ztěžuje orgánům činným v trestním řízení v USA oddělit děti v reálném životě v nouzi od falešných, varovali žalobci a bezpečnostní skupiny. Říká se, že obrázky jsou tak živé, že je obtížné zjistit, zda byly zneužity skutečné děti, uvádí Guardian.

Čtěte také: Medvídek Poe s funkcí ChatGPT čte dětem pohádky před spaním

Kristina Korobov, vrchní právnička neziskové organizace Zero Abuse Project se sídlem v Minnesotě, říká, že skupina si začala všímat zpráv o obrázcích skutečných dětí vytvořených pomocí AI, které nebyly sexuálně zneužívány. "Ale teď je jejich tvář na dítěti, které bylo zneužito," říká.

Státní zástupce ministerstva spravedlnosti říká, že se „topíme“ kvůli AI

"Někdy rozpoznáme povlečení nebo pozadí ve videu nebo obrázku, pachatele nebo seriál, ze kterého pochází, ale nyní je na něm umístěna jiná dětská tvář," řekl Korobov podle Guardian.

Modely umělé inteligence jsou schopny chrlit tisíce obrázků a videí, které jsou podobné skutečným fotografiím za den. Podle zprávy to predátorům usnadnilo používání této technologie ke komunikaci nepříjemného obsahu na temném webu a mainstreamovém internetu.

Pro úřady se to stalo noční můrou. „Z hlediska vymáhání práva jsou zločiny proti dětem jednou z oblastí s omezenějšími zdroji a dojde k explozi obsahu z umělé inteligence,“ uvedl prokurátor amerického ministerstva spravedlnosti (DoJ) a dodal:

 

"Už se v tomhle prostě topíme."

 

Americké národní centrum pro pohřešované a zneužívané děti (NCMEC) uvádí, že v roce 2023 vzrostly zprávy o online zneužívání dětí o 12 % na 36,2 milionu. Zatímco většina zpráv se týkala šíření skutečných fotografií a videí sexuálně zneužívaných dětí, centrum také obdrželo 4 700 zpráv o falešných obrázcích nebo videích AI zahrnujících sexuální vykořisťování dětí.

NCMEC uvedla, že některé z nejběžnějších způsobů, jak predátoři používají umělou inteligenci, zahrnují úpravy existujících online obrázků, aby byly explicitní. Zločinci také využívají generativní chatboty s umělou inteligencí, které dávají grafické pokyny, jak naverbovat děti ke zneužívání.

Současné zákony nejdou dostatečně daleko na AI deepfakes

Zdá se, že existuje mezera v tom, co lze považovat za trestný čin. V mnoha jurisdikcích je držení obrázků, které sexuálně objektivizují děti, trestným činem, ale zákony ještě nepokročily v začleňování obrázků generovaných umělou inteligencí.

„Při obvinění případů ve federálním systému,“ řekl prokurátor DoJ, „AI nemění to, co můžeme stíhat, ale existuje mnoho států, kde musíte být schopni dokázat, že jde o skutečné dítě.“ Státní zástupce dodal:

 

„Dohadování o legitimitě obrázků způsobí problémy u soudů. Kdybych byl obhájce, přesně to bych tvrdil."

 

I když budou zákony uzákoněny, k dopadení zločinců bude stále zapotřebí technologie umožňující, a v současné době existuje velká mezera. Skupiny pro bezpečnost dětí varovaly, že policejní oddělení budou pravděpodobně zavalena žádostmi.

Čtěte také: Šéf OSN varuje, že AI zvyšuje pravděpodobnost jaderné války

Sexuálně explicitní obrázky dětí generované pomocí AI začaly narůstat na internetu kolem roku 2022, což se shoduje s vydáním ChatGPT od OpenAI, uvádí zpráva Guardian.

NCMEC obviňuje společnosti AI, že nedělají dost pro to, aby zabránily vytváření a šíření vykořisťujícího obsahu. V loňském roce dobrovolně podalo hlášení centru pouze pět společností zabývajících se umělou inteligencí. Pro srovnání, 70 % platforem sociálních médií sdílelo své zprávy.