Sama liczba podróbek sztucznej inteligencji dotyczących dzieci o charakterze jednoznacznie seksualnym utrudnia organom ścigania w USA oddzielenie prawdziwych dzieci w niebezpieczeństwie od fałszywych – ostrzegają prokuratorzy i grupy bezpieczeństwa. Twierdzą, że obrazy są tak realistyczne, że trudno stwierdzić, czy prawdziwe dzieci były ofiarami przemocy – relacjonuje Guardian.

Przeczytaj także: Miś Poe zasilany przez ChatGPT czyta dzieciom bajki na dobranoc

Kristina Korobov, starszy prawnik w organizacji non-profit Zero Abuse Project z siedzibą w Minnesocie, zajmującej się bezpieczeństwem dzieci, twierdzi, że grupa zaczęła zauważać doniesienia o wizerunkach prawdziwych dzieci wykonanych przy użyciu sztucznej inteligencji, które nie były wykorzystywane seksualnie. „Ale teraz ich twarz jest na dziecku, które padło ofiarą przemocy” – mówi.

Prokurator Departamentu Sprawiedliwości twierdzi, że „toniemy” z powodu sztucznej inteligencji

„Czasami rozpoznajemy pościel lub tło filmu lub obrazu, sprawcę lub serial, z którego pochodzi dany film, ale teraz pojawia się na nim twarz innego dziecka” – powiedział Korobov według Guardiana.

Modele AI są w stanie codziennie tworzyć tysiące zdjęć i filmów przypominających rzeczywiste fotografie. Według raportu ułatwiło to drapieżnikom wykorzystywanie tej technologii do przekazywania niesmacznych treści w ciemnej sieci i głównym nurcie Internetu.

Dla władz stało się to koszmarem. „Z punktu widzenia organów ścigania przestępstwa wobec dzieci są jednym z obszarów najbardziej ograniczonych zasobów i nastąpi eksplozja treści pochodzących ze sztucznej inteligencji” – stwierdził prokurator Departamentu Sprawiedliwości USA (DoJ), dodając:

 

„Już toniemy w tych rzeczach.”

 

Amerykańskie Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych (NCMEC) podaje, że w 2023 r. liczba zgłoszeń przypadków wykorzystywania dzieci w Internecie wzrosła o 12%, do 36,2 mln. Chociaż większość zgłoszeń dotyczyła rozpowszechniania prawdziwych zdjęć i filmów przedstawiających dzieci wykorzystywane seksualnie, centrum otrzymało również 4700 zgłoszeń dotyczących fałszywych obrazów lub filmów opartych na sztucznej inteligencji, przedstawiających wykorzystywanie seksualne dzieci.

NCMEC stwierdziło, że najczęstsze sposoby wykorzystywania sztucznej inteligencji przez drapieżniki obejmują edytowanie istniejących obrazów online w celu ich wyraźnego uwydatnienia. Przestępcy wykorzystują także chatboty wykorzystujące generatywną sztuczną inteligencję, które przekazują graficzne instrukcje dotyczące rekrutacji dzieci do stosowania przemocy.

Obecne przepisy nie idą wystarczająco daleko w przypadku deepfakes AI

Wydaje się, że istnieje luka w zakresie tego, co można uznać za przestępstwo. W wielu jurysdykcjach posiadanie obrazów uprzedmiotawiających dzieci pod względem seksualnym jest przestępstwem, ale przepisy nie zostały jeszcze opracowane, aby uwzględniać obrazy generowane przez sztuczną inteligencję.

„Podnosząc zarzuty w systemie federalnym” – powiedział prokurator Departamentu Sprawiedliwości – „sztuczna inteligencja nie zmienia tego, co możemy ścigać, ale w wielu stanach trzeba być w stanie udowodnić, że to prawdziwe dziecko”. Prokurator dodał:

 

„Kwestie dotyczące legalności obrazów spowodują problemy podczas rozpraw. Gdybym był obrońcą, właśnie tak bym twierdził.”

 

Nawet jeśli przepisy zostaną uchwalone, technologia wspomagająca będzie nadal potrzebna do łapania przestępców, a obecnie istnieje duża luka. Organizacje zajmujące się ochroną dzieci ostrzegły, że wydziały policji będą prawdopodobnie zasypywane prośbami.

Przeczytaj także: Szef ONZ ostrzega, że ​​sztuczna inteligencja zwiększa prawdopodobieństwo wojny nuklearnej

Według raportu Guardiana obrazy dzieci o charakterze jednoznacznie seksualnym generowane za pomocą sztucznej inteligencji zaczęły pojawiać się w Internecie około 2022 r., co zbiegło się z udostępnieniem ChatGPT przez OpenAI.

NCMEC zarzuca firmom zajmującym się sztuczną inteligencją, że nie robią wystarczająco dużo, aby zapobiec tworzeniu i rozpowszechnianiu treści opartych na wyzysku. W ubiegłym roku tylko pięć firm zajmujących się sztuczną inteligencją dobrowolnie przesłało raporty do Centrum. Dla porównania, 70% platform mediów społecznościowych udostępniło swoje raporty – podaje.