Lielais seksuāla rakstura mākslīgā intelekta viltojumu skaits par bērniem apgrūtina tiesībaizsardzības iestāžu darbu ASV nošķirt grūtībās nonākušus bērnus no viltotiem bērniem, brīdināja prokurori un drošības grupas. Viņi saka, ka attēli ir tik dzīvi, ka kļuvis grūti noteikt, vai īsti bērni ir cietuši no vardarbības, ziņo Guardian.

Lasiet arī: Ar ChatGPT darbināms rotaļu lācītis Po bērniem lasa stāstus pirms gulētiešanas

Kristīna Korobova, Minesotas bērnu drošības bezpeļņas organizācijas Zero Abuse Project vecākā juriste, saka, ka grupa ir sākusi pamanīt ziņojumus par īstu bērnu attēliem, kas izgatavoti, izmantojot AI, kuri netika seksuāli izmantoti. "Bet tagad viņu seja ir uz bērna, kurš tika izmantots," viņa saka.

DoJ prokurors saka: “mēs slīkstam” mākslīgā intelekta dēļ

"Dažreiz mēs atpazīstam gultas veļu vai fonu videoklipā vai attēlā, vainīgo vai sēriju, no kuras tas nāk, bet tagad tam ir uzvilkta cita bērna seja," laikrakstam Guardian sacīja Korobovs.

AI modeļi spēj katru dienu uzņemt tūkstošiem attēlu un videoklipu, kas ir līdzīgi reālās dzīves fotogrāfijām. Saskaņā ar ziņojumu, tas ir ļāvis plēsējiem vieglāk izmantot tehnoloģiju, lai paziņotu nepatīkamu saturu tumšajā tīmeklī un parastajā internetā.

Varas iestādēm tas ir kļuvis par murgu. "No tiesībaizsardzības viedokļa noziegumi pret bērniem ir viena no jomām, kurās ir visvairāk resursu, un AI saturs pieaugs," sacīja ASV Tieslietu departamenta (DoJ) prokurors, piebilstot:

 

"Mēs jau vienkārši noslīkstam šajās lietās."

 

ASV Nacionālais pazudušo un izmantoto bērnu centrs (NCMEC) norāda, ka 2023. gadā ziņojumi par vardarbību pret bērniem tiešsaistē pieauga par 12% līdz 36,2 miljoniem. Lai gan lielākā daļa ziņojumu bija saistīti ar seksuāli izmantotu bērnu reālu fotoattēlu un video apriti, centrs saņēma arī 4700 ziņojumu par mākslīgā intelekta viltotiem attēliem vai videoklipiem, kuros iesaistīta bērnu seksuāla izmantošana.

NCMEC teica, ka daži no visizplatītākajiem veidiem, kā plēsēji ir izmantojuši AI, ietver esošo tiešsaistes attēlu rediģēšanu, lai padarītu tos nepārprotamus. Noziedznieki izmanto arī ģeneratīvus mākslīgā intelekta tērzēšanas robotus, kas sniedz grafiskas instrukcijas, kā vervēt bērnus ļaunprātīgai izmantošanai.

Pašreizējie likumi nav pietiekami tālu attiecībā uz AI dziļajiem viltojumiem

Šķiet, ka ir nepilnības tajā, ko var uzskatīt par noziegumu. Daudzās jurisdikcijās tādu attēlu glabāšana, kas seksuāli objektivizē bērnus, ir noziegums, taču tiesību akti vēl nav pilnveidojušies, lai iekļautu mākslīgā intelekta radītus attēlus.

"Izvirzot apsūdzības lietās federālajā sistēmā," sacīja DoJ prokurors, "AI nemaina to, ko mēs varam saukt pie kriminālatbildības, taču ir daudz štatu, kur jums ir jāspēj pierādīt, ka tas ir īsts bērns." Prokurors piebilda:

 

“Publicēšana par attēlu likumību radīs problēmas izmēģinājumos. Ja es būtu aizstāvis, es apgalvotu tieši tā.

 

Pat ja likumi tiks pieņemti, noziedznieku notveršanai joprojām būs nepieciešamas pamattehnoloģija, un pašlaik pastāv liela plaisa. Bērnu drošības grupas brīdināja, ka policijas departamenti, visticamāk, tiks pārpludināti ar pieprasījumiem.

Lasiet arī: ANO vadītājs brīdina, ka mākslīgais intelekts palielina kodolkara iespējamību

Saskaņā ar Guardian ziņojumu, seksuāli izteikti bērnu attēli, kas ģenerēti ar mākslīgo intelektu, sāka palielināt savu nospiedumu tiešsaistē ap 2022. gadu, kas sakrīt ar OpenAI ChatGPT izlaišanu.

NCMEC apsūdz AI uzņēmumus, ka tie nedara pietiekami daudz, lai novērstu ekspluatējoša satura ģenerēšanu un izplatību. Pagājušajā gadā tikai piecas AI firmas brīvprātīgi iesniedza ziņojumus centram. Salīdzinājumam, 70% sociālo mediju platformu kopīgoja savus ziņojumus, teikts tajā.