Saskaņā ar jauno ES privātuma uzraudzības iestādes ziņojumu ChatGPT, OpenAI vīrusu tērzēšanas robots, joprojām neatbilst Eiropas Savienības datu precizitātes standartiem. 

Lasiet arī: Eiropas AI likums saņem galīgo apstiprinājumu ar naudas sodu līdz 38 miljoniem USD

Eiropas Savienības Datu aizsardzības kolēģijas (EDPB) ziņojums nav juridisks dokuments. Tomēr tas sniegs informāciju par vienotu pieeju ChatGPT regulēšanai visās 27 ES dalībvalstīs.

ChatGPT neatbilst datu standartiem

Valstu sargsuņi pagājušajā gadā izveidoja “ChatGPT darba grupu”, stimulējot vairākās Eiropas valstīs notiekošās lietas pret AI modeli. Darba grupa ir EDPB pakļautībā.

24. maijā publicētajā ziņojumā darba grupa teica:

"Lai gan pasākumi, kas veikti, lai ievērotu pārredzamības principu, ir izdevīgi, lai izvairītos no nepareizas ChatGPT rezultātu interpretācijas, tie nav pietiekami, lai ievērotu datu precizitātes principu."

Lielie valodu modeļi jeb LLM ir bēdīgi slaveni ar “halucinācijām” — tehnoloģijas runā par to, kad AI tērzēšanas roboti bieži vien ar pārliecību izplata nepatiesības.

Tādus tērzēšanas robotus kā ChatGPT vai Google Gemini nodrošina LLM.  Saskaņā ar Eiropas stingro Vispārējo datu aizsardzības regulu (VDAR) lietotāji var iesūdzēt tiesā par nepareizu uzrādīšanu vai liegtu iespēju labot neprecīzu informāciju par sevi.

Saskaņā ar darba grupas ziņojumu: "(AI) sistēmas varbūtības dēļ pašreizējā apmācības pieeja rada modeli, kas var radīt arī neobjektīvus vai izdomātus rezultātus."

"Tiešajiem lietotājiem, iespējams, ChatGPT sniegtos rezultātus, tostarp informāciju, kas attiecas uz personām, uzskatīs par faktiski precīziem neatkarīgi no to faktiskās precizitātes," piebilsts.

Eiropas Savienības karogs. Avots: Pixabay EU Doubles Down on Compliance

OpenAI jau iepriekš minēja tehnisku sarežģītību, jo tā nespēja izlabot dezinformāciju, taču Eiropas Savienības uzraudzības iestāde dubultojas.

"Īpaši uz tehnisku neiespējamību nevar atsaukties, lai attaisnotu šo prasību neievērošanu," norādīja darba grupa.

Jaunsāktā lietā Austrijas publiska persona iesūdz ChatGPT par to, ka tā nav labojusi savu dzimšanas datumu. OpenAI teica, ka tas nebūtu tehniski iespējams, taču šis jaunais ziņojums palielinās spiedienu uz AI modeli.

Ar lietu saistītais datu aizsardzības jurists Mārtjē de Grāfs sacīja, ka uzņēmumi pašlaik nevar panākt, lai AI tērzēšanas roboti atbilstu ES tiesību aktiem, apstrādājot datus par personām.

"Ja sistēma nevar nodrošināt precīzus un pārredzamus rezultātus, to nevar izmantot datu ģenerēšanai par personām. Tehnoloģijai ir jāatbilst juridiskajām prasībām, nevis otrādi,” norādīja de Grāfs.

OpenAI rada bažas par drošību

Eksperti saka, ka ChatGPT būs nepieciešamas vērienīgas izmaiņas, lai izvairītos no saskarsmes ar GDPR, kas regulē datu aizsardzību Eiropas Savienībā.

Noteikumi arī nodrošina darba modeli datu likumiem Argentīnā, Brazīlijā, Čīlē, Japānā, Kenijā, Maurīcijā, Dienvidāfrikā, Dienvidkorejā, Turcijā un Apvienotajā Karalistē.

Lasiet arī: OpenAI Scraps ChatGPT balss pēc Skārletas Johansones strīda

Tikmēr ir apšaubīta OpenAI apņemšanās nodrošināt lietotāju drošību.

Uzņēmums ir skāris skaļu atkāpšanos no amata, līdzdibinātājiem Iļjai Suckeverai, Grečenai Krūgerei, Janam Leikei un vēl pusducim citu personu, kas apliecina kultūras maiņu.

Šīs nedēļas sākumā OpenAI paziņoja par ChatGPT balss “Sky” apturēšanu pēc bažām, ka tā atgādina aktrises Skārletas Johansones balsi AI tematiskajā filmā Viņa.

Džefrija Gogo kriptopolītiskie ziņojumi