Privātuma organizācija Noyb ir iesniegusi sūdzību pret OpenAI Austrijas datu aizsardzības iestādē (DPA), pamatojoties uz to, ka tās produkts ChatGPT pārkāpj daudzus ES datu aizsardzības likumus. Organizācija norādīja, ka ChatGPT izplata nepareizu informāciju par cilvēkiem, un ES Vispārīgā datu aizsardzības regula (GDPR) nosaka, ka informācijai par cilvēkiem ir jābūt pareizai un viņiem ir jānodrošina pilnīga piekļuve informācijai, kas ir par viņiem.

OpenAI tiek piemērota GDPR maksa

Noybu nodibināja slavenais jurists un aktīvists Makss Šrems, un tas apgalvoja, ka ChatGPT ir kopīgojis nepatiesu dzimšanas dienas datumu par slavenu publisku personu, un, kad viņam tika lūgta atļauja piekļūt un dzēst ar viņu saistītos datus, viņa pieprasījumu noraidīja Open AI.

Noybs saka, ka saskaņā ar ES GDPR jebkurai informācijai par jebkuru personu ir jābūt precīzai un tai ir jābūt piekļuvei un informācijai par avotu, taču saskaņā ar to OpenAI saka, ka nevar labot informāciju viņu ChatGPT modelī. Uzņēmums arī nevar pateikt, no kurienes iegūta informācija, un pat tas nezina, kādus datus ChatGPT glabā par personām.

Noibs apgalvo, ka OpenAI apzinās problēmu un šķiet, ka tai tas nerūp, jo tā arguments šajā jautājumā ir šāds:

"Faktuālā precizitāte lielos valodu modeļos joprojām ir aktīvas pētniecības joma."

Noibs atzīmēja, ka nepareiza informācija var būt pieļaujama, ja ChatGPT to izspiež, kad skolēni to izmanto mājasdarbiem, taču tā norādīja, ka atsevišķiem cilvēkiem tas ir nepārprotami nepieņemami, jo ES tiesību aktos ir noteikts, ka personas datiem jābūt precīziem.

Halucinācijas padara tērzēšanas robotus neatbilstošus ES noteikumiem

Noybs minēja, ka AI modeļi ir pakļauti halucinācijām un sniedz informāciju, kas patiesībā ir nepatiesa. Viņi apšaubīja OpenAI tehnisko informācijas ģenerēšanas procedūru, jo tā atzīmēja OpenAI argumentāciju, ka

"atbildes uz lietotāju pieprasījumiem, paredzot nākamos visticamākos vārdus, kas varētu parādīties, atbildot uz katru uzvedni."

Avots: Statista.

Noibs apgalvo, ka tas nozīmē, ka, neskatoties uz to, ka uzņēmuma rīcībā ir plašas datu kopas modeļa apmācībai, tomēr tas nevar garantēt, ka lietotājiem sniegtās atbildes ir faktiski pareizas.

Noiba datu aizsardzības jurists Mārtjē de Gāfs sacīja,

“Nepatiesas informācijas izdomāšana pati par sevi ir diezgan problemātiska. Bet, ja runa ir par nepatiesu informāciju par personām, tam var būt nopietnas sekas.

Avots: Noyb.

Viņš arī sacīja, ka jebkurai tehnoloģijai ir jāievēro likumi un tā nevar apspēlēt, jo, pēc viņa teiktā, ja rīks nevar dot pareizus rezultātus par indivīdiem, tad to nevar izmantot šim nolūkam, viņš arī piebilda, ka uzņēmumi vēl nav tehniski stabili. izveidot tērzēšanas robotus, kas atbilst ES tiesību aktiem par šo tēmu.

Ģeneratīvie AI rīki ir stingrā Eiropas privātuma regulatoru uzraudzībā, jo 2023. gadā Itālijas datu aizsardzības iestāde uz laiku ierobežoja datu aizsardzību. Pagaidām nav skaidrs, kādi būs rezultāti, taču, pēc Noiba teiktā, OpenAI pat neizliekas, ka tas atbildīs ES tiesību aktiem.