O organizație de confidențialitate, Noyb, a depus o plângere împotriva OpenAI la Autoritatea Austriacă pentru Protecția Datelor (DPA), pe motiv că produsul său ChatGPT încalcă multe legi privind protecția datelor din UE. Organizația a spus că ChatGPT partajează informații incorecte despre oameni, iar Regulamentul general al UE pentru protecția datelor (GDPR) cere ca informațiile despre oameni să fie corecte și să li se ofere acces deplin la informațiile despre ei.

OpenAI se confruntă cu taxe GDPR

Noyb a fost înființat de celebrul avocat și activist Max Schrems și a susținut că Chatgpt a împărtășit o dată de naștere falsă despre o faimoasă persoană publică, iar atunci când i s -a cerut permisiunea de a accesa și șterge datele legate de el, cererea sa a fost refuzată de Open AI.

Noyb spune că, conform GDPR al UE, orice informație despre orice persoană trebuie să fie corectă și trebuie să aibă acces și informații despre sursă, dar conform acestuia, OpenAI spune că nu poate corecta informațiile din modelul său ChatGPT. De asemenea, compania nu poate spune de unde provin informațiile și nici măcar nu știe ce date stochează ChatGPT despre indivizi. 

Noyb susține că OpenAI este conștient de problemă și pare că nu îi pasă de ea, deoarece argumentul său pe această temă este că,

„Acuratețea faptică în modelele mari de limbaj rămâne un domeniu de cercetare activă.”

Noyb a remarcat că informațiile greșite pot fi tolerabile atunci când ChatGPT le aruncă atunci când studenții le folosesc pentru teme, dar a spus că este în mod clar inacceptabilă pentru persoane individuale, deoarece este o cerință a legislației UE ca datele cu caracter personal să fie exacte. 

Halucinațiile fac ca chatboții să nu respecte reglementările UE

Noyb a menționat că modelele AI sunt predispuse la halucinații și fac informații care sunt de fapt false. Ei au pus sub semnul întrebării procedura tehnică a OpenAI de a genera informații, deoarece a remarcat raționamentul OpenAI că,

„răspuns la solicitările utilizatorilor prin prezicerea următoarelor cuvinte cel mai probabil care ar putea apărea ca răspuns la fiecare solicitare.”

Sursa: Statista.

NOYB susține că înseamnă că, în ciuda faptului că compania are seturi de date extinse disponibile pentru instruirea modelului său, dar totuși, nu poate garanta că răspunsurile furnizate utilizatorilor sunt corecte de fapt.

Avocatul pentru protecția datelor al lui Noyb, Maartje de Gaaf, a spus:

„Invenția de informații false este destul de problematică în sine. Dar când vine vorba de informații false despre indivizi, pot exista consecințe grave.”

Sursa: Noyb.

El a mai spus că orice tehnologie trebuie să respecte legile și nu se poate juca, deoarece, potrivit lui, dacă un instrument nu poate produce rezultate corecte despre indivizi, atunci nu poate fi folosit în acest scop, a mai adăugat că companiile nu sunt încă sănătoase din punct de vedere tehnic să creați chatbot-uri care pot respecta legile UE în acest domeniu.

Instrumentele de inteligență artificială generativă se află sub controlul strict al autorităților europene de reglementare a confidențialității, deoarece în 2023, DPA italiană a restricționat temporar protecția datelor. Încă nu este clar care vor fi rezultatele, dar potrivit lui Noyb, OpenAI nici măcar nu pretinde că va respecta legislația UE.