ChatGPT, chatbot-ul viral de la OpenAI, încă nu îndeplinește standardele de acuratețe a datelor ale Uniunii Europene, potrivit unui nou raport al organului de supraveghere al confidențialității al UE. 

Citește și: Actul AI din Europa primește aprobarea finală cu amenzi de până la 38 milioane USD

Raportul Comitetului pentru Protecția Datelor al Uniunii Europene (EDPB) nu este un document legal. Cu toate acestea, va informa o abordare comună pentru reglementarea ChatGPT în cele 27 de state membre ale UE.

ChatGPT nu respectă standardele de date

Organele naționale de supraveghere au format „grupul de lucru ChatGPT” anul trecut, sub stimularea cazurilor în curs în mai multe țări europene împotriva modelului AI. Grupul operativ intră în subordinea EDPB.

Într-un raport publicat pe 24 mai, grupul de lucru a spus:

„Deși măsurile luate pentru a respecta principiul transparenței sunt benefice pentru a evita interpretarea greșită a rezultatelor ChatGPT, ele nu sunt suficiente pentru a respecta principiul acurateței datelor.”

Modelele de limbaj mari, sau LLM, sunt renumite pentru „halucinarea” – tehnologia vorbește pentru atunci când chatbot-ii AI aruncă falsități, adesea cu încredere.

Chatboții precum ChatGPT sau Google’s Gemini sunt alimentați de LLM-uri.  În conformitate cu Regulamentul General privind Protecția Datelor (GDPR), utilizatorii pot da în judecată pentru că au fost prezentați greșit sau li se refuză posibilitatea de a corecta informații inexacte despre ei înșiși.

Potrivit raportului grupului de lucru, „Datorită naturii probabilistice a sistemului (AI), abordarea actuală de instruire duce la un model care poate produce, de asemenea, rezultate părtinitoare sau inventate”.

„Este probabil ca rezultatele furnizate de ChatGPT să fie considerate exacte de către utilizatorii finali, inclusiv informațiile referitoare la persoane, indiferent de acuratețea lor reală”, a adăugat acesta.

Steagul Uniunii Europene. Sursa: Pixabay UE își dublează conformitatea

OpenAI a citat anterior complexitatea tehnică pentru eșecul de a corecta dezinformarea, dar organul de supraveghere al Uniunii Europene se dublează.

„În special, imposibilitatea tehnică nu poate fi invocată pentru a justifica nerespectarea acestor cerințe”, a menționat grupul de lucru.

Într-un dosar recent deschis, o persoană publică austriacă dă în judecată ChatGPT pentru că nu și-a corectat data nașterii. OpenAI a spus că acest lucru nu ar fi fezabil din punct de vedere tehnic, dar acest nou raport va adăuga presiune asupra modelului AI.

Un avocat cu protecția datelor conectat la caz, Maartje de Graaf, a declarat că în prezent companiile nu pot face chatbot-ii AI să respecte legislația UE atunci când prelucrează date despre persoane fizice.

„Dacă un sistem nu poate produce rezultate precise și transparente, nu poate fi folosit pentru a genera date despre indivizi. Tehnologia trebuie să respecte cerințele legale, nu invers”, a declarat de Graaf.

Preocupările privind siguranța se profilează la OpenAI

Experții spun că ChatGPT va necesita schimbări ambițioase pentru a evita încălcarea GDPR, care reglementează protecția datelor în Uniunea Europeană.

Regulile oferă, de asemenea, un model de lucru pentru legile privind datele din Argentina, Brazilia, Chile, Japonia, Kenya, Mauritius, Africa de Sud, Coreea de Sud, Turcia și Regatul Unit.

Citește și: OpenAI elimină vocea ChatGPT după controversa Scarlett Johansson

Între timp, angajamentul OpenAI față de siguranța utilizatorilor a intrat în discuție.

Compania a fost lovită de o serie de demisii importante, plecarea cofondatorului Ilya Sutskever, Gretchen Krueger, Jan Leike și alți o jumătate de duzină, justificând o schimbare de cultură.

La începutul acestei săptămâni, OpenAI a anunțat suspendarea vocii ChatGPT „Sky” după îngrijorarea că seamănă cu vocea actriței Scarlett Johansson din filmul cu tematică AI, Her.

Raportare Cryptopolitan de Jeffrey Gogo