ChatGPT, il chatbot virale di OpenAI, non è ancora all’altezza degli standard di accuratezza dei dati dell’Unione Europea, secondo un nuovo rapporto dell’autorità di vigilanza sulla privacy dell’UE. 

Leggi anche: La legge europea sull’intelligenza artificiale ottiene l’approvazione finale con multe fino a 38 milioni di dollari

Il rapporto del Comitato per la protezione dei dati dell’Unione europea (EDPB) non è un documento legale. Tuttavia, informerà un approccio comune per la regolamentazione di ChatGPT nei 27 stati membri dell’UE.

ChatGPT non è conforme agli standard sui dati

Lo scorso anno gli organismi di vigilanza nazionali hanno formato la “task force ChatGPT” sotto lo stimolo dei casi in corso in diversi paesi europei contro il modello di intelligenza artificiale. La task force rientra nell'ambito dell'EDPB.

In un rapporto pubblicato il 24 maggio, la task force ha affermato:

"Sebbene le misure adottate per rispettare il principio di trasparenza siano utili per evitare interpretazioni errate dell'output di ChatGPT, non sono sufficienti per rispettare il principio di accuratezza dei dati."

I modelli linguistici di grandi dimensioni, o LLM, sono noti per “allucinare”: la tecnologia parla di quando i chatbot di intelligenza artificiale sputano falsità, spesso con sicurezza.

Chatbot come ChatGPT o Gemini di Google sono alimentati da LLM.  Ai sensi del severo Regolamento generale sulla protezione dei dati (GDPR) europeo, gli utenti possono fare causa per essere stati presentati in modo errato o per aver negato la possibilità di correggere informazioni inesatte su se stessi.

Secondo il rapporto della task force, “A causa della natura probabilistica del sistema (AI), l’attuale approccio formativo porta a un modello che può anche produrre risultati distorti o inventati”.

"È probabile che i risultati forniti da ChatGPT siano considerati accurati dal punto di vista fattuale dagli utenti finali, comprese le informazioni relative agli individui, indipendentemente dalla loro effettiva accuratezza", ha aggiunto.

Bandiera dell'Unione europea. Fonte: Pixabay L’UE raddoppia la conformità

OpenAI ha già citato in precedenza la complessità tecnica per la sua incapacità di correggere la disinformazione, ma l'autorità di vigilanza dell'Unione Europea sta raddoppiando gli sforzi.

"In particolare, l'impossibilità tecnica non può essere invocata per giustificare il mancato rispetto di questi requisiti", ha osservato la task force.

In un caso appena aperto, un personaggio pubblico austriaco ha citato in giudizio ChatGPT per non aver corretto la propria data di nascita. OpenAI ha affermato che ciò non sarebbe tecnicamente fattibile, ma questo nuovo rapporto aggiungerà pressione sul modello di intelligenza artificiale.

Un avvocato specializzato in protezione dei dati coinvolto nel caso, Maartje de Graaf, ha affermato che le aziende attualmente non sono in grado di far sì che i chatbot con intelligenza artificiale rispettino la legislazione dell’UE quando trattano i dati delle persone.

“Se un sistema non può produrre risultati accurati e trasparenti, non può essere utilizzato per generare dati sugli individui. La tecnologia deve seguire i requisiti legali e non viceversa”, ha affermato de Graaf.

Preoccupazioni per la sicurezza incombono su OpenAI

Gli esperti affermano che ChatGPT richiederà cambiamenti ambiziosi per evitare di entrare in conflitto con il GDPR, che regola la protezione dei dati nell’Unione Europea.

Le regole forniscono anche un modello di lavoro per le leggi sui dati in Argentina, Brasile, Cile, Giappone, Kenya, Mauritius, Sud Africa, Corea del Sud, Turchia e Regno Unito.

Leggi anche: OpenAI elimina la voce ChatGPT dopo la controversia su Scarlett Johansson

Nel frattempo, l’impegno di OpenAI per la sicurezza degli utenti è stato messo in discussione.

L'azienda è stata colpita da una serie di dimissioni di alto profilo, con la partenza del cofondatore Ilya Sutskever, Gretchen Krueger, Jan Leike e una mezza dozzina di altri che sostengono un cambiamento culturale.

All'inizio di questa settimana, OpenAI ha annunciato la sospensione della voce "Sky" di ChatGPT perché temeva che somigliasse alla voce dell'attrice Scarlett Johansson nel film a tema AI, Her.

Reporting criptopolita di Jeffrey Gogo