Un'organizzazione per la privacy, Noyb, ha presentato un reclamo contro OpenAI all'autorità austriaca per la protezione dei dati (DPA) sulla base del fatto che il suo prodotto ChatGPT viola molte leggi sulla protezione dei dati dell'UE. L'organizzazione ha affermato che ChatGPT condivide informazioni errate sulle persone e il Regolamento generale sulla protezione dei dati (GDPR) dell'UE richiede che le informazioni sulle persone siano corrette e che debba essere fornito loro pieno accesso alle informazioni che le riguardano.

OpenAI deve far fronte alle accuse del GDPR

Noyb è stato fondato dal famoso avvocato e attivista Max Schrems e ha affermato che ChatGPT ha condiviso una falsa data di compleanno di un famoso personaggio pubblico e, quando è stato chiesto il permesso di accedere ed eliminare i dati relativi a lui, la sua richiesta è stata respinta da Open AI.

Noyb afferma che secondo il GDPR dell'UE, qualsiasi informazione su qualsiasi individuo deve essere accurata e deve avere accesso e informazioni sulla fonte, ma secondo esso OpenAI afferma di non essere in grado di correggere le informazioni nel loro modello ChatGPT. Inoltre, la società non è in grado di stabilire da dove provengano le informazioni e non sa nemmeno quali dati ChatGPT memorizza sugli individui.

Noyb afferma che OpenAI è a conoscenza del problema e sembra che non se ne preoccupi poiché la sua argomentazione sulla questione è che,

“L’accuratezza fattuale nei modelli linguistici di grandi dimensioni rimane un’area di ricerca attiva”.

Noyb ha osservato che informazioni errate possono essere tollerabili quando ChatGPT le emette quando gli studenti le usano per i compiti, ma ha affermato che è chiaramente inaccettabile per le singole persone poiché è un requisito del diritto dell'UE che i dati personali debbano essere accurati.

Le allucinazioni rendono i chatbot non conformi alle normative UE

Noyb ha affermato che i modelli di intelligenza artificiale sono soggetti ad allucinazioni e forniscono informazioni che in realtà sono false. Hanno messo in dubbio la procedura tecnica di OpenAI per generare informazioni, poiché ha notato il ragionamento di OpenAI secondo cui,

"risponde alle richieste degli utenti prevedendo le prossime parole più probabili che potrebbero apparire in risposta a ciascuna richiesta."

Source: Statista.

Noyb sostiene che ciò significa che, nonostante il fatto che l'azienda disponga di ampi set di dati per l'addestramento del suo modello, non può comunque garantire che le risposte fornite agli utenti siano effettivamente corrette.

L'avvocato specializzato in protezione dei dati di Noyb, Maartje de Gaaf, ha dichiarato:

“Inventare informazioni false è di per sé piuttosto problematico. Ma quando si tratta di false informazioni sulle persone, le conseguenze possono essere gravi”.

Fonte: Noyb.

Ha anche detto che qualsiasi tecnologia deve seguire delle leggi e non può scherzare, perché secondo lui, se uno strumento non può produrre risultati corretti sugli individui, allora non può essere utilizzato per questo scopo, ha anche aggiunto che le aziende non sono ancora tecnicamente solide per creare chatbot in grado di rispettare le leggi dell’UE in materia.

Gli strumenti di intelligenza artificiale generativa sono sotto lo stretto controllo delle autorità europee di regolamentazione della privacy, poiché già nel 2023 il Garante italiano ha temporaneamente limitato la protezione dei dati. Non è ancora chiaro quali saranno i risultati, ma secondo Noyb OpenAI non pretende nemmeno di rispettare la legislazione dell’UE.