Une organisation de protection de la vie privée, Noyb, a déposé une plainte contre OpenAI auprès de l'autorité autrichienne de protection des données (DPA) au motif que son produit ChatGPT enfreint de nombreuses lois sur la protection des données de l'UE. L’organisation a déclaré que ChatGPT partage des informations incorrectes sur les personnes et que le règlement général sur la protection des données (RGPD) de l’UE exige que les informations sur les personnes soient correctes et qu’elles doivent bénéficier d’un accès complet aux informations les concernant.

OpenAI fait face à des accusations RGPD

Noyb a été créé par le célèbre avocat et activiste Max Schrems, et il a affirmé que ChatGPT avait partagé une fausse date d'anniversaire sur une personnalité publique célèbre, et lorsqu'on lui a demandé l'autorisation d'accéder et de supprimer les données le concernant, sa demande a été refusée par Open AI.

Noyb dit que selon le RGPD de l'UE, toute information sur tout individu doit être exacte et qu'il doit avoir accès et avoir des informations sur la source, mais selon lui, OpenAI dit qu'il n'est pas en mesure de corriger les informations dans son modèle ChatGPT. L’entreprise est également incapable de dire d’où proviennent les informations, et même elle ne sait pas quelles données ChatGPT stocke sur les individus.

Noyb affirme qu'OpenAI est conscient du problème et semble ne pas s'en soucier car son argument sur la question est le suivant :

"L'exactitude factuelle des grands modèles de langage reste un domaine de recherche actif."

Noyb a noté que des informations erronées peuvent être tolérables lorsque ChatGPT les diffuse lorsque les étudiants les utilisent pour leurs devoirs, mais il a déclaré que c'est clairement inacceptable pour les individus, car la législation de l'UE exige que les données personnelles soient exactes.

Les hallucinations rendent les chatbots non conformes à la réglementation européenne

Noyb a mentionné que les modèles d’IA sont sujets aux hallucinations et produisent des informations qui sont en réalité fausses. Ils ont remis en question la procédure technique de génération d’informations d’OpenAI, car ils ont noté le raisonnement d’OpenAI selon lequel :

"réponses aux demandes des utilisateurs en prédisant les mots les plus probables qui pourraient apparaître en réponse à chaque invite."

Source : Statista.

Noyb fait valoir que cela signifie que, même si l'entreprise dispose de nombreux ensembles de données disponibles pour entraîner son modèle, elle ne peut néanmoins pas garantir que les réponses fournies aux utilisateurs sont factuellement correctes.

L'avocat de Noyb en matière de protection des données, Maartje de Gaaf, a déclaré :

« Inventer de fausses informations est en soi assez problématique. Mais lorsqu’il s’agit de fausses informations sur des individus, les conséquences peuvent être graves.»

Source : Noyb.

Il a également déclaré que toute technologie doit respecter les lois et ne peut pas jouer, car selon lui, si un outil ne peut pas produire des résultats corrects sur les individus, alors il ne peut pas être utilisé à cette fin. Il a également ajouté que les entreprises ne sont pas encore techniquement capables de le faire. créer des chatbots capables de se conformer aux lois de l'UE en la matière.

Les outils d’IA générative sont sous le contrôle strict des régulateurs européens de la vie privée, car en 2023, la DPA italienne a temporairement restreint la protection des données. On ne sait pas encore quels seront les résultats, mais selon Noyb, OpenAI ne prétend même pas se conformer à la législation européenne.