openai

OpenAI, leader dans le développement de technologies d'intelligence artificielle, est actuellement au centre d'une plainte relative à la vie privée en Autriche, déposée par le groupe de défense des droits des données Noyb. La plainte accuse ChatGPT d’OpenAI de diffuser de fausses informations sur un individu et de violer potentiellement les lois de l’Union européenne sur la protection de la vie privée.

OpenAI de Sam Altman accusé de diffusion de fausses informations sur des personnes : la plainte en Autriche

La plainte a été déposée par Noyb le 29 avril, alléguant qu'OpenAI ne corrige pas les inexactitudes dans les informations fournies par son chatbot IA, ChatGPT, concernant une personnalité publique anonyme.

Malgré les demandes du chiffre, OpenAI aurait refusé de corriger ou de supprimer des données inexactes et n'a pas divulgué les sources de ses données de formation.

Ce refus pourrait constituer une violation des réglementations strictes de l’UE en matière de protection des données, conçues pour protéger les informations personnelles des individus et garantir l’exactitude des données.

La plainte de Noyb met en lumière un défi important dans le domaine de l’intelligence artificielle : l’équilibre entre le progrès technologique et le droit à la vie privée des individus.

Le règlement général sur la protection des données (RGPD) de l'UE stipule que les données personnelles doivent être exactes et, si nécessaire, tenues à jour ; toutes les mesures raisonnables doivent être prises pour garantir que les données personnelles inexactes soient effacées ou rectifiées sans délai.

Maartje de Graaf, avocat spécialisé en protection des données chez Noyb, a déclaré : « Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des individus. »

La technologie doit respecter les exigences légales, et non l’inverse. Cette déclaration souligne l’attente juridique selon laquelle les technologies d’IA doivent non seulement progresser en termes de capacités, mais également s’aligner sur les cadres juridiques établis qui protègent les droits des individus.

L'enquête de l'autorité autrichienne

L’autorité autrichienne de protection des données étudie les méthodes de traitement des données d’OpenAI, notamment la manière dont elle garantit l’exactitude des données personnelles traitées par ses grands modèles linguistiques.

Cette enquête pourrait créer un précédent sur la manière dont les problèmes d’exactitude des données sont traités dans le domaine de l’IA dans l’ensemble de l’Union européenne.

Noyb, acronyme de « None of Your Business », opère depuis Vienne et est connu pour son engagement à faire respecter les normes européennes de protection des données. Il se concentre stratégiquement sur les cas qui ont de larges implications pour les droits numériques en Europe.

En Europe, des préoccupations similaires sont apparues lorsqu’une étude a révélé que le chatbot Bing AI de Microsoft, rebaptisé Copilot, avait fourni des informations trompeuses lors des élections locales en Allemagne et en Suisse.

Même Gemini AI de Google est critiqué pour avoir produit des images inexactes et biaisées, ce qui a incité Google à s'excuser et à s'engager à mettre à jour le modèle.

Conclusions

Ces exemples illustrent les défis croissants liés à l’intégration de l’IA dans les applications quotidiennes, où l’exactitude des informations et le respect des lois sur la confidentialité deviennent d’une importance fondamentale.

L’issue de la plainte de Noyb contre OpenAI pourrait avoir des implications significatives pour les développeurs d’IA, les obligeant potentiellement à mettre en œuvre des mesures plus strictes en matière d’exactitude et de transparence des données afin de se conformer au droit de l’UE.

À mesure que les technologies d’IA s’intègrent de plus en plus dans la société, le défi pour les développeurs comme OpenAI est de garantir que leurs produits ne repoussent pas seulement les limites de ce qui est technologiquement possible.