La Commission irlandaise de protection des données enquête sur le respect du « Règlement général sur la protection des données » lors de l'utilisation d'informations personnelles pour entraîner l'IA de Google dans l'UE.

Selon Techcrunch du 12 septembre, la Commission irlandaise de protection des données (DPC), l'agence qui supervise la conformité de Google au Règlement général sur la protection des données (RGPD) dans l'UE, enquête pour savoir si Google a déjà procédé à l'examen de l'impact sur la protection des données (DPIA). utiliser des données personnelles pour entraîner l’IA.

La DPIA est un processus obligatoire en vertu du RGPD qui évalue les risques pour les droits et libertés des individus lorsque leurs informations sont utilisées à des fins de traitement de données à haut risque, y compris la formation à l'IA.

L'enquête se concentre sur la manière dont Google a développé plusieurs outils d'IA générateurs de contenu, notamment le grand modèle de langage (LLM) PaLM2, qui a été lancé lors de la conférence des développeurs d'E/S de l'année dernière. PaLM2 constitue la base de nombreux outils d'IA de Google, tels que le chatbot Gemini (anciennement Bard) et les fonctionnalités de recherche Web basées sur l'IA.

S'il s'avère que Google enfreint le RGPD, la DPC pourrait imposer une amende pouvant aller jusqu'à 4 % du chiffre d'affaires mondial annuel d'Alphabet, la société mère de Google.

Image prise lors de la conférence des développeurs I/O. Source : Techcrunch. Problèmes de confidentialité

Les grands modèles de langage comme PaLM2 nécessitent souvent d’énormes quantités de données à former, y compris des informations personnelles sensibles. Ces informations peuvent être obtenues à partir de sources publiques sur Internet ou collectées directement auprès des utilisateurs, ce qui entraîne de nombreux problèmes juridiques liés à la vie privée et au droit d'auteur.

De nombreuses sociétés de développement d'IA telles que OpenAI, Meta et même la plateforme de médias sociaux X (anciennement Twitter) appartenant à Elon Musk, ont toutes fait face à des plaintes liées au RGPD concernant leur utilisation des données des utilisateurs pour former l'IA.

Google, comme beaucoup d’autres entreprises, n’est pas transparent sur les sources de données utilisées pour entraîner ses outils d’IA. Cependant, le porte-parole de Google, Jay Stoll, a insisté : « Nous prenons au sérieux nos obligations en vertu du RGPD et travaillerons en étroite collaboration avec la DPC pour répondre aux demandes. »

L'enquête DPC fait partie d'un effort plus large des autorités de protection des données de l'UE visant à garantir que les entreprises technologiques respectent les réglementations en matière de confidentialité lors du développement de systèmes d'IA.

L'agence a souligné que la DPIA joue un rôle important en garantissant la protection des droits et libertés des individus lorsque les données personnelles sont traitées à haut risque. Si Google ne procède pas à une DPIA avant de traiter les données des utilisateurs de l’UE pour développer PaLM2, l’entreprise pourrait s’exposer à de lourdes sanctions.

Pour l’instant, Google n’a pas encore donné de réponse officielle sur cette question.