Meta a annoncé une pause dans le lancement et la formation de son assistant IA en Europe à la demande de la Commission irlandaise de protection des données (DPC).

Cette demande intervient après que le DPC, le principal régulateur de la vie privée de Meta dans l'UE, ait demandé à l'entreprise d'arrêter la formation de grands modèles de langage (LLM) utilisant des données accessibles au public collectées par les utilisateurs de Facebook et les partages Instagram.

Meta a déclaré que la décision les avait « déçus » et la considérait comme un « pas en arrière » pour la concurrence et l’innovation en matière d’IA dans l’UE. L'entreprise insiste toutefois sur le fait qu'elle se conforme à la réglementation européenne.

Le DPC a soutenu la suspension, affirmant qu'il « saluait la décision » et qu'il continuerait à travailler avec Meta après de précédents « engagements approfondis ».

Selon l'organisation européenne à but non lucratif NOYB, la demande de Meta de suspendre temporairement ses opérations était le résultat de plaintes émanant d'elle-même et d'autres organisations telles que le Conseil norvégien des consommateurs et plusieurs autres autorités de protection des données.

Ce problème dure depuis plusieurs mois. Meta a déclaré avoir informé les autorités européennes de protection des données de ses activités depuis mars.

Cependant, la situation est devenue plus grave lorsque Meta a commencé à informer les utilisateurs de sa formation en IA via plus de deux milliards de notifications et d'e-mails dans l'application le 22 mai. NOYB a déposé une plainte auprès de 11 autorités de protection des données le 6 juin.

Meta a reconnu avoir consulté le DPC le 10 juin et a déclaré avoir intégré la réponse pour garantir que sa formation en IA est conforme aux lois sur l'IA.

Meta note que Google et OpenAI ont également utilisé l'IA pour s'entraîner sur les données des utilisateurs. L’entreprise prévoit de se conformer aux lois du Règlement général sur la protection des données (RGPD) de l’UE sur la base juridique de « l’intérêt légitime », une disposition flexible sur laquelle d’autres sociétés d’IA se sont appuyées.

Cette pause met en évidence la complexité et les défis liés à l’application de la technologie de l’IA, en particulier dans le contexte de réglementations de plus en plus strictes en matière de protection des données.