Meta ha recibido múltiples quejas sobre sus planes de utilizar los datos de los clientes en la capacitación en inteligencia artificial, lo que ha resultado en que organizaciones de defensa de la privacidad y autoridades de protección de datos presenten quejas en 11 países. El grupo activista de privacidad Noyb presentó las quejas después de que Meta actualizara su política de privacidad.

Lea también: ¿Quién decide cómo se utilizan los datos personales en la formación de sistemas de inteligencia artificial? Pautas de emisión del PDPC

Meta tiene su propio LLM llamado Llama, cuya última versión, Llama 3, fue lanzada en abril. Según Noyb, el problema principal es la propuesta de Meta de utilizar años de publicaciones, incluidas imágenes, como datos de entrenamiento para mejorar su sistema de inteligencia artificial. Estos datos de entrenamiento, sin embargo, no incluirán mensajes privados entre usuarios y amigos o sus familiares.

Meta es acusada de violar el RGPD

Meta ha publicado recientemente su actualización de política de privacidad en el mercado europeo, y las últimas actualizaciones entrarán en vigor el 26 de junio. Según Noyb, una mirada más cercana a los enlaces en la notificación muestra los planes de Meta de utilizar datos para una tecnología de inteligencia artificial indefinida. La firma también menciona que en lugar de pedir el consentimiento del usuario, Meta sostiene que tiene un “interés legítimo que prevalece sobre el derecho fundamental” a la protección de datos y a la protección de los usuarios de la UE.

"Meta básicamente dice que puede usar 'cualquier dato de cualquier fuente para cualquier propósito y ponerlo a disposición de cualquier persona en el mundo', siempre que se haga a través de 'tecnología de inteligencia artificial'". – Max Schrems, fundador de Noyb.

Schrems también mencionó que Meta está violando el Reglamento General de Protección de Datos (GDPR) de la UE. Añadió además que “Meta no dice para qué utilizará los datos, por lo que podría ser un simple chatbot, publicidad personalizada extremadamente agresiva o incluso un dron asesino. Meta también dice que los datos del usuario pueden ponerse a disposición de cualquier tercero”.

Nosotros (@NOYBeu) presentamos hoy 11 quejas contra el intento de @MetaAI de utilizar todos los datos públicos y privados (aparte de los chats) de aproximadamente 400 millones de usuarios europeos para una "tecnología de IA" actual y futura no especificada. Solicitamos un procedimiento de urgencia.https://t.co/U52U7CyNh3

– Max Schrems 🇪🇺 (@maxschrems) 6 de junio de 2024

¿Pueden los usuarios optar por no participar?

Noyb indica además que los usuarios no tienen derecho a que se eliminen sus datos ni “derecho al olvido”. Por estas razones, Noyb pidió a las autoridades de protección de datos en 11 países europeos que inicien procesos para "detener este cambio inmediatamente" antes de que Meta ponga en práctica la política actualizada este mes.

Noyb ha presentado quejas ante grupos de privacidad en Austria, Bélgica, Francia, Grecia, Alemania, Irlanda, Italia, Países Bajos, Noruega, Polonia y España para actuar y detener la política. Según Noyb, el artículo 66 permite a las autoridades de protección de datos dar suspensiones preliminares en situaciones similares.

Lea también: Italia inicia una investigación sobre Sora de OpenAI por preocupaciones sobre la protección de datos

Un portavoz de Meta, sin embargo, dijo a The Register que sus acciones son legítimas.

"Confiamos en que nuestro enfoque cumple con las leyes de privacidad y es coherente con la forma en que otras empresas de tecnología están desarrollando y mejorando sus experiencias de IA en Europa".

La Comisión Irlandesa de Protección de Datos (DPC) dijo que Meta retrasó el lanzamiento de su proyecto para responder a las consultas de la DPC, que desde entonces han sido resueltas. Sin embargo, Noyb acusa a Meta de dificultar a los usuarios la decisión de darse de baja.

Informe criptopolitano de Enacy Mapakame