La Comisión Irlandesa de Protección de Datos está investigando el cumplimiento del “Reglamento General de Protección de Datos” al utilizar información personal para entrenar la IA de Google en la UE.
Según Techcrunch del 12 de septiembre, la Comisión Irlandesa de Protección de Datos (DPC), la agencia que supervisa el cumplimiento por parte de Google del Reglamento General de Protección de Datos (GDPR) en la UE, está investigando si Google realizó la Revisión del Impacto de la Protección de Datos (DPIA) antes. utilizar datos personales para entrenar la IA.
La DPIA es un proceso obligatorio según el RGPD que evalúa los riesgos para los derechos y libertades de las personas cuando su información se utiliza para fines de procesamiento de datos de alto riesgo, incluida la capacitación en IA.
La investigación se centra en cómo Google desarrolló varias herramientas de inteligencia artificial para generar contenido, incluido el modelo de lenguaje grande (LLM) PaLM2, que se lanzó en la conferencia de desarrolladores de E/S del año pasado. PaLM2 es la base de muchas de las herramientas de inteligencia artificial de Google, como el chatbot Gemini (anteriormente Bard) y las funciones de búsqueda web impulsadas por inteligencia artificial.
Si se determina que Google infringe el RGPD, la DPC podría imponer una multa de hasta el 4% de los ingresos globales anuales de Alphabet, la empresa matriz de Google.
Imagen tomada durante la conferencia de desarrolladores de E/S. Fuente: Techcrunch. Preocupaciones de privacidad
Los modelos de lenguaje grandes como PaLM2 a menudo requieren enormes cantidades de datos para entrenarse, incluida información personal confidencial. Esta información puede obtenerse de fuentes públicas en Internet o recopilarse directamente de los usuarios, lo que genera muchos problemas legales relacionados con la privacidad y los derechos de autor.
Muchas empresas de desarrollo de IA, como OpenAI, Meta e incluso la plataforma de redes sociales X (anteriormente Twitter), propiedad de Elon Musk, se han enfrentado a quejas relacionadas con el RGPD sobre su uso de datos de usuarios para entrenar IA.
Google, como muchas otras empresas, no es transparente sobre las fuentes de datos utilizadas para entrenar sus herramientas de inteligencia artificial. Sin embargo, el portavoz de Google, Jay Stoll, insistió: "Nos tomamos en serio nuestras obligaciones según el RGPD y trabajaremos estrechamente con el DPC para responder a las consultas".
La investigación de la DPC es parte de un esfuerzo más amplio de las autoridades de protección de datos de la UE para garantizar que las empresas de tecnología cumplan con las regulaciones de privacidad al desarrollar sistemas de inteligencia artificial.
La agencia enfatizó que la DPIA desempeña un papel importante a la hora de garantizar que los derechos y libertades de las personas estén protegidos cuando los datos personales se procesan con alto riesgo. Si Google no lleva a cabo una EIPD antes de procesar los datos de los usuarios de la UE para desarrollar PaLM2, la empresa podría enfrentarse a graves sanciones.
Actualmente, Google aún no ha dado una respuesta oficial sobre este tema.