OpenAI enfrenta un obstáculo regulatorio en Italia según los comentarios de la autoridad de protección de datos del país, Garante per la Protezione dei Dati Personali (GPDP). El regulador emitió una advertencia a GEDI, un editor en el país, contra compartir sus archivos de datos con OpenAI, citando una posible violación del Reglamento General de Protección de Datos (GDPR) de la Unión Europea (UE).

Esto sigue a una asociación entre GEDI y OpenAI, que permitiría a OpenAI entrenar sus modelos de ChatGPT con contenido en lengua italiana.

GEDI es una empresa de medios propiedad de la familia Agnelli. Publica los periódicos diarios La Repubblica y La Stampa, y anunció una asociación con OpenAI en septiembre. La asociación implica la entrega de contenido en lengua italiana del portafolio de noticias del editor para ayudar a entrenar y mejorar los productos de OpenAI.

El GPDP desaprueba la asociación de GEDI con OpenAI

John Elkann, presidente de GEDI, dijo: “La asociación firmada con OpenAI es parte del viaje de transformación digital de GEDI y reconoce su liderazgo en la producción de contenido de alta calidad dentro del panorama mediático italiano.”

Sin embargo, el GPDP advierte que esta asociación podría potencialmente llevar a una violación del GDPR de la UE.

El GDPR establece un estándar global para las leyes de privacidad, enfatizando el consentimiento del usuario, la transparencia y la responsabilidad. También fue el primero en proponer un marco regulatorio para la IA, que afirma promover el uso seguro y responsable de la IA.

“Si GEDI, sobre la base del acuerdo firmado con OpenAI, llegara a divulgar los datos personales contenidos en su archivo, podría violar la regulación de la UE, con todas las consecuencias, incluidas las de naturaleza sancionadora”, declaró el GPDP.

Las violaciones del GDPR pueden costar a las empresas infractoras hasta 20 millones de euros o el 4% de su facturación global anual.

Perspectivas globales contrastantes sobre el uso de la IA

Este último episodio con GEDI intensifica aún más las tensiones entre el avance tecnológico y el cumplimiento de las regulaciones de privacidad en la UE.

Clearview AI, una empresa estadounidense, fue multada con unos 30 millones de euros por la Autoridad de Protección de Datos de los Países Bajos, citando violaciones de privacidad y violaciones de derechos de los usuarios bajo el GDPR. A principios de este año, el GPDP prohibió temporalmente ChatGPT debido a preocupaciones sobre la recolección y el procesamiento ilegal de datos de usuarios.

Los EE. UU. han adoptado un enfoque relajado y orientado al mercado hacia la IA, favoreciendo la innovación y enfatizando la autorregulación dentro del espacio. La “Orden Ejecutiva sobre el Desarrollo y Uso Seguro, Seguro y Confiable de la Inteligencia Artificial”, que fue emitida en octubre de 2023, alude a esto.

La falta de una legislación clara, especialmente a nivel federal, ha llevado a los estados a liderar la regulación de la industria. La Ley de Privacidad del Consumidor de California (CCPA) es un ejemplo de legislación de IA a nivel estatal.

China también ha implementado un marco regulatorio. En julio de 2023, la Administración del Ciberespacio de China emitió regulaciones sobre el uso de IA generativa. También planea formular más de 50 estándares para la IA para 2026. Estas regulaciones se aplicarían tanto a proveedores locales como internacionales de servicios de IA.

De Cero a Web3 Pro: Tu plan de lanzamiento de carrera de 90 días