ChatGPT, el chatbot viral de OpenAI, aún no cumple con los estándares de precisión de datos de la Unión Europea, según un nuevo informe del organismo de control de la privacidad de la UE. 

Lea también: La Ley de IA de Europa obtiene la aprobación final con multas de hasta 38 millones de dólares

El informe del Comité de Protección de Datos de la Unión Europea (EDPB) no es un documento legal. Sin embargo, informará un enfoque común para regular ChatGPT en los 27 estados miembros de la UE.

ChatGPT no cumple con los estándares de datos

Los organismos de control nacionales formaron el "grupo de trabajo ChatGPT" el año pasado bajo el estímulo de los casos en curso en varios países europeos contra el modelo de IA. El grupo de trabajo depende del CEPD.

En un informe publicado el 24 de mayo, el grupo de trabajo dijo:

"Aunque las medidas tomadas para cumplir con el principio de transparencia son beneficiosas para evitar malas interpretaciones de los resultados de ChatGPT, no son suficientes para cumplir con el principio de exactitud de los datos".

Los grandes modelos de lenguaje, o LLM, son famosos por “alucinar”: la tecnología habla de cuando los chatbots de IA arrojan falsedades, a menudo con confianza.

Los chatbots como ChatGPT o Gemini de Google funcionan con LLM.  Según el estricto Reglamento General de Protección de Datos (GDPR) de Europa, los usuarios pueden demandar por haber sido mal presentados o por negarles la oportunidad de corregir información inexacta sobre ellos mismos.

Según el informe del grupo de trabajo, "Debido a la naturaleza probabilística del sistema (IA), el enfoque de capacitación actual conduce a un modelo que también puede producir resultados sesgados o inventados".

"Es probable que los usuarios finales consideren que los resultados proporcionados por ChatGPT son objetivamente precisos, incluida la información relacionada con individuos, independientemente de su precisión real", agregó.

Bandera de la Unión Europea. Fuente: Pixabay La UE redobla su apuesta por el cumplimiento

OpenAI ha citado anteriormente la complejidad técnica por no corregir la información errónea, pero el organismo de control de la Unión Europea está redoblando su apuesta.

"En particular, no se puede invocar la imposibilidad técnica para justificar el incumplimiento de estos requisitos", señaló el grupo de trabajo.

En un caso recientemente abierto, una figura pública austriaca está demandando a ChatGPT por no corregir su fecha de nacimiento. OpenAI dijo que hacerlo no sería técnicamente factible, pero este nuevo informe agregará presión sobre el modelo de IA.

Un abogado de protección de datos relacionado con el caso, Maartje de Graaf, dijo que las empresas actualmente no pueden hacer que los chatbots de IA cumplan con la legislación de la UE cuando procesan datos sobre individuos.

“Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir los requisitos legales y no al revés”, afirmó de Graaf.

Preocupaciones de seguridad acechan en OpenAI

Los expertos dicen que ChatGPT requerirá cambios ambiciosos para evitar entrar en conflicto con el GDPR, que regula la protección de datos en la Unión Europea.

Las reglas también proporcionan un modelo de trabajo para las leyes de datos en Argentina, Brasil, Chile, Japón, Kenia, Mauricio, Sudáfrica, Corea del Sur, Turquía y el Reino Unido.

Lea también: OpenAI elimina la voz de ChatGPT después de la controversia de Scarlett Johansson

Mientras tanto, el compromiso de OpenAI con la seguridad de los usuarios ha quedado en duda.

La compañía se ha visto afectada por una disputa de renuncias de alto perfil, con la partida del cofundador Ilya Sutskever, Gretchen Krueger, Jan Leike y media docena más que abogan por un cambio cultural.

A principios de esta semana, OpenAI anunció la suspensión de la voz de ChatGPT 'Sky' después de preocuparse de que se pareciera a la voz de la actriz Scarlett Johansson en la película con temática de IA, Her.

Informe criptopolitano de Jeffrey Gogo