Una organización de privacidad, Noyb, ha presentado una queja contra OpenAI ante la Autoridad Austriaca de Protección de Datos (DPA) alegando que su producto ChatGPT infringe muchas leyes de protección de datos de la UE. La organización dijo que ChatGPT comparte información incorrecta sobre las personas, y el Reglamento General de Protección de Datos (GDPR) de la UE requiere que la información sobre las personas sea correcta y se les debe proporcionar acceso completo a la información sobre ellas.

OpenAI enfrenta cargos de GDPR

Noyb fue creado por el famoso abogado y activista Max Schrems, y afirmó que ChatGPT compartió una fecha de cumpleaños falsa sobre una figura pública famosa, y cuando se le pidió permiso para acceder y eliminar datos relacionados con él, Open AI denegó su solicitud.

Noyb dice que según el GDPR de la UE, cualquier información sobre cualquier individuo debe ser precisa y debe tener acceso e información sobre la fuente, pero según él, OpenAI dice que no puede corregir la información en su modelo ChatGPT. La empresa tampoco puede saber de dónde proviene la información, e incluso no sabe qué datos almacena ChatGPT sobre las personas.

Noyb afirma que OpenAI es consciente del problema y parece que no le importa, ya que su argumento sobre el tema es que,

"La precisión fáctica en grandes modelos lingüísticos sigue siendo un área de investigación activa".

Noyb señaló que la información incorrecta puede ser tolerable cuando ChatGPT la arroja cuando los estudiantes la usan para sus tareas, pero dijo que es claramente inaceptable para personas individuales, ya que es un requisito de la ley de la UE que los datos personales deben ser precisos.

Las alucinaciones hacen que los chatbots no cumplan la normativa de la UE

Noyb mencionó que los modelos de IA son propensos a sufrir alucinaciones y generar información que en realidad es falsa. Cuestionaron el procedimiento técnico de OpenAI para generar información, ya que señalaron el razonamiento de OpenAI de que,

"respuestas a las solicitudes de los usuarios prediciendo las siguientes palabras más probables que podrían aparecer en respuesta a cada mensaje".

Fuente: Statista.

Noyb sostiene que esto significa que, a pesar de que la empresa tiene amplios conjuntos de datos disponibles para entrenar su modelo, aún así, no puede garantizar que las respuestas proporcionadas a los usuarios sean objetivamente correctas.

El abogado de protección de datos de Noyb, Maartje de Gaaf, dijo:

“Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre individuos, puede haber consecuencias graves”.

Fuente: Noyb.

También dijo que cualquier tecnología tiene que seguir leyes y no se puede jugar con ella, ya que, según él, si una herramienta no puede producir resultados correctos sobre las personas, entonces no puede usarse para este propósito, y agregó que las empresas aún no son técnicamente sólidas para crear chatbots que puedan cumplir con las leyes de la UE en este tema.

Las herramientas de IA generativa están bajo el estricto escrutinio de los reguladores de privacidad europeos, ya que en 2023, la DPA italiana restringió temporalmente la protección de datos. Aún no está claro cuáles serán los resultados, pero según Noyb, OpenAI ni siquiera pretende cumplir con la legislación de la UE.