TLDR

  • La autoridad de protección de datos de Brasil (ANPD) ha prohibido a Meta utilizar datos personales brasileños para entrenar sus modelos de IA.

  • La decisión se produce tras la actualización de la política de privacidad de Meta en mayo, que le permitió utilizar datos públicos de Facebook, Instagram y Messenger para el entrenamiento de IA.

  • La ANPD cita un “riesgo inminente de daño grave e irreparable” a los derechos fundamentales de los usuarios.

  • Meta tiene cinco días hábiles para cumplir o enfrentar multas diarias de 50.000 reales (alrededor de 8.808 dólares).

  • Esto sigue a una reacción similar de los reguladores de la Unión Europea.

La agencia nacional de protección de datos de Brasil (ANPD) ha dado un paso para proteger la privacidad de sus ciudadanos al ordenar a Meta que deje de utilizar datos personales brasileños para entrenar sus modelos de inteligencia artificial.

Esta decisión, anunciada el martes, surge en respuesta a la reciente actualización de la política de privacidad de Meta que otorgó a la compañía permiso para usar publicaciones públicas, imágenes y subtítulos de Facebook, Instagram y Messenger con fines de capacitación en inteligencia artificial.

El fallo de la ANPD cita "un riesgo inminente de daño grave e irreparable" a los derechos fundamentales de los usuarios brasileños. Con más de 102 millones de usuarios de Facebook y 113 millones de usuarios de Instagram en Brasil, el país representa un mercado importante para Meta, lo que hace que esta decisión sea particularmente impactante.

Las preocupaciones de la agencia no son infundadas. Un informe reciente de Human Rights Watch reveló que LAION-5B, uno de los conjuntos de datos de leyendas de imágenes más grandes utilizados para entrenar modelos de inteligencia artificial, contiene fotografías identificables de niños brasileños.

Este descubrimiento encendió las alarmas sobre el potencial de deepfakes y otras formas de explotación, destacando la necesidad urgente de medidas de protección de datos más estrictas.

Según la orden de la ANPD, a Meta se le han dado cinco días hábiles para demostrar el cumplimiento de la directiva modificando su política de privacidad para excluir el uso de información personal de publicaciones públicas para capacitación en IA. De no hacerlo, se impondrán multas diarias de 50.000 reales (aproximadamente 8.808 dólares o 6.935 libras esterlinas).

Meta, en respuesta a la decisión, expresó su decepción y afirmó que su enfoque cumple con las leyes de privacidad locales. Un portavoz de la empresa dijo:

"Este es un paso atrás para la innovación, la competencia en el desarrollo de la IA y mayores retrasos para llevar los beneficios de la IA a la gente de Brasil".

Sin embargo, los defensores de la privacidad y los expertos en protección de datos han acogido con satisfacción la postura proactiva de la ANPD.

Pedro Martins de Data Privacy Brasil señaló discrepancias entre las medidas de protección de datos de Meta para los usuarios brasileños y europeos.

En Europa, Meta había planeado excluir los datos de usuarios menores de 18 años del entrenamiento de IA, mientras que en Brasil se podían incluir publicaciones de niños y adolescentes. Martins también señaló que el proceso de exclusión voluntaria para los usuarios brasileños era más complicado y podía requerir hasta ocho pasos, en comparación con un proceso más sencillo en Europa.

Esta decisión de la ANPD de Brasil refleja preocupaciones similares planteadas en la Unión Europea. En junio, Meta detuvo sus planes de entrenar modelos de IA con datos de usuarios europeos después de recibir una solicitud de la Comisión Irlandesa de Protección de Datos. Inicialmente, la compañía había planeado implementar el cambio de política en Europa el 26 de junio, pero esto se suspendió en espera de una revisión adicional.

El rechazo a las prácticas de recopilación de datos de Meta para la capacitación en IA es parte de una conversación global más amplia sobre la privacidad, la protección de datos y el desarrollo ético de la inteligencia artificial.

Para Meta, este revés en Brasil, luego de desafíos similares en Europa, puede obligar a reevaluar su estrategia global de IA. La empresa deberá navegar por un panorama regulatorio cada vez más complejo y al mismo tiempo perseguir sus objetivos de desarrollo de IA.

La publicación Brasil traza la línea: Meta ordenó excluir datos personales del entrenamiento de IA apareció por primera vez en Blockonomi.