TLDR

  • A autoridade de proteção de dados do Brasil (ANPD) proibiu a Meta de usar dados pessoais brasileiros para treinar seus modelos de IA.

  • A decisão segue a atualização da política de privacidade da Meta em maio, que permitiu o uso de dados públicos do Facebook, Instagram e Messenger para treinamento de IA.

  • ANPD cita “risco iminente de danos graves e irreparáveis” aos direitos fundamentais dos usuários.

  • A Meta tem cinco dias úteis para cumprir ou enfrentará multas diárias de 50 mil reais (cerca de US$ 8.808).

  • Isto segue uma reação semelhante dos reguladores da União Europeia.

A Agência Nacional de Proteção de Dados do Brasil (ANPD) tomou uma medida para proteger a privacidade de seus cidadãos, ordenando que a Meta pare de usar dados pessoais brasileiros para treinar seus modelos de inteligência artificial.

Esta decisão, anunciada na terça-feira, vem em resposta à recente atualização da política de privacidade da Meta, que concedeu à empresa permissão para usar postagens públicas, imagens e legendas do Facebook, Instagram e Messenger para fins de treinamento de IA.

A decisão da ANPD cita “risco iminente de danos graves e irreparáveis” aos direitos fundamentais dos usuários brasileiros. Com mais de 102 milhões de usuários do Facebook e 113 milhões de usuários do Instagram no Brasil, o país representa um mercado significativo para o Meta, tornando esta decisão particularmente impactante.

As preocupações da agência não são infundadas. Um relatório recente da Human Rights Watch revelou que o LAION-5B, um dos maiores conjuntos de dados de legendas de imagens usados ​​para treinar modelos de IA, contém fotos identificáveis ​​de crianças brasileiras.

Esta descoberta levantou alarmes sobre o potencial de deepfakes e outras formas de exploração, destacando a necessidade urgente de medidas mais rigorosas de protecção de dados.

De acordo com a ordem da ANPD, a Meta recebeu cinco dias úteis para demonstrar conformidade com a diretriz, alterando sua política de privacidade para excluir o uso de informações pessoais de cargos públicos para treinamento em IA. O não cumprimento disso resultará em multas diárias de 50.000 reais (aproximadamente US$ 8.808 ou £ 6.935).

Meta, em resposta à decisão, expressou decepção, afirmando que sua abordagem está em conformidade com as leis locais de privacidade. Um porta-voz da empresa disse:

“Este é um retrocesso em termos de inovação, competição no desenvolvimento de IA e mais atrasos para levar os benefícios da IA ​​às pessoas no Brasil.”

No entanto, os defensores da privacidade e os especialistas em proteção de dados acolheram favoravelmente a postura proativa da ANPD.

Pedro Martins, da Data Privacy Brasil, apontou discrepâncias entre as medidas de proteção de dados do Meta para usuários brasileiros e europeus.

Na Europa, a Meta planejou excluir dados de usuários menores de 18 anos do treinamento em IA, enquanto no Brasil, postagens de crianças e adolescentes foram potencialmente incluídas. Martins também observou que o processo de opt-out para usuários brasileiros era mais complicado, podendo levar até oito etapas, em comparação com um processo mais simples na Europa.

Esta decisão da ANPD do Brasil reflete preocupações semelhantes levantadas na União Europeia. Em junho, a Meta interrompeu os seus planos para treinar modelos de IA em dados de utilizadores europeus após receber um pedido da Comissão Irlandesa de Proteção de Dados. A empresa planejou inicialmente implementar a mudança de política na Europa em 26 de junho, mas isso foi suspenso enquanto se aguarda uma revisão mais aprofundada.

A resistência às práticas de recolha de dados da Meta para formação em IA faz parte de uma conversa global mais ampla sobre privacidade, proteção de dados e desenvolvimento ético da inteligência artificial.

Para a Meta, este revés no Brasil, após desafios semelhantes na Europa, pode forçar uma reavaliação da sua estratégia global de IA. A empresa terá de navegar num cenário regulatório cada vez mais complexo, ao mesmo tempo que prossegue os seus objetivos de desenvolvimento de IA.

O post Brasil traça o limite: meta ordenada para excluir dados pessoais do treinamento de IA apareceu pela primeira vez no Blockonomi.