ChatGPT, o chatbot viral da OpenAI, ainda está aquém dos padrões de precisão de dados da União Europeia, de acordo com um novo relatório do órgão de vigilância da privacidade da UE. 

Leia também: Lei de IA da Europa obtém aprovação final com multas de até US$ 38 milhões

O relatório do Conselho de Proteção de Dados da União Europeia (EDPB) não é um documento legal. No entanto, irá informar uma abordagem comum para regular o ChatGPT nos 27 estados membros da UE.

ChatGPT não cumpre os padrões de dados

Os vigilantes nacionais formaram o ‘grupo de trabalho ChatGPT’ no ano passado, sob o estímulo de casos em curso em vários países europeus contra o modelo de IA. O grupo de trabalho é da responsabilidade do CEPD.

Num relatório publicado em 24 de maio, a força-tarefa disse:

“Embora as medidas tomadas para cumprir o princípio da transparência sejam benéficas para evitar interpretações erradas dos resultados do ChatGPT, elas não são suficientes para cumprir o princípio da precisão dos dados.”

Grandes modelos de linguagem, ou LLMs, são famosos por “alucinar” – a tecnologia fala quando os chatbots de IA vomitam falsidades, muitas vezes com confiança.

Chatbots como ChatGPT ou Gemini do Google são desenvolvidos com LLMs.  De acordo com o rigoroso Regulamento Geral de Proteção de Dados (GDPR) da Europa, os utilizadores podem processar por terem sido mal apresentados ou por lhes ter sido negada a oportunidade de corrigir informações imprecisas sobre si próprios.

De acordo com o relatório da força-tarefa, “devido à natureza probabilística do sistema (IA), a atual abordagem de treinamento leva a um modelo que também pode produzir resultados tendenciosos ou inventados”.

“Os resultados fornecidos pelo ChatGPT provavelmente serão considerados factualmente precisos pelos usuários finais, incluindo informações relacionadas a indivíduos, independentemente de sua precisão real”, acrescentou.

Bandeira da União Europeia. Fonte: Pixabay EU duplica a conformidade

A OpenAI já citou a complexidade técnica pela sua incapacidade de corrigir a desinformação, mas o órgão de fiscalização da União Europeia está a redobrar a sua aposta.

“Em particular, a impossibilidade técnica não pode ser invocada para justificar o não cumprimento destes requisitos”, observou a task force.

Num caso recentemente aberto, uma figura pública austríaca está a processar o ChatGPT por não ter corrigido a sua data de nascimento. A OpenAI disse que fazer isso não seria tecnicamente viável, mas este novo relatório aumentará a pressão sobre o modelo de IA.

Um advogado de proteção de dados ligado ao caso, Maartje de Graaf, disse que as empresas atualmente não conseguem fazer com que os chatbots de IA cumpram a lei da UE ao processar dados sobre indivíduos.

“Se um sistema não consegue produzir resultados precisos e transparentes, não pode ser usado para gerar dados sobre indivíduos. A tecnologia tem que seguir os requisitos legais, e não o contrário”, afirmou de Graaf.

Preocupações de segurança surgem na OpenAI

Especialistas dizem que o ChatGPT exigirá mudanças ambiciosas para evitar entrar em conflito com o GDPR, que regula a proteção de dados na União Europeia.

As regras também fornecem um modelo de trabalho para leis de dados na Argentina, Brasil, Chile, Japão, Quénia, Maurícias, África do Sul, Coreia do Sul, Turquia e Reino Unido.

Leia também: OpenAI Scraps ChatGPT Voice após controvérsia de Scarlett Johansson

Enquanto isso, o compromisso da OpenAI com a segurança do usuário foi questionado.

A empresa foi atingida por uma série de demissões de alto nível, com a saída do cofundador Ilya Sutskever, Gretchen Krueger, Jan Leike e meia dúzia de outros defendendo uma mudança cultural.

No início desta semana, a OpenAI anunciou a suspensão da voz ‘Sky’ do ChatGPT após preocupações de que ela se assemelhasse à voz da atriz Scarlett Johansson no filme com tema de IA, Her.

Reportagem criptopolitana de Jeffrey Gogo