Uma organização de privacidade, Noyb, apresentou uma queixa contra a OpenAI junto à Autoridade Austríaca de Proteção de Dados (DPA), alegando que seu produto ChatGPT viola muitas leis de proteção de dados da UE. A organização disse que o ChatGPT compartilha informações incorretas sobre as pessoas, e o Regulamento Geral de Proteção de Dados (GDPR) da UE exige que as informações sobre as pessoas sejam corretas e que elas tenham acesso total às informações sobre elas.

OpenAI enfrenta acusações de GDPR

Noyb foi fundado pelo famoso advogado e ativista Max Schrems e alegou que o ChatGPT compartilhou uma data de aniversário falsa sobre uma figura pública famosa e, quando solicitado permissão para acessar e excluir dados relacionados a ele, seu pedido foi negado pela Open AI.

Noyb afirma que de acordo com o GDPR da UE, qualquer informação sobre qualquer indivíduo deve ser precisa e ele deve ter acesso e informações sobre a fonte, mas segundo ele, a OpenAI afirma que não é capaz de corrigir as informações em seu modelo ChatGPT. A empresa também não consegue dizer de onde vieram as informações e nem mesmo sabe quais dados o ChatGPT armazena sobre os indivíduos.

Noyb afirma que a OpenAI está ciente do problema e parece não se importar com isso, pois seu argumento sobre o assunto é que,

“A precisão factual em grandes modelos de linguagem continua sendo uma área de pesquisa ativa.”

Noyb observou que informações erradas podem ser toleráveis ​​quando o ChatGPT as vomita quando os alunos as utilizam nos trabalhos de casa, mas disse que é claramente inaceitável para pessoas individuais, uma vez que é um requisito da legislação da UE que os dados pessoais sejam precisos.

As alucinações fazem com que os chatbots não cumpram os regulamentos da UE

Noyb mencionou que os modelos de IA são propensos a alucinações e produzem informações que na verdade são falsas. Eles questionaram o procedimento técnico de geração de informações da OpenAI, pois observou o raciocínio da OpenAI de que,

“respostas às solicitações dos usuários, prevendo as próximas palavras mais prováveis ​​que podem aparecer em resposta a cada solicitação.”

Fonte: Statista.

Noyb argumenta que isso significa que apesar de a empresa possuir extensos conjuntos de dados disponíveis para treinar seu modelo, ainda assim, ela não pode garantir que as respostas fornecidas aos usuários sejam factualmente corretas.

O advogado de proteção de dados de Noyb, Maartje de Gaaf, disse:

“Inventar informações falsas é bastante problemático por si só. Mas quando se trata de informações falsas sobre indivíduos, pode haver consequências graves.”

Fonte: Noyb.

Disse ainda que qualquer tecnologia tem que seguir leis e não pode brincar, pois segundo ele, se uma ferramenta não consegue produzir resultados corretos sobre os indivíduos, então não pode ser utilizada para esse fim, acrescentou ainda que as empresas ainda não estão tecnicamente sólidas para criar chatbots que possam cumprir as leis da UE sobre este assunto.

As ferramentas de IA generativa estão sob estrito escrutínio dos reguladores de privacidade europeus, já que em 2023, a DPA italiana restringiu temporariamente a proteção de dados. Ainda não está claro quais serão os resultados, mas de acordo com Noyb, a OpenAI nem sequer finge que cumprirá a lei da UE.