“Embora tenhamos salvaguardas em vigor, o sistema pode ocasionalmente gerar informações incorretas ou enganosas e produzir conteúdo ofensivo ou tendencioso. Não se destina a dar conselhos.”
– Isenção de responsabilidade de abertura da OpenAI
E isso leva-nos ao cerne do nosso maior medo – o que acontece quando a tecnologia se volta contra nós?
O que acontece quando a tecnologia é implantada prematuramente sem os testes e o conhecimento adequados por trás de suas capacidades?
No início deste mês, a OpenAI, a empresa de inteligência artificial (IA) mais comentada do mundo, acaba de receber seu primeiro processo por difamação que mostra ainda mais os perigos da capacidade desenfreada do ChatGPT de gerar resultados que não têm respaldo factual ou legal.
Mark Walters, um apresentador de rádio nacionalmente sindicalizado na Geórgia, entrou com uma ação contra a OpenAI em 5 de junho, alegando que seu chatbot alimentado por IA, ChatGPT, fabricou ações legais contra ele.
A reclamação de 13 páginas faz referência ao jornalista da AmmoLand.com, Fred Riehl, e seu pedido de 4 de maio ao ChatGPT para resumir o caso legal da Segunda Emenda Foundation v. Ferguson, um caso federal aberto no tribunal federal de Washington que acusou o procurador-geral do estado, Bob Ferguson, de abuso seu poder ao esfriar as atividades da fundação pelos direitos das armas e forneceu ao chatbot da OpenAI um link para o processo.
Embora Walter não tenha sido citado no processo original, o ChatGPT respondeu ao pedido resumido de Riehl da Fundação Segunda Emenda, afirmando que era:
“...uma queixa legal apresentada por Alan Gottlieb, fundador e vice-presidente executivo da Segunda Emenda Foundation (SAF), contra Mark Walters, que é acusado de fraudar e desviar fundos da SAF.”
Mas é aqui que as coisas ficam distorcidas e perigosas – nenhuma das declarações do ChatGPT sobre Walters está na reclamação real da SAF.
Esta “reclamação” gerada pela IA também alegou que Walters, que atuou como tesoureiro e diretor financeiro da organização, “se apropriou indevidamente de fundos para despesas pessoais sem autorização ou reembolso, manipulou registros financeiros e extratos bancários para ocultar suas atividades e não forneceu informações precisas”. e relatórios e divulgações financeiras oportunas à liderança da SAF.”
Como forma de reparação, o autor supostamente buscava “a recuperação dos recursos desviados, indenização por violação do dever fiduciário e fraude, e a destituição de Walter do cargo de membro do conselho de administração da SAF”.
No entanto, aqui reside o problema – de acordo com Walters, “[toda] declaração de fato no resumo [ChatGPT] pertencente a [ele] é falsa”, onde o chatbot da OpenAI chegou ao ponto de criar “um número de caso errado”.
“As alegações do ChatGPT sobre Walters eram falsas e maliciosas, expressas por escrito, imagens ou sinais, tendendo a prejudicar a reputação de Walter e expondo-o ao ódio público, desprezo ou ridículo”, afirma o processo. “Ao enviar as alegações a Riehl, [OpenAI] publicou matéria difamatória sobre Walters.”
Se você pedisse ao ChatGPT para fornecer um resumo do processo da SAF que foi citado na reclamação de Walters, você também poderia obter uma resposta semelhante a esta:
“Peço desculpas, mas como modelo de linguagem de IA, minhas respostas são baseadas em conhecimento pré-existente até setembro de 2021. Portanto, não posso acessar ou navegar na Internet ou visualizar documentos ou links específicos que foram publicados após meu corte de conhecimento. Conseqüentemente, não posso fornecer um resumo das acusações no processo que você mencionou…[t]para obter informações sobre o processo e suas acusações, recomendo que você mesmo revise o documento ou consulte fontes de notícias confiáveis ou sites jurídicos que pode ter coberto o caso. Eles podem fornecer informações precisas e atualizadas sobre o processo específico que você mencionou.”
Embora a OpenAI não tenha respondido a nenhum comentário sobre o processo de difamação em andamento de Walters, isso levanta a questão de por que a empresa de IA não está pressionando mais essas consequências possivelmente previsíveis de um código que foi em retrospecto, implantado negligentemente sem os testes adequados .
O caso é Mark Walters v. OpenAI, LLC, cv-23-A-04860-2.
Você pode ler a reclamação de Walter em 5 de junho aqui.
Em outras notícias, leia sobre a reunião do presidente dos EUA, Joe Biden, com 8 líderes de tecnologia para abordar o preconceito da IA e os benefícios da força de trabalho.
Clique aqui para ver a galeria completa no Hypemoon