Vários funcionários atuais e antigos da OpenAI e do Google DeepMind acusaram suas empresas de esconder riscos de IA que poderiam potencialmente desencadear a extinção humana. Numa carta aberta, os trabalhadores alegaram que as empresas de IA estão a colocar o lucro em primeiro lugar, evitando ao mesmo tempo uma “supervisão [governamental] eficaz”.

Leia também: OpenAI alinha sucessor do GPT-4 em meio a preocupações de segurança

A carta aberta foi assinada por 11 ex-funcionários da OpenAI, dois deles do Google DeepMind, e endossada pelo ‘padrinho da IA’ Geoffrey Hinton, ex-Google. Ele disse que as motivações de lucro e as lacunas regulatórias permitem que as empresas encobrem as ameaças representadas pela inteligência artificial avançada.

IA pode levar à “extinção humana”

De acordo com a carta, empresas de IA como a OpenAI e o Google DeepMind, criador do Gemini, não partilharam publicamente informações sobre as salvaguardas inadequadas e os níveis de risco dos seus sistemas porque não são obrigados a fazê-lo.

Sem supervisão regulamentar, os programas de IA poderiam causar grandes danos aos seres humanos. Os funcionários alertaram:

“Estes riscos vão desde o aprofundamento das desigualdades existentes… até à perda de controlo de sistemas autónomos de IA, resultando potencialmente na extinção humana.”

Conforme observado pelos signatários da carta, as próprias empresas de IA reconheceram estes riscos. Em maio de 2023, os CEOs da OpenAI, Anthropic e Google DeepMind co-assinaram uma carta aberta do Center for AI Safety. A carta dizia simplesmente: “Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos à escala social, como pandemias e guerra nuclear”.

As empresas de IA estão cada vez mais sob escrutínio por colocarem novos produtos e lucros em detrimento da segurança e da proteção. OpenAI, fabricante do ChatGPT, observou as preocupações levantadas na carta e disse que está trabalhando para desenvolver inteligência artificial que seja segura.

“Estamos orgulhosos de nosso histórico de fornecer a IA mais capaz e segura. sistemas e acreditamos em nossa abordagem científica para lidar com riscos”, disse Lindsey Held, porta-voz da OpenAI, ao New York Times.

“Concordamos que um debate rigoroso é crucial dada a importância desta tecnologia, e continuaremos a colaborar com governos, sociedade civil e outras comunidades em todo o mundo.”

Denunciantes temem retaliação

Os ex-funcionários da OpenAI e do Google disseram que gostariam de ocupar a função de supervisão enquanto os reguladores elaboram leis que obrigam os desenvolvedores de IA a divulgar publicamente mais informações sobre seus programas.

No entanto, os acordos de confidencialidade e a probabilidade de retaliação por parte dos empregadores desencorajam os trabalhadores de expressarem publicamente as suas preocupações. Pela carta:

“Alguns de nós tememos razoavelmente várias formas de retaliação, dado o histórico de tais casos em toda a indústria. Não somos os primeiros a encontrar ou falar sobre essas questões.”

Os denunciantes são protegidos por lei nos EUA, mas aqueles que falam sobre os perigos da inteligência artificial não são cobertos porque a tecnologia ainda não está regulamentada.

Leia também: ChatGPT ainda espalha falsidades, afirma o EU Data Watchdog

A carta apelava às empresas de IA para facilitarem feedback anónimo verificável, apoiarem uma cultura de crítica aberta e não retaliarem contra denunciantes.

O pesquisador de IA Lance B. Eliot disse que as empresas adotam uma abordagem de incentivo e castigo às críticas. Os funcionários que não se manifestam contra os riscos são recompensados ​​com promoções profissionais e aumentos salariais.

Por outro lado, os denunciantes e os críticos perdem as suas opções de ações e podem ser forçados a sair da empresa e silenciosamente colocados na lista negra pela comunidade de liderança da IA.

Reportagem criptopolitana de Jeffrey Gogo