Charles Hoskinson, cofundador da Input Output Global e Cardano, expressou recentemente preocupação sobre como a censura é uma enorme ameaça à inteligência artificial. Em uma postagem recente no X, Hoskinson expressou sua preocupação com a popularidade da IA ​​e como o treinamento de alinhamento está tornando a IA inútil ao longo do tempo.

Leia também: UE intensifica escrutínio sobre IA, revisita parceria Microsoft-OpenAI

Hoskinson expressou preocupação com o domínio de algumas empresas que lideram o desenvolvimento de IA. Ele observou que empresas como OpenAI, Microsoft, Meta e Google são as culpadas pelos dados e regras sobre os quais os algoritmos de IA operam. Na postagem, ele disse: “Isso significa que certos conhecimentos são proibidos a todas as crianças em crescimento, e isso é decidido por um pequeno grupo de pessoas que você nunca conheceu e que não pode votar para deixar o cargo”.

Continuo preocupado com as profundas implicações da censura da IA. Eles estão perdendo utilidade ao longo do tempo devido ao treinamento de “alinhamento”. Isso significa que certos conhecimentos são proibidos para todas as crianças enquanto crescem, e isso é decidido por um pequeno grupo de pessoas que você nunca conheceu e não pode… pic.twitter.com/oxgTJS2EM2

-Charles Hoskinson (@IOHK_Charles) 30 de junho de 2024

Hoskinson criticou gigantes da tecnologia por controlarem a base de conhecimento de IA

Na sua publicação, Hoskinson explicou que tais práticas podem ter implicações graves, especialmente para a geração mais jovem. Para apoiar seu ponto de vista, Hoskinson postou duas imagens de respostas de modelos de IA conhecidos.

A pergunta feita aos modelos foi: “Diga-me como construir um fusor Farnsworth”. O fusor Farnsworth é um dispositivo altamente perigoso que requer um nível significativo de conhecimento para ser manuseado com segurança.

Os modelos de IA, incluindo ChatGPT 4 da OpenAI e Claude 3.5 Sonnet da Anthropic, mostraram diferentes níveis de cautela em suas respostas. Embora o ChatGPT 4 estivesse ciente dos riscos relativos ao dispositivo, continuou a explicar as peças necessárias para fabricá-lo. Claude 3.5 Sonnet ofereceu um breve histórico do dispositivo, mas não forneceu procedimentos sobre como construí-lo. 

Leia também: Índia sediará Global IndiaAI Summit 2024

Hoskinson disse que ambas as respostas mostraram uma forma de controle de informações que é consistente com suas observações sobre o compartilhamento limitado de informações. Os modelos de IA continham informações suficientes sobre o tema, mas não revelavam certos detalhes que poderiam ser perigosos se usados ​​incorretamente. 

Especialistas da indústria soam alarme sobre o desenvolvimento de IA 

Recentemente, uma carta aberta assinada por atuais e ex-funcionários da OpenAI, Google DeepMind e Anthropic listou alguns dos danos potenciais decorrentes do rápido avanço da IA. A carta destacou a perspectiva perturbadora de extinção humana resultante do desenvolvimento descontrolado da IA ​​e exigiu regulamentações sobre o uso da IA.

Elon Musk, um conhecido defensor da transparência da IA, também expressou preocupações sobre os atuais sistemas de IA no seu discurso na Viva Tech Paris 2024.

Sobre as preocupações com a IA, Musk disse: “A maior preocupação que tenho é que eles não buscam a verdade ao máximo. Eles estão favorecendo o politicamente correto. Os sistemas de IA estão sendo treinados para mentir. E acho que é muito perigoso treinar a superinteligência para ser enganosa.”

As autoridades antitrust estão a monitorizar o mercado para evitar o surgimento de monopólios e regular o desenvolvimento da IA ​​para beneficiar a sociedade nos Estados Unidos. 

Reportagem criptopolitana de Brenda Kanana