O cofundador da Ethereum, Vitalik Buterin, levantou alarmes sobre os riscos associados à IA superinteligente e a necessidade de um forte mecanismo de defesa.

Os comentários de Buterin ocorrem em um momento em que, com o rápido desenvolvimento da inteligência artificial, as preocupações sobre a segurança da IA cresceram significativamente.

O Plano de Regulamentação da IA de Buterin: Responsabilidade, Botões de Pausa e Controle Internacional

Em um post de blog datado de 5 de janeiro, Vitalik Buterin delineou sua ideia por trás de 'd/acc ou aceleração defensiva', onde a tecnologia deve ser desenvolvida para defender em vez de causar dano. No entanto, esta não é a primeira vez que Buterin fala sobre os riscos associados à inteligência artificial.

“Uma maneira pela qual a IA, se usada de forma errada, poderia tornar o mundo pior é (quase) a pior maneira possível: poderia literalmente causar a extinção humana,” disse Buterin em 2023.

Buterin agora acompanhou suas teorias de 2023. De acordo com Buterin, a superinteligência está potencialmente a poucos anos de existir.

 “Parece provável que tenhamos prazos de três anos até a AGI e mais três anos até a superinteligência. E assim, se não queremos que o mundo seja destruído ou caia em uma armadilha irreversível, não podemos apenas acelerar o bom, também precisamos desacelerar o ruim,” escreveu Buterin.

Para mitigar riscos relacionados à IA, Buterin defende a criação de sistemas de IA descentralizados que permaneçam intimamente ligados à tomada de decisão humana. Ao garantir que a IA permaneça uma ferramenta nas mãos dos humanos, a ameaça de resultados catastróficos pode ser minimizada.

Buterin então explicou como os militares poderiam ser os atores responsáveis por um cenário de 'doom da IA'. O uso militar da IA está crescendo globalmente, como foi visto na Ucrânia e em Gaza. Buterin também acredita que qualquer regulamentação da IA que entre em vigor provavelmente isentaria os militares, o que os torna uma ameaça significativa.

O cofundador da Ethereum ainda delineou seus planos para regular o uso da IA. Ele disse que o primeiro passo para evitar riscos associados à IA é tornar os usuários responsáveis.

“Enquanto a ligação entre como um modelo é desenvolvido e como ele acaba sendo utilizado é frequentemente obscura, o usuário decide exatamente como a IA é utilizada,” explicou Buterin, destacando o papel desempenhado pelos usuários.

Se as regras de responsabilidade não funcionarem, o próximo passo seria implementar botões de “pausa suave” que permitam que a regulamentação da IA desacelere o ritmo de avanços potencialmente perigosos.

“O objetivo seria ter a capacidade de reduzir a computação disponível mundialmente em ~90-99% por 1-2 anos em um período crítico, para comprar mais tempo para a humanidade se preparar.”

Ele disse que a pausa pode ser implementada pela verificação e registro de localização da IA.

Outra abordagem seria controlar o hardware da IA. Buterin explicou que o hardware da IA poderia ser equipado com um chip para controlá-lo.

O chip permitirá que os sistemas de IA funcionem apenas se receberem três assinaturas de órgãos internacionais semanalmente. Ele acrescentou ainda que pelo menos um dos órgãos deve ser não militarmente afiliado.

No entanto, Buterin admitiu que suas estratégias têm falhas e são apenas 'soluções temporárias'.