Vitalik Buterin IA

O cofundador do Ethereum (ETH), Vitalik Buterin, levantou preocupações sobre os riscos associados à inteligência artificial (IA) superinteligente e a necessidade de um forte mecanismo de defesa.

Os comentários de Buterin surgem em um momento em que, com o rápido desenvolvimento da inteligência artificial e as preocupações com a segurança cresceram significativamente.

Plano de Regulação de IA de Buterin

Em um post em blog no dia 5 de janeiro, Vitalik Buterin delineou sua ideia por trás do ‘d/acc ou aceleração defensiva’, onde a tecnologia deve ser desenvolvida para defender em vez de causar danos. Nesse sentido, esta não é a primeira vez que Buterin aborda os riscos associados à Inteligência Artificial. 

Uma maneira pela qual a IA pode dar errado e piorar o mundo é (quase) da pior forma possível: ela poderia literalmente causar a extinção humana, Buterin disse em 2023.

Além disso, Buterin agora deu continuidade às suas teorias de 2023. Segundo ele, a superinteligência está potencialmente a poucos anos de existência. 

Parece provável que tenhamos cronogramas de três anos até a AGI e mais três anos até a superinteligência. E assim, se não quisermos que o mundo seja destruído ou caia em uma armadilha irreversível, não podemos apenas acelerar o bem, também temos que desacelerar o mal, escreveu Buterin.

Para mitigar os riscos relacionados à IA, o cofundador do Ethereum defende a criação de sistemas de IA descentralizados que permaneçam fortemente ligados à tomada de decisões humanas. Ao garantir que a IA continue sendo uma ferramenta nas mãos dos humanos, a ameaça de resultados catastróficos pode ser minimizada.

Buterin então explicou como os militares poderiam ser os responsáveis por um cenário de ‘condenação da IA’. O uso militar da IA está aumentando globalmente, como se observou na Ucrânia e em Gaza. Buterin também acredita que qualquer regulamentação de IA que entre em vigor provavelmente isentaria os militares, o que os torna uma ameaça significativa.

O cofundador do Ethereum delineou ainda seus planos para regular o uso da tecnologia. Ele disse que o primeiro passo para evitar riscos associados à IA é responsabilizar os usuários.

Embora a ligação entre como um modelo é desenvolvido e como ele acaba sendo usado seja muitas vezes obscura, o usuário decide exatamente como a IA é utilizada, explicou Buterin, destacando o papel desempenhado pelos usuários.

Se as regras de responsabilidade não funcionarem, o próximo passo seria implementar botões de “pausa suave” que permitam que a regulamentação da IA desacelere o ritmo de avanços potencialmente perigosos.

O objetivo seria ter a capacidade de reduzir a computação disponível mundialmente em ~90-99% por 1-2 anos em um período crítico, para ganhar mais tempo para a humanidade se preparar.

Ele disse que é possível implementar a pausa por meio da verificação e do registro da localização da IA.Portanto, outra abordagem seria controlar o hardware da IA. Buterin explicou que um chip poderia equipar o hardware da IA para controlá-lo.

O chip permitirá que os sistemas de inteligência artificial funcionem apenas se receberem três assinaturas de órgãos internacionais semanalmente. Além disso, ele acrescentou que pelo menos um dos órgãos deve ser não militar.

No entanto, Buterin admitiu que suas estratégias têm falhas e são apenas ‘soluções temporárias’.

O artigo Vitalik Buterin alerta: IA superinteligente pode chegar em breve foi visto pela primeira vez em BeInCrypto Brasil.