Vitalik Buterin Soa o Alarme: A Ameaça Imediata da IA Superinteligente

Imagine um mundo onde a inteligência artificial supera a inteligência humana, levando a resultados catastróficos, incluindo a possibilidade de extinção humana. Esta não é uma cena de um filme de ficção científica; é uma preocupação real levantada pelo cofundador da Ethereum, Vitalik Buterin. À medida que a tecnologia de IA avança rapidamente, Buterin está instando o mundo a agir e desenvolver um forte mecanismo de defesa contra os riscos associados à IA superinteligente.

Os Riscos do Crescimento Descontrolado da IA

Os avisos de Buterin surgem em um momento em que as preocupações com a segurança da IA estão crescendo exponencialmente. Em um post recente no blog, ele delineou seu conceito de 'd/acc ou aceleração defensiva', que enfatiza a necessidade de tecnologia ser desenvolvida com a defesa em mente, em vez de se concentrar apenas no progresso. Esta não é a primeira vez que Buterin se manifesta sobre os riscos da IA; em 2023, ele destacou o potencial da IA para causar a extinção humana.

Um Cronograma de Três Anos para a Superinteligência

Os últimos avisos de Buterin são mais urgentes do que nunca, pois ele acredita que a superinteligência pode estar a apenas alguns anos de distância. 'Parece provável que tenhamos cronogramas de três anos até a AGI e mais três anos até a superinteligência', escreveu ele. Este cronograma ressalta a necessidade de ação imediata para mitigar os riscos relacionados à IA.

Sistemas de IA Descentralizados: Uma Potencial Solução

Para minimizar a ameaça de resultados catastróficos, Buterin defende a criação de sistemas de IA descentralizados que permaneçam intimamente ligados à tomada de decisão humana. Ao garantir que a IA permaneça uma ferramenta nas mãos dos humanos, podemos reduzir o risco de consequências devastadoras.

O Papel dos Militares na Regulação da IA

Buterin também destaca os riscos potenciais associados ao uso militar de IA, que está em ascensão globalmente. Ele acredita que qualquer regulação de IA provavelmente isentaria os militares, tornando-os uma ameaça significativa. Isso levanta questões importantes sobre a necessidade de cooperação e regulação internacional no desenvolvimento e uso de IA.

Um Plano de Três Etapas para Regular a IA

Buterin propõe um plano de três etapas para regular o uso da IA:

1. Responsabilidade: Tornar os usuários responsáveis pelas consequências do uso da IA. Ao responsabilizar os usuários, podemos incentivar um desenvolvimento e uma implementação de IA mais responsáveis. 2. Botões de Pausa Suaves: Implementar botões de 'pausa suave' que permitam que a regulação da IA desacelere o ritmo de avanços potencialmente perigosos. Isso poderia envolver a redução da computação disponível mundialmente em 90-99% por 1-2 anos para dar tempo à humanidade para se preparar. 3. Controle Internacional: Controlar o hardware da IA equipando-o com um chip que requer três assinaturas de órgãos internacionais semanalmente, incluindo pelo menos um órgão não militar afiliado.

Solucões Temporárias, Não Soluções Permanentes

Buterin reconhece que suas estratégias têm falhas e são apenas soluções temporárias. No entanto, ele enfatiza a necessidade de ação imediata para mitigar os riscos relacionados à IA.

À medida que o mundo se dirige para um futuro onde a IA supera a inteligência humana, é essencial levar os avisos de Buterin a sério. Seremos capazes de desenvolver um forte mecanismo de defesa contra os riscos associados à IA superinteligente, ou sucumbiremos aos perigos do crescimento descontrolado da IA? O tempo está passando.

Fonte: Beincrypto.com

O post O Plano de Regulação de IA de Vitalik Buterin: Responsabilidade & Controle apareceu primeiro no CoinBuzzFeed.