TLDR:
Cientistas de IA alertam sobre potenciais resultados catastróficos se os humanos perderem o controle da IA
Sistema de supervisão global e planos de contingência são instados a prevenir riscos de IA
Três processos principais propostos: preparação para emergências, garantia de segurança e pesquisa independente
Mais de 30 especialistas de vários países assinaram a declaração
Preocupações levantadas sobre a falta de intercâmbio científico entre superpotências sobre ameaças de IA
Especialistas em inteligência artificial (IA) do mundo todo emitiram um alerta sobre os riscos potenciais associados a sistemas avançados de IA.
Em uma declaração divulgada em 16 de setembro de 2024, mais de 30 cientistas de vários países, incluindo Estados Unidos, Canadá, China e Reino Unido, pediram a criação de um sistema de supervisão global para evitar possíveis “resultados catastróficos” se os humanos perderem o controle da IA.
A declaração, que se baseia nas conclusões do Diálogo Internacional sobre Segurança da IA em Veneza, enfatiza a necessidade de cooperação e governança internacional no desenvolvimento da IA.
Os cientistas argumentam que a segurança da IA deve ser reconhecida como um bem público global, exigindo esforços coletivos para abordar riscos potenciais.
Uma das principais preocupações destacadas na declaração é a possibilidade de perda do controle humano sobre sistemas avançados de IA ou seu uso malicioso. Os especialistas alertam que tais cenários podem levar a consequências terríveis para a humanidade.
Eles ressaltam que a ciência necessária para controlar e proteger a IA altamente avançada ainda não foi desenvolvida, ressaltando a urgência de abordar essas questões.
Para enfrentar esses desafios, os cientistas propõem três processos principais.
Primeiro, eles pedem o estabelecimento de acordos e instituições de preparação para emergências. Isso envolveria o desenvolvimento de autoridades dentro de cada país para detectar e responder a incidentes de IA e riscos catastróficos. Essas autoridades nacionais trabalhariam juntas para criar um plano de contingência global para incidentes graves relacionados à IA.
O segundo processo proposto é a implementação de uma estrutura de garantia de segurança. Isso exigiria que os desenvolvedores de IA fornecessem um caso de segurança de alta confiança antes de implantar modelos com capacidades que excedessem os limites especificados. A estrutura também incluiria monitoramento pós-implantação e auditorias independentes para garantir a segurança contínua.
Por fim, os especialistas defendem a pesquisa independente global de segurança e verificação de IA. Essa pesquisa se concentraria no desenvolvimento de técnicas para verificar rigorosamente as alegações de segurança feitas por desenvolvedores de IA e potencialmente outras nações. Para garantir a independência, a pesquisa seria conduzida globalmente e financiada por uma ampla gama de governos e filantropos.
A declaração vem em um momento em que a troca científica entre superpotências está diminuindo, e a desconfiança entre os Estados Unidos e a China está crescendo. Os cientistas argumentam que essa falta de cooperação torna mais difícil alcançar consenso sobre ameaças de IA, enfatizando ainda mais a necessidade de diálogo e colaboração globais.
No início de setembro de 2024, os Estados Unidos, a União Europeia e o Reino Unido assinaram o primeiro tratado internacional de IA juridicamente vinculativo do mundo. Este acordo prioriza os direitos humanos e a responsabilização na regulamentação da IA. No entanto, algumas corporações e executivos de tecnologia expressaram preocupações de que o excesso de regulamentação poderia sufocar a inovação, particularmente na União Europeia.
O grupo de especialistas em IA que assinou a declaração inclui pesquisadores de importantes instituições e universidades de IA, bem como vários vencedores do Prêmio Turing, considerado o equivalente ao Prêmio Nobel de computação.
A experiência coletiva deles dá peso significativo às preocupações levantadas e às recomendações feitas na declaração.
A postagem Proteja a humanidade da IA: especialistas pedem supervisão global para evitar uma potencial catástrofe de IA apareceu primeiro em Blockonomi.