O Instituto de Segurança de Inteligência Artificial (IA) do Reino Unido deverá se expandir internacionalmente com uma nova localização nos Estados Unidos.

Em 20 de maio, Michelle Donelan, secretária de tecnologia do Reino Unido, anunciou que o instituto abrirá seu primeiro escritório no exterior em São Francisco no verão.

O anúncio dizia que a escolha estratégica de um escritório em São Francisco permitirá ao Reino Unido “aproveitar a riqueza de talentos tecnológicos disponíveis na Bay Area”, juntamente com o envolvimento com um dos maiores laboratórios de IA do mundo, localizado entre Londres e São Francisco.

Além disso, disse que esta medida ajudará a “consolidar” relações com os principais intervenientes nos EUA para promover a segurança global da IA ​​“para o interesse público”.

A filial de Londres do AI Safety Institute já conta com uma equipe de 30 pessoas que está em trajetória para escalar e adquirir mais experiência, especialmente na área de avaliação de risco para modelos de IA de fronteira.

Donelan disse que a expansão representa o líder e a visão do Reino Unido para a segurança da IA ​​em ação.

“É um momento crucial na capacidade do Reino Unido de estudar os riscos e o potencial da IA ​​a partir de uma perspectiva global, fortalecendo a nossa parceria com os EUA e abrindo caminho para que outros países aproveitem a nossa experiência à medida que continuamos a liderar o mundo em Segurança de IA.”

Isto segue-se à histórica Cimeira de Segurança da IA ​​​​do Reino Unido, que teve lugar em Londres em novembro de 2023. A cimeira foi a primeira do género a centrar-se na segurança da IA ​​à escala global.

Relacionado: Microsoft enfrenta multa multibilionária na UE por causa do Bing AI

O evento contou com líderes de todo o mundo, incluindo os EUA e a China, e vozes importantes no espaço de IA, incluindo o presidente da Microsoft, Brad Smith, o CEO da OpenAI, Sam Altman, o CEO do Google e da DeepMind, Demis Hassabiss e Elon Musk.

Neste último anúncio, o Reino Unido disse que também está divulgando uma seleção dos resultados recentes do instituto provenientes de testes de segurança realizados em cinco modelos avançados de IA disponíveis publicamente.

Anonimizou os modelos e disse que os resultados fornecem um “instantâneo” das capacidades dos modelos, em vez de designá-los como “seguros” ou “inseguros”.

Parte das descobertas incluiu que vários modelos poderiam completar os desafios de segurança cibernética, embora outros tivessem dificuldades com modelos mais avançados. Descobriu-se que vários modelos tinham conhecimento de química e biologia em nível de doutorado.

Concluiu que todos os modelos testados eram “altamente vulneráveis” a jailbreaks básicos e que os modelos testados não eram capazes de completar “tarefas mais complexas e demoradas” sem supervisão humana.

Ian Hogearth, presidente do instituto, disse que estas avaliações ajudarão a contribuir para uma avaliação empírica das capacidades do modelo.

“A segurança da IA ​​ainda é um campo muito jovem e emergente. Estes resultados representam apenas uma pequena parte da abordagem de avaliação que a AISI está a desenvolver.”

Revista:'Sic AIs uns contra os outros' para evitar o apocalipse da IA: David Brin, autor de ficção científica