El Instituto de Seguridad de Inteligencia Artificial (IA) del Reino Unido se expandirá internacionalmente con una nueva ubicación en los Estados Unidos.

El 20 de mayo, Michelle Donelan, secretaria de Tecnología del Reino Unido, anunció que el instituto abrirá su primera oficina en el extranjero en San Francisco en el verano.

El anuncio decía que la elección estratégica de una oficina en San Francisco permitirá al Reino Unido "aprovechar la riqueza de talento tecnológico disponible en el Área de la Bahía", además de colaborar con uno de los laboratorios de inteligencia artificial más grandes del mundo ubicado entre Londres y San Francisco.

Además, dijo que esta medida le ayudará a "cimentar" las relaciones con actores clave en los EE. UU. para impulsar la seguridad global de la IA "por el interés público".

La sucursal de Londres del AI Safety Institute ya cuenta con un equipo de 30 personas que están en camino de escalar y adquirir más experiencia, particularmente en el campo de la evaluación de riesgos para modelos de IA de vanguardia.

Donelan dijo que la expansión representa el líder y la visión del Reino Unido para la seguridad de la IA en acción.

"Es un momento crucial en la capacidad del Reino Unido para estudiar tanto los riesgos como el potencial de la IA desde una perspectiva global, fortaleciendo nuestra asociación con los EE. UU. y allanando el camino para que otros países aprovechen nuestra experiencia mientras continuamos liderando el mundo en Seguridad de la IA”.

Esto sigue a la histórica Cumbre de Seguridad de la IA del Reino Unido que tuvo lugar en Londres en noviembre de 2023. La cumbre fue la primera de este tipo que se centró en la seguridad de la IA a escala global.

Relacionado: Microsoft se enfrenta a una multa multimillonaria en la UE por Bing AI

El evento contó con líderes de todo el mundo, incluidos EE. UU. y China, y voces destacadas en el espacio de la IA, como el presidente de Microsoft, Brad Smith, el director ejecutivo de OpenAI, Sam Altman, el director ejecutivo de Google y DeepMind, Demis Hassabiss y Elon Musk.

En este último anuncio, el Reino Unido dijo que también publicará una selección de los resultados recientes del instituto de las pruebas de seguridad que realizó de cinco modelos avanzados de IA disponibles públicamente.

Anonimizó los modelos y dijo que los resultados proporcionan una "instantánea" de las capacidades de los modelos en lugar de designarlos como "seguros" o "inseguros".

Parte de los hallazgos incluyeron que varios modelos podrían completar los desafíos de seguridad cibernética, aunque otros tuvieron problemas con los más avanzados. Se descubrió que varios modelos tenían conocimientos de química y biología a nivel de doctorado.

Concluyó que todos los modelos probados eran "altamente vulnerables" a jailbreaks básicos y que los modelos probados no podían completar "tareas más complejas y que requerían más tiempo" sin supervisión humana.

Ian Hogearth, presidente del instituto, dijo que estas evaluaciones ayudarán a contribuir a una evaluación empírica de las capacidades del modelo.

“La seguridad de la IA es todavía un campo muy joven y emergente. Estos resultados representan sólo una pequeña parte del enfoque de evaluación que AISI está desarrollando”.

Revista: 'Sic AI entre sí' para prevenir el apocalipsis de la IA: David Brin, autor de ciencia ficción