Le gouvernement britannique a annoncé son intention d’ouvrir cet été le premier bureau à l’étranger de son AI Safety Institute, aux États-Unis.

Lisez également : Le rôle de l’accord sur la sécurité de l’IA au Royaume-Uni et aux États-Unis dans l’évolution technologique

Dans un communiqué publié lundi, la secrétaire britannique aux Sciences et à la Technologie, Michelle Donelan, a déclaré que le nouveau bureau américain serait situé à San Francisco. La ville abrite certaines des plus grandes sociétés d’IA, notamment OpenAI, Anthropic et Inflection AI.

Le Royaume-Uni cherche à renforcer son partenariat avec les États-Unis sur la sécurité de l'IA

Le bureau basé aux États-Unis cherchera à recruter une équipe de personnel technique dirigée par un directeur de recherche lorsqu'il commencera ses activités plus tard cette année. Le siège londonien de l’Institut compte actuellement une équipe de plus de 30 techniciens.

Le secrétaire technique a déclaré que l'expansion de l'Institut représente le leadership britannique en matière d'IA et établirait une collaboration étroite avec le gouvernement américain. 

Il s'agit d'un moment charnière dans la capacité du Royaume-Uni à étudier à la fois les risques et le potentiel de l'IA dans une perspective mondiale, renforçant ainsi notre partenariat avec les États-Unis et ouvrant la voie à d'autres pays pour exploiter notre expertise alors que nous continuons à être leader mondial en matière d'IA. sécurité.

Michelle Donelan, secrétaire britannique aux sciences et à la technologie.

Donelan affirme que l’Institut est passé de « force en force »

Le gouvernement britannique a créé l’AI Safety Institute en novembre 2023. Il a déclaré que l’objectif était de « minimiser les surprises pour le Royaume-Uni et l’humanité dues aux progrès rapides et inattendus de l’IA ». 

Lisez aussi : Le gouvernement britannique annonce la création de l’AI Safety Institute

L’Institut se concentre principalement sur l’évaluation des systèmes d’IA « frontières » du point de vue de la sécurité nationale. Grâce à cette mesure, le gouvernement britannique a déclaré qu’il serait en mesure d’élaborer des réponses politiques et réglementaires efficaces aux applications d’IA déployées sur son territoire.

Depuis que le premier ministre et moi avons fondé l’AI Safety Institute, celui-ci n’a cessé de se renforcer en un peu plus d’un an.

Michelle Donelan, secrétaire britannique aux sciences et à la technologie.

L'Institut publie les résultats de ses tests modèles

L’AI Safety Institute du Royaume-Uni serait la première organisation soutenue par le gouvernement à publier les résultats de ses tests de sécurité sur les modèles d’IA. L’Institut a testé cinq grands modèles de langage accessibles au public, sans toutefois préciser les noms. 

La sécurité de l’IA est encore un domaine très jeune et émergent. […] Notre ambition est de continuer à repousser les frontières de ce domaine en développant des évaluations de pointe, en mettant l'accent sur les risques liés à la sécurité nationale.

Ian Hogarth, président de l’AI Safety Institute du Royaume-Uni.

Plusieurs modèles ont relevé ses défis en matière de cybersécurité. Cependant, ils se sont tous révélés très vulnérables aux « jailbreaks » de base. Certains modèles ont produit des résultats néfastes même en l’absence de tentatives délibérées de contourner les garanties.

Reportage cryptopolitain d'Ibiam Wayas