L'Institut britannique de sécurité de l'intelligence artificielle (IA) est sur le point de se développer à l'international avec un nouveau site aux États-Unis.

Le 20 mai, Michelle Donelan, secrétaire britannique à la Technologie, a annoncé que l'institut ouvrirait son premier bureau à l'étranger à San Francisco cet été.

L’annonce indique que le choix stratégique d’un bureau à San Francisco permettra au Royaume-Uni de « puiser dans la richesse des talents technologiques disponibles dans la Bay Area », tout en s’engageant avec l’un des plus grands laboratoires d’IA au monde situé entre Londres et San Francisco.

En outre, elle a déclaré que cette initiative l'aiderait à « consolider » ses relations avec les principaux acteurs aux États-Unis afin de promouvoir la sécurité de l'IA à l'échelle mondiale « dans l'intérêt public ».

La branche londonienne de l'AI Safety Institute dispose déjà d'une équipe de 30 personnes qui est en passe de se développer et d'acquérir davantage d'expertise, notamment dans le domaine de l'évaluation des risques pour les modèles d'IA de pointe.

Donelan a déclaré que cette expansion représente le leader et la vision du Royaume-Uni en matière de sécurité de l'IA en action.

« Il s’agit d’un moment crucial dans la capacité du Royaume-Uni à étudier à la fois les risques et le potentiel de l’IA dans une perspective mondiale, renforçant ainsi notre partenariat avec les États-Unis et ouvrant la voie à d’autres pays pour qu’ils puissent exploiter notre expertise alors que nous continuons à être les leaders mondiaux en matière de sécurité de l’IA. »

Cette initiative fait suite au sommet historique sur la sécurité de l’IA qui s’est tenu au Royaume-Uni à Londres en novembre 2023. Ce sommet était le premier du genre à se concentrer sur la sécurité de l’IA à l’échelle mondiale.

En lien : Microsoft risque une amende de plusieurs milliards de dollars dans l'UE pour Bing AI

L'événement a réuni des dirigeants du monde entier, notamment des États-Unis et de la Chine, ainsi que des voix de premier plan dans le domaine de l'IA, notamment le président de Microsoft, Brad Smith, le PDG d'OpenAI, Sam Altman, le PDG de Google et de DeepMind, Demis Hassabiss, et Elon Musk.

Dans cette dernière annonce, le Royaume-Uni a déclaré qu'il publiait également une sélection des résultats récents de l'institut issus des tests de sécurité qu'il a menés sur cinq modèles d'IA avancés accessibles au public.

Les modèles ont été anonymisés et les résultats ont été déclarés comme fournissant un « instantané » des capacités des modèles au lieu de les désigner comme « sûrs » ou « non sûrs ».

Les résultats ont notamment montré que plusieurs modèles étaient capables de relever des défis en matière de cybersécurité, tandis que d’autres rencontraient des difficultés pour relever des défis plus avancés. Plusieurs modèles possédaient des connaissances de niveau doctorat en chimie et en biologie.

L’étude a conclu que tous les modèles testés étaient « très vulnérables » aux jailbreaks de base et que les modèles testés n’étaient pas capables d’effectuer des « tâches plus complexes et chronophages » sans supervision humaine.

Ian Hogearth, président de l’institut, a déclaré que ces évaluations contribueront à une évaluation empirique des capacités du modèle.

« La sécurité de l’IA est encore un domaine très jeune et émergent. Ces résultats ne représentent qu’une petite partie de l’approche d’évaluation que l’AISI est en train de développer. »

Magazine : « Sic AIs on other » pour éviter l’apocalypse de l’IA : David Brin, auteur de science-fiction