L'Istituto per la sicurezza dell'intelligenza artificiale (AI) del Regno Unito è destinato ad espandersi a livello internazionale con una nuova sede negli Stati Uniti.

Il 20 maggio Michelle Donelan, segretaria per la tecnologia del Regno Unito, ha annunciato che l'istituto aprirà il suo primo ufficio all'estero a San Francisco in estate.

L’annuncio afferma che la scelta strategica di un ufficio a San Francisco consentirà al Regno Unito di “attingere alla ricchezza di talenti tecnologici disponibili nella Bay Area”, oltre a collaborare con uno dei laboratori di intelligenza artificiale più grandi del mondo situato tra Londra e San Francisco.

Inoltre, ha affermato che questa mossa aiuterà a “consolidare” i rapporti con i principali attori negli Stati Uniti per promuovere la sicurezza globale dell’intelligenza artificiale “nell’interesse pubblico”.

La filiale londinese dell'AI Safety Institute dispone già di un team di 30 persone che è sulla buona strada per crescere e acquisire maggiori competenze, in particolare nel campo della valutazione del rischio per i modelli di intelligenza artificiale di frontiera.

Donelan ha affermato che l'espansione rappresenta il leader e la visione del Regno Unito per la sicurezza dell'intelligenza artificiale in azione.

"È un momento cruciale nella capacità del Regno Unito di studiare sia i rischi che il potenziale dell'intelligenza artificiale da una prospettiva globale, rafforzando la nostra partnership con gli Stati Uniti e aprendo la strada ad altri paesi per attingere alla nostra competenza mentre continuiamo a guidare il mondo sulla sicurezza dell'intelligenza artificiale".

Ciò segue l'importante AI Safety Summit del Regno Unito che si è svolto a Londra nel novembre 2023. Il summit è stato il primo del suo genere a concentrarsi sulla sicurezza dell'IA su scala globale.

Correlato: Microsoft rischia una multa multimiliardaria nell'UE per Bing AI

L'evento ha visto la partecipazione di leader provenienti da tutto il mondo, tra cui Stati Uniti e Cina, e di voci di spicco nel settore dell'intelligenza artificiale, tra cui il presidente di Microsoft Brad Smith, il CEO di OpenAI Sam Altman, il CEO di Google e DeepMind Demis Hassabiss ed Elon Musk.

In questo ultimo annuncio, il Regno Unito ha affermato che pubblicherà anche una selezione dei recenti risultati dell’istituto dai test di sicurezza condotti su cinque modelli di intelligenza artificiale avanzata disponibili al pubblico.

Ha reso anonimi i modelli e ha affermato che i risultati forniscono un'“istantanea” delle capacità dei modelli invece di designarli come “sicuri” o “non sicuri”.

Parte dei risultati includeva che diversi modelli potevano completare le sfide della sicurezza informatica, sebbene altri avessero difficoltà con quelle più avanzate. Si è scoperto che diversi modelli avevano una conoscenza di livello PhD in chimica e biologia.

Si è concluso che tutti i modelli testati erano “altamente vulnerabili” ai jailbreak di base e che i modelli testati non erano in grado di completare “attività più complesse e dispendiose in termini di tempo” senza la supervisione umana.

Ian Hogearth, presidente dell'istituto, ha affermato che queste valutazioni contribuiranno a una valutazione empirica delle capacità del modello.

"La sicurezza dell'IA è ancora un campo molto giovane ed emergente. Questi risultati rappresentano solo una piccola parte dell'approccio di valutazione che AISI sta sviluppando."

Rivista: "Scatenare le IA l'una contro l'altra" per prevenire l'apocalisse dell'IA: David Brin, autore di fantascienza