Das britische Artificial Intelligence (AI) Safety Institute will mit einem neuen Standort in den USA international expandieren.

Am 20. Mai gab die britische Technologieministerin Michelle Donelan bekannt, dass das Institut im Sommer in San Francisco sein erstes Auslandsbüro eröffnen werde.

In der Ankündigung hieß es, dass die strategische Entscheidung für ein Büro in San Francisco es Großbritannien ermöglichen werde, „die Fülle an technischen Talenten in der Bay Area zu nutzen“ und gleichzeitig mit einem der weltweit größten KI-Labore zwischen London und San Francisco zusammenzuarbeiten.

Darüber hinaus hieß es, dieser Schritt werde dabei helfen, die Beziehungen zu wichtigen Akteuren in den USA zu „festigen“, um „im öffentlichen Interesse“ die globale KI-Sicherheit voranzutreiben.

Die Londoner Niederlassung des AI Safety Institute verfügt bereits über ein 30-köpfiges Team, das auf dem besten Weg ist, zu wachsen und seine Fachkompetenz insbesondere im Bereich der Risikobewertung für bahnbrechende KI-Modelle zu erweitern.

Donelan sagte, die Erweiterung stelle die Vorreiterrolle Großbritanniens und seine Vision für KI-Sicherheit in Aktion dar.

„Dies ist ein entscheidender Moment für Großbritanniens Fähigkeit, sowohl die Risiken als auch das Potenzial von KI aus globaler Sicht zu untersuchen. Damit wird unsere Partnerschaft mit den USA gestärkt und der Weg für andere Länder geebnet, von unserem Fachwissen zu profitieren, während wir in Sachen KI-Sicherheit weiterhin weltweit führend bleiben.“

Dies folgt auf den wegweisenden AI Safety Summit in Großbritannien, der im November 2023 in London stattfand. Der Gipfel war der erste seiner Art, der sich auf KI-Sicherheit auf globaler Ebene konzentrierte.

Verwandte Themen: Microsoft droht in der EU eine Milliardenstrafe wegen Bing AI

An der Veranstaltung nahmen Führungspersönlichkeiten aus der ganzen Welt teil, darunter aus den USA und China, sowie führende Stimmen aus dem KI-Bereich, darunter Microsoft-Präsident Brad Smith, OpenAI-CEO Sam Altman, Google- und DeepMind-CEO Demis Hassabiss und Elon Musk.

In dieser jüngsten Ankündigung teilte das Vereinigte Königreich mit, dass es auch eine Auswahl der jüngsten Ergebnisse der Sicherheitstests veröffentlicht, die das Institut an fünf öffentlich verfügbaren fortschrittlichen KI-Modellen durchgeführt hat.

Die Modelle wurden anonymisiert und es wurde erklärt, dass die Ergebnisse eine „Momentaufnahme“ der Fähigkeiten der Modelle lieferten, anstatt sie als „sicher“ oder „unsicher“ zu bezeichnen.

Zu den Ergebnissen gehörte, dass einige Modelle die Herausforderungen der Cybersicherheit bewältigen konnten, andere jedoch mit anspruchsvolleren Herausforderungen zu kämpfen hatten. Mehrere Modelle verfügten über Kenntnisse in Chemie und Biologie auf Doktoratsniveau.

Es kam zu dem Schluss, dass alle getesteten Modelle „sehr anfällig“ für einfache Jailbreaks seien und dass die getesteten Modelle nicht in der Lage seien, „komplexere, zeitaufwändigere Aufgaben“ ohne menschliche Aufsicht zu erledigen.

Ian Hogearth, Vorsitzender des Instituts, sagte, diese Beurteilungen würden zu einer empirischen Bewertung der Modellfähigkeiten beitragen.

„KI-Sicherheit ist noch ein sehr junges und aufstrebendes Feld. Diese Ergebnisse stellen nur einen kleinen Teil des Bewertungsansatzes dar, den AISI entwickelt.“

Magazin: David Brin, Science-Fiction-Autor: „Hetzt KIs aufeinander“, um eine KI-Apokalypse zu verhindern