Institut bezpečnosti umělé inteligence (AI) Spojeného království se chystá expandovat do zahraničí s novým sídlem ve Spojených státech.

20. května Michelle Donelan, britská ministryně pro technologie, oznámila, že institut v létě otevře svou první zámořskou kancelář v San Franciscu.

Oznámení uvádělo, že strategická volba kanceláře v San Franciscu umožní Spojenému království „využít bohatství technologických talentů dostupných v oblasti Bay Area“ spolu se zapojením do jedné z největších světových laboratoří umělé inteligence nacházející se mezi Londýnem a San Franciskem.

Kromě toho uvedla, že tento krok jí pomůže „upevnit“ vztahy s klíčovými hráči v USA, aby se zasadila o globální bezpečnost AI „ve veřejném zájmu“.

Londýnská pobočka AI Safety Institute má již 30členný tým, který je na cestě k rozšiřování a získávání dalších odborných znalostí zejména v oblasti hodnocení rizik pro hraniční modely umělé inteligence.

Donelan řekl, že rozšíření představuje britského lídra a vizi bezpečnosti AI v akci. 

„Je to klíčový okamžik ve schopnosti Spojeného království studovat rizika i potenciál umělé inteligence z globálního pohledu, posiluje naše partnerství s USA a připravuje cestu dalším zemím, aby využily naše odborné znalosti, protože i nadále vedeme svět Bezpečnost AI."

Toto navazuje na významný britský summit o bezpečnosti umělé inteligence, který se konal v Londýně v listopadu 2023. Summit byl prvním svého druhu, který se zaměřil na bezpečnost umělé inteligence v celosvětovém měřítku.

Související: Microsoftu hrozí v EU mnohamiliardová pokuta za Bing AI

Akce se mohla pochlubit vůdci z celého světa, včetně USA a Číny, a předními hlasy v oblasti umělé inteligence, včetně prezidenta Microsoftu Brada Smithe, generálního ředitele OpenAI Sama Altmana, generálního ředitele Googlu a DeepMind Demise Hassabisse a Elona Muska. 

V tomto posledním oznámení Spojené království uvedlo, že také zveřejňuje výběr nedávných výsledků institutu z bezpečnostních testů, které provedl na pěti veřejně dostupných pokročilých modelech umělé inteligence.

Modely anonymizoval a uvedl, že výsledky poskytují „snímek“ schopností modelů místo toho, aby je označil za „bezpečné“ nebo „nebezpečné“.

Část zjištění zahrnovala, že několik modelů mohlo splnit výzvy kybernetické bezpečnosti, i když jiné se potýkaly s pokročilejšími. Bylo zjištěno, že několik modelů má znalosti z chemie a biologie na úrovni PhD.

Dospěl k závěru, že všechny testované modely byly „vysoce zranitelné“ vůči základním útěkům z vězení a že testované modely nebyly schopny dokončit „složitější, časově náročné úkoly“ bez lidského dohledu.

Ian Hogearth, předseda institutu, uvedl, že tato hodnocení pomohou přispět k empirickému hodnocení schopností modelu.

„Bezpečnost umělé inteligence je stále velmi mladá a rozvíjející se oblast. Tyto výsledky představují pouze malou část hodnotícího přístupu, který AISI vyvíjí.“

Časopis: ‚Sic AIs on each other‘, aby se zabránilo apokalypse AI: David Brin, autor sci-fi