Rząd Wielkiej Brytanii ogłosił plany otwarcia pierwszego zagranicznego biura Instytutu Bezpieczeństwa AI w Stanach Zjednoczonych tego lata.

Przeczytaj także: Rola brytyjskiego i amerykańskiego porozumienia w sprawie bezpieczeństwa sztucznej inteligencji w ewolucji technologicznej

W oświadczeniu opublikowanym w poniedziałek brytyjska sekretarz ds. nauki i technologii Michelle Donelan powiedziała, że ​​nowe biuro w USA będzie zlokalizowane w San Francisco. W mieście działają jedne z największych firm zajmujących się sztuczną inteligencją, w tym OpenAI, Anthropic i Inflection AI.

Wielka Brytania pragnie zacieśnić partnerstwo z USA w zakresie bezpieczeństwa sztucznej inteligencji

Biuro z siedzibą w USA będzie starało się zatrudnić zespół personelu technicznego, na którego czele stanie dyrektor ds. badań, po rozpoczęciu działalności jeszcze w tym roku. W siedzibie Instytutu w Londynie pracuje obecnie ponad 30-osobowy zespół pracowników technicznych.

Sekretarz ds. technologii powiedział, że rozbudowa Instytutu reprezentuje brytyjskie przywództwo w dziedzinie sztucznej inteligencji i umożliwi nawiązanie ścisłej współpracy z rządem USA. 

To kluczowy moment, w którym Wielka Brytania może zbadać zarówno ryzyko, jak i potencjał sztucznej inteligencji z perspektywy globalnej, wzmacniając nasze partnerstwo z USA i torując drogę innym krajom do wykorzystania naszej wiedzy specjalistycznej, gdy będziemy nadal przewodzić światu w dziedzinie sztucznej inteligencji bezpieczeństwo.

Michelle Donelan, brytyjska sekretarz ds. nauki i technologii.

Donelan twierdzi, że instytut urósł z „siły w siłę”

Rząd Wielkiej Brytanii powołał Instytut Bezpieczeństwa AI w listopadzie 2023 r. Stwierdzono, że jego celem jest „zminimalizowanie niespodzianek dla Wielkiej Brytanii i ludzkości wynikających z szybkich i nieoczekiwanych postępów w dziedzinie sztucznej inteligencji”. 

Przeczytaj także: Rząd Wielkiej Brytanii ogłasza utworzenie Instytutu Bezpieczeństwa AI

Instytut koncentruje się przede wszystkim na ocenie „granicznych” systemów sztucznej inteligencji z punktu widzenia bezpieczeństwa narodowego. Rząd Wielkiej Brytanii stwierdził, że dzięki temu rozwiązaniu będzie w stanie opracować skuteczne reakcje polityczne i regulacyjne na zastosowania sztucznej inteligencji wdrożone na obszarze jego jurysdykcji.

Odkąd wspólnie z Premierem założyliśmy Instytut Bezpieczeństwa AI, urósł on w siłę w nieco ponad rok.

Michelle Donelan, brytyjska sekretarz ds. nauki i technologii.

Instytut publikuje wyniki swoich badań modelowych

Brytyjski Instytut Bezpieczeństwa AI jest podobno pierwszą organizacją wspieraną przez rząd, która opublikowała wyniki testów bezpieczeństwa modeli sztucznej inteligencji. Instytut przetestował pięć publicznie dostępnych modeli dużych języków, nie precyzując jednak ich nazw. 

Bezpieczeństwo sztucznej inteligencji to wciąż bardzo młoda i wschodząca dziedzina. […] Naszą ambicją jest dalsze przesuwanie granic w tej dziedzinie poprzez opracowywanie najnowocześniejszych ocen, ze szczególnym uwzględnieniem zagrożeń związanych z bezpieczeństwem narodowym.

Ian Hogarth, przewodniczący brytyjskiego Instytutu Bezpieczeństwa AI.

Stwierdzono, że kilka modeli spełniło wyzwania związane z bezpieczeństwem cybernetycznym. Jednak wszystkie okazały się bardzo podatne na podstawowe „jailbreaki”. Niektóre modele dawały szkodliwe skutki nawet wtedy, gdy nie podejmowano celowych prób obejścia zabezpieczeń.

Kryptopolityczne raporty Ibiama Wayasa