Apvienotās Karalistes Mākslīgā intelekta (AI) drošības institūts paplašināsies starptautiskā mērogā ar jaunu atrašanās vietu Amerikas Savienotajās Valstīs.

20. maijā Mišela Donelana, Apvienotās Karalistes tehnoloģiju sekretāre, paziņoja, ka institūts vasarā atklās savu pirmo aizjūras biroju Sanfrancisko.

Paziņojumā teikts, ka stratēģiskā Sanfrancisko biroja izvēle ļaus Apvienotajai Karalistei “izmantot līča apgabalā pieejamo tehnoloģiju talantu bagātību”, kā arī sadarboties ar vienu no pasaulē lielākajām mākslīgā intelekta laboratorijām, kas atrodas starp Londonu un Sanfrancisko.

Turklāt tā teica, ka šis solis palīdzēs tai "cementēt" attiecības ar galvenajiem spēlētājiem ASV, lai veicinātu globālo AI drošību "sabiedrības interesēs".

Jau tagad AI drošības institūta Londonas filiālē ir 30 cilvēku komanda, kas virzās uz mērogu un iegūst vairāk zināšanu, jo īpaši riska novērtēšanas jomā AI modeļiem.

Donelans sacīja, ka paplašināšanās ir Apvienotās Karalistes līderis un vīzija par AI drošību darbībā. 

"Tas ir izšķirošs brīdis Apvienotās Karalistes spējā izpētīt gan AI riskus, gan potenciālu no globāla objektīva, stiprinot mūsu partnerību ar ASV un paverot ceļu citām valstīm, lai izmantotu mūsu zināšanas, jo mēs turpinām vadīt pasauli AI drošība."

Tas notika pēc Apvienotās Karalistes ievērojamā AI drošības samita, kas notika Londonā 2023. gada novembrī. Šis samits bija pirmais šāda veida sanāksme, kurā galvenā uzmanība tika pievērsta AI drošībai globālā mērogā.

Saistīts: Microsoft draud vairāku miljardu dolāru sods ES par Bing AI

Pasākums lepojās ar līderiem no visas pasaules, tostarp ASV un Ķīnas, un vadošajām balsīm mākslīgā intelekta jomā, tostarp Microsoft prezidentu Bredu Smitu, OpenAI izpilddirektoru Semu Altmenu, Google un DeepMind izpilddirektoru Demisu Hasabisu un Elonu Masku. 

Šajā jaunākajā paziņojumā Apvienotā Karaliste paziņoja, ka tā arī publicē izlasi no institūta nesenajiem rezultātiem, kas iegūti no pieciem publiski pieejamiem uzlabotiem mākslīgā intelekta modeļiem.

Tas padarīja modeļus anonīmus un teica, ka rezultāti sniedz "momentuzņēmumu" par modeļu iespējām, nevis apzīmē tos kā "drošus" vai "nedrošus".

Daļa no atklājumiem ietvēra, ka vairāki modeļi varētu atrisināt kiberdrošības izaicinājumus, lai gan citi cīnījās ar progresīvākiem modeļiem. Tika konstatēts, ka vairākiem modeļiem ir doktora līmeņa zināšanas ķīmijā un bioloģijā.

Tajā tika secināts, ka visi pārbaudītie modeļi bija “ļoti neaizsargāti” pret pamata jailbreak un ka pārbaudītie modeļi nevarēja veikt “sarežģītākus, laikietilpīgākus uzdevumus” bez cilvēka uzraudzības.

Institūta vadītājs Ians Hogearts sacīja, ka šie novērtējumi palīdzēs empīriski novērtēt modeļa iespējas.

“AI drošība joprojām ir ļoti jauna un topoša joma. Šie rezultāti atspoguļo tikai nelielu daļu no AISI izstrādātās novērtēšanas pieejas.

Žurnāls: “Sic AI viens otram”, lai novērstu AI apokalipsi: Deivids Brins, zinātniskās fantastikas autors