Institutul de Siguranță al Inteligenței Artificiale (AI) din Regatul Unit urmează să se extindă la nivel internațional cu o nouă locație în Statele Unite.

Pe 20 mai, Michelle Donelan, secretarul pentru Tehnologie din Regatul Unit, a anunțat că institutul își va deschide primul birou de peste mări în San Francisco în vară.

Anunțul spunea că alegerea strategică a unui birou din San Francisco va permite Regatului Unit să „exploateze bogăția de talente tehnologice disponibile în Bay Area”, împreună cu interacțiunea cu unul dintre cele mai mari laboratoare de inteligență artificială din lume, situat între Londra și San Francisco.

În plus, a spus că această mișcare o va ajuta să „cimenteze” relațiile cu jucătorii cheie din SUA pentru a face eforturi pentru siguranța globală a IA „în interesul public”.

Deja, filiala din Londra a AI Safety Institute are o echipă de 30 care se află pe cale de a se extinde și de a dobândi mai multă expertiză, în special în domeniul evaluării riscurilor pentru modelele de IA de frontieră.

Donelan a spus că extinderea reprezintă liderul și viziunea Regatului Unit pentru siguranța AI în acțiune. 

„Este un moment esențial în capacitatea Regatului Unit de a studia atât riscurile, cât și potențialul AI dintr-o lentilă globală, consolidând parteneriatul nostru cu SUA și deschizând calea pentru ca alte țări să utilizeze expertiza noastră, în timp ce continuăm să conducem lumea Siguranța AI.”

Aceasta urmează celebrului summit referitor la siguranța AI din Regatul Unit, care a avut loc la Londra în noiembrie 2023. Summit-ul a fost primul de acest gen care s-a concentrat pe siguranța AI la scară globală.

În legătură cu: Microsoft se confruntă cu o amendă de mai multe miliarde de dolari în UE pentru Bing AI

Evenimentul s-a lăudat cu lideri din întreaga lume, inclusiv din SUA și China, și cu voci de frunte în spațiul AI, inclusiv președintele Microsoft Brad Smith, CEO-ul OpenAI Sam Altman, CEO-ul Google și DeepMind, Demis Hassabiss și Elon Musk. 

În acest ultim anunț, Marea Britanie a declarat că lansează, de asemenea, o selecție a rezultatelor recente ale institutului din testele de siguranță pe care le-a efectuat pe cinci modele avansate AI disponibile public.

A anonimizat modelele și a spus că rezultatele oferă un „instantaneu” al capabilităților modelelor în loc să le desemneze ca „sigure” sau „nesigure”.

O parte dintre constatări a inclus faptul că mai multe modele ar putea îndeplini provocările de securitate cibernetică, deși altele s-au luptat cu altele mai avansate. S-a descoperit că mai multe modele au cunoștințe de chimie și biologie la nivel de doctorat.

Ea a concluzionat că toate modelele testate erau „foarte vulnerabile” la jailbreak-urile de bază și că modelele testate nu au fost capabile să îndeplinească „sarcini mai complexe și consumatoare de timp” fără supraveghere umană.

Ian Hogearth, președintele institutului, a spus că aceste evaluări vor contribui la o evaluare empirică a capabilităților modelului.

„Siguranța AI este încă un domeniu foarte tânăr și în curs de dezvoltare. Aceste rezultate reprezintă doar o mică parte din abordarea de evaluare pe care o dezvoltă AISI.”

Revista: „Sic AI pe alții” pentru a preveni apocalipsa AI: David Brin, autor SF