Birleşik Krallık'ın Yapay Zeka (AI) Güvenlik Enstitüsü, Amerika Birleşik Devletleri'ndeki yeni konumuyla uluslararası alanda genişlemeye hazırlanıyor.

20 Mayıs'ta Birleşik Krallık Teknoloji Bakanı Michelle Donelan, enstitünün yaz aylarında San Francisco'da ilk yurt dışı ofisini açacağını duyurdu.

Duyuruda, San Francisco ofisinin stratejik seçiminin, İngiltere'nin Londra ve San Francisco arasında bulunan dünyanın en büyük yapay zeka laboratuvarlarından biriyle etkileşime geçmenin yanı sıra "Körfez Bölgesi'ndeki zengin teknoloji yeteneklerinden faydalanmasına" olanak tanıyacağı belirtildi.

Ek olarak, bu hamlenin ABD'deki kilit oyuncularla ilişkileri "güçlendirmeye" yardımcı olacağını ve "kamu yararına" küresel yapay zeka güvenliğinin sağlanmasına yardımcı olacağını söyledi.

Yapay Zeka Güvenliği Enstitüsü'nün Londra şubesi halihazırda, özellikle sınır yapay zeka modelleri için risk değerlendirmesi alanında ölçeklendirme ve daha fazla uzmanlık kazanma yolunda ilerleyen 30 kişilik bir ekibe sahip.

Donelan, genişlemenin Birleşik Krallık'ın yapay zeka güvenliği konusundaki liderini ve vizyonunu temsil ettiğini söyledi.

“Bu, Birleşik Krallık'ın yapay zekanın hem risklerini hem de potansiyelini küresel bir mercekten inceleme, ABD ile ortaklığımızı güçlendirme ve biz dünyaya liderlik etmeye devam ederken diğer ülkelerin uzmanlığımızdan faydalanmasının önünü açma becerisi açısından çok önemli bir an. Yapay zeka güvenliği."

Bu, Birleşik Krallık'ta Kasım 2023'te Londra'da gerçekleştirilen dönüm noktası niteliğindeki Yapay Zeka Güvenliği Zirvesi'nin ardından geldi. Zirve, küresel ölçekte yapay zeka güvenliğine odaklanan türünün ilk örneğiydi.

İlgili: Microsoft, Bing AI nedeniyle AB'de milyarlarca dolar para cezasıyla karşı karşıya

Etkinlik, ABD ve Çin de dahil olmak üzere dünyanın dört bir yanından liderlerin yanı sıra Microsoft başkanı Brad Smith, OpenAI CEO'su Sam Altman, Google ve DeepMind CEO'su Demis Hassabiss ve Elon Musk gibi yapay zeka alanındaki önde gelen seslerin katılımıyla övündü.

Bu son duyuruda İngiltere, aynı zamanda enstitünün halka açık beş gelişmiş yapay zeka modeli üzerinde gerçekleştirdiği güvenlik testlerinin son sonuçlarından bir seçkiyi de yayınlayacağını söyledi.

Modelleri anonimleştirdi ve sonuçların, modelleri "güvenli" veya "güvensiz" olarak belirlemek yerine, modellerin yeteneklerinin "anlık görüntüsünü" sağladığını söyledi.

Bulguların bir kısmı, bazı modellerin siber güvenlik zorluklarını tamamlayabildiğini, diğerlerinin ise daha gelişmiş modellerle mücadele ettiğini içeriyordu. Birkaç modelin kimya ve biyoloji alanında doktora düzeyinde bilgiye sahip olduğu bulundu.

Test edilen tüm modellerin temel jailbreak'lere karşı "son derece savunmasız" olduğu ve test edilen modellerin daha "karmaşık, zaman alıcı görevleri" insan denetimi olmadan tamamlayamayacağı sonucuna vardı.

Enstitünün başkanı Ian Hogearth, bu değerlendirmelerin model yeteneklerinin ampirik değerlendirmesine katkıda bulunacağını söyledi.

"Yapay zeka güvenliği hâlâ çok genç ve gelişmekte olan bir alan. Bu sonuçlar AISI'nin geliştirmekte olduğu değerlendirme yaklaşımının yalnızca küçük bir kısmını temsil ediyor."

Dergi: Yapay Zeka kıyametini önlemek için 'Yapay Zekalar birbirlerine karşı': David Brin, bilim kurgu yazarı