Institut Keamanan Kecerdasan Buatan (AI) Inggris akan berekspansi secara internasional dengan lokasi baru di Amerika Serikat.

Pada tanggal 20 Mei, Michelle Donelan, Sekretaris Teknologi Inggris, mengumumkan bahwa institut tersebut akan membuka kantor luar negeri pertamanya di San Francisco pada musim panas.

Pengumuman tersebut menyatakan bahwa pilihan strategis kantor di San Francisco akan memungkinkan Inggris untuk “memanfaatkan kekayaan talenta teknologi yang tersedia di Bay Area,” serta menjalin kerja sama dengan salah satu laboratorium AI terbesar di dunia yang berlokasi antara London dan San Francisco.

Selain itu, dikatakan bahwa langkah ini akan membantu “mempererat” hubungan dengan para pemain utama di AS untuk mendorong keamanan AI global “demi kepentingan publik.”

AI Safety Institute cabang London sudah memiliki tim beranggotakan 30 orang yang sedang dalam proses untuk meningkatkan dan memperoleh lebih banyak keahlian khususnya di bidang penilaian risiko untuk model AI terdepan.

Donelan mengatakan perluasan ini mewakili pemimpin dan visi Inggris dalam menerapkan keselamatan AI. 

“Ini adalah momen penting dalam kemampuan Inggris untuk mempelajari risiko dan potensi AI dari sudut pandang global, memperkuat kemitraan kami dengan AS dan membuka jalan bagi negara-negara lain untuk memanfaatkan keahlian kami seiring kami terus memimpin dunia dalam hal ini. Keamanan AI.”

Hal ini menyusul KTT Keamanan AI yang penting di Inggris yang diadakan di London pada bulan November 2023. KTT ini adalah yang pertama yang berfokus pada keselamatan AI dalam skala global.

Terkait: Microsoft menghadapi denda miliaran dolar di UE atas Bing AI

Acara ini menghadirkan para pemimpin dari seluruh dunia, termasuk AS dan Tiongkok, serta tokoh-tokoh terkemuka di bidang AI termasuk presiden Microsoft Brad Smith, CEO OpenAI Sam Altman, Google dan CEO DeepMind Demis Hassabiss dan Elon Musk. 

Dalam pengumuman terbaru ini, Inggris mengatakan pihaknya juga merilis beberapa hasil terbaru lembaga tersebut dari pengujian keamanan yang dilakukan terhadap lima model AI canggih yang tersedia untuk umum.

Mereka menganonimkan model-model tersebut dan mengatakan bahwa hasilnya memberikan “snapshot” kemampuan model-model tersebut, bukannya menetapkan mereka sebagai “aman” atau “tidak aman”.

Temuan-temuan tersebut antara lain menunjukkan bahwa beberapa model dapat menyelesaikan tantangan keamanan siber, meskipun model lain masih kesulitan menghadapi model yang lebih canggih. Beberapa model ditemukan memiliki pengetahuan kimia dan biologi setingkat PhD.

Disimpulkan bahwa semua model yang diuji “sangat rentan” terhadap jailbreak dasar dan bahwa model yang diuji tidak mampu menyelesaikan “tugas yang lebih kompleks dan memakan waktu” tanpa pengawasan manusia.

Ian Hogearth, ketua institut tersebut, mengatakan penilaian ini akan membantu berkontribusi pada penilaian empiris terhadap kemampuan model.

“Keamanan AI masih merupakan bidang yang sangat muda dan sedang berkembang. Hasil-hasil ini hanya mewakili sebagian kecil dari pendekatan evaluasi yang dikembangkan AISI.”

Majalah: 'Sic AI satu sama lain' untuk mencegah kiamat AI: David Brin, penulis fiksi ilmiah