Institut Keamanan Kecerdasan Buatan AS, bagian dari Institut Nasional Standar dan Teknologi (NIST) di bawah Departemen Perdagangan AS, telah mengumumkan perjanjian baru yang ditujukan untuk mendukung penelitian dan evaluasi keamanan AI. Perjanjian ini, yang diformalkan melalui Nota Kesepahaman (MOU), membentuk kerangka kerja kolaboratif dengan dua perusahaan AI terkemuka, Anthropic dan OpenAI. Kemitraan ini dirancang untuk memfasilitasi akses ke model AI baru dari kedua perusahaan, yang memungkinkan lembaga tersebut untuk melakukan evaluasi menyeluruh sebelum dan sesudah model ini dirilis ke publik.
Nota kesepahaman tersebut memungkinkan Institut Keamanan AI AS untuk terlibat dalam penelitian kolaboratif dengan Anthropic dan OpenAI, dengan fokus pada evaluasi kemampuan AI dan identifikasi risiko keselamatan. Kolaborasi ini diharapkan dapat memajukan metodologi untuk mengurangi potensi risiko yang terkait dengan sistem AI tingkat lanjut. Elizabeth Kelly, direktur Institut Keamanan AI AS, menekankan bahwa keselamatan merupakan komponen penting dari inovasi teknologi dan menyatakan antisipasinya terhadap kolaborasi teknis mendatang dengan perusahaan-perusahaan AI ini. Ia mencatat bahwa perjanjian ini merupakan tonggak penting dalam upaya berkelanjutan lembaga tersebut untuk memandu pengembangan AI yang bertanggung jawab.
Selain kerja sama ini, Institut Keamanan AI AS akan memberikan masukan kepada Anthropic dan OpenAI mengenai kemungkinan peningkatan keamanan pada model mereka. Pekerjaan ini akan dilakukan melalui kerja sama erat dengan Institut Keamanan AI Inggris, yang mencerminkan upaya internasional yang lebih luas untuk memastikan pengembangan teknologi AI yang aman dan tepercaya.
Upaya Institut Keamanan AI AS berakar pada sejarah panjang NIST dalam memajukan ilmu pengukuran, teknologi, dan standar. Evaluasi yang dilakukan berdasarkan perjanjian ini akan berkontribusi pada inisiatif AI NIST yang lebih luas, yang sejalan dengan Perintah Eksekutif tentang AI dari pemerintahan Biden-Harris. Tujuannya adalah untuk mendukung pengembangan sistem AI yang aman, terjamin, dan tepercaya, berdasarkan komitmen sukarela yang dibuat oleh pengembang AI terkemuka kepada pemerintahan.
Menurut laporan Reuters, pada hari Rabu, anggota parlemen California menyetujui RUU keamanan AI yang kontroversial, yang sekarang menunggu keputusan Gubernur Gavin Newsom. Newsom, seorang Demokrat, memiliki waktu hingga 30 September untuk memveto RUU tersebut atau menandatanganinya menjadi undang-undang. Undang-undang tersebut mengamanatkan pengujian keamanan dan perlindungan lainnya untuk model AI yang melebihi biaya atau daya komputasi tertentu, suatu tindakan yang menurut beberapa perusahaan teknologi dapat menghambat inovasi.
Gambar Pilihan via Pixabay