Perusahaan kecerdasan buatan OpenAI dan Anthropic baru-baru ini setuju untuk memberikan akses awal kepada Institut Keamanan AI AS ke setiap model AI baru yang “signifikan” yang mereka kembangkan, Cointelegraph melaporkan.

Meskipun perjanjian tersebut konon ditandatangani atas dasar keprihatinan bersama terhadap keamanan, namun masih belum jelas apa peran spesifik pemerintah ketika terobosan teknologi mempunyai implikasi keamanan yang signifikan.

CEO dan salah satu pendiri OpenAI Sam Altman mengatakan di platform media sosial X bahwa perjanjian tersebut merupakan langkah penting dan menekankan perlunya Amerika Serikat untuk terus memimpin di tingkat nasional.

Baik OpenAI maupun Anthropic berkomitmen untuk mengembangkan kecerdasan umum buatan (AGI), yaitu AI yang dapat menyelesaikan tugas apa pun dengan sumber daya manusia. Setiap perusahaan memiliki piagam dan misinya sendiri untuk menciptakan AGI secara aman dengan mengutamakan kepentingan manusia.

Dengan menandatangani perjanjian dengan pemerintah AS untuk mengungkapkan model mereka sebelum suatu produk dirilis, perusahaan-perusahaan tersebut menyerahkan tanggung jawab tersebut kepada pemerintah federal.

OpenAI mungkin berada di ambang terobosan, dengan proyek “Strawberry” dan “Orion” yang konon mampu memberikan penalaran tingkat lanjut dan memecahkan masalah halusinasi dalam AI, Cointelegraph melaporkan. Pemerintah AS telah melihat alat ini dan iterasi internal awalnya di ChatGPT.

Sebuah postingan blog dari Institut Standar dan Teknologi Nasional menunjukkan bahwa perjanjian dan panduan keamanan terkait bersifat sukarela bagi perusahaan yang berpartisipasi. Para pendukung berpendapat bahwa peraturan yang ringan seperti itu membantu pertumbuhan dan memungkinkan industri untuk mengatur dirinya sendiri.

Namun, salah satu potensi masalah dalam regulasi sentuhan ringan adalah kurangnya transparansi. Jika OpenAI atau Anthropic berhasil, tidak ada persyaratan hukum untuk mengungkapkannya jika pemerintah memutuskan masyarakat tidak perlu mengetahuinya.