Menurut Wall Street Journal, OpenAI, perusahaan yang bertanggung jawab mengembangkan ChatGPT, baru-baru ini mengalami pelanggaran keamanan besar, yang menimbulkan kekhawatiran tentang potensi risiko keamanan nasional. Insiden yang terjadi awal tahun lalu ini mengungkap diskusi internal antara peneliti dan karyawan namun tidak membahayakan kode inti sistem OpenAI. Terlepas dari seriusnya insiden tersebut, OpenAI memilih untuk tidak mengungkapkan insiden tersebut kepada publik, sebuah keputusan yang memerlukan pengawasan internal dan eksternal.

Komunikasi internal OpenAI terganggu

Pada awal tahun 2023, seorang peretas membobol sistem pesan internal OpenAI dan mengekstrak detail tentang teknologi AI perusahaan. Menurut dua orang yang mengetahui masalah tersebut, para peretas mengunjungi forum online tempat karyawan mendiskusikan kemajuan AI terkini, namun tidak membobol sistem tempat teknologi inti disimpan.

Eksekutif OpenAI memilih untuk tidak mengungkapkannya kepada publik

Menurut sumber, para eksekutif OpenAI memberi tahu karyawan tentang masalah ini pada pertemuan semua pihak yang diadakan di kantor pusat perusahaan di San Francisco pada bulan April 2023, dan dewan direksi juga diberi tahu. Meskipun terjadi pelanggaran, para eksekutif memilih untuk tidak memberi tahu publik, dengan alasan bahwa tidak ada informasi pelanggan atau mitra yang disusupi. Mereka menilai peretas tersebut adalah individu yang tidak memiliki hubungan dengan pemerintah asing dan gagal melaporkan masalah tersebut ke lembaga penegak hukum, termasuk FBI.

Kekhawatiran terhadap spionase asing semakin meningkat

Pelanggaran ini meningkatkan kekhawatiran di kalangan karyawan OpenAI bahwa musuh asing, terutama Tiongkok, dapat mencuri teknologi AI dan mengancam keamanan nasional AS. Insiden ini juga memicu perdebatan di dalam perusahaan mengenai kecukupan langkah-langkah keamanan OpenAI, serta risiko yang lebih luas terkait dengan kecerdasan buatan.

Masalah keamanan AI muncul

Setelah kejadian tersebut, manajer proyek teknis OpenAI Leopold Aschenbrenner menyerahkan memo kepada dewan yang menyatakan keprihatinan tentang kerentanan perusahaan terhadap spionase oleh entitas asing. Aschenbrenner kemudian dipecat karena dugaan kebocoran. Ia yakin langkah-langkah keamanan yang dilakukan perusahaan tidak cukup untuk melindungi terhadap ancaman canggih dari pihak asing.

Pernyataan resmi dari OpenAI

Juru bicara OpenAI Liz Bourgeois mengakui kekhawatiran Aschenbrenner namun mengatakan kepergiannya tidak ada hubungannya dengan masalah yang diangkatnya. Dia menekankan bahwa OpenAI berkomitmen untuk membangun kecerdasan umum buatan (AGI) yang aman, tetapi tidak setuju dengan penilaian Aschenbrenner terhadap protokol keamanannya.

Spionase teknologi dalam konteks perang Tiongkok-Amerika

Kekhawatiran mengenai potensi hubungan dengan Tiongkok bukannya tidak berdasar. Misalnya, Presiden Microsoft Brad Smith baru-baru ini bersaksi bahwa peretas Tiongkok menggunakan sistem perusahaan untuk menyerang jaringan federal. Namun, kendala hukum melarang OpenAI melakukan diskriminasi dalam perekrutan berdasarkan asal negara, karena memblokir talenta asing dapat menghambat kemajuan AI AS.

(Dari DEI atau MEI: Mengapa kebijakan perekrutan AI unicorn ScaleAI membuat Musk dan Coinbase sering mengangguk?)

Pentingnya beragam bakat

Matt Knight, kepala keamanan di OpenAI, menekankan bahwa merekrut talenta global terbaik adalah hal yang perlu meskipun ada risikonya. Dia menekankan pentingnya mencapai keseimbangan antara masalah keamanan dan perlunya pemikiran inovatif untuk memajukan teknologi AI.

Seluruh industri AI sedang menghadapi tantangan

OpenAI bukan satu-satunya perusahaan yang menghadapi tantangan ini. Pesaing seperti Meta dan Google juga mengembangkan sistem AI yang kuat, beberapa di antaranya bersifat open source, mempromosikan transparansi dan penyelesaian masalah kolektif dalam industri. Namun, masih ada kekhawatiran mengenai penggunaan AI untuk menyesatkan informasi dan menggantikan pekerjaan.

Penilaian Risiko Keamanan Nasional: AI Dapat Menciptakan Senjata Biologis dan Kimia

Beberapa penelitian yang dilakukan oleh perusahaan AI seperti OpenAI dan Anthropic menemukan bahwa teknologi AI saat ini hanya menimbulkan sedikit risiko terhadap keamanan nasional. Namun perdebatan terus berlanjut mengenai potensi AI di masa depan untuk menciptakan senjata biologis dan kimia atau meretas sistem pemerintah. Perusahaan seperti OpenAI dan Anthropic secara aktif mengatasi permasalahan ini dengan memperkuat protokol keamanan mereka dan membentuk komite yang berfokus pada keselamatan AI.

Tindakan Legislatif Pemerintah: Pembatasan Teknologi AI Tertentu

Anggota parlemen federal dan negara bagian sedang mempertimbangkan peraturan yang akan membatasi pelepasan teknologi AI tertentu dan memberikan sanksi terhadap penggunaan yang berbahaya. Peraturan tersebut dimaksudkan untuk mengurangi risiko jangka panjang, meskipun para ahli percaya bahwa masih perlu waktu bertahun-tahun agar bahaya AI yang signifikan dapat muncul.

Kemajuan Tiongkok dalam bidang AI

Perusahaan-perusahaan Tiongkok mengalami kemajuan pesat dalam teknologi AI, dan Tiongkok adalah rumah bagi sejumlah besar peneliti AI terkemuka di dunia. Para ahli seperti Clément Delangue dari Hugging Face percaya bahwa Tiongkok akan segera melampaui Amerika Serikat dalam kemampuan AI.

Menyerukan pengembangan AI yang bertanggung jawab

Sekalipun kemungkinannya kecil, tokoh terkemuka seperti Susan Rice menyerukan pertimbangan serius terhadap skenario terburuk AI, dengan menekankan tanggung jawab untuk mengatasi potensi risiko yang berdampak besar.

Artikel ini Wall Street Journal: Peretas menginvasi OpenAI, meningkatkan kekhawatiran keamanan nasional. Pertama kali muncul di Chain News ABMedia.