TLDR

  • OpenAI mengalami pelanggaran keamanan pada awal tahun 2023 ketika seorang peretas memperoleh akses ke sistem pesan internal

  • Peretas mencuri detail tentang desain teknologi AI OpenAI dari diskusi karyawan, namun tidak mencuri kode inti AI

  • OpenAI tidak mengungkapkan peretasan tersebut secara terbuka atau melaporkannya kepada penegak hukum, karena percaya bahwa hal tersebut bukanlah ancaman keamanan nasional

  • Insiden ini menimbulkan kekhawatiran di antara beberapa karyawan tentang potensi kerentanan terhadap musuh asing seperti Tiongkok

  • Pelanggaran ini telah menghidupkan kembali perdebatan mengenai keamanan AI, transparansi, dan potensi implikasi keamanan nasional

Terungkap bahwa OpenAI, pencipta ChatGPT, mengalami pelanggaran keamanan yang signifikan pada awal tahun 2023.

Menurut laporan New York Times, seorang peretas memperoleh akses ke sistem pesan internal perusahaan dan mencuri detail tentang desain teknologi kecerdasan buatan OpenAI.

Pelanggaran yang terjadi pada April 2023 ini memungkinkan penyusup mengakses forum online tempat karyawan mendiskusikan teknologi terbaru OpenAI.

Meskipun peretas tidak menembus sistem tempat perusahaan menampung dan membangun AI-nya, mereka mampu mengungkap detail sensitif dari diskusi internal. Yang penting, kode inti AI, aset OpenAI yang paling berharga, tetap aman.

Eksekutif OpenAI mengungkapkan kejadian tersebut kepada karyawan selama pertemuan di kantor perusahaan di San Francisco dan memberi tahu dewan direksi.

Namun, mereka memutuskan untuk tidak mempublikasikan berita tersebut atau melaporkannya ke lembaga penegak hukum seperti FBI. Alasan perusahaan ini adalah tidak ada informasi tentang pelanggan atau mitra yang dicuri, dan mereka yakin peretasnya adalah individu yang tidak memiliki hubungan dengan pemerintah asing.

Keputusan ini menimbulkan pertanyaan tentang transparansi dan praktik keamanan di bidang kecerdasan buatan yang berkembang pesat. Insiden ini juga memicu kembali kekhawatiran mengenai potensi kerentanan perusahaan AI terhadap musuh asing, khususnya Tiongkok.

Leopold Aschenbrenner, mantan manajer program teknis OpenAI, mengirimkan memo kepada dewan perusahaan setelah pelanggaran tersebut.

Dia berpendapat bahwa OpenAI tidak berbuat cukup untuk mencegah pemerintah Tiongkok dan musuh asing lainnya mencuri rahasianya. Aschenbrenner, yang kemudian dipecat dari perusahaan karena alasan yang tidak terkait, menyatakan kekhawatirannya bahwa langkah-langkah keamanan OpenAI mungkin tidak cukup kuat untuk melindungi terhadap pencurian rahasia penting jika ada pihak asing yang menyusup ke perusahaan.

OpenAI telah membantah klaim ini. Liz Bourgeois, juru bicara OpenAI, menyatakan, “Kami menghargai kekhawatiran yang disampaikan Leopold saat berada di OpenAI, dan hal ini tidak menyebabkan perpisahannya.” Dia menambahkan, “Meskipun kami memiliki komitmen yang sama dengan beliau dalam membangun AGI yang aman, kami tidak setuju dengan banyak klaim yang beliau buat mengenai pekerjaan kami. Ini termasuk karakterisasinya terhadap keamanan kami, terutama insiden ini, yang kami tangani dan bagikan kepada dewan direksi kami sebelum dia bergabung dengan perusahaan.”

Insiden ini menyoroti keseimbangan rumit yang harus dicapai oleh perusahaan AI antara keterbukaan dan keamanan.

Meskipun beberapa perusahaan, seperti Meta, dengan bebas membagikan desain AI mereka sebagai perangkat lunak sumber terbuka, perusahaan lain mengambil pendekatan yang lebih hati-hati. OpenAI, bersama dengan pesaing seperti Anthropic dan Google, telah menambahkan batasan pada aplikasi AI mereka sebelum menawarkannya kepada publik, dengan tujuan untuk mencegah penyalahgunaan dan potensi masalah.

Matt Knight, kepala keamanan OpenAI, menekankan komitmen perusahaan terhadap keamanan:

“Kami mulai berinvestasi dalam keamanan bertahun-tahun sebelum ChatGPT. Kami sedang dalam perjalanan tidak hanya untuk memahami risiko dan tetap menjadi yang terdepan, namun juga untuk memperdalam ketahanan kami.”

Pelanggaran ini juga membawa perhatian pada isu yang lebih luas mengenai potensi dampak AI terhadap keamanan nasional. Meskipun sistem AI saat ini terutama digunakan sebagai alat kerja dan penelitian, terdapat kekhawatiran mengenai penerapannya di masa depan yang dapat menimbulkan risiko yang lebih signifikan.

Beberapa peneliti dan pemimpin keamanan nasional berpendapat bahwa meskipun algoritma matematis yang menjadi inti sistem AI saat ini tidak berbahaya, namun hal tersebut dapat menjadi berbahaya di masa depan.

Susan Rice, mantan penasihat kebijakan dalam negeri Presiden Biden dan mantan penasihat keamanan nasional untuk Presiden Barack Obama, menyoroti pentingnya mengambil potensi risiko dengan serius:

“Bahkan jika skenario terburuk memiliki probabilitas yang relatif rendah, jika dampaknya besar maka tanggung jawab kita adalah menanggapinya dengan serius. Menurut saya, ini bukan fiksi ilmiah, seperti yang diklaim banyak orang.”

Menanggapi kekhawatiran yang berkembang, OpenAI baru-baru ini membentuk Komite Keselamatan dan Keamanan untuk mengeksplorasi cara menangani risiko yang ditimbulkan oleh teknologi masa depan. Komite tersebut beranggotakan Paul Nakasone, mantan jenderal Angkatan Darat yang memimpin Badan Keamanan Nasional dan Komando Siber.

Pos Peretasan OpenAI yang Dirahasiakan pada tahun 2023 Menimbulkan Pertanyaan Tentang Keamanan dan Transparansi AI muncul pertama kali di Blockonomi.