OpenAI, perusahaan di balik ChatGPT, baru-baru ini membentuk Komite Keselamatan dan Keamanan AI yang terdiri dari para pemimpin senior untuk mengawasi keputusan-keputusan penting terkait keamanan dan privasi. Namun, keputusan tersebut menimbulkan kekhawatiran mengenai etika AI karena kurangnya keterlibatan pakar independen.

Komite ini akan dipimpin oleh CEO Sam Altman dan anggota dewan Bret Taylor, Adam D'Angelo, Nicole Seligman, dan pakar Jakub Pachocki, Aleksander Madry, Lilian Weng, Matt Knight dan John Schulman. Komite akan mengevaluasi proses dan langkah-langkah keamanan OpenAI selama 90 hari ke depan.

Meskipun OpenAI mengklaim bahwa Komite tersebut dibentuk untuk memperkuat keamanan AI, kurangnya pakar dari luar yang independen telah membuat banyak orang khawatir. Secara khusus, beberapa pakar etika AI mengkritik OpenAI karena memprioritaskan pengembangan produk dibandingkan keselamatan, sehingga menyebabkan banyak karyawan senior keamanan AI meninggalkan perusahaan baru-baru ini.

Daniel Kokotajlo, mantan anggota tim tata kelola OpenAI, Ilya Sutskever, salah satu pendiri dan mantan kepala bagian ilmiah OpenAI, meninggalkan perusahaan pada bulan April dan Mei setelah berselisih paham dengan Altman mengenai prioritas pengembangan produk daripada penelitian keselamatan AI. 

Jan Leike, mantan peneliti DeepMind dan pengembang ChatGPT dan pendahulunya, InstructGPT di OpenAI, juga mengundurkan diri karena yakin OpenAI tidak berada di jalur yang benar dalam mengatasi masalah privasi dan keamanan Semua AI. Gretchen Krueger, seorang peneliti kebijakan AI, juga keluar dan meminta perusahaan untuk meningkatkan akuntabilitas dan transparansi.

Selain menyerukan regulasi AI, OpenAI juga telah melakukan upaya untuk membentuk peraturan ini dengan mempekerjakan para ahli dan menghabiskan ratusan ribu dolar untuk aktivitas lobi di AS. Baru-baru ini, Departemen Keamanan Dalam Negeri AS mengumumkan bahwa Altman akan menjadi anggota Dewan Keselamatan dan Keamanan AI yang baru dibentuk, yang memberikan rekomendasi mengenai pengembangan dan penerapan AI yang aman dan terjamin di seluruh infrastruktur penting Amerika.

OpenAI kini mencoba untuk menghilangkan kekhawatiran tersebut dengan mengumumkan bahwa pihaknya akan mempertahankan sejumlah pakar keamanan dan teknis independen untuk mendukung komite tersebut. Namun, perusahaan belum memublikasikan daftar tertentu, maupun kekuasaan dan pengaruhnya terhadap komite.

Pemeriksaan mandiri OpenAI terhadap keamanan AI telah menimbulkan banyak kontroversi mengenai etika dan tanggung jawab perusahaan pengembang AI. Para ahli menyerukan perlunya pengawasan yang independen dan lebih transparan dalam pengembangan AI untuk memastikan keselamatan dan etika bagi manusia.