Karyawan saat ini dan mantan karyawan OpenAI telah menyuarakan keprihatinan serius tentang kemajuan pesat AI tanpa pengawasan yang memadai. Orang dalam ini menyoroti potensi bahaya yang terkait dengan pengembangan AI yang tidak terkendali. Mereka berpendapat bahwa perusahaan AI, termasuk OpenAI, memiliki insentif keuangan yang kuat untuk menghindari pengawasan yang efektif, yang dapat menimbulkan risiko yang signifikan.

Surat terbuka dari para karyawan tersebut menekankan perlunya perlindungan pelapor yang lebih baik. Mereka berpendapat bahwa tanpa perlindungan tersebut, karyawan tidak dapat secara efektif meminta pertanggungjawaban perusahaan mereka. Surat tersebut menyerukan perusahaan AI untuk mengizinkan pelaporan kekhawatiran secara anonim dan mendukung budaya kritik terbuka.

Peran Google dan OpenAI dalam Kemajuan AI

OpenAI, Google, dan raksasa teknologi lainnya memimpin pengembangan AI.

Perlombaan senjata AI generatif ini akan menghasilkan pendapatan yang signifikan. Proyeksi memperkirakan pasar dapat mencapai $1 triliun dalam satu dekade. Namun, perkembangan pesat ini disertai dengan risiko yang besar. Orang dalam menekankan bahwa perusahaan-perusahaan ini memiliki banyak informasi non-publik tentang kemampuan teknologi mereka. Mereka juga menekankan kekhawatiran tentang langkah-langkah keamanan, yang tidak wajib mereka bagikan.

Surat terbuka tersebut menyoroti bahwa perusahaan-perusahaan ini saat ini memiliki kewajiban minimal untuk mengungkapkan informasi keselamatan penting kepada pemerintah. Mereka juga memiliki kewajiban minimal untuk mengungkapkan informasi ini kepada publik. Kurangnya transparansi ini menimbulkan kekhawatiran tentang potensi penyalahgunaan teknologi AI dan risiko terkait.

Bahaya yang Disorot oleh Karyawan OpenAI

Bahaya teknologi AI beraneka ragam. Karyawan OpenAI dan Google DeepMind telah menunjukkan berbagai risiko mulai dari penyebaran informasi yang salah hingga kemungkinan hilangnya kendali atas sistem otonom. Ada pula risiko ekstrem bahwa teknologi AI dapat menyebabkan kepunahan manusia jika tidak dikelola dengan baik.

Petisi berjudul “Hak untuk Memperingatkan AI” menyerukan perusahaan AI untuk mengizinkan karyawannya menyampaikan kekhawatiran terkait risiko baik secara internal maupun kepada publik. Para penandatangan berpendapat bahwa motif finansial sering kali mendorong perusahaan untuk memprioritaskan pengembangan produk daripada keselamatan, sehingga mengorbankan proses pengawasan.

Sekelompok karyawan OpenAI saat ini dan sebelumnya – beberapa di antaranya anonim – bersama dengan Yoshua Bengio, Geoffrey Hinton, dan Stuart Russell telah merilis surat terbuka pagi ini yang berjudul ‘Hak untuk Memperingatkan tentang Kecerdasan Buatan Tingkat Lanjut’.https://t.co/uQ3otSQyDA pic.twitter.com/QnhbUg8WsU

— Andrew Curran (@AndrewCurran_) 4 Juni 2024

Seruan untuk Perubahan Internal di OpenAI

Para karyawan mendesak OpenAI dan perusahaan AI lainnya untuk menerapkan sistem yang memungkinkan pelaporan anonim atas masalah keselamatan. Mereka menganjurkan penghapusan perjanjian kerahasiaan yang membatasi yang mencegah karyawan berbicara tentang potensi bahaya. Perubahan ini dianggap penting untuk mendorong lingkungan pengembangan AI yang lebih aman.

Mantan karyawan OpenAI William Saunders menyoroti bahwa mereka yang memiliki pengetahuan paling banyak tentang potensi bahaya sistem AI sering kali tidak dapat membagikan wawasan mereka karena takut akan akibatnya. Kerahasiaan ini mencegah informasi penting tentang risiko AI sampai ke publik dan regulator.

Tanggapan dan Kontroversi

OpenAI telah mengakui pentingnya keselamatan dalam pengembangan AI. Namun, tindakan baru-baru ini, seperti pembubaran tim keselamatan Superalignment, telah menimbulkan keraguan tentang komitmen mereka terhadap prinsip ini. OpenAI sejak itu telah membentuk Komite Keselamatan dan Keamanan untuk mengatasi masalah ini.

Meskipun ada berbagai upaya ini, kontroversi terus terjadi seputar manajemen dan pendekatan OpenAI terhadap keselamatan. Perusahaan tersebut telah menghadapi konflik internal, termasuk pemecatan CEO Sam Altman karena masalah transparansi. Peristiwa ini menggarisbawahi tantangan yang sedang berlangsung dalam menyeimbangkan inovasi AI yang cepat dengan langkah-langkah keselamatan yang diperlukan.

Kesimpulannya, meskipun teknologi AI menjanjikan kemajuan yang signifikan, kekhawatiran yang disampaikan oleh karyawan di OpenAI dan Google menyoroti kebutuhan mendesak akan pengawasan dan transparansi yang lebih baik. Memastikan keamanan sistem AI harus menjadi prioritas untuk mengurangi potensi risiko dan menjaga masa depan.