Beberapa karyawan saat ini dan mantan karyawan OpenAI dan Google DeepMind menuduh perusahaan mereka menyembunyikan risiko AI yang berpotensi memicu kepunahan manusia. Dalam sebuah surat terbuka, para pekerja menuduh bahwa perusahaan AI mengutamakan keuntungan dan menghindari “pengawasan [pemerintah] yang efektif.”

Baca juga: OpenAI Mendirikan Penerus GPT-4 Di Tengah Masalah Keamanan

Surat terbuka tersebut ditandatangani oleh 11 mantan karyawan OpenAI, dua dari Google DeepMind, dan didukung oleh ‘ayah baptis AI’ Geoffrey Hinton, mantan Google. Dikatakan bahwa motif keuntungan dan celah peraturan memungkinkan perusahaan untuk menutupi ancaman yang ditimbulkan oleh kecerdasan buatan yang canggih.

AI dapat menyebabkan 'kepunahan manusia'

Menurut surat tersebut, perusahaan AI seperti OpenAI dan Google DeepMind, pencipta Gemini, belum secara terbuka membagikan informasi tentang tidak memadainya perlindungan dan tingkat risiko sistem mereka karena mereka tidak diwajibkan untuk melakukannya.

Tanpa pengawasan peraturan, program AI dapat menimbulkan kerugian besar bagi manusia. Para karyawan memperingatkan:

“Risiko-risiko ini berkisar dari semakin mendalamnya kesenjangan yang ada… hingga hilangnya kendali atas sistem AI otonom yang berpotensi mengakibatkan kepunahan manusia.”

Sebagaimana dicatat oleh para penandatangan surat, perusahaan-perusahaan AI sendiri telah mengakui risiko-risiko ini. Pada bulan Mei 2023, CEO OpenAI, Anthropic, dan Google DeepMind ikut menandatangani surat terbuka oleh Center for AI Safety. Surat tersebut hanya berbunyi, “Memitigasi risiko kepunahan akibat AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya, seperti pandemi dan perang nuklir.”

Perusahaan-perusahaan AI semakin mendapat sorotan karena menempatkan produk-produk baru dan keuntungan di atas keselamatan dan keamanan. OpenAI, pembuat ChatGPT, mencatat kekhawatiran yang diangkat dalam surat tersebut dan mengatakan pihaknya berupaya mengembangkan kecerdasan buatan yang aman.

“Kami bangga dengan rekam jejak kami dalam menyediakan teknologi A.I. sistem dan percaya pada pendekatan ilmiah kami untuk mengatasi risiko,” kata juru bicara OpenAI Lindsey Held kepada New York Times.

“Kami setuju bahwa perdebatan yang ketat sangatlah penting mengingat pentingnya teknologi ini, dan kami akan terus terlibat dengan pemerintah, masyarakat sipil, dan komunitas lain di seluruh dunia.”

Pelapor takut akan adanya pembalasan

Mantan karyawan OpenAI dan Google mengatakan mereka ingin mengisi peran pengawasan sementara regulator menyusun undang-undang yang memaksa pengembang AI untuk mengungkapkan lebih banyak informasi tentang program mereka kepada publik.

Namun, perjanjian kerahasiaan dan kemungkinan pembalasan dari pemberi kerja membuat pekerja enggan menyuarakan kekhawatiran mereka di depan umum. Sesuai surat:

“Beberapa dari kita cukup takut akan adanya berbagai bentuk pembalasan, mengingat sejarah kasus-kasus serupa di seluruh industri. Kami bukan orang pertama yang menghadapi atau membicarakan masalah ini.”

Pelapor dilindungi undang-undang di AS, namun mereka yang menyuarakan bahaya kecerdasan buatan tidak dilindungi undang-undang karena teknologinya belum diatur.

Baca juga: ChatGPT Masih Menyebarkan Kebohongan, Kata Pengawas Data UE

Surat tersebut meminta perusahaan-perusahaan AI untuk memfasilitasi masukan anonim yang dapat diverifikasi, mendukung budaya kritik terbuka, dan tidak melakukan pembalasan terhadap pelapor.

Peneliti AI Lance B. Eliot mengatakan perusahaan mengambil pendekatan yang tegas terhadap kritik. Karyawan yang tidak berani menentang risiko akan diberi imbalan berupa promosi pekerjaan dan kenaikan gaji.

Di sisi lain, para pengungkap fakta (whistleblower) dan pengkritik kehilangan opsi saham mereka dan mungkin akan dipaksa keluar dari perusahaan dan secara diam-diam dimasukkan dalam daftar hitam oleh komunitas pimpinan AI.

Pelaporan Cryptopolitan oleh Jeffrey Gogo