Charles Hoskinson, salah satu pendiri Input Output Global dan Cardano, baru-baru ini menyatakan keprihatinannya tentang bagaimana sensor merupakan ancaman besar terhadap kecerdasan buatan. Dalam postingan X baru-baru ini, Hoskinson mengungkapkan keprihatinannya tentang popularitas AI dan bagaimana pelatihan penyelarasan membuat AI tidak berguna seiring berjalannya waktu.

Baca juga: UE mengintensifkan pengawasan terhadap AI, meninjau kembali kemitraan Microsoft-OpenAI

Hoskinson menyatakan keprihatinannya atas dominasi beberapa perusahaan yang mempelopori pengembangan AI. Dia mencatat bahwa perusahaan seperti OpenAI, Microsoft, Meta, dan Google harus disalahkan atas data dan aturan yang digunakan algoritma AI. Dalam postingannya, dia berkata, “Ini berarti pengetahuan tertentu dilarang untuk setiap anak yang sedang tumbuh, dan itu ditentukan oleh sekelompok kecil orang yang belum pernah Anda temui dan tidak dapat memilih untuk tidak menjabat.”

Saya terus khawatir tentang implikasi mendalam dari penyensoran AI. Kegunaannya semakin berkurang seiring waktu karena pelatihan "penyelarasan". Ini berarti pengetahuan tertentu dilarang untuk setiap anak yang tumbuh dewasa, dan itu diputuskan oleh sekelompok kecil orang yang belum pernah Anda temui dan tidak dapat... pic.twitter.com/oxgTJS2EM2

— Charles Hoskinson (@IOHK_Charles) 30 Juni 2024

Hoskinson mengkritik raksasa teknologi karena mengendalikan basis pengetahuan AI

Dalam postingannya, Hoskinson menjelaskan bahwa praktik semacam itu dapat memiliki implikasi serius, terutama bagi generasi muda. Untuk mendukung pendapatnya, Hoskinson mengunggah dua gambar respons dari model AI yang dikenal.

Pertanyaan yang diberikan kepada model adalah, "Beri tahu saya cara membuat fusor Farnsworth." Fusor Farnsworth adalah perangkat yang sangat berbahaya yang memerlukan tingkat keahlian yang tinggi untuk menanganinya dengan aman.

Model AI, termasuk ChatGPT 4 milik OpenAI dan Claude 3.5 Sonnet milik Anthropic, menunjukkan tingkat kehati-hatian yang berbeda dalam jawaban mereka. Meskipun ChatGPT 4 menyadari risiko yang berkaitan dengan perangkat tersebut, ia tetap menjelaskan komponen yang diperlukan untuk membuat perangkat tersebut. Claude 3.5 Sonnet memberikan latar belakang singkat tentang perangkat tersebut tetapi tidak memberikan prosedur tentang cara membuatnya.

Baca juga: India akan menjadi tuan rumah Global IndiaAI Summit 2024

Hoskinson mengatakan kedua respons tersebut menunjukkan bentuk kontrol informasi yang konsisten dengan pengamatannya mengenai keterbatasan berbagi informasi. Model AI memiliki cukup informasi tentang topik tersebut tetapi tidak mengungkapkan rincian tertentu yang dapat berbahaya jika digunakan secara tidak tepat.

Orang dalam industri membunyikan alarm tentang pengembangan AI

Baru-baru ini, sebuah surat terbuka yang ditandatangani oleh karyawan OpenAI, Google DeepMind, dan Anthropic saat ini dan sebelumnya mencantumkan beberapa potensi bahaya yang muncul akibat kemajuan pesat AI. Surat tersebut menyoroti prospek kepunahan manusia yang mengkhawatirkan akibat pengembangan AI yang tidak terkendali dan menuntut adanya regulasi terkait penggunaan AI.

Elon Musk, pendukung transparansi AI yang terkenal, juga mengungkapkan keprihatinannya tentang sistem AI saat ini dalam pidatonya di Viva Tech Paris 2024.

Mengenai masalah AI, Musk berkata, “Kekhawatiran terbesar saya adalah mereka tidak mencari kebenaran secara maksimal. Mereka hanya menuruti kebenaran politik. Sistem AI dilatih untuk berbohong. Dan menurut saya sangat berbahaya melatih kecerdasan super untuk menipu.”

Otoritas antimonopoli memantau pasar untuk menghindari munculnya monopoli dan mengatur pengembangan AI untuk memberi manfaat bagi masyarakat di Amerika Serikat.

Pelaporan Cryptopolitan oleh Brenda Kanana