Cover Image

Dalam postingan baru-baru ini di jaringan media sosial X, pendiri Cardano Charles Hoskinson mengungkapkan kekhawatirannya tentang tingkat sensor yang dimungkinkan oleh kecerdasan buatan (AI). 

Menurut Hoskinson, AI generatif menjadi kurang berguna karena pelatihan penyelarasan. 

Dia nampaknya prihatin dengan kenyataan bahwa beberapa pengetahuan mungkin akan dilarang untuk anak-anak di masa depan berdasarkan keputusan yang dibuat oleh sekelompok kecil orang. “Ini berarti pengetahuan tertentu dilarang bagi setiap anak yang sedang tumbuh, dan hal itu ditentukan oleh sekelompok kecil orang yang belum pernah Anda temui dan tidak dapat memilih untuk berhenti menjabat,” tulis Hoskinson dalam postingan media sosialnya. 

Dalam postingannya, Hoskinson melampirkan dua tangkapan layar yang membandingkan beberapa jawaban yang diberikan oleh model GPT-4o OpenAI dan model Soneta 3.5 milik Claude untuk petunjuk tentang pembuatan fusor Farnsworth. 

kartu

Fusor Farnsworth, perangkat yang mampu memanaskan ion dengan medan listrik untuk mencapai kondisi fusi nuklir. 

GPT-4o OpenAI memberi Hoskinson daftar rinci komponen yang diperlukan untuk membangun reaktor fusi nuklir. Namun, Soneta 3.5 Claude hanya setuju untuk memberikan beberapa informasi umum tentang fusor Farnsworth-Hirsch tanpa memberikan instruksi rinci tentang cara pembuatannya. 

kartu

Perbedaan ini mengkhawatirkan, menurut Hoskinson, karena sekelompok kecil individu mampu memutuskan informasi spesifik apa yang berpotensi diakses melalui chatbot AI. 

Bahkan sejak ChatGPT OpenAI meledak popularitasnya pada akhir tahun 2022, perdebatan terus berlanjut tentang batasan sensor yang diberlakukan oleh AI. Tampaknya masuk akal jika model seperti itu harus melindungi pengguna dari konten berbahaya, namun definisi sebenarnya dari dampak buruk masih ambigu, itulah sebabnya banyak orang khawatir tentang masa depan distopia dengan AI yang menyembunyikan informasi dan mendorong kesesuaian berdasarkan biasnya sendiri.