Vitalik Buterin Mengingatkan: Ancaman Mendatang dari AI Superintelligent
Bayangkan dunia di mana kecerdasan buatan melampaui kecerdasan manusia, yang mengarah pada hasil bencana, termasuk kemungkinan kepunahan manusia. Ini bukan adegan dari film fiksi ilmiah; ini adalah kekhawatiran nyata yang diangkat oleh co-founder Ethereum, Vitalik Buterin. Saat teknologi AI berkembang pesat, Buterin mendesak dunia untuk mengambil tindakan dan mengembangkan mekanisme pertahanan yang kuat terhadap risiko yang terkait dengan AI superintelligent.
Risiko Pertumbuhan AI yang Tidak Terkendali
Peringatan Buterin datang pada saat kekhawatiran tentang keselamatan AI meningkat secara eksponensial. Dalam sebuah posting blog baru-baru ini, dia menguraikan konsepnya tentang “d/acc atau akselerasi defensif,” yang menekankan perlunya teknologi dikembangkan dengan mempertimbangkan pertahanan, bukan hanya fokus pada kemajuan. Ini bukan kali pertama Buterin berbicara tentang risiko AI; pada tahun 2023, dia menyoroti potensi AI untuk menyebabkan kepunahan manusia.
Jadwal Tiga Tahun Menuju Superintelligence
Peringatan terbaru Buterin lebih mendesak dari sebelumnya, karena dia percaya superintelligence bisa hanya beberapa tahun lagi. “Tampaknya kita memiliki jadwal tiga tahun hingga AGI dan tiga tahun lagi hingga superintelligence,” tulisnya. Jadwal ini menekankan perlunya tindakan segera untuk mengurangi risiko terkait AI.
Sistem AI Terdesentralisasi: Solusi yang Potensial
Untuk meminimalkan ancaman hasil bencana, Buterin menganjurkan penciptaan sistem AI terdesentralisasi yang tetap terhubung erat dengan pengambilan keputusan manusia. Dengan memastikan bahwa AI tetap menjadi alat di tangan manusia, kita dapat mengurangi risiko konsekuensi yang menghancurkan.
Peran Militer dalam Regulasi AI
Buterin juga menyoroti potensi risiko terkait penggunaan AI dalam militer, yang semakin meningkat secara global. Dia percaya bahwa regulasi AI kemungkinan besar akan mengecualikan militer, menjadikannya sebagai ancaman signifikan. Ini menimbulkan pertanyaan penting tentang perlunya kerja sama internasional dan regulasi dalam pengembangan dan penggunaan AI.
Rencana Tiga Langkah untuk Mengatur AI
Buterin mengusulkan rencana tiga langkah untuk mengatur penggunaan AI:
1. Tanggung Jawab: Membuat pengguna bertanggung jawab atas konsekuensi penggunaan AI. Dengan mempertanggungjawabkan pengguna, kita dapat mendorong pengembangan dan penerapan AI yang lebih bertanggung jawab. 2. Tombol Henti Lunak: Menerapkan tombol “henti lunak” yang memungkinkan regulasi AI memperlambat laju kemajuan yang berpotensi berbahaya. Ini bisa melibatkan pengurangan kapasitas komputasi global hingga 90-99% selama 1-2 tahun untuk memberi waktu bagi umat manusia untuk bersiap. 3. Kontrol Internasional: Mengontrol perangkat keras AI dengan melengkapinya dengan chip yang memerlukan tiga tanda tangan dari badan internasional setiap minggu, termasuk setidaknya satu badan yang tidak terkait militer.
Penghentian Sementara, Bukan Solusi Permanen
Buterin mengakui bahwa strateginya memiliki kekurangan dan hanya merupakan solusi sementara. Namun, dia menekankan perlunya tindakan segera untuk mengurangi risiko terkait AI.
Saat dunia melaju menuju masa depan di mana AI melampaui kecerdasan manusia, sangat penting untuk menganggap serius peringatan Buterin. Akankah kita dapat mengembangkan mekanisme pertahanan yang kuat terhadap risiko yang terkait dengan AI superintelligent, atau akankah kita menyerah pada bahaya pertumbuhan AI yang tidak terkendali? Waktu terus berjalan.
Sumber: Beincrypto.com
Postingan Vitalik Buterin tentang Rencana Regulasi AI: Tanggung Jawab & Kontrol pertama kali muncul di CoinBuzzFeed.