Psikolog Harvard yang terkenal B.F. Skinner pernah berpendapat bahwa "masalah sebenarnya bukanlah apakah mesin berpikir, tetapi apakah manusia melakukannya." Pengamatan cerdas ini menggarisbawahi poin yang dulunya penting: bahwa kepercayaan kita pada teknologi bergantung pada penilaian manusia. Bukan kecerdasan mesin yang perlu kita khawatirkan, tetapi kebijaksanaan dan tanggung jawab mereka yang mengendalikannya. Atau setidaknya itulah yang terjadi.
Dengan perangkat lunak seperti ChatGPT yang kini menjadi bagian tak terpisahkan dari banyak kehidupan kerja, wawasan Skinner tampak kuno. Meningkatnya jumlah agen AI – entitas perangkat lunak yang mampu memahami lingkungan mereka dan mengambil tindakan untuk mencapai tujuan tertentu – telah mengubah paradigma secara mendasar. Asisten digital ini, yang lahir dari ledakan AI konsumen di awal tahun 2020-an, kini merasuki kehidupan digital kita, menangani berbagai tugas mulai dari menjadwalkan janji temu hingga membuat keputusan investasi.
Agen AI berbeda secara signifikan dari model bahasa besar (LLM) seperti ChatGPT dalam kapasitasnya untuk tindakan otonom. Sementara LLM terutama memproses dan menghasilkan teks, agen AI dirancang untuk memahami lingkungannya, membuat keputusan, dan mengambil tindakan untuk mencapai tujuan tertentu. Agen ini menggabungkan berbagai teknologi AI, termasuk pemrosesan bahasa alami, visi komputer, dan pembelajaran penguatan, yang memungkinkan mereka beradaptasi dan belajar dari pengalaman mereka.
Namun, seiring dengan semakin banyaknya agen AI, semakin banyak pula rasa tidak nyaman yang menggerogoti. Bisakah kita benar-benar memercayai entitas digital ini? Pertanyaannya jauh dari sekadar akademis. Agen AI beroperasi di lingkungan yang kompleks, membuat keputusan berdasarkan kumpulan data yang sangat banyak dan algoritme rumit yang bahkan sulit dipahami sepenuhnya oleh pembuatnya. Ketidakjelasan yang melekat ini menimbulkan rasa tidak percaya. Ketika agen AI merekomendasikan perawatan medis atau memprediksi tren pasar, bagaimana kita bisa yakin akan alasan di balik pilihannya?
Konsekuensi dari kepercayaan yang salah pada agen AI bisa sangat mengerikan. Bayangkan penasihat keuangan bertenaga AI yang secara tidak sengaja menghancurkan pasar karena titik data yang salah ditafsirkan, atau AI perawatan kesehatan yang merekomendasikan perawatan yang salah berdasarkan data pelatihan yang bias. Potensi bahaya tidak terbatas pada sektor individu; seiring agen AI menjadi lebih terintegrasi dalam kehidupan kita sehari-hari, pengaruh mereka tumbuh secara eksponensial. Sebuah langkah yang salah dapat berdampak pada masyarakat, memengaruhi segala hal mulai dari privasi pribadi hingga ekonomi global.
Inti dari defisit kepercayaan ini adalah masalah mendasar: sentralisasi. Pengembangan dan penerapan model AI sebagian besar merupakan ranah segelintir raksasa teknologi. Model AI yang tersentralisasi ini beroperasi sebagai kotak hitam, proses pengambilan keputusannya tidak terlihat oleh publik. Kurangnya transparansi ini membuat keputusan mereka hampir mustahil dipercaya dalam operasi berisiko tinggi. Bagaimana kita dapat mengandalkan agen AI untuk membuat pilihan penting jika kita tidak dapat memahami atau memverifikasi alasannya?
Namun, ada solusi untuk masalah ini: AI terdesentralisasi. Paradigma yang menawarkan jalan menuju agen AI yang lebih transparan dan tepercaya. Pendekatan ini memanfaatkan kekuatan teknologi blockchain dan sistem terdesentralisasi lainnya untuk menciptakan model AI yang tidak hanya kuat tetapi juga bertanggung jawab.
Alat untuk membangun kepercayaan pada agen AI sudah ada. Blockchain dapat memungkinkan komputasi yang dapat diverifikasi, memastikan bahwa tindakan AI dapat diaudit dan dilacak. Setiap keputusan yang dibuat agen AI dapat dicatat pada buku besar publik, yang memungkinkan transparansi yang belum pernah terjadi sebelumnya. Bersamaan dengan itu, teknik kriptografi canggih seperti pembelajaran mesin lingkungan eksekusi tepercaya (TeeML) dapat melindungi data sensitif dan menjaga integritas model, sehingga mencapai transparansi dan privasi.
Karena agen AI semakin banyak beroperasi berdekatan atau langsung pada blockchain publik, konsep verifikasi menjadi penting. Model AI tradisional mungkin kesulitan untuk membuktikan integritas operasinya, tetapi agen AI berbasis blockchain dapat memberikan jaminan kriptografi atas perilakunya. Verifikasi ini bukan sekadar hal teknis yang bagus; ini adalah persyaratan mendasar untuk kepercayaan dalam lingkungan berisiko tinggi.
Teknik komputasi rahasia, khususnya lingkungan eksekusi tepercaya (TEE), menawarkan lapisan jaminan yang penting. TEE menyediakan enklave aman tempat komputasi AI dapat dilakukan, terisolasi dari potensi gangguan. Teknologi ini memastikan bahwa bahkan operator sistem AI tidak dapat merusak atau memata-matai proses pengambilan keputusan agen, yang selanjutnya memperkuat kepercayaan.
Kerangka kerja seperti Runtime Off-chain Logic (ROFL) milik Oasis Network merupakan ujung tombak pendekatan ini, yang memungkinkan integrasi komputasi AI yang dapat diverifikasi dengan auditabilitas dan transparansi on-chain. Inovasi semacam itu memperluas kemungkinan untuk aplikasi yang digerakkan oleh AI sekaligus mempertahankan standar kepercayaan dan transparansi tertinggi.
Jalan menuju agen AI yang tepercaya bukan tanpa tantangan. Kendala teknis masih ada, dan adopsi sistem AI terdesentralisasi secara luas akan membutuhkan perubahan dalam praktik industri dan pemahaman publik. Namun, potensi manfaatnya sangat besar. Bayangkan sebuah dunia di mana agen AI membuat keputusan penting dengan transparansi penuh, di mana tindakan mereka dapat diverifikasi dan diaudit oleh siapa pun, dan di mana kekuatan kecerdasan buatan didistribusikan alih-alih terpusat di tangan beberapa perusahaan.
Ada pula peluang untuk membuka pertumbuhan ekonomi yang signifikan. Satu studi tahun 2023 dari Beijing menemukan bahwa peningkatan penetrasi AI sebesar 1% menghasilkan peningkatan total faktor produktivitas (TFP) sebesar 14,2%. Akan tetapi, sebagian besar studi produktivitas AI berfokus pada LLM umum, bukan agen AI. Agen AI otonom yang mampu melakukan banyak tugas secara independen berpotensi menghasilkan peningkatan produktivitas yang lebih besar. Agen AI yang tepercaya dan dapat diaudit kemungkinan akan lebih efektif.
Mungkin sudah saatnya memperbarui kutipan Skinner yang terkenal. Masalah sebenarnya bukan lagi apakah mesin berpikir, tetapi apakah kita dapat memercayai pikiran mereka. Dengan AI terdesentralisasi dan blockchain, kita memiliki alat untuk membangun kepercayaan itu. Pertanyaannya sekarang adalah apakah kita memiliki kebijaksanaan untuk menggunakannya.
Catatan: Pandangan yang diungkapkan dalam kolom ini adalah pandangan penulis dan belum tentu mencerminkan pandangan CoinDesk, Inc. atau pemilik dan afiliasinya.