Centralized LLMs Prove the Case for Decentralized AI

Big Tech telah memperkenalkan model AI percakapan dengan cepat sejak ChatGPT memulai debutnya pada akhir tahun 2022. Namun, perusahaan-perusahaan ini sering kali membangun model agar selaras dengan budaya perusahaan mereka atau melayani tujuan politik atau ideologis tertentu. Karena model-model ini merupakan kotak hitam sumber tertutup, pengguna tidak memiliki wawasan tentang data pelatihan dan mekanisme yang mendasarinya, sehingga mereka bertanya-tanya bagaimana respons dihasilkan.

Alternatif yang dapat dipercaya adalah model yang terbuka dan transparan, yang dikelola dan dilatih pada sistem yang terdesentralisasi, menawarkan keandalan yang lebih baik daripada model korporat tertutup saat ini.

Bias dalam LLM Terpusat

Sejak sebelum peluncuran ChatGPT, berbagai kelompok telah menyuarakan bahaya bias dalam sistem tertutup. Kritikus dari kalangan progresif telah lama berpendapat bahwa model bahasa besar (LLM) bertindak sebagai "burung beo stokastik," yang mencerminkan sudut pandang dominan dan bias pengkodean yang dapat merugikan populasi yang terpinggirkan. Ironisnya, beberapa reaksi paling penting terhadap bias ChatGPT datang dari sisi lain perpecahan politik Amerika.

Pengguna mengamati bahwa meskipun model tersebut dapat membahas campur tangan Rusia dalam pemilihan umum 2020, model tersebut tidak membahasnya di laptop Hunter Biden. Topik ini juga banyak dilaporkan pada waktu yang sama. Penelitian mendukung dugaan bias: "Kami menemukan bukti kuat bahwa ChatGPT menunjukkan bias politik yang signifikan dan sistematis yang menguntungkan Demokrat di AS, Lula di Brasil, dan Partai Buruh di Inggris," catat sebuah penelitian.

Mengingat adanya unsur manusia dalam membangun model, bias tertentu tidak dapat dihindari. Namun, ketika model dilatih secara tidak transparan dan kemudian dipasarkan sebagai 'netral', pengguna akan terpapar bias dari data atau pengembang tanpa kemampuan untuk menelitinya.

Bias juga dapat melampaui masukan data yang digunakan. Misalnya, pada awal tahun 2024, pembuat gambar Google Gemini menghadapi reaksi keras dan dengan cepat 'dihentikan sementara' untuk 'pembaruan'. Untuk menghindari menyinggung apa yang dianggapnya sebagai kepekaan politik dan sosial arus utama, Google memaksa modelnya untuk menyertakan keberagaman di hampir semua gambar.

Pendekatan ini menghasilkan hasil yang sangat tidak akurat, seperti gambar Nazi Afrika dan Asia serta sekelompok pendiri negara Amerika. Gambar-gambar ini tidak hanya sangat tidak benar tetapi juga menyinggung. Namun, yang terpenting, gambar-gambar ini menyingkap risiko manipulasi tersembunyi yang melekat pada model AI tertutup dan berpemilik yang dikembangkan dan dijalankan oleh perusahaan.

Transparansi dan Keterbukaan Sangat Penting bagi Masa Depan AI

Prasangka orang-orang yang menciptakan model tersebut memengaruhi semuanya. Misalnya, petunjuk gambar model Gemini Google bergantung pada prasangka bawaan orang-orang yang menciptakannya. Petunjuk tersebut juga melewati serangkaian pedoman tambahan, termasuk meningkatkan keberagaman, yang sejalan dengan apa yang Google anggap sebagai respons yang diinginkan atau dapat diterima. Meskipun niatnya baik, pembatasan ini tidak langsung terlihat oleh pengguna.

Mengingat pedoman keberagaman Gemini sangat jelas dan canggung, hasilnya segera menjadi sasaran ejekan yang meluas karena pengguna berlomba-lomba untuk menciptakan hasil yang paling konyol. Karena model AI menghasilkan hasil berdasarkan permintaan gambar, semua keluaran kemungkinan dipengaruhi oleh aturan dan bias yang identik. Meskipun bias dalam temuan gambar jelas dan mudah dilihat, jauh lebih sulit untuk mengidentifikasi manipulasi dalam balasan teks.

Sangat penting bahwa LLM bersifat transparan, dapat diperiksa secara terbuka, dan bebas dari bias yang tidak jelas agar dapat dipercaya secara luas, bukannya dilatih dan dimanipulasi oleh perusahaan secara tertutup. Hal ini hanya dapat dicapai dengan model sumber terbuka yang telah terbukti dilatih pada kumpulan data tertentu.

Hugging Face adalah salah satu dari beberapa inisiatif sumber terbuka yang mengumpulkan $400 juta dan membuat kemajuan besar dalam mengembangkan dan melatih model-model terbuka ini. Fakta bahwa model-model ini beroperasi pada jaringan terdesentralisasi dan transparan kepada publik menunjukkan bahwa setiap hasil diterapkan pada model tersebut dengan jujur. Untuk pembayaran dan penyimpanan, saat ini ada jaringan terdesentralisasi yang sangat kuat, dan pasar GPU lainnya, termasuk Aethir dan Akash, mengoptimalkan untuk menjalankan dan melatih model kecerdasan buatan.

Jaringan terdesentralisasi sangat penting karena sulit untuk diancam atau dimatikan karena berfungsi secara internasional di berbagai infrastruktur dan tidak memiliki satu pemilik pun. Ekosistem yang berkembang pesat ini mencakup pasar GPU untuk melatih dan menjalankan model, platform seperti Filecoin untuk penyimpanan data, platform CPU seperti Fluence untuk eksekusi model dengan pembuktian, dan alat terbuka untuk pengembangan model. Dengan infrastruktur penting ini, model terbuka akan menjadi kekuatan yang dahsyat.

Apakah Kerangka Kerja AI Terdesentralisasi Praktis?

Microsoft dan Google telah menginvestasikan miliaran dolar dalam menciptakan LLM mereka, yang memberi mereka keunggulan yang tak terkalahkan. Namun, peristiwa masa lalu telah menunjukkan bahwa bahkan bisnis yang paling terkenal pun dapat disalip. Misalnya, Linux mengalahkan keunggulan Microsoft Windows selama sepuluh tahun dan dukungan finansial senilai miliaran dolar untuk muncul sebagai sistem operasi teratas.

Kita dapat mengantisipasi tingkat keberhasilan yang sama dalam mengembangkan dan mendidik LLM sumber terbuka seperti yang dilakukan komunitas sumber terbuka dalam menciptakan Linux, khususnya jika kita memiliki platform bersama yang memudahkan pengembangan. Dalam waktu dekat, model yang lebih kecil dan spesifik domain dengan kumpulan data yang berbeda dapat dikembangkan, memberikan lebih banyak keyakinan dalam domain khusus mereka daripada bersaing langsung dengan LLM besar seperti ChatGPT.

Misalnya, model yang berfokus pada onkologi anak dapat memanfaatkan akses eksklusif ke data dari rumah sakit anak terkemuka. Antarmuka tunggal dapat menggabungkan model khusus domain ini, memberikan pengalaman seperti ChatGPT berdasarkan fondasi yang transparan dan tepercaya.

Agregasi model merupakan jalur yang layak untuk menciptakan alternatif tepercaya bagi LLM korporat. Namun, memastikan kami mengoperasikan model ini secara terverifikasi sama pentingnya dengan pengembangan dan pelatihannya. Fokusnya harus pada keluaran, dan setiap organisasi yang menjalankan model akan menghadapi tekanan signifikan dari politisi, regulator, pemegang saham, karyawan, publik, dan sekumpulan bot Twitter.

Model terdesentralisasi, yang dihosting oleh penyedia penyimpanan global dan berjalan pada jaringan komputasi terbuka dan terdesentralisasi, menawarkan kueri yang dapat diaudit dan menahan bias dan penyensoran tersembunyi, sehingga membuatnya jauh lebih dapat dipercaya.

Meskipun Big Tech menyadari masalah biasnya, mereka akan membutuhkan bantuan untuk mendukung model yang memberikan jawaban yang tidak populer di kalangan karyawan, pemerintah, dan konstituen pelanggannya, meskipun jawaban tersebut akurat. OpenAI akan mengambil langkah-langkah untuk mengurangi bias yang tampak, dan Google akan memperbarui Gemini agar lebih akurat secara historis, tetapi bias tersembunyi di keduanya akan tetap ada. Kita harus menggunakan pengungkapan manipulasi Big Tech ini sebagai peringatan yang baik tentang risiko mengandalkan perusahaan terpusat mana pun untuk mengembangkan dan menjalankan model AI, tidak peduli seberapa baik niatnya. Kami menyerukan untuk membangun sistem AI yang terbuka, transparan, dan terdesentralisasi yang dapat kita percaya.

Postingan LLM Tersentralisasi Membuktikan Kasus AI Terdesentralisasi muncul pertama kali di Metaverse Post.