Tentang ZKML: ZKML (Zero Knowledge Machine Learning) adalah teknologi pembelajaran mesin yang menggabungkan bukti tanpa pengetahuan (Zero-Knowledge Proofs) dan algoritma pembelajaran mesin untuk memecahkan masalah perlindungan privasi dalam pembelajaran mesin.

Tentang daya komputasi terdistribusi: Daya komputasi terdistribusi mengacu pada penguraian tugas komputasi menjadi beberapa tugas kecil dan menugaskan tugas-tugas kecil ini ke beberapa komputer atau prosesor untuk diproses guna mencapai komputasi yang efisien.

Situasi AI dan Web3 Saat Ini: Kawanan Lebah yang Tak Terkendali dan Peningkatan Entropi

Dalam (Out of Control: The New Biology of Machines, Society and the Economic), Kevin Kelly pernah mengemukakan sebuah fenomena: koloni lebah akan mengambil keputusan pemilihan dalam tarian kelompok sesuai dengan manajemen terdistribusi, dan seluruh koloni lebah akan mengikuti kelompok ini. menari. Kawanan terbesar di dunia mendominasi sebuah acara. Ini juga yang disebut "jiwa koloni lebah" yang disebutkan oleh Maurice Maeterlinck - setiap lebah dapat membuat keputusannya sendiri dan membimbing lebah lain untuk memastikannya, dan keputusan akhir sepenuhnya berada di tangan kelompok yang memilih.

Hukum peningkatan dan ketidakteraturan entropi sendiri mengikuti hukum termodinamika. Perwujudan teoritis dalam fisika adalah dengan memasukkan sejumlah molekul ke dalam kotak kosong dan mengukur profil distribusi akhir. Khusus untuk orang-orang, kerumunan yang dihasilkan oleh algoritme dapat menunjukkan aturan kelompok meskipun ada perbedaan pemikiran individu. Mereka sering kali dibatasi pada kotak kosong karena faktor-faktor seperti waktu, dan pada akhirnya akan membuat keputusan konsensus.

Tentu saja, aturan kelompok mungkin tidak benar, namun pemimpin opini yang dapat mewakili konsensus dan dapat membangun konsensus sendirian adalah individu super mutlak. Namun dalam banyak kasus, konsensus tidak menuntut persetujuan penuh dan tanpa syarat dari semua orang, namun hanya memerlukan pengakuan umum dari kelompok tersebut.

Kami tidak membahas di sini apakah AI akan menyesatkan manusia. Faktanya, sudah banyak diskusi seperti itu, apakah banyaknya sampah yang dihasilkan oleh aplikasi kecerdasan buatan yang telah mencemari keaslian data jaringan, atau kesalahan dalam pengambilan keputusan kelompok. -pembuatan yang akan menyebabkan beberapa insiden berubah menjadi lebih berbahaya.

Situasi AI saat ini memiliki monopoli alami. Misalnya, pelatihan dan penerapan model besar memerlukan sumber daya komputasi dan data dalam jumlah besar, dan hanya sejumlah kecil perusahaan dan institusi yang memiliki kondisi ini. Miliaran data ini dianggap sebagai harta karun oleh setiap pemilik monopoli. Belum lagi berbagi sumber terbuka, bahkan akses bersama pun tidak mungkin dilakukan.

Hal ini mengakibatkan pemborosan data dalam jumlah besar. Setiap proyek AI berskala besar memerlukan pengumpulan data pengguna secara berulang-ulang. Pada akhirnya, pihak yang menang akan mengambil alih segalanya - apakah itu merger dan akuisisi, penjualan, perluasan proyek raksasa individual, atau Internet tradisional. . Logika balap rodeo.

Banyak orang mengatakan bahwa AI dan Web3 adalah dua hal yang berbeda dan tidak ada hubungannya. Bagian pertama dari kalimat tersebut benar. Keduanya adalah jalur yang berbeda, tetapi bagian kedua dari kalimat tersebut bermasalah kecerdasan buatan akan berakhir. Dan penggunaan teknologi kecerdasan buatan untuk mendorong pembentukan mekanisme konsensus yang terdesentralisasi adalah hal yang wajar.

Pengurangan tingkat bawah: Biarkan AI membentuk mekanisme konsensus kelompok yang benar-benar terdistribusi

Inti dari kecerdasan buatan masih terletak pada manusia itu sendiri. Mesin dan model hanyalah spekulasi dan tiruan dari pemikiran manusia. Yang disebut kelompok, nyatanya sulit untuk mengabstraksikan kelompok tersebut, karena yang kita lihat sehari-hari adalah individu-individu yang nyata. Namun model tersebut menggunakan sejumlah besar data untuk mempelajari dan menyesuaikan, dan akhirnya mensimulasikan bentuk kelompok. Hasil dari model ini tidak perlu dievaluasi, karena kejadian kejahatan kelompok tidak terjadi satu atau dua kali. Namun model tersebut mewakili munculnya mekanisme konsensus ini.

Misalnya untuk DAO tertentu, jika tata kelola diterapkan sebagai mekanisme, mau tidak mau akan berdampak pada efisiensi. Pasalnya, pembentukan konsensus kelompok merupakan hal yang merepotkan, apalagi voting, statistik, dan lain-lain operasi. Jika tata kelola DAO diwujudkan dalam bentuk model AI, dan seluruh pengumpulan data berasal dari data ucapan semua orang di DAO, maka keputusan keluaran sebenarnya akan lebih mendekati konsensus kelompok.

Konsensus kelompok dari satu model dapat digunakan untuk melatih model sesuai dengan skema di atas, namun bagi individu-individu ini, mereka masih merupakan pulau yang terisolasi. Jika ada sistem kecerdasan kolektif untuk membentuk AI kelompok, maka setiap model AI dalam sistem ini akan bekerja secara kolaboratif satu sama lain untuk memecahkan masalah yang kompleks, yang justru akan berperan besar dalam memberdayakan tingkat konsensus.

Untuk koleksi kecil, Anda dapat membangun ekosistem secara mandiri, atau Anda dapat membentuk kumpulan kooperatif dengan koleksi lain untuk memenuhi daya komputasi ultra-besar atau transaksi data dengan lebih efisien dan berbiaya rendah. Namun masalahnya muncul lagi. Situasi saat ini antara berbagai model database adalah ketidakpercayaan dan penjagaan terhadap yang lain. Ini adalah atribut alami dari blockchain: melalui ketidakpercayaan, keamanan yang benar-benar terdistribusi di antara mesin AI dapat dicapai.

Otak cerdas global dapat membuat model algoritme AI yang awalnya independen satu sama lain dan memiliki fungsi tunggal yang bekerja sama satu sama lain, serta menjalankan proses algoritme cerdas yang kompleks secara internal, sehingga terus membentuk jaringan konsensus grup terdistribusi. Hal ini juga merupakan hal yang paling penting dalam pemberdayaan AI terhadap Web3.

Privasi dan monopoli data? Kombinasi ZK dan pembelajaran mesin

Manusia harus mengambil tindakan pencegahan yang ditargetkan terhadap tindakan jahat AI atau ketakutan akan monopoli data karena perlindungan privasi. Masalah intinya adalah kita tidak mengetahui bagaimana kesimpulan dapat dicapai. Demikian pula, operator model tidak bermaksud menjawab pertanyaan tentang masalah ini. Untuk integrasi otak cerdas global yang kami sebutkan di atas, masalah ini perlu diselesaikan lebih jauh lagi, jika tidak, tidak ada pihak data yang mau berbagi intinya dengan pihak lain.

ZKML (Zero Knowledge Machine Learning) adalah teknologi yang menggunakan bukti tanpa pengetahuan untuk pembelajaran mesin. Zero Knowledge Proofs (ZKP) artinya pembukti dapat membuat verifikator mempercayai keaslian data tanpa mengungkapkan data spesifiknya.

Ambil kasus teoretis sebagai panduan. Ada Sudoku standar 9×9. Syarat penyelesaiannya adalah mengisi sembilan kotak dengan angka 1 sampai 9 sehingga setiap angka hanya dapat muncul satu kali di setiap baris, kolom, dan kotak. Jadi bagaimana orang yang membuat teka-teki ini membuktikan kepada penantang bahwa sudoku punya solusi tanpa mengungkapkan jawabannya?

Cukup tutupi padding dengan jawabannya, lalu biarkan penantang memilih beberapa baris atau kolom secara acak, mengacak semua angka dan memverifikasi apakah semuanya satu banding sembilan. Ini adalah implementasi sederhana dari bukti tanpa pengetahuan.

Teknologi zero-knowledge proof memiliki tiga karakteristik: kelengkapan, kebenaran, dan zero-knowledge, yang berarti membuktikan kesimpulan tanpa mengungkapkan detail apa pun. Sumber teknisnya dapat mencerminkan kesederhanaan. Dalam konteks enkripsi homomorfik, kesulitan verifikasi jauh lebih rendah dibandingkan kesulitan menghasilkan bukti.

Pembelajaran Mesin menggunakan algoritme dan model untuk memungkinkan sistem komputer belajar dan meningkatkan kemampuan dari data. Dengan belajar dari pengalaman secara otomatis, sistem dapat secara otomatis melakukan tugas-tugas seperti prediksi, klasifikasi, pengelompokan, dan pengoptimalan berdasarkan data dan model.

Pada intinya, pembelajaran mesin terletak pada pembuatan model yang belajar dari data dan secara otomatis membuat prediksi dan keputusan. Konstruksi model ini biasanya memerlukan tiga elemen kunci: kumpulan data, algoritma, dan evaluasi model. Kumpulan data adalah dasar pembelajaran mesin dan berisi sampel data yang digunakan untuk melatih dan menguji model pembelajaran mesin. Algoritma adalah inti dari model pembelajaran mesin dan menentukan cara model belajar dan memprediksi dari data. Evaluasi model adalah bagian penting dari pembelajaran mesin, digunakan untuk mengevaluasi performa dan akurasi model serta memutuskan apakah model perlu dioptimalkan dan ditingkatkan.

Dalam pembelajaran mesin tradisional, kumpulan data biasanya perlu dikumpulkan di tempat terpusat untuk pelatihan, yang berarti pemilik data harus berbagi data dengan pihak ketiga, yang dapat menimbulkan risiko kebocoran data atau kebocoran privasi. Dengan ZKML, pemilik data dapat berbagi kumpulan data dengan orang lain tanpa membocorkan data, yang dicapai dengan menggunakan bukti tanpa pengetahuan.

Ketika bukti tanpa pengetahuan (zero-knowledge proof) digunakan untuk memberdayakan pembelajaran mesin, efeknya harus dapat diprediksi. Hal ini memecahkan masalah kotak hitam privasi dan monopoli data yang sudah lama ada: apakah pihak proyek dapat melakukan hal ini tanpa membocorkan masukan data pengguna atau detail spesifik dari pembelajaran tersebut. model. Setelah menyelesaikan pembuktian dan verifikasi, apakah setiap koleksi dapat membagikan data atau modelnya sendiri agar dapat berfungsi tanpa membocorkan data pribadi? Tentu saja teknologi yang ada saat ini masih awal, dan pasti akan banyak kendala dalam prakteknya. Hal ini tidak menghalangi kita untuk berimajinasi, dan sudah banyak tim yang mengembangkannya.

Akankah situasi ini mengarah pada prostitusi gratis antara database kecil dengan database besar? Ketika Anda memikirkan masalah tata kelola, Anda kembali ke pemikiran Web3 kami. Inti dari Crypto adalah tata kelola. Baik melalui penggunaan ekstensif atau pembagian, hal ini harus mendapat insentif yang layak. Baik melalui mekanisme Pow asli, PoS atau berbagai PoR (mekanisme Bukti Reputasi) terbaru, efek insentifnya terjamin.

Kekuatan komputasi terdistribusi: narasi inovatif yang terkait dengan kebohongan dan kenyataan

Jaringan daya komputasi terdesentralisasi selalu menjadi skenario populer dalam lingkaran enkripsi. Bagaimanapun, model AI yang besar memerlukan daya komputasi yang luar biasa, dan jaringan daya komputasi terpusat tidak hanya akan menyebabkan pemborosan sumber daya tetapi juga membentuk monopoli virtual - jika dibandingkan dengan In. pada akhirnya, yang penting adalah jumlah GPU, yang terlalu membosankan.

Inti dari jaringan komputasi terdesentralisasi adalah mengintegrasikan sumber daya komputasi yang tersebar di berbagai lokasi dan perangkat. Keuntungan utama yang sering disebutkan semua orang adalah: menyediakan kemampuan komputasi terdistribusi, memecahkan masalah privasi, meningkatkan kredibilitas dan keandalan model kecerdasan buatan, mendukung penerapan dan pengoperasian cepat dalam berbagai skenario aplikasi, dan menyediakan solusi penyimpanan dan manajemen data yang terdesentralisasi. Benar sekali, melalui kekuatan komputasi yang terdesentralisasi, siapa pun dapat menjalankan model AI dan mengujinya pada kumpulan data on-chain nyata dari pengguna global, sehingga mereka dapat menikmati layanan komputasi yang lebih fleksibel, efisien, dan berbiaya rendah.

Pada saat yang sama, kekuatan komputasi yang terdesentralisasi dapat memecahkan masalah privasi dengan menciptakan kerangka kerja yang kuat untuk melindungi keamanan dan privasi data pengguna. Ini juga menyediakan proses komputasi yang transparan dan dapat diverifikasi, meningkatkan kredibilitas dan keandalan model kecerdasan buatan, dan menyediakan sumber daya komputasi yang fleksibel dan terukur untuk penerapan dan pengoperasian cepat dalam berbagai skenario aplikasi.

Kami melihat pelatihan model dari serangkaian lengkap proses komputasi terpusat. Langkah-langkahnya biasanya dibagi menjadi: persiapan data, segmentasi data, transmisi data antar perangkat, pelatihan paralel, agregasi gradien, pembaruan parameter, sinkronisasi, dan pelatihan berulang. Dalam proses ini, meskipun ruang komputer terpusat menggunakan cluster peralatan komputasi berkinerja tinggi dan berbagi tugas komputasi melalui koneksi jaringan berkecepatan tinggi, biaya komunikasi yang tinggi telah menjadi salah satu batasan terbesar dari jaringan komputasi terdesentralisasi.

Oleh karena itu, meskipun jaringan daya komputasi terdesentralisasi memiliki banyak keuntungan dan potensi, jalur pengembangannya masih berliku-liku berdasarkan biaya komunikasi saat ini dan kesulitan pengoperasian yang sebenarnya. Dalam praktiknya, mewujudkan jaringan komputasi terdesentralisasi memerlukan penyelesaian banyak masalah teknis praktis, baik itu bagaimana memastikan keandalan dan keamanan node, bagaimana mengelola dan menjadwalkan sumber daya komputasi terdistribusi secara efektif, atau bagaimana mencapai transmisi data dan komunikasi yang efisien, dll. , mungkin semua itu adalah masalah besar yang kita hadapi dalam praktiknya.

Ekor: Harapan tersisa bagi kaum idealis

Kembali ke realitas bisnis, narasi integrasi mendalam AI dan Web3 terlihat sangat bagus, namun modal dan pengguna memberi tahu kita dengan tindakan yang lebih praktis bahwa ini ditakdirkan menjadi perjalanan inovasi yang sangat sulit, kecuali proyeknya bisa seperti OpenAI. Meskipun kita kuat, kita harus merangkul sponsor yang kuat, jika tidak, biaya penelitian dan pengembangan yang tidak ada habisnya serta model bisnis yang tidak jelas akan menghancurkan kita sepenuhnya.

Baik AI maupun Web3 kini berada pada tahap perkembangan yang sangat awal, sama seperti gelembung Internet pada akhir abad lalu. Hampir sepuluh tahun kemudian, zaman keemasan sesungguhnya secara resmi dimulai. McCarthy pernah bermimpi merancang kecerdasan buatan dengan kecerdasan manusia dalam satu hari, namun baru hampir tujuh puluh tahun kemudian kami benar-benar mengambil langkah penting menuju kecerdasan buatan.

Hal yang sama berlaku untuk Web3+AI. Kami telah menentukan kebenaran arah ke depan, dan sisanya akan bergantung pada waktu.

Ketika gelombang waktu berangsur-angsur surut, orang-orang dan benda-benda yang masih berdiri itu menjadi landasan perjalanan kita dari fiksi ilmiah menuju kenyataan.