Penulis: IOSG
TL;DR
Dengan kombinasi Web3 dan AI menjadi topik menarik di dunia cryptocurrency, pembangunan infrastruktur AI di dunia crypto semakin berkembang, tetapi penggunaan nyata AI atau aplikasi yang dibangun untuk AI masih terbatas, masalah homogenisasi infrastruktur AI mulai terlihat. Putaran pendanaan pertama RedPill yang kami ikuti baru-baru ini memicu pemahaman yang lebih dalam.
Alat utama untuk membangun Dapp AI termasuk akses OpenAI terdesentralisasi, jaringan GPU, jaringan inferensi, dan jaringan agen.
Dikatakan bahwa jaringan GPU lebih populer daripada 'masa penambangan Bitcoin' karena: pasar AI lebih besar dan tumbuh cepat serta stabil; AI mendukung jutaan aplikasi setiap hari; AI membutuhkan beragam model GPU dan lokasi server; teknologi lebih matang dibanding sebelumnya; serta basis pelanggan yang lebih luas.
Jaringan inferensi dan jaringan agen memiliki infrastruktur yang mirip, tetapi fokusnya berbeda. Jaringan inferensi terutama ditujukan untuk pengembang berpengalaman yang menerapkan model mereka sendiri, sementara menjalankan model non-LLM tidak selalu memerlukan GPU. Jaringan agen lebih fokus pada LLM, pengembang tidak perlu membawa model mereka sendiri, tetapi lebih memperhatikan rekayasa petunjuk dan bagaimana menghubungkan berbagai agen. Jaringan agen selalu memerlukan GPU berkinerja tinggi.
Proyek infrastruktur AI menjanjikan banyak, masih terus meluncurkan fitur baru.
Sebagian besar proyek crypto asli masih dalam tahap jaringan pengujian, dengan stabilitas yang buruk, pengaturan yang kompleks, dan fungsionalitas yang terbatas, masih perlu waktu untuk membuktikan keamanan dan privasinya.
Misalkan Dapp AI menjadi tren besar, masih banyak bidang yang belum dieksplorasi, seperti pemantauan, infrastruktur terkait RAG, model asli Web3, API asli terenkripsi yang terintegrasi, dan agen terdesentralisasi untuk data, jaringan evaluasi, dan seterusnya.
Integrasi vertikal adalah tren yang signifikan. Proyek infrastruktur berusaha memberikan layanan satu atap, menyederhanakan pekerjaan pengembang Dapp AI.
Masa depan akan bersifat hibrida. Sebagian inferensi akan dilakukan di frontend, sementara sebagian lainnya akan dihitung di rantai, sehingga mempertimbangkan faktor biaya dan verifikasi.
Sumber: IOSG
Pendahuluan
Kombinasi Web3 dan AI adalah salah satu topik paling menarik di bidang crypto saat ini. Pengembang berbakat sedang membangun infrastruktur AI untuk dunia crypto, berusaha membawa kecerdasan ke dalam kontrak pintar. Membangun Dapp AI adalah tugas yang sangat kompleks, di mana pengembang harus menangani berbagai aspek termasuk data, model, kekuatan komputasi, operasi, penerapan, dan integrasi dengan blockchain.
Menanggapi kebutuhan ini, pendiri Web3 telah mengembangkan banyak solusi awal, seperti jaringan GPU, anotasi data komunitas, model yang dilatih oleh komunitas, inferensi dan pelatihan AI yang dapat diverifikasi, serta toko agen. Namun, di tengah latar belakang infrastruktur yang berkembang ini, penggunaan nyata AI atau aplikasi yang dibangun untuk AI masih terbatas.
Ketika pengembang mencari tutorial pengembangan Dapp AI, mereka menemukan bahwa tutorial yang terkait dengan infrastruktur AI asli crypto tidak banyak, sebagian besar tutorial hanya membahas pemanggilan API OpenAI di frontend.
Sumber: IOSG Ventures
Aplikasi saat ini belum memanfaatkan sepenuhnya fungsi terdesentralisasi dan dapat diverifikasi dari blockchain, tetapi situasi ini akan segera berubah. Saat ini, sebagian besar infrastruktur kecerdasan buatan yang fokus pada ruang crypto telah meluncurkan jaringan pengujian dan berencana untuk beroperasi secara resmi dalam enam bulan ke depan. Penelitian ini akan merinci alat utama yang tersedia dalam infrastruktur AI di bidang cryptocurrency. Mari kita bersiap-siap menyambut momen GPT-3.5 di dunia crypto!
1. RedPill: Menyediakan otorisasi terdesentralisasi untuk OpenAI
RedPill yang kami investasikan sebelumnya adalah titik masuk yang baik. OpenAI memiliki beberapa model kuat kelas dunia, seperti GPT-4-vision, GPT-4-turbo, dan GPT-4o, yang merupakan pilihan utama untuk membangun Dapp AI canggih. Pengembang dapat memanggil API OpenAI melalui oracle atau antarmuka frontend untuk mengintegrasikannya ke dalam Dapp.
RedPill mengintegrasikan API OpenAI dari berbagai pengembang di bawah satu antarmuka, memberikan layanan kecerdasan buatan yang cepat, ekonomis, dan dapat diverifikasi kepada pengguna di seluruh dunia, sehingga mewujudkan demokratisasi sumber daya model AI terkemuka. Algoritma routing RedPill akan mengarahkan permintaan pengembang ke penyumbang tunggal. Permintaan API akan dieksekusi melalui jaringan distribusinya, sehingga menghindari batasan apa pun dari OpenAI, menyelesaikan beberapa masalah umum yang dihadapi pengembang crypto, seperti:
• Batasan TPM (token per menit): Akun baru memiliki batasan penggunaan token yang tidak dapat memenuhi kebutuhan Dapp yang populer dan bergantung pada AI.
• Pembatasan akses: Beberapa model membatasi akses untuk akun baru atau negara tertentu.
Dengan menggunakan kode permintaan yang sama tetapi mengganti nama host, pengembang dapat mengakses model OpenAI dengan biaya rendah, skalabilitas tinggi, dan tanpa batas.
2. Jaringan GPU
Selain menggunakan API OpenAI, banyak pengembang juga memilih untuk menghosting model mereka sendiri di rumah. Mereka dapat memanfaatkan jaringan GPU terdesentralisasi seperti io.net, Aethir, Akash, dan jaringan populer lainnya untuk membangun kluster GPU sendiri dan menerapkan serta menjalankan berbagai model internal atau sumber terbuka yang kuat.
Jaringan GPU terdesentralisasi seperti ini dapat memanfaatkan kekuatan komputasi dari individu atau pusat data kecil, menyediakan konfigurasi yang fleksibel, lebih banyak pilihan lokasi server, dan biaya yang lebih rendah, sehingga pengembang dapat dengan mudah melakukan eksperimen terkait AI dalam anggaran terbatas. Namun, karena sifat terdesentralisasinya, jaringan GPU semacam ini masih memiliki batasan dalam hal fungsionalitas, ketersediaan, dan privasi data.
Dalam beberapa bulan terakhir, permintaan GPU melonjak, melebihi demam penambangan Bitcoin sebelumnya. Alasan fenomena ini termasuk:
Jumlah pelanggan yang meningkat, jaringan GPU sekarang melayani pengembang AI yang tidak hanya besar tetapi juga lebih loyal, tidak terpengaruh oleh fluktuasi harga cryptocurrency.
Dibandingkan dengan perangkat khusus penambangan, GPU terdesentralisasi menawarkan lebih banyak model dan spesifikasi, lebih mampu memenuhi beragam kebutuhan. Terutama, pemrosesan model besar memerlukan VRAM yang lebih tinggi, sementara tugas-tugas kecil memiliki GPU yang lebih sesuai. Sementara itu, GPU terdesentralisasi dapat melayani pengguna akhir dengan jarak dekat, mengurangi latensi.
Teknologi semakin matang, jaringan GPU bergantung pada blockchain cepat seperti Solana untuk penyelesaian, teknologi virtualisasi Docker, dan cluster komputasi Ray.
Dalam hal pengembalian investasi, pasar AI sedang berkembang, dengan banyak peluang untuk pengembangan aplikasi dan model baru, dengan tingkat pengembalian yang diharapkan untuk model H100 sebesar 60-70%, sementara penambangan Bitcoin lebih kompleks, dengan pemenang mengambil semua, dan hasil terbatas.
Perusahaan penambangan Bitcoin seperti Iris Energy, Core Scientific, dan Bitdeer juga mulai mendukung jaringan GPU, menyediakan layanan AI, dan secara aktif membeli GPU yang dirancang untuk AI, seperti H100.
Rekomendasi: Bagi pengembang Web2 yang kurang memperhatikan SLA, io.net menawarkan pengalaman yang sederhana dan mudah digunakan, merupakan pilihan yang sangat baik dari segi biaya.
Ini adalah inti dari infrastruktur AI asli crypto. Ini akan mendukung miliaran operasi inferensi AI di masa depan. Banyak layer1 atau layer2 AI memberikan kemampuan kepada pengembang untuk memanggil inferensi AI secara asli di rantai. Pemimpin pasar termasuk Ritual, Valence, dan Fetch.ai.
Jaringan-jaringan ini memiliki perbedaan dalam hal: kinerja (latensi, waktu komputasi), model yang didukung, verifikasi, harga (biaya konsumsi di rantai, biaya inferensi), pengalaman pengembangan.
3.1 Tujuan
Dalam keadaan ideal, pengembang dapat dengan mudah mengakses layanan inferensi AI yang disesuaikan di mana saja, melalui bentuk bukti apa pun, dengan hampir tidak ada hambatan dalam proses integrasi. Jaringan inferensi menyediakan semua dukungan dasar yang dibutuhkan pengembang, termasuk pembuatan dan verifikasi bukti sesuai permintaan, perhitungan inferensi, pengulangan dan verifikasi data inferensi, penyediaan antarmuka Web2 dan Web3, penerapan model satu klik, pemantauan sistem, operasi lintas rantai, integrasi sinkron, dan eksekusi terjadwal.
Dengan memanfaatkan fungsi-fungsi ini, pengembang dapat mengintegrasikan layanan inferensi ke dalam kontrak pintar yang sudah ada tanpa masalah. Misalnya, saat membangun robot perdagangan DeFi, robot-robot ini akan menggunakan model pembelajaran mesin untuk mencari waktu beli dan jual untuk pasangan perdagangan tertentu, dan melaksanakan strategi perdagangan yang sesuai di platform perdagangan dasar.
Dalam keadaan yang ideal, semua infrastruktur dihosting di cloud. Pengembang hanya perlu mengunggah model strategi perdagangan mereka dalam format umum seperti torch, jaringan inferensi akan menyimpan dan menyediakan model untuk query Web2 dan Web3.
Setelah semua langkah penerapan model selesai, pengembang dapat langsung memanggil inferensi model melalui API Web3 atau kontrak pintar. Jaringan inferensi akan terus menjalankan strategi perdagangan ini dan mengembalikan hasilnya ke kontrak pintar dasar. Jika jumlah dana komunitas yang dikelola pengembang sangat besar, mereka juga perlu menyediakan verifikasi hasil inferensi. Setelah menerima hasil inferensi, kontrak pintar akan melakukan transaksi berdasarkan hasil tersebut.
3.1.1 Asinkron dan Sinkron
Secara teori, operasi inferensi yang dijalankan secara asinkron dapat memberikan kinerja yang lebih baik; namun, cara ini mungkin menyulitkan pengalaman pengembangan. Saat menggunakan metode asinkron, pengembang perlu terlebih dahulu mengajukan tugas ke kontrak pintar jaringan inferensi. Setelah tugas inferensi selesai, kontrak pintar jaringan inferensi akan mengembalikan hasilnya. Dalam pola pemrograman ini, logika dibagi menjadi dua bagian: panggilan inferensi dan pemrosesan hasil inferensi.
Jika pengembang memiliki panggilan inferensi bersarang dan banyak logika kontrol, situasi akan menjadi lebih buruk.
Pola pemrograman asinkron menyulitkan integrasi dengan kontrak pintar yang ada. Ini memerlukan pengembang untuk menulis banyak kode tambahan dan menangani kesalahan serta mengelola ketergantungan. Sebaliknya, pemrograman sinkron lebih intuitif bagi pengembang, tetapi memperkenalkan masalah dalam waktu respons dan desain blockchain. Misalnya, jika data input adalah waktu blok atau harga yang berubah dengan cepat, maka setelah inferensi selesai, data tersebut mungkin sudah tidak terbaru, yang dapat menyebabkan eksekusi kontrak pintar dalam situasi tertentu membutuhkan rollback. Bayangkan Anda melakukan transaksi dengan harga yang sudah usang.
Jaringan agen memungkinkan pengguna dengan mudah menyesuaikan agen. Jaringan semacam ini terdiri dari entitas atau kontrak pintar yang dapat secara mandiri menjalankan tugas, saling berkomunikasi, dan berinteraksi dengan jaringan blockchain tanpa campur tangan manusia secara langsung. Ini terutama ditujukan pada teknologi LLM. Misalnya, ia dapat memberikan chatbot GPT yang memahami Ethereum dengan baik. Alat untuk chatbot ini saat ini terbatas, dan pengembang belum dapat mengembangkan aplikasi yang kompleks berdasarkan ini.
Namun di masa depan, jaringan agen akan menyediakan lebih banyak alat untuk digunakan oleh agen, tidak hanya pengetahuan, tetapi juga kemampuan untuk memanggil API eksternal, melaksanakan tugas tertentu, dan lainnya. Pengembang akan dapat menghubungkan beberapa agen untuk membangun alur kerja. Misalnya, menulis kontrak pintar Solidity akan melibatkan beberapa agen khusus, termasuk agen desain protokol, agen pengembangan Solidity, agen audit keamanan kode, dan agen implementasi Solidity.
Kami mengoordinasikan kolaborasi antara agen-agen ini dengan menggunakan petunjuk dan skenario. Beberapa contoh jaringan agen termasuk Flock.ai, Myshell, Theoriq.
Rekomendasi: Sebagian besar fungsi agen saat ini relatif terbatas. Untuk kasus penggunaan tertentu, agen Web2 dapat memberikan pelayanan yang lebih baik dan memiliki alat pengaturan yang matang, seperti Langchain dan Llamaindex.
5. Perbedaan antara jaringan agen dan jaringan inferensi
Jaringan agen lebih fokus pada LLM, menyediakan alat seperti Langchain untuk mengintegrasikan beberapa agen. Dalam banyak kasus, pengembang tidak perlu mengembangkan model pembelajaran mesin sendiri, jaringan agen telah menyederhanakan proses pengembangan dan penerapan model. Mereka hanya perlu menghubungkan agen dan alat yang diperlukan. Dalam banyak kasus, pengguna akhir akan langsung menggunakan agen-agen ini.
Jaringan inferensi adalah dukungan infrastruktur untuk jaringan agen. Ini menawarkan akses tingkat lebih rendah kepada pengembang. Biasanya, pengguna akhir tidak menggunakan jaringan inferensi secara langsung. Pengembang perlu menerapkan model mereka sendiri, yang tidak terbatas pada LLM, dan mereka dapat menggunakan titik akses di luar rantai atau di dalam rantai. Jaringan agen dan jaringan inferensi bukanlah produk yang sepenuhnya independen. Kami mulai melihat beberapa produk integrasi vertikal. Mereka menyediakan kemampuan agen dan inferensi karena kedua fungsi ini bergantung pada infrastruktur yang serupa.
6. Tanah Peluang Baru
Selain inferensi model, pelatihan, dan jaringan agen, masih ada banyak bidang baru yang patut dieksplorasi di domain web3:
Dataset: Bagaimana mengubah data blockchain menjadi dataset yang dapat digunakan untuk pembelajaran mesin? Pengembang pembelajaran mesin membutuhkan data yang lebih spesifik dan terfokus. Misalnya, Giza menyediakan beberapa dataset berkualitas tinggi tentang DeFi, yang dirancang khusus untuk pelatihan pembelajaran mesin. Data yang ideal tidak hanya berupa data tabel sederhana, tetapi juga harus mencakup data grafis yang dapat menggambarkan interaksi di dunia blockchain. Saat ini, kami masih kekurangan dalam hal ini. Beberapa proyek sedang mencoba menyelesaikan masalah ini dengan memberi penghargaan kepada individu untuk membuat dataset baru, seperti Bagel dan Sahara, yang berkomitmen untuk melindungi privasi data pribadi.
Penyimpanan model: Beberapa model memiliki ukuran besar, bagaimana cara menyimpan, mendistribusikan, dan mengontrol versi model-model ini adalah kunci, yang berhubungan dengan kinerja dan biaya pembelajaran mesin di rantai. Di bidang ini, proyek-proyek pionir seperti Filecoin, AR, dan 0g telah mencapai kemajuan.
Pelatihan model: Pelatihan model yang terdistribusi dan dapat diverifikasi adalah tantangan. Gensyn, Bittensor, Flock, dan Allora telah membuat kemajuan signifikan. Pemantauan: Karena inferensi model terjadi baik di rantai maupun di luar rantai, kami memerlukan infrastruktur baru untuk membantu pengembang web3 melacak penggunaan model, serta mengidentifikasi masalah dan penyimpangan yang mungkin muncul. Dengan alat pemantauan yang tepat, pengembang pembelajaran mesin web3 dapat menyesuaikan dan terus mengoptimalkan akurasi model.
Infrastruktur RAG: RAG terdistribusi memerlukan lingkungan infrastruktur yang baru, dengan permintaan tinggi untuk penyimpanan, komputasi embedding, dan basis data vektor, serta memastikan keamanan privasi data. Ini sangat berbeda dengan infrastruktur AI Web3 saat ini, yang sebagian besar bergantung pada pihak ketiga untuk menyelesaikan RAG, seperti Firstbatch dan Bagel.
Model yang disesuaikan untuk Web3: Tidak semua model cocok untuk konteks Web3. Dalam banyak kasus, model perlu dilatih ulang untuk aplikasi spesifik seperti prediksi harga, rekomendasi, dan lainnya. Dengan berkembangnya infrastruktur AI, kami berharap di masa depan akan ada lebih banyak model asli Web3 untuk melayani aplikasi AI. Misalnya, Pond sedang mengembangkan GNN blockchain untuk berbagai skenario seperti prediksi harga, rekomendasi, deteksi penipuan, dan pencegahan pencucian uang.
Jaringan evaluasi: Menilai agen tanpa umpan balik manusia adalah hal yang sulit. Dengan meningkatnya penggunaan alat pembuatan agen, pasar akan dipenuhi dengan berbagai agen. Ini membutuhkan sistem untuk menunjukkan kemampuan agen-agen ini dan membantu pengguna menentukan agen mana yang berkinerja terbaik dalam situasi tertentu. Misalnya, Neuronets adalah salah satu peserta di bidang ini.
Mekanisme konsensus: Untuk tugas AI, PoS tidak selalu menjadi pilihan terbaik. Kompleksitas perhitungan, kesulitan verifikasi, dan kurangnya determinisme adalah tantangan utama yang dihadapi PoS. Bittensor menciptakan mekanisme konsensus cerdas baru, yang memberikan penghargaan kepada node yang berkontribusi pada model dan output pembelajaran mesin dalam jaringan.
7. Prospek Masa Depan
Kami saat ini mengamati tren integrasi vertikal. Dengan membangun lapisan komputasi dasar, jaringan mampu mendukung berbagai tugas pembelajaran mesin, termasuk pelatihan, inferensi, dan layanan jaringan agen. Model ini bertujuan untuk memberikan solusi satu atap yang komprehensif bagi pengembang pembelajaran mesin Web3. Meskipun inferensi di rantai saat ini mahal dan lambat, ia menawarkan verifikasi yang luar biasa dan integrasi tanpa hambatan dengan sistem backend (seperti kontrak pintar). Saya percaya masa depan akan menuju aplikasi hibrid. Sebagian inferensi akan diproses di frontend atau di luar rantai, sementara inferensi yang kritis dan keputusan akan dilakukan di rantai. Model ini telah diterapkan di perangkat mobile. Dengan memanfaatkan karakteristik intrinsik perangkat mobile, ia dapat menjalankan model kecil dengan cepat secara lokal dan memindahkan tugas yang lebih kompleks ke cloud untuk diproses oleh LLM yang lebih besar.