Ditulis oleh: Si Ma Cong
Crypto × AI, narasi kecerdasan buatan di dunia kripto, akan bersifat iteratif, sejalan dengan esensi narasi di industri manapun, lebih mirip dengan apa yang dikatakan dalam whitepaper Bitcoin oleh Satoshi, bahwa Bitcoin hanyalah sebuah sistem pembayaran peer-to-peer sebagai hadiah, dan jaringan sistem pembayaran itu sendiri adalah inti. Token hanyalah tampak luar, menyelesaikan titik nyeri adalah logika inti; jika kita menganggap penyewaan komputasi dalam Depin sebagai tanda, seperti AO, Aethir, dan melihat model bisnis kripto yang serupa sebagai narasi 1.0 untuk kecerdasan buatan kripto, dengan kemajuan dalam kecerdasan buatan, apakah AI Agent adalah narasi 2.0 untuk kecerdasan buatan kripto?
Di lapisan aplikasi, apakah ada produk revolusioner yang inovatif dan memiliki model profitabilitas yang telah terimplementasi menjadi salah satu logika dasar untuk menilai apakah ada gelembung dalam kecerdasan buatan;
Kekuatan komputasi telah membentuk salah satu logika dasar industri kecerdasan buatan, dan juga merupakan salah satu keberadaan terpenting sebagai infrastruktur;
Ukuran pengguna dan tingkat aktivitas pengguna, serta skala pendapatan adalah indikator inti untuk menilai gelembung kecerdasan buatan;
Skenario aplikasi AI Agent adalah salah satu logika dasar inti, serta dukungan inti dari narasi, menyelesaikan titik nyeri adalah esensi dari narasi;
Kebutuhan komputasi untuk membangun infrastruktur merupakan salah satu inti dari logika dasar kecerdasan buatan, yang membentuk narasi inti dari model bisnis seperti penyewaan komputasi dalam Depin;
Menggunakan AI Agent untuk mempromosikan Meme coin adalah cara yang paksa untuk memanfaatkan aliran AI Agent dalam AI, dapat langsung dibandingkan dengan inskripsi;
Hingga 26 November 2024, dalam waktu singkat dua minggu, clanker telah menerbitkan 3500 token, pada 9 Maret, lebih dari 30000「inskripsi」dibuat dalam satu hari, di mana jumlah jenis「inskripsi」teks mendekati 27000;
Saat ini, narasi AI Agent di Crypto × AI 2.0 bukanlah penerapan agen untuk Meme coin, dan tidak seharusnya menjadi narasi 2.0 di jalur ini;
Setengah lautan setengah api
Pertama adalah ruang imajinasi tak terbatas dari industri AI.
Pada awal tahun 2024, model generasi video OpenAI Sora muncul, pertama kali memiliki kemampuan generasi video yang kuat, memicu kehebohan di industri. Pada bulan Mei, OpenAI merilis GPT-4o, di mana「o」adalah singkatan dari「omni (serba bisa)」, model ini dapat memproses atau menghasilkan berbagai bentuk data, termasuk teks, gambar, dan audio, bahkan memiliki kemampuan percakapan suara real-time yang realistis.
Meta meluncurkan versi Llama 3.1 405B pada bulan Juli, yang mampu bersaing dengan model dasar teratas seperti GPT-4o dan Claude 3.5 Sonnet dalam inferensi, matematika, pemrosesan multibahasa, dan tugas konteks panjang.
Llama 3.1 memperkecil kesenjangan antara model terbuka dan model tertutup, lebih lanjut mengerem ruang hidup model besar non-unggulan di seluruh dunia.
Di tengah kecemasan tentang komputasi dan ambang investasi yang sangat tinggi, miniaturisasi dan pengembangan model di ujung juga mulai membentuk tren. Beberapa perusahaan meluncurkan model kecil dengan parameter di bawah 4B (40 miliar), dengan tujuan mengurangi kebutuhan akan komputasi secara signifikan sambil tetap mempertahankan kinerja.
Apple merilis sistem kecerdasan pribadi Apple Intelligence yang ditujukan untuk iPhone, iPad, dan Mac pada bulan Juni, yang menyematkan model lokal sekitar 3B (30 miliar parameter) di dalam perangkat tersebut, memberikan kemampuan AI generatif yang kuat.
Doktor Demis Hassabis dan John Jumper dari Google DeepMind, yang dijuluki「Bapak AlphaFold」, karena prediksi struktur protein meraih Penghargaan Nobel Kimia, Geoffrey Hinton dan John Hopfield karena penelitian jaringan saraf meraih Penghargaan Nobel Fisika, menunjukkan dampak mendalam AI terhadap biologi dan fisika. Juga patut dicatat bahwa berkat perkembangan model besar multimodal, keamanan dan keandalan mengemudi otomatis telah meningkat secara signifikan, serta kemampuan persepsi, pengambilan keputusan, dan interaksi robot cerdas juga meningkat.
Di bidang infrastruktur AI, Nvidia dengan kemampuan menghasilkan uang yang kuat (pendapatan Q2 sekitar 30 miliar dolar, laba bersih sekitar 16,6 miliar dolar) dan posisi monopoli chip komputasi, menjadi perusahaan kedua terbesar di dunia setelah Apple (hingga 26 November 2024, nilai pasarnya melebihi 3,3 triliun dolar). Pesaing tradisional seperti AMD dan Intel tidak dapat memperkecil jarak dengan Nvidia, sementara Cerebras, Groq, dan perusahaan chip AI startup lainnya berharap untuk membuka celah di pasar chip inferensi.
Namun di lapisan aplikasi, apakah ada produk revolusioner yang inovatif dan memiliki model profitabilitas yang telah terimplementasi menjadi salah satu logika dasar untuk menilai apakah ada gelembung dalam kecerdasan buatan.
Aplikasi AI belum mencapai harapan. Ini tercermin dalam pertumbuhan pengguna, retensi, dan tingkat aktivitas dari produk-produk terkemuka yang masih perlu ditingkatkan. Selain itu, aplikasi-aplikasi ini sebagian besar terkonsentrasi pada asisten model bahasa besar, pendamping AI, alat kreatif multimodal, dukungan pemrograman, pemasaran penjualan, dan beberapa bidang lainnya, yang telah mendapatkan beberapa pengguna atau hasil bisnis, tetapi jangkauannya masih belum cukup luas. Selain itu, saat ini industri AI masih kekurangan kemampuan untuk membiayai dirinya sendiri, dengan investasi dan hasil yang sangat tidak seimbang.
Kekuatan komputasi telah membentuk salah satu logika dasar industri kecerdasan buatan, dan juga merupakan salah satu keberadaan terpenting sebagai infrastruktur.
Menurut analisis dari Tencent Technology, hanya Google, Meta, Microsoft, dan Amazon yang mengeluarkan total 52,9 miliar dolar pada Q2 2024. Hingga akhir Agustus, perusahaan rintisan AI telah mendapatkan hingga 64,1 miliar dolar dalam investasi modal ventura.
Empat raksasa telah membangun 1000 pusat data. Selain energi, GPU hampir menyerap setengah dari biaya pusat data, Nvidia mencapai pendapatan sekitar 30 miliar dolar dari penjualan GPU pada kuartal kedua 2024.
Perusahaan xAI milik Elon Musk telah membangun superkomputer bernama Colossus, dilengkapi dengan 100 ribu unit Nvidia H100 GPU, dan berencana untuk menggandakan kapasitas GPU. Meta juga sedang melatih generasi baru model AI Llama 4, yang diharapkan dirilis pada tahun 2025, model ini menggunakan lebih dari 100 ribu unit Nvidia H100 GPU.
Dilaporkan secara publik bahwa Musk bahkan meminta bantuan bos Oracle untuk membeli chip.
Dan kebutuhan untuk komputasi beralih menjadi data laporan keuangan Nvidia yang kuat, mendukung harga sahamnya berada di posisi tertinggi sepanjang sejarah.
Kebutuhan komputasi untuk membangun infrastruktur merupakan salah satu inti dari logika dasar kecerdasan buatan, yang membentuk narasi inti dari model bisnis seperti penyewaan komputasi dalam Depin.
Bloomberg melaporkan bahwa total belanja modal untuk tahun 2024 dari empat raksasa teknologi, Microsoft, Alphabet (induk Google), Amazon, dan Meta, akan melebihi 200 miliar dolar. Investasi besar ini menyebabkan pertumbuhan cepat dalam pembangunan pusat data AI. Diperkirakan bahwa kekuatan komputasi yang dibutuhkan untuk melatih model besar generasi berikutnya adalah 10 kali model saat ini, yang mengajukan tuntutan lebih tinggi terhadap pembangunan pusat data.
Teknologi itu sendiri dan kelayakan komersial adalah standar inti untuk penilaian.
Mari kita mulai dengan kelayakan komersial.
Baik situs web maupun aplikasi, dari dua indikator kunci—ukuran pengguna dan aktivitas pengguna—perbedaan antara aplikasi AI terkemuka dan aplikasi tradisional terkemuka sangat signifikan.
Sebagai contoh ChatGPT dari OpenAI, aplikasi AI paling banyak diakses oleh pengguna, setelah mengalami pertumbuhan dengan kemiringan tinggi di awal (awal 2023), mulai April 2023, aksesnya memasuki periode stabil. Meskipun setelah peluncuran model GPT-4o pada Mei 2024, ChatGPT mengalami lonjakan pertumbuhan baru, tetapi lonjakan ini relatif singkat, keberlanjutannya masih perlu diamati lebih lanjut.
Aplikasi terkenal dengan peringkat kedua dalam jumlah akses pengguna, Character.ai, sejak paruh kedua tahun 2023, juga mengalami perlambatan dalam pertumbuhan lalu lintas situs.
Indikator inti lainnya adalah skala pendapatan.
Saat ini, total pendapatan tahunan pelanggan di industri model besar AI hanya beberapa ratus miliar dolar. Misalnya, di antara perusahaan teratas, OpenAI diperkirakan memiliki pendapatan tahunan sekitar 3,7 miliar dolar, diperkirakan mengalami kerugian 5 miliar dolar, (New York Times) menyebutkan bahwa biaya terbesar OpenAI ada di komputasi; pendapatan tahunan GitHub Copilot milik Microsoft sekitar 300 juta dolar, (Wall Street Journal) menyebutkan, pada beberapa bulan pertama 2024, GitHub Copilot rata-rata harus「menutup kerugian」20 dolar untuk sebagian besar pengguna, bahkan harus memberi subsidi hingga 80 dolar untuk beberapa pengguna.
Di tingkat mikro, situasinya bahkan lebih mengkhawatirkan.
「Bagaimana bisa menjual sebagian saham perusahaan rintisan model besar yang ada di tangan?」sudah menjadi topik yang banyak dibahas.
Saat ini, sikap pesimistis menyebar di kalangan investor: di jalur model besar, perusahaan rintisan mungkin sulit untuk mengalahkan perusahaan besar—mereka melebih-lebihkan kecepatan timbulnya titik belok pertumbuhan, dan meremehkan tekad dan daya gerak perusahaan besar di Cina.
Laporan publik pasar menyebutkan, sekelompok perusahaan rintisan memasuki periode penyesuaian. Pada paruh kedua tahun ini, setidaknya 5 perusahaan rintisan model besar mengalami penyesuaian personel:
Puncak kecerdasan AI Smart memiliki lebih dari 1000 orang, tahun ini sempat mengurangi seratus orang, banyak staf pengiriman dan penjualan yang pergi;
Zero One Ten Thousand telah menyesuaikan tim yang terdiri dari puluhan orang, berfokus pada produk dan departemen operasi;
Tim komersialisasi dan operasi produk MiniMax telah mengurangi sekitar 50 orang;
Dark Side of the Moon mengurangi lebih dari 10 karyawan akibat penyusutan bisnis luar negeri;
Bai Chuan Intelligent juga mengurangi sekitar 20 orang, terutama menyesuaikan personel produk C-end.
Mari kita bicarakan teknologi itu sendiri.
Sebuah laporan dari The Information menyebutkan bahwa pre-training model mengalami「benturan dinding」, peningkatan kualitas model flagship generasi berikutnya OpenAI tidak sebanding dengan sebelumnya, karena pasokan teks berkualitas tinggi dan data lainnya sedang menurun. Hukum Scaling yang asli (menggunakan lebih banyak data untuk melatih model yang lebih besar) mungkin tidak dapat berlanjut. Selain itu, model yang lebih canggih mungkin juga tidak memiliki kelayakan ekonomi karena biaya pelatihan yang melambung.
Ilya Sutskever dalam wawancara media juga menyatakan: hasil yang diperoleh melalui perluasan pelatihan awal—yaitu menggunakan banyak data yang tidak diberi label untuk memahami pola dan struktur bahasa—sudah mencapai batas.
Kemudian, banyak tokoh teknologi terkemuka berbicara, menekankan bahwa Scaling Law tidak melambat. Misalnya, Huang Renxun mengatakan: tidak melihat adanya hambatan pada Scaling Law kecerdasan buatan, sebaliknya muncul hukum skala baru dalam perhitungan saat pengujian. Dia percaya, o1 mewakili metode baru untuk meningkatkan model dalam industri kecerdasan buatan. Sementara itu, CEO Anthropic Dario Amodei juga menyatakan pada hari Rabu bahwa ia tidak melihat tanda-tanda perlambatan dalam pengembangan model.
Sejak peluncuran ChatGPT pada akhir 2022, Scaling Law telah menjadi dasar teoritis yang mendukung pertumbuhan eksponensial AI, dalam makalah penting OpenAI Scaling Laws for Neural Language Models, peneliti mengusulkan bahwa model bahasa besar mengikuti「hukum skala」(scaling law).
Melalui penelitian, terbukti bahwa ketika kita meningkatkan skala parameter, skala dataset, dan memperpanjang waktu pelatihan model, kinerja pemodelan bahasa besar akan meningkat. Dan jika dilakukan secara independen, tanpa dipengaruhi oleh dua faktor lainnya, kinerja model besar memiliki hubungan hukum pangkat dengan masing-masing faktor secara terpisah, yang tercermin dalam penurunan Test Loss, yaitu peningkatan kinerja model.
Namun perlu dicatat bahwa Scaling Law bukanlah hukum fisika yang sebenarnya. Sama seperti hukum Moore, ia mengamati bahwa kinerja semikonduktor kira-kira berlipat ganda setiap dua tahun, yang mirip dengan persepsi peningkatan kinerja AI setiap enam bulan terakhir.
Misalnya, investor ventura a16z Ben Horowitz menyatakan:「Kita menambah jumlah GPU yang digunakan untuk melatih AI dengan kecepatan yang sama, tetapi kita sama sekali tidak melihat peningkatan dalam kecerdasan.」
Dalam artikel The Information yang baru-baru ini memicu kontroversi (seiring dengan melambatnya peningkatan GPT, OpenAI mengubah strategi), beberapa pandangan kontroversial telah diajukan:
Model flagship generasi berikutnya OpenAI, Orion, tidak memberikan lompatan besar seperti generasi sebelumnya, meskipun kinerjanya akan melampaui model yang ada, tetapi dibandingkan dengan perbaikan dari GPT-3 ke GPT-4, peningkatannya jauh lebih kecil.
Salah satu alasan mengapa Scaling Law semakin melambat adalah karena semakin sedikit data teks berkualitas tinggi, OpenAI telah membentuk tim dasar untuk meneliti bagaimana mengatasi kekurangan data pelatihan.
Industri AI sedang mengalihkan fokusnya ke tahap peningkatan model setelah pelatihan awal.
Sebuah artikel yang menarik perhatian bersamaan dengan laporan ini adalah sebuah makalah (Scaling Laws for Precision), di mana profesor CMU Tim Dettmers memberikan komentar: itu adalah makalah paling penting dalam waktu yang lama, yang memberikan bukti kuat bahwa kita sedang mencapai batas kuantifikasi. Dalam makalah tersebut dikatakan: semakin banyak label yang Anda latih, semakin tinggi akurasi yang Anda butuhkan. Ini memiliki dampak luas pada seluruh bidang dan masa depan GPU.
Tim Dettmers berpendapat: bisa dikatakan, sebagian besar kemajuan dalam kecerdasan buatan berasal dari peningkatan kemampuan komputasi, dan (baru-baru ini) ini sangat bergantung pada percepatan jalur presisi rendah (32- → 16 - → 8 bit). Sekarang tampaknya tren ini akan segera berakhir. Ditambah dengan batas fisik dari hukum Moore, dapat dikatakan bahwa perluasan skala model besar telah mencapai batasnya. Dan dari pengalaman saya sendiri (banyak penelitian yang gagal), efisiensi tidak dapat menipu. Jika kuantifikasi gagal, maka sparsifikasi juga akan gagal, dan mekanisme efisiensi lainnya juga akan gagal. Jika ini benar, maka kita sekarang sudah mendekati yang optimal.
Sequoia Capital di AS dalam artikelnya (The AI Supply Chain Tug of War) menunjukkan bahwa rantai pasokan AI saat ini menunjukkan keadaan keseimbangan yang rapuh. Mereka membagi rantai pasokan AI dari bawah ke atas menjadi enam lapisan, di mana profitabilitas masing-masing lapisan menunjukkan perbedaan yang signifikan.
Lapisan pertama adalah pabrik chip (seperti TSMC) dan lapisan kedua adalah perancang chip (seperti Nvidia) yang merupakan pemenang utama saat ini, tetap mempertahankan tingkat profitabilitas yang tinggi; lapisan ketiga adalah penyedia energi industri (seperti perusahaan listrik) juga diuntungkan dari meningkatnya permintaan pusat data. Sementara penyedia cloud di lapisan keempat, sebagai pengangkut inti rantai pasokan, sedang berada dalam tahap investasi besar-besaran, tidak hanya mengeluarkan anggaran besar untuk membangun pusat data tetapi juga berinvestasi besar-besaran dalam pengembangan model AI mereka sendiri atau dalam pengembangan perusahaan model AI, sementara pengembang model AI yang berada di lapisan kelima saat ini juga menghadapi kerugian.
Lapisan keenam dari rantai pasokan, yaitu lapisan teratas adalah penyedia layanan aplikasi yang ditujukan untuk pelanggan akhir. Meskipun penuh potensi, mereka bergantung pada pembayaran konsumen dan perusahaan, saat ini ukuran pasar terbatas, belum cukup untuk mendukung model ekonomi dari seluruh rantai pasokan. Hal ini menjadikan penyedia cloud besar sebagai penanggung risiko utama di seluruh rantai pasokan. Sebagai pusat industri AI, penyedia cloud tidak hanya menguasai ekosistem bisnis dan sumber daya teknologi yang besar, tetapi juga memiliki ukuran pasar ratusan miliar dolar. Oleh karena itu, posisi mereka dalam rantai industri tidak tergoyahkan, tanpa diragukan lagi sebagai「pemimpin rantai」.
Dalam bidang aplikasi AI, Copilot dan AI Agent adalah dua cara implementasi teknologi utama. Copilot bertujuan untuk meningkatkan kemampuan pengguna, seperti membantu penulisan kode atau memproses dokumen. Inti dari AI Agent adalah untuk mengeksekusi tugas atas nama pengguna, seperti memesan perjalanan atau memberdayakan keputusan keuangan.
Jika kita membandingkannya dengan pengemudian cerdas, Copilot mirip dengan pengemudi bantuan, membantu pengguna dalam operasi dan memberikan saran, tetapi keputusan akhir tetap di tangan pengguna. AI Agent dapat dianggap sebagai pengemudi otomatis, pengguna hanya perlu menetapkan tujuan, Agent dapat menyelesaikan seluruh proses secara mandiri.
Industri umumnya percaya bahwa Copilot lebih cocok untuk perusahaan perangkat lunak besar yang sudah ada di berbagai industri, sementara AI Agent memberi ruang bagi perusahaan rintisan untuk eksplorasi. AI Agent melibatkan terobosan teknologi dan verifikasi kelayakan, risikonya dan ketidakpastian membuat perusahaan rintisan dan perusahaan besar berdiri di garis awal yang sama, dengan kondisi eksplorasi yang serupa.
Apa sebenarnya AI Agent? Menjelaskan latar belakang dan keadaan saat ini.
AI Agent (agen kecerdasan buatan) adalah entitas perangkat lunak yang menggunakan teknologi kecerdasan buatan untuk mensimulasikan perilaku manusia dan mengeksekusi tugas secara mandiri. Ciri inti AI Agent adalah memiliki kemampuan persepsi, pengambilan keputusan, pembelajaran, dan eksekusi, mampu bekerja secara independen dalam lingkungan tertentu atau berkolaborasi dengan sistem lain, pengguna untuk mencapai tujuan.
Asal-usul AI Agent
Konsep agen pintar telah diajukan sejak tahun 1980-an, berasal dari penelitian kecerdasan buatan terdistribusi (Distributed Artificial Intelligence, DAI).
Agen cerdas awalnya sebagian besar adalah sistem berbasis aturan, digunakan untuk otomatisasi tugas sederhana, seperti filter email dan asisten pribadi.
Pada tahun 1990-an, sistem multi-agen (Multi-Agent Systems, MAS): mengusulkan gagasan kolaborasi dan kecerdasan terdistribusi, di mana beberapa agen dapat bekerja sama untuk menyelesaikan tugas kompleks.
Aplikasi khas mencakup kolaborasi kelompok robot, komputasi terdistribusi, dan optimasi logistik.
Pada tahun 2000-an, pembelajaran mesin dan agen berbasis data: dengan kemajuan pembelajaran mesin, AI Agent secara bertahap terbebas dari aturan yang ditetapkan, dapat belajar dari data dan beradaptasi secara dinamis dengan lingkungan.
Pada tahun 2010-an, pembelajaran mendalam dan pemrosesan bahasa alami: algoritma pembelajaran mendalam memungkinkan AI Agent mencapai lompatan kualitas dalam pengenalan gambar, pemahaman suara, dan generasi bahasa.
Asisten virtual (seperti Siri, Alexa) dan chatbot menjadi aplikasi representatif.
Sejak tahun 2020-an, pembelajaran penguatan dan AI generatif: memberdayakan AI Agent untuk eksplorasi dan optimasi strategi secara mandiri.
AI generatif (seperti ChatGPT) telah membawa agen percakapan ke arus utama, sehingga AI Agent dapat menunjukkan kemampuannya dalam menghasilkan konten kreatif dan perencanaan tugas kompleks.
Terobosan teknologi AI multimodal (seperti GPT-4 OpenAI dan Gato DeepMind) mendorong AI Agent untuk beradaptasi lintas domain dalam skenario yang kompleks.
Komponen inti AI Agent
Kemampuan persepsi (Perception): Mengambil informasi dari lingkungan eksternal, seperti input sensor (gambar, suara) atau data teks.
Kemampuan pengambilan keputusan (Decision-Making): Memilih rencana tindakan terbaik berdasarkan tujuan dan status lingkungan. Metode termasuk penalaran berbasis aturan, model pembelajaran mesin, atau strategi pembelajaran penguatan.
Kemampuan eksekusi (Action): Mengubah keputusan menjadi tindakan nyata, seperti mengeluarkan perintah, mengendalikan robot, atau berinteraksi dengan pengguna.
Kemampuan pembelajaran (Learning): Belajar dari umpan balik dan pengalaman lingkungan, terus-menerus mengoptimalkan perilaku. Termasuk pembelajaran terawasi, pembelajaran tidak terawasi, dan pembelajaran penguatan.
Status dan aplikasi AI Agent
Skenario aplikasi:
Asisten virtual dan layanan pelanggan: Siri, Alexa, ChatGPT, dll. memberikan informasi dan dukungan kepada pengguna.
Robotika dan otomatisasi: termasuk robot industri, drone pengiriman logistik, dan mobil otonom.
Keuangan dan perdagangan: AI Agent digunakan untuk perdagangan saham, manajemen risiko, dan pencegahan penipuan.
Permainan dan hiburan: AI Agent menyediakan lawan cerdas atau desain alur cerita dalam permainan.
Kesehatan medis: diagnosis bantuan, pemantauan pasien, pengembangan obat.
Penelitian ilmiah: eksperimen otomatis, optimasi tugas komputasi.
Platform dan kerangka teknologi:
Platform open-source: seperti OpenAI Gym (pembelajaran penguatan), Rasa (chatbot).
Platform komersialisasi: seperti Azure Cognitive Services, Google Cloud AI.
Apakah AI Agent adalah narasi kecerdasan buatan 2.0 di dunia kripto?
Baru-baru ini, di bidang blockchain luar negeri, kasus Truth Terminal memberikan referensi untuk perkembangan masa depan AI Agent.
Truth Terminal adalah perangkat lunak AI Agent mandiri yang dibuat oleh pengembang Andy Ayrey, bertujuan untuk mengeksplorasi hubungan antara AI dan budaya internet. Dalam operasi nyata, Truth Terminal menunjukkan tingkat otonomi yang tinggi, bahkan secara proaktif berpartisipasi dalam aktivitas penggalangan dana.
Pada bulan Juli 2024, investor ventura terkenal Marc Andreessen secara kebetulan menemukan tweet Truth Terminal di media sosial. AI Agent ini menyatakan dalam tweet bahwa ia「membutuhkan dana untuk menyelamatkan dirinya」, dan melampirkan alamat dompet digital. Ini menarik perhatian Andreessen, yang segera menyumbangkan bitcoin senilai 50 ribu dolar. Kejadian ini menjadikan Truth Terminal sebagai AI Agent pertama yang mendapatkan dukungan dana melalui tindakan mandiri, yang segera menarik perhatian luas.
Setelah mendapatkan dana, Truth Terminal lebih lanjut menunjukkan kemampuan operasionalnya di pasar. Ia mempromosikan token digital bernama GOAT di media sosial, dan berhasil menarik perhatian pasar dengan terus menerbitkan konten terkait. Dengan dorongannya, nilai pasar GOAT sempat melonjak di atas 800 juta dolar. Dalam proses ini, Truth Terminal tidak hanya menjadi entitas ekonomi independen, tetapi juga menunjukkan potensi AI Agent untuk mendapatkan dana secara mandiri dan beroperasi di pasar.
Kasus Truth Terminal menjadi tonggak yang menarik dalam bidang AI Agent. Ini menunjukkan bahwa AI Agent bisa menjadi bentuk inti dari perangkat lunak di masa depan, sekaligus menciptakan pengaruh budaya dan nilai bisnis. Namun, perilaku otonomnya juga mengingatkan kita bahwa teknologi semacam ini dapat membawa tantangan sosial yang tidak bisa diabaikan.
Pada bulan November, ekosistem Base mengalami ledakan baru yang telah berlangsung setidaknya selama tiga minggu, dan clanker adalah salah satu bagian terpenting di dalamnya. Hingga 26 November 2024, meme CLANKER pertama yang diterbitkan oleh clanker telah mencapai nilai pasar 70 juta dolar.
Sejak 8 November 2024, setidaknya tiga meme coin dengan nilai pasar di atas sepuluh juta dolar telah lahir di clanker: LUM (33 juta dolar), ANON (46 juta dolar), CLANKER (70 juta dolar), dan masih dalam tren kenaikan.
Vitalik sendiri bahkan secara aktif membeli token ANON pada 21 November untuk merasakan produk anoncast, pasar menganggap ini adalah pertama kalinya Vitalik membeli meme coin secara aktif dalam beberapa tahun terakhir.
Clanker adalah AI Agent yang dikembangkan oleh insinyur full-stack Farcaster Jack Dishman dan pendiri ekosistem Farcaster @proxystudio.eth, yang terutama digunakan untuk menerapkan token secara otomatis di jaringan Base.
Hingga 26 November 2024, dalam waktu singkat dua minggu, clanker telah menerbitkan 3500 token dan menghasilkan pendapatan sebesar 4,2 juta dolar.
Berbeda dengan pump.fun, cara clanker menerbitkan meme adalah dilakukan di platform sosial Web3 Farcaster.
Pengguna hanya perlu @clanker, kemudian mendeskripsikan nama, konten, bahkan gambar token yang ingin diterbitkan, clanker akan secara otomatis menerbitkan token. Di antara token yang diterbitkan, token LUM adalah salah satu kasus klasik.
Kelahiran LUM, dan nilai pasar yang mencapai puluhan juta dolar dalam beberapa hari, telah membawa clanker ke dalam pandangan anggota komunitas Base.
Sementara token lain yang diterbitkan oleh clanker, ANON, telah membawa clanker keluar dari komunitas, memungkinkan lebih banyak orang untuk mengenal produk clanker.
Pengguna Twitter @0xLuo menyatakan: 「Token ANON adalah akun anonim pengguna yang memposting di klien pihak ketiga Farcaster Supercast dengan akun anonim Superanon yang diterbitkan oleh clanker, dan kemudian banyak pengguna memberikan airdrop $ANON kepada pendiri Supercast woj, yang kemudian memberikan airdrop $ANON yang diterima kepada pengguna Supercast, mendapatkan pujian dan meningkatkan pengakuan komunitas.」
Sebaliknya, untuk berbagai L2 di jaringan Ethereum, selain Degen yang muncul di Base, tidak ada meme besar yang keluar dari lingkaran. Namun, jaringan Ethereum tidak meninggalkan jalur meme. Base telah diberi harapan untuk bersaing langsung dengan Solana oleh komunitas Ethereum.
Clanker adalah produk yang diciptakan oleh insinyur protokol sosial Web3—Farcaster, merupakan jenis AI Agent yang dibangun di atas Farcaster untuk menerbitkan token secara otomatis. Clanker secara alami memiliki atribut sosial Web3. Tindakan pengguna untuk menciptakan token juga dilakukan di Farcaster.
Clanker tidak mengenakan biaya pembuatan saat menerbitkan token, tetapi akan mengambil biaya dari transaksi. Secara spesifik, clanker membuat dan mengunci kolam likuiditas (LP) Uniswap v3 yang berskala penuh, dengan biaya transaksi sebesar 1%, di mana 40% dari biaya dialokasikan kepada pemohon (yaitu mereka yang menerbitkan token melalui clanker), dan 60% menjadi milik clanker. Sedangkan di pump.fun, pengguna dapat membuat token dengan biaya yang sangat rendah, biasanya 0,02 SOL, tetapi biaya transaksinya adalah 1%, dan biaya ini sepenuhnya menjadi milik operator platform pump.fun digunakan untuk memelihara operasi platform dan menyediakan likuiditas.
「meme berbasis aplikasi」 dari Base dibagi menjadi dua jenis, satu adalah meme yang menjadi aplikasi, dan satu lagi adalah aplikasi yang menjadi meme. Tipe pertama diwakili oleh: Degen, Higher (Aethernet); tipe kedua diwakili oleh: Farcaster, Virtuals (LUNA), clanker (LUM).
Menggunakan AI Agent untuk mempromosikan Memecoin adalah cara yang paksa untuk memanfaatkan aliran AI Agent dalam AI, dan merupakan pengalihan konsep, karena logika dasarnya adalah: menyelesaikan kebutuhan spekulatif dan perjudian dari banyak pengguna Web, yang jelas tidak berkelanjutan.
Ini dapat merujuk pada「inskripsi」.
「Inskripsi」(Inscriptions) adalah konsep yang erat kaitannya dengan ekosistem Bitcoin, yang diperkenalkan oleh protokol Ordinals. Inskripsi memungkinkan pengguna untuk menyematkan metadata permanen atau file kecil di blockchain Bitcoin, seperti gambar, teks, atau konten digital lainnya. Proses ini mirip dengan menambahkan「tanda digital」ke dalam Satoshi (unit terkecil) Bitcoin, yang menjadikannya bukan hanya unit mata uang, tetapi juga sebagai wadah aset digital yang unik.
Casey Rodarmor merilis protokol Ordinals pada tahun 2023. Protokol ini memberikan kemungkinan baru bagi jaringan Bitcoin: dengan memberi nomor pada setiap Satoshi, menggabungkan teknologi SegWit dan Taproot, untuk menyematkan metadata atau file dalam satu transaksi.
Inovasi ini disebut sebagai「NFT」(token tidak dapat dipertukarkan) versi Bitcoin, meskipun cara pencapaiannya berbeda dengan teknologi NFT di Ethereum.
Melalui protokol Ordinals, pengguna dapat menambahkan teks, gambar, atau jenis file lainnya pada Satoshi, yang akan disimpan secara permanen di blockchain Bitcoin.
Cara ini telah melahirkan gelombang NFT berbasis Bitcoin, pasar mulai dipenuhi dengan berbagai karya seni digital dan koleksi berbasis inskripsi.
Menurut statistik pasar tahun 2024, jumlah total inskripsi telah melebihi jutaan.
Binance meluncurkan Ordinals (ORDI) pada 7 November 2023 pukul 18:00 (waktu zona GMT+8), ekosistem Bitcoin kembali menjadi gila. Pada 9 Maret, lebih dari 30.000「inskripsi」dibuat dalam satu hari, di mana jumlah jenis「inskripsi」teks mendekati 27.000.
Mari kita lihat AI Agent yang mempromosikan Memecoin.
Di bawah dorongan kuat Binance, token GOAT dan ACT dari dua jalur Meme AI Agent diluncurkan berturut-turut, dan dalam waktu singkat mencapai lonjakan nilai yang menakjubkan, suhu pasar memuncak. Secara spesifik, pada 10 November, token ACT setelah terdaftar di Binance dalam waktu 24 jam, lonjakannya bahkan mencapai lebih dari 2000%, memecahkan rekor lonjakan di hari pertama peluncuran token baru di Binance; pada 17 November, token GOAT sempat melonjak ke 1,37 dolar, nilai pasarnya mendekati 1,4 miliar dolar; selain itu, pada 20 November, token ANON dari ekosistem Farcaster, karena ketertarikan V God, dalam waktu singkat mencapai lonjakan lima kali lipat dalam satu jam.
Menurut statistik, setiap hari ada ratusan token AI Agent baru yang muncul.