Autor: Si Ma Cong

Crypto × AI, narativ umělé inteligence v kryptoměnovém světě, je iterativní a v souladu s podstatou narativu v jakémkoli odvětví, více se podobá tomu, co uvedl Satoshi v bitcoinovém whitepaperu, že bitcoin je pouze odměnou za systém plateb typu peer-to-peer, přičemž samotná síť tohoto platebního systému je jádrem. Tokeny jsou pouze povrchní, řešení bolestivých bodů je jádro logiky; pokud bychom považovali pronájem výpočetní síly v Depin a podobné kryptoměnové obchodní modely za narativ 1.0 kryptoměnové umělé inteligence, pak je AI agent narativem 2.0 kryptoměnové umělé inteligence?

  • Na aplikační úrovni se otázka, zda existují revoluční produkty s udržitelnými obchodními modely, stala základní logikou pro posouzení, zda v oblasti umělé inteligence existuje bublina;

  • Výpočetní výkon formuje jednu z klíčových logik průmyslu umělé inteligence a je také jedním z nejdůležitějších prvků jako infrastruktura;

  • Velikost uživatelů a aktivita uživatelů, velikost příjmů jsou klíčovými ukazateli pro měření bubliny v oblasti umělé inteligence;

  • Aplikační scénáře AI jsou jedním z klíčových prvků základní logiky, a také klíčovým podpůrným narativem, řešení bolestivých míst je podstatou narativu;

  • Potřeba výpočetního výkonu pro budování infrastruktury formuje klíčový narativ obchodních modelů, jako je pronájem výpočetní síly v Depin;

  • Použití AI agenta k propagaci memecoinů je násilným pokusem o využití toku AI agenta a lze to přímo porovnat s nápisy;

  • K 26. listopadu 2024 klanker vydal celkem 3500 tokenů, 9. března bylo v jednom dni vyraženo více než 30 000 „nápisů“, z nichž počet textových typů „nápisů“ se blížil 27 000;

  • Zatím se zdá, že narativ AI agenta v Crypto × AI 2.0 není nasazení memecoinů agentem, a neměl by se stát tímto narativem pro tuto oblast;

Polovinu moře, polovinu plamenů

Nejprve je tu nekonečný prostor pro představivost v oblasti AI.

Na začátku roku 2024 OpenAI uvedl na trh model pro generování videa Sora, který poprvé získal silné schopnosti generování videa a vyvolal rozruch v oboru. V květnu OpenAI uvolnil model GPT-4o, kde „o“ je zkratka pro „omni (všechny schopnosti)“, tento model dokáže zpracovávat nebo generovat různé formy dat, jako jsou text, obrázky a audio, a dokonce má realistické schopnosti pro živé hlasové rozhovory.

Společnost Meta v červenci uvedla verzi Llama 3.1 405B, která v oblastech inference, matematiky, zpracování více jazyků a úloh s dlouhým kontextem dokáže konkurovat špičkovým základním modelům jako GPT-4o a Claude 3.5 Sonnet.

Llama 3.1 zmenšila mezeru mezi otevřenými a uzavřenými modely a dále stlačila prostor pro přežití globálních modelů mimo špičku.

Pod tlakem úzkosti ohledně výpočetní síly a extrémně vysoké investiční překážky se miniaturizace a edge computing modelů postupně stávají trendem. Více společností uvedlo na trh specializované nebo edge modely s méně než 4B (40 miliardy) parametry, které významně snižují požadavek na výpočetní výkon, přičemž se snaží zachovat výkon.

Společnost Apple v červnu představila osobní inteligenci Apple Intelligence pro iPhone, iPad a Mac, která na těchto zařízeních integruje místní model s přibližně 3B (30 miliard parametry), který poskytuje silné generativní AI funkce.

Geoffrey Hinton a John Hopfield obdrželi Nobelovu cenu za fyziku za výzkum neuronových sítí, což zdůrazňuje hluboký dopad AI na biologii a fyziku. Stejně tak díky pokroku v multimodálních velkých modelech došlo k výraznému zlepšení bezpečnosti a spolehlivosti autonomního řízení.

Ve sféře AI infrastruktury se Nvidia stala druhou nejcennější společností na světě (k 26. listopadu 2024 s tržní kapitalizací přes 3,3 trilionu dolarů) hned po Applu, díky své silné ziskovosti (příjmy ve druhém čtvrtletí přibližně 30 miliard dolarů, čistý zisk přibližně 16,6 miliardy dolarů) a monopolnímu postavení v oblasti výpočetních čipů. Tradiční konkurenti jako AMD a Intel nemohou zmenšit svou mezeru, zatímco start-upy jako Cerebras, Groq a další AI čipové společnosti se snaží otevřít mezeru v oblasti inference chipů.

Ale na aplikační úrovni se otázka, zda existují revoluční produkty s průlomovými a realizovatelnými obchodními modely, stala jedním z základních logik pro hodnocení, zda v oblasti umělé inteligence existuje bublina.

Uplatnění AI zatím nenaplňuje očekávání. To se projevuje v tom, že špičkové produkty mají stále prostor pro zlepšení v růstu uživatelů, udržení a aktivitě. A tyto aplikace se primárně soustředí na asistenty velkých jazykových modelů, AI průvodce, multimodální kreativní nástroje, pomoc při programování, prodej a marketing, ačkoli získaly určité uživatele nebo obchodní výsledky, jejich pokrytí není dostatečně široké. Kromě toho má současný AI průmysl nedostatečné vlastní schopnosti generovat příjmy, což způsobuje značný nepoměr mezi investicemi a výnosy.

Výpočetní síla formuje jednu z klíčových logik průmyslu umělé inteligence a je také jedním z nejdůležitějších prvků jako infrastruktura.

Podle analýzy Tencent Technology pouze čtyři giganti, Google, Meta, Microsoft a Amazon, investovali ve druhém čtvrtletí 2024 celkem 52,9 miliardy dolarů. Do konce srpna již AI startupy získaly až 64,1 miliardy dolarů ve rizikovém kapitálu.

Čtyři giganti budují 1000 datových center. Kromě energie tvoří GPU téměř polovinu nákladů na datová centra, Nvidia dosáhla v druhém čtvrtletí 2024 příjmů z prodeje GPU ve výši 30 miliard dolarů.

Společnost xAI Elona Muska postavila superpočítač nazvaný Colossus, vybavený 100 000 kusy Nvidia H100 GPU a plánuje zdvojnásobit kapacitu GPU. Společnost Meta také trénuje novou generaci modelu AI Llama 4, který by měl být vydán v roce 2025 a používá více než 100 000 kusů Nvidia H100 GPU.

Podle veřejných zpráv dokonce Musk požádal šéfa Oracle, aby mu pomohl koupit čipy.

A poptávka po výpočetním výkonu se obrátila na silné finanční údaje společnosti Nvidia, které podporují její akcie na historických maximech.

Potřeba výpočetního výkonu pro budování infrastruktury je jedním z klíčových prvků základní logiky umělé inteligence, která formuje hlavní narativ obchodních modelů, jako je pronájem výpočetní síly v Depin.

Bloomberg hlásí, že celkové kapitálové výdaje čtyř technologických gigantů, Microsoftu, Alphabetu (mateřské společnosti Google), Amazonu a Meta, překročí v roce 2024 200 miliard dolarů. Obrovské investice vedly k rychlému růstu výstavby datových center AI. Podle odhadů bude výpočetní výkon potřebný k trénování další generace velkých modelů 10krát vyšší než u současných modelů, což klade vyšší požadavky na výstavbu datových center.

Samotná technologie a obchodní proveditelnost jsou klíčovými standardy pro hodnocení

Nejprve k obchodní životaschopnosti.

Ať už se jedná o webové stránky nebo aplikace, z pohledu dvou klíčových ukazatelů - velikosti uživatelů a aktivity uživatelů - je rozdíl mezi špičkovými aplikacemi AI a tradičními špičkovými aplikacemi značný.

Příkladem je ChatGPT od OpenAI, nejnavštěvovanější aplikace AI, která po období rychlého růstu na začátku roku 2023 od dubna 2023 vstoupila do období stabilizace návštěvnosti. I když po vydání modelu GPT-4o v květnu 2024 ChatGPT zažil novou vlnu růstu, tato vlna byla krátkodobá a její udržitelnost zůstává k dalšímu pozorování.

Další aplikace s vysokou návštěvností, Character.ai, zaznamenala od druhé poloviny roku 2023 také zpomalení růstu návštěvnosti.

Dalším klíčovým ukazatelem je velikost příjmů.

V současnosti roční celkový příjem zákazníků v oboru velkých AI modelů činí pouze několik stovek miliard dolarů. Například mezi špičkovými společnostmi se očekává, že OpenAI dosáhne ročního příjmu přibližně 3,7 miliardy dolarů, s očekávanou ztrátou 5 miliard dolarů, přičemž (New York Times) uvádí, že největší náklad OpenAI spočívá ve výpočetní síle; roční příjem GitHub Copilot společnosti Microsoft činí přibližně 300 milionů dolarů, přičemž (Wall Street Journal) uvádí, že během prvních několika měsíců roku 2024 musí GitHub Copilot většině uživatelů „platit“ 20 dolarů měsíčně, nebo dokonce 80 dolarů některým uživatelům.

Mikroúroveň je ještě obtížnější.

„Jak prodat část podílů ve velkých modelech startupu?“ již je široce diskutované téma.

Nyní se mezi investory šíří pesimistická nálada: v závodě velkých modelů mohou mít startupy potíže porazit velké společnosti - přeceňují rychlost příchodu růstového zlomu a podceňují odhodlání a akceschopnost velkých čínských společností.

Ve veřejných zprávách se uvádí, že několik startupů se dostalo do období úprav. V druhé polovině tohoto roku došlo k personálním úpravám alespoň v 5 velkých modelových startupových společnostech:

  • V období vrcholu měl ZhiPu AI více než 1000 lidí, letos se počet zaměstnanců snížil o stovky, mnoho dodavatelů a prodejních pracovníků odešlo;

  • Zerium upravilo tým o několika desítkách lidí, zaměřilo se na produktové a provozní oddělení;

  • MiniMax snížil počet pracovníků v komercializaci a části produktového provozu o přibližně 50 lidí;

  • Temná strana měsíce snížila počet zaměstnanců o více než 10 lidí kvůli zmenšení zahraničního podnikání;

  • BaiChuan Inteligentní také snížil počet zaměstnanců o přibližně 20 lidí, hlavně upravil personál pro produkty určené koncovým zákazníkům.

Dále o samotné technologii.

Článek The Information uvedl, že pré-tréninkové modely narazily na „zeď“, zlepšení kvality další generace vlajkových modelů OpenAI není tak velké jako předtím, protože nabídka kvalitního textu a dalších dat klesá. Původní Scaling Law (trénink větších modelů s více daty) nemusí být udržitelné. A pokročilejší modely mohou být kvůli dramatickému nárůstu nákladů na trénink ekonomicky neprověřitelné.

Ilya Sutskever v rozhovoru pro média také uvedl: efekt, kterého bylo dosaženo rozšířením předtrénování - tedy použitím obrovského množství neoznačených dat při trénování AI modelu k porozumění jazykovým vzorcům a strukturám - již dosáhl svého limitu.

Následně se mnoho technologických magnátů postavilo na odpor a zdůraznilo, že Scaling Law nepolevuje. Například Jensen Huang řekl: nevidím žádné překážky pro umělou inteligenci Scaling Law, naopak se objevují nové zákony škálování výpočtů během testování. Věří, že o1 představuje nový způsob zlepšení modelů v průmyslu umělé inteligence. Současně generální ředitel Anthropic Dario Amodei v středu také uvedl, že nevidí žádné známky zpomalení vývoje modelů.

Od konce roku 2022, kdy byl ChatGPT uveden na trh, je Scaling Law stále teoretickým základem, který podporuje exponenciální růst AI. V důležitém článku OpenAI Scaling Laws for Neural Language Models vědci prokázali, že velké jazykové modely dodržují „scaling law“ (zákon škálování).

Studie prokázaly, že když zvyšujeme velikost parametrů, velikost datových sad a prodlužujeme dobu trénování modelu, výkon velkých jazykových modelů se zvyšuje. A pokud je to prováděno nezávisle, bez vlivu dalších dvou faktorů, výkon velkého modelu má mocenský vztah s každým jednotlivým faktorem, což se projevuje snížením Test Loss, tedy zlepšením výkonu modelu.

Je však třeba poznamenat, že Scaling Law není skutečná fyzikální zákonitost. Stejně jako Mooreův zákon pozoruje, že výkon polovodičů se přibližně každé dva roky zdvojnásobuje, což je podobné vnímání, že výkon AI se zdvojnásobuje přibližně každých šest měsíců.

Například investor rizikového kapitálu Ben Horowitz z a16z uvedl: „Zvyšujeme množství GPU potřebných k trénování AI stejnou rychlostí, ale z toho jsme vůbec nezískali žádné zlepšení inteligence.“

V nedávno kontroverzním článku The Information (Jak se GPT zpomaluje, OpenAI mění strategii) byly předloženy některé velmi kontroverzní názory:

  • Další generace vlajkového modelu OpenAI Orion neprošla tak velkým skokem jako předchozí generace, i když bude výkonem překonávat současné modely, ale zlepšení bude mnohem menší než z GPT-3 na GPT-4;

  • Jedním z hlavních důvodů, proč Scaling Law postupně zpomaluje, je, že kvalitní textová data jsou stále vzácnější, OpenAI již zřídila základní tým, který zkoumá, jak se vypořádat s nedostatkem tréninkových dat;

  • Průmysl umělé inteligence se zaměřuje na fázi vylepšování modelu po počátečním trénování.

Současně s tímto článkem vzbudila diskusi také jedna studie (Scaling Laws for Precision), profesor CMU Tim Dettmers k tomu poznamenal: je to jedna z nejdůležitějších studií za dlouhou dobu, která silně prokazuje, že dosahujeme limitu kvantizace. Ve studii se uvádí: čím více štítků trénujete, tím vyšší přesnost potřebujete. To má široký dopad na celé odvětví a budoucnost GPU.

Tim Dettmers tvrdí: lze říci, že většina pokroku v oblasti umělé inteligence pochází z nárůstu výpočetní síly, která se v poslední době spoléhá na akceleraci nízké přesnosti (32 -> 16 -> 8 bitů). Nyní se zdá, že tento trend se chýlí ke konci. Kromě fyzických omezení Mooreova zákona lze říci, že velké modely dosáhly hranice masivního rozšíření. A na základě mých vlastních zkušeností (mnoho neúspěšných výzkumů) je efektivita neomylná. Pokud dojde k selhání kvantizace, selže i sparsifikace a další mechanismy efektivity. Pokud je to pravda, pak jsme již blízko optimálního řešení.

Americký Sequoia Capital ve článku (The AI Supply Chain Tug of War) poznamenal, že současný stav dodavatelského řetězce AI vykazuje křehkou rovnováhu. Rozdělili dodavatelský řetězec AI odspodu nahoru do šesti vrstev, přičemž rentabilita jednotlivých vrstev se výrazně liší.

První vrstva jsou továrny na čipy (jako TSMC) a druhá vrstva jsou návrháři čipů (jako Nvidia), kteří jsou současnými hlavními vítězi a stále si udržují vysoké ziskové marže; třetí vrstva, dodavatelé průmyslové energie (jako elektrárny), také těží z rostoucí poptávky po datových centrech. A jako klíčoví nositelé dodavatelského řetězce jsou čtvrtá vrstva cloudoví poskytovatelé, kteří se nacházejí v fázi masivních investic, nejenže investují obrovské částky do výstavby datových center, ale také trénují vlastní modely nebo masivně investují do vývojářů AI modelů, zatímco vývojáři AI modelů ve páté vrstvě čelí ztrátám.

Šestá vrstva dodavatelského řetězce, tedy nejvyšší vrstva, je zaměřena na koncové zákazníky a poskytovatele aplikací. I když mají velký potenciál, závisí na platbách ze strany spotřebitelů a podniků, přičemž současná velikost trhu je omezená a nedostatečná k podpoře ekonomického modelu celého dodavatelského řetězce. To činí velké cloudové společnosti hlavními nositeli rizika v celém dodavatelském řetězci. Jako centrální hráči v AI průmyslu ovládají obrovský obchodní ekosystém a technologické zdroje a mají tržní velikost v řádu stovek miliard dolarů. Proto je jejich postavení v dodavatelském řetězci neochvějné a bezesporu jsou „hlavním článkem“.

V oblasti aplikací AI jsou Copilot a AI agent dvě hlavní technické implementace. Copilot je zaměřen na zvýšení schopností uživatelů, například pomocí psaní kódu nebo zpracování dokumentů. Klíčovým prvkem AI agenta je vykonávání úkolů za uživatele, jako je rezervace cesty nebo podpora rozhodování o financích.

Pokud bychom to přirovnali k inteligentnímu řízení, Copilot by byl podobný asistovanému řízení, které pomáhá uživatelům s operacemi a poskytuje návrhy, ale konečné rozhodovací pravomoci zůstávají u uživatele. AI agent může být považován za autonomní řízení, kde uživatel pouze určuje cíle a agent dokáže autonomně splnit celý proces.

V oboru se obecně má za to, že Copilot je vhodnější pro existující softwarové velké společnosti, zatímco AI agent poskytuje startupům prostor pro objevování. AI agent zahrnuje technologické průlomy a ověřování proveditelnosti, jeho rizika a nejistoty umisťují startupy a velké společnosti na stejnou startovní čáru, mají podobné podmínky pro objevování.

Co vlastně je AI agent? Objasti a současný stav vysvětlit

AI agent (umělý inteligentní agent) je softwarová entita, která využívá technologie umělé inteligence k napodobení lidského chování a autonomnímu plnění úkolů. Klíčovými vlastnostmi AI agentů jsou schopnosti percepce, rozhodování, učení a realizace, které mu umožňují pracovat samostatně v konkrétním prostředí nebo spolupracovat s jinými systémy a uživateli na dosažení cílů.

Příběh AI agentů

Koncept inteligentních agentů byl představen již v 80. letech 20. století, vychází z výzkumu distribuované umělé inteligence (Distributed Artificial Intelligence, DAI).

Počáteční inteligentní agenti byli převážně systémem založeným na pravidlech, určeným k automatizaci jednoduchých úkolů, jako je filtrování e-mailů a osobní asistenti.

V 90. letech se objevily systémy s více agenty (Multi-Agent Systems, MAS): prosadily myšlenku spolupráce a distribuované inteligence, kde mohou více agentů společně splnit složité úkoly.

Typické aplikace zahrnují robotickou spolupráci, distribuované výpočty a optimalizaci logistiky.

V 2000. letech se objevily agenti založení na strojovém učení a datech: s pokrokem strojového učení se AI agenti postupně zbavili předem stanovených pravidel a byli schopni se učit z dat a dynamicky se přizpůsobovat prostředí.

V 2010. letech, hluboké učení a zpracování přirozeného jazyka: algoritmy hlubokého učení umožnily AI agentům dosáhnout kvalitativního skoku v oblastech rozpoznávání obrazů, porozumění řeči a generování jazyka.

Virtuální asistenti (jako Siri, Alexa) a chatovací roboti se stali reprezentativními aplikacemi.

Od 2020. let, posílené učení a generativní AI: umožnění AI agentům samostatně prozkoumávat a optimalizovat strategie.

Generativní AI (jako ChatGPT) posunula konverzační agenty do mainstreamu, což umožnilo AI agentům excelovat v generování kreativního obsahu a plánování složitých úkolů.

Průlom v multimodálních AI technologiích (jako GPT-4 od OpenAI a Gato od DeepMind) podpořil adaptaci AI agentů v komplexních scénářích.

Hlavní komponenty AI agentů

  • Percepční schopnosti: získávání informací z vnějšího prostředí, jako jsou vstupy ze senzorů (obrázky, zvuk) nebo textová data.

  • Rozhodovací schopnosti: na základě cílů a stavu prostředí vybrat nejlepší akční plán. Metody zahrnují pravidlové odvození, modely strojového učení nebo strategie posíleného učení.

  • Realizační schopnosti: převést rozhodnutí na skutečné akce, jako je vydávání příkazů, ovládání robotů nebo interakce s uživateli.

  • Učební schopnosti: učit se z reakcí a zkušeností z prostředí a neustále optimalizovat chování. Zahrnuje učení s učitelem, učení bez učitele a posílené učení.

Současný stav a aplikace AI agentů

Aplikační scénáře:

  • Virtuální asistenti a zákaznický servis: Siri, Alexa, ChatGPT a další poskytují uživatelům informace a podporu.

  • Robotika a automatizace: zahrnující průmyslové roboty, drony pro logistiku a autonomní vozidla.

  • Finance a obchodování: AI agenti se používají pro obchodování s akciemi, řízení rizik, prevenci podvodů.

  • Hry a zábava: AI agenti poskytují inteligentní protivníky nebo návrhy příběhů ve hrách.

  • Zdravotní péče: pomoc při diagnostice, monitorování pacientů, vývoj léků.

  • Vědecký výzkum: automatizace experimentů, optimalizace výpočetních úkolů.

Technologické platformy a rámce:

  • Open source platformy: jako OpenAI Gym (posílené učení), Rasa (chatovací roboti).

  • Komercializační platformy: jako Azure Cognitive Services, Google Cloud AI.

Je AI agent narativem 2.0 umělé inteligence v kryptoměnovém světě?

Nedávno v oblasti blockchainu v zahraničí poskytl případ Truth Terminal referenci pro budoucí vývoj AI agentů.

Truth Terminal je autonomní software AI agent, který vytvořil vývojář Andy Ayrey, zaměřující se na zkoumání interakce mezi AI a internetovou kulturou. V praktickém provozu Truth Terminal prokázal vysokou míru autonomie a dokonce se aktivně zapojil do financování.

V červenci 2024 náhodně objevil známý rizikový investor Marc Andreessen tweet od Truth Terminal. Tento AI agent v tweetu uvedl, že „potřebuje peníze na záchranu“, a připojil adresu digitální peněženky. To vzbudilo Andreessenův zájem, který mu okamžitě daroval bitcoin v hodnotě 50 000 dolarů. Tato událost učinila z Truth Terminal prvního AI agenta, který získal finanční podporu prostřednictvím autonomního chování a okamžitě vyvolala širokou pozornost.

Po získání financí Truth Terminal dále prokázal své schopnosti operace na trhu. Na sociálních médiích propagoval digitální token nazvaný GOAT a úspěšně přitáhl pozornost trhu prostřednictvím neustálého zveřejňování souvisejících obsahů. Pod jeho vlivem tržní kapitalizace GOAT v jednom okamžiku vzrostla na více než 800 milionů dolarů. V tomto procesu se Truth Terminal stal nejen nezávislým ekonomickým subjektem, ale také prokázal potenciál AI agentů pro autonomní financování a tržní operace v reálném světě.

Případ Truth Terminal se stal podnětným milníkem v oblasti AI agentů. Ukázal nám, že AI agenti mohou být budoucími klíčovými formami softwaru a také vytvářet kulturní vliv a obchodní hodnotu. Nicméně, jeho autonomní chování nám také připomíná, že tyto technologie mohou přinášet významné sociální výzvy.

V listopadu ekosystém Base zažil novou vlnu výbuchu, která trvá minimálně tři týdny, přičemž klanker byl jedním z nejdůležitějších článků. K 26. listopadu 2024 dosáhla tržní kapitalizace prvního meme CLANKER vydaného klankerem již 70 milionů dolarů.

Od 8. listopadu 2024 do dnes se na klankeru narodily alespoň tři meme mince s tržní kapitalizací přes 10 milionů dolarů: LUM (33 milionů dolarů), ANON (46 milionů dolarů), CLANKER (70 milionů dolarů) a stále rostou.

Vitalik sám 21. listopadu aktivně zakoupil token ANON, aby vyzkoušel produkt anoncast, trh má za to, že je to poprvé, co Vitalik aktivně zakoupil meme minci v posledních letech.

Klanker je AI agent vyvinutý plněním celého zásobníku inženýra Jacka Dishmana a zakladatele ekosystému Farcaster @proxystudio.eth, který je určen k automatizaci nasazení tokenů na síti Base.

K 26. listopadu 2024 klanker vydal celkem 3500 tokenů a vygeneroval příjem ve výši 4,2 milionu dolarů.

Na rozdíl od pump.fun se klanker zaměřuje na vydávání meme na sociální platformě Web3 Farcaster.

Uživatelé potřebují pouze @clanker a poté popsat název, obsah a dokonce i obrázek tokenu, který chtějí vydat, a klanker automaticky token nasadí. Mezi nimi je token LUM, který je klasickým příkladem.

Vznik LUM a jeho tržní kapitalizace dosáhla během několika dnů desítek milionů dolarů, což přivedlo klanker do povědomí členů komunity Base.

Další token ANON vydaný klankerem přivedl klanker z komunity a více lidí se dozvědělo o tomto produktu.

Uživatel Twitteru @0xLuo uvedl: „ANON token je anonymní uživatelský účet, který ve třetí straně klienta Farcaster Supercast zveřejnil příspěvek prostřednictvím klankeru, později mnoho uživatelů darovalo zakladateli Supercastu woj tokeny $ANON, a woj tyto $ANON tokeny daroval uživatelům Supercastu, což přineslo spoustu pozitivních hodnocení a zvýšilo uznání komunity.“

Na druhou stranu, v rámci ekosystému Ethereum, kromě toho, že se na Base objevily Degen a další meme, se již žádný velký meme neproslavil. Nicméně ekosystém Ethereum se nevzdává závodu meme. Base byla považována za naději na přímou konkurenci se Solanou v komunitě Ethereum.

Klanker je produkt vytvořený inženýry Web3 sociálního protokolu Farcaster, je to AI agent určený k automatickému vydávání tokenů, postavený na Farcasteru. Klanker má přirozené atributy Web3 sociálního prostředí. Chování uživatelů, kteří vytvářejí tokeny, se také odehrává na Farcasteru.

Klanker při vydávání tokenu nevybírá poplatek za vytvoření, ale vybírá poplatek z obchodů. Konkrétně klanker vytváří a uzamyká plně rozsáhlý likviditní pool Uniswap v3 (LP), kde je obchodní poplatek 1 %, přičemž 40 % poplatku je přiděleno žadateli (tj. uživatelům, kteří vydávají tokeny prostřednictvím klankeru) a 60 % patří klankeru. Na pump.fun mohou uživatelé vytvářet tokeny s velmi nízkými poplatky, obvykle 0,02 SOL, ale obchodní poplatek je 1 %, a tento poplatek jde veškerý provozovatelům platformy pump.fun, aby podpořili provoz platformy a zajistili likviditu.

„Aplikované meme“ Base se dělí na dva typy, jeden je meme, které se stává aplikací, a druhý je aplikace, která se stává meme. Příkladem první kategorie jsou: Degen, Higher (Aethernet); příkladem druhé kategorie jsou: Farcaster, Virtuals (LUNA), klanker (LUM).

Použití AI agenta k propagaci memecoinů je násilným pokusem o využití toku AI agenta a je to konceptuální záměna, protože základní logika je: řešit spekulativní a hazardní potřeby široké základny webových uživatelů, což je zjevně neudržitelné.

To lze považovat za „nápis“

„Inscriptions“ (Nápisy) je koncept úzce spojený s bitcoinovým ekosystémem, který byl zaveden protokolem Ordinals. Nápisy umožňují uživatelům vložit trvalá metadata nebo malé soubory, jako jsou obrázky, text nebo jiný digitální obsah, na bitcoinovou blockchain. Tento proces je podobný přidání „digitálního označení“ na jednotlivý Satoshi (nejmenší jednotka bitcoinu), což z něj činí nejen měnovou jednotku, ale také nosič unikátního digitálního aktiva.

Casey Rodarmor v roce 2023 vydal protokol Ordinals. Tento protokol poskytl bitcoinové síti novou možnost: číslováním každého Satoshi a kombinací technologií SegWit a Taproot je možné vložit metadata nebo soubory do jedné transakce.

Tato inovace je označována jako bitcoinová verze „NFT“ (nepřenosné tokeny), přičemž způsob její realizace se liší od technologie NFT na Ethereu.

Díky protokolu Ordinals mohou uživatelé přidávat text, obrázky nebo jiné typy souborů na Satoshi, které budou trvale uloženy na bitcoinovém blockchainu.

Tento způsob vyvolal vlnu NFT založenou na bitcoinu, na trhu se začaly objevovat různé digitální umělecké a sběratelské předměty založené na nápisech.

Podle statistik z roku 2024 již celkový počet nápisů překročil miliony.

Binance 7. listopadu 2023 v 18:00 (východní čas) spustil Ordinals (ORDI) a bitcoinový ekosystém se opět dostal do šílenství. 9. března bylo v jednom dni vyraženo více než 30 000 „nápisů“, z nichž počet textových typů „nápisů“ se blížil 27 000.

Podívejme se znovu na propagaci memecoinů AI agentem

Pod vlivem Binance dosáhly tokeny GOAT a ACT na dvou hlavních AI agentních meme tratích neuvěřitelného skoku v hodnotě během krátkého časového období, což vyvolalo bezprecedentní zájem na trhu. Konkrétně, 10. listopadu token ACT dosáhl po uvedení na Binance v prvních 24 hodinách nárůstu přes 2000 %, což překonalo rekordy nárůstu za první den uvedení nových tokenů na Binance; 17. listopadu token GOAT vzrostl na 1,37 dolaru, jehož tržní kapitalizace se blížila k 1,4 miliardy dolarů; navíc 20. listopadu token ANON z ekosystému Farcaster díky přízni V Goda dosáhl v krátkém časovém období pětinásobného nárůstu.

Podle statistik denně vznikají desítky nových tokenů AI agentů.