Ed Roman, Managing Partner ve společnosti Hack VC
Sestaveno: 1912212.eth, Foresight News
AI+ Crypto je jednou z hraničních oblastí, která v poslední době přitahuje velkou pozornost na trhu s kryptoměnami, jako je decentralizované školení AI, GPU DePIN a modely AI odolné vůči cenzuře.
Za těmito oslnivými pokroky se nemůžeme nezeptat: Jde o skutečný technologický průlom nebo jen o žhavé téma? Tento článek za vás vyčistí mlhu, analyzuje vizi šifrování x AI a probere skutečné výzvy a příležitosti a odhalí, které z nich jsou prázdné sliby a které jsou skutečně proveditelné?
Vize č. 1: Decentralizovaný výcvik AI
Problém s tréninkem AI na řetězu je ten, že vyžaduje vysokorychlostní komunikaci a koordinaci mezi GPU, protože neuronové sítě vyžadují při tréninku zpětné šíření. Nvidia k tomu má dvě novinky (NVLink a InfiniBand). Díky těmto technologiím je komunikace GPU super rychlá, ale jedná se pouze o místní technologie, které fungují pouze na clusterech GPU (rychlost 50+ gigabitů) umístěných v jediném datovém centru.
Pokud je zavedena decentralizovaná síť, rychlost se náhle zpomalí o několik řádů v důsledku zvýšené latence sítě a šířky pásma. Ve srovnání s propustností, kterou můžete získat z vysokorychlostního propojení Nvidie v rámci datového centra, tato rychlost prostě není možná pro případy použití školení AI.
Všimněte si, že níže jsou také inovace, které mohou nabídnout naději do budoucnosti:
Distribuované školení na InfiniBand probíhá ve velkém, protože samotná NVIDIA podporuje distribuované nenativní školení na InfiniBand prostřednictvím NVIDIA Collective Communications Library. Je však stále ve fázi zrodu, takže metriky přijetí je třeba teprve určit. Úzké hrdlo fyzikálních zákonů na dálku stále existuje, takže místní trénink na InfiniBand je stále mnohem rychlejší.
Byly publikovány některé nové výzkumy o decentralizovaném školení, které vyžaduje méně času na synchronizaci komunikace, což může v budoucnu učinit decentralizované školení praktičtějším.
Inteligentní sharding a plánování tréninku modelu pomáhá zlepšit výkon. Podobně mohou být nové modelové architektury speciálně navrženy pro budoucí distribuované infrastruktury (Gensyn provádí výzkum v těchto oblastech).
Náročná je také datová část školení. Jakýkoli tréninkový proces AI zahrnuje zpracování velkého množství dat. Modely jsou obvykle trénovány na centralizovaných systémech bezpečného ukládání dat s vysokou škálovatelností a výkonem. To vyžaduje přenos a zpracování terabajtů dat a nejedná se o jednorázový cyklus. Data jsou často zašuměná a obsahují chyby, takže je třeba je před trénováním modelu vyčistit a převést do použitelného formátu. Tato fáze zahrnuje opakující se úkoly standardizace, filtrování a zpracování chybějících hodnot. Tito všichni čelí vážným problémům v decentralizovaném prostředí.
Tréninková datová část je také iterativní, což není kompatibilní s Web3. OpenAI prošlo tisíce iterací, aby dosáhlo svých výsledků. Mezi nejzákladnější scénáře úkolů pro datového vědce v týmu AI patří definování cílů, příprava dat, analýza a úprava dat za účelem získání důležitých poznatků a jejich přizpůsobení pro modelování. Poté vytvořte model strojového učení k vyřešení definovaného problému a ověřte jeho výkon pomocí testovací datové sady. Proces je iterativní: pokud aktuální model nefunguje podle očekávání, odborníci se vrátí do fáze sběru dat nebo trénování modelu, aby zlepšili výsledky. Představte si, že pokud by se tento proces prováděl v decentralizovaném prostředí, nebylo by snadné pro nejpokročilejší existující rámce a nástroje přizpůsobit Web3.
Dalším problémem trénování modelů umělé inteligence v řetězci je to, že tento trh je mnohem méně zajímavý než dedukce. V současné době vyžaduje trénování rozsáhlých jazykových modelů AI velké množství výpočetních zdrojů GPU. Z dlouhodobého hlediska se inference stane hlavním případem použití GPU. Jen si představte, kolik velkých jazykových modelů umělé inteligence je třeba vyškolit, aby uspokojily globální poptávku, což je více ve srovnání s počtem zákazníků, kteří tyto modely používají?
Předpoklad č. 2: K dosažení konsensu použijte příliš redundantní inferenční výpočty AI
Další výzvou týkající se kryptografie a umělé inteligence je ověření přesnosti odvození umělé inteligence, protože nemůžete plně důvěřovat jediné centralizované straně, že provede operace odvození, a existuje potenciální riziko, že se uzly mohou chovat nevhodně. Tato výzva v Web2 AI neexistuje, protože neexistuje žádný decentralizovaný konsensuální systém.
Řešením je redundantní výpočetní technika, která umožňuje více uzlům opakovat stejné operace odvození AI, což může běžet v nedůvěryhodném prostředí a vyhnout se jednotlivým bodům selhání.
Problém tohoto přístupu je ale v tom, že je extrémní nedostatek špičkových AI čipů. Celoroční čekací doby na špičkové čipy NVIDIA zvyšují ceny. Pokud požadujete, aby se AI inference opakovala vícekrát na více uzlech, stane se to exponenciálně dražší, takže je pro mnoho projektů neproveditelné.
Předpoklad č. 3: Případy krátkodobého použití AI specifické pro Web3
Bylo navrženo, že Web3 by měl mít své vlastní jedinečné případy použití AI specificky zaměřené na zákazníky Web3. Může to být (například) protokol Web3, který používá AI k rizikovému hodnocení DeFi poolů, Web3 peněženka, která uživatelům navrhuje nové protokoly na základě historie peněženky, nebo Web3 hra, která používá AI k ovládání nehráčských postav (NPC).
Prozatím se jedná o vznikající trh (v krátkodobém horizontu), kde se případy použití stále zkoumají. Některé výzvy zahrnují:
Vzhledem k tomu, že poptávka na trhu je stále v plenkách, existuje méně potenciálních obchodů s umělou inteligencí potřebných pro případy nativního použití Web3.
Je zde méně zákazníků, řádově méně zákazníků Web3 ve srovnání se zákazníky Web2, takže trh je méně decentralizovaný.
Samotní klienti jsou méně stabilní, protože se jedná o startupy s menšími finančními prostředky a některé startupy mohou časem vymřít. A poskytovatelé služeb Web3 AI, kteří se starají o zákazníky Web3, možná budou muset znovu získat část své zákaznické základny, aby nahradili ty, kteří zmizeli, takže škálování jejich podnikání je extrémně náročné.
Z dlouhodobého hlediska jsme velmi optimističtí, pokud jde o případy použití AI nativní Web3, zvláště když agenti AI stále převládají. Představujeme si, že v budoucnu bude mít každý daný uživatel Web3 velký počet agentů AI, kteří mu pomohou dokončit jeho úkoly.
Vize č. 4: Consumer GPU DePIN
Existuje mnoho decentralizovaných počítačových sítí s umělou inteligencí, které se spoléhají spíše na spotřebitelská GPU než na datová centra. Spotřebitelské GPU jsou ideální pro nenáročné úlohy odvození AI nebo případy spotřebitelského použití, kde je latence, propustnost a spolehlivost flexibilní. Ale pro vážné případy podnikového použití (což je na většině trhu, na čem záleží), zákazníci potřebují sítě s vyšší spolehlivostí ve srovnání s domácími stroji a často GPU vyšší třídy, pokud mají složitější úlohy odvození. Datová centra jsou pro tyto hodnotnější případy zákaznického použití vhodnější.
Všimněte si, že GPU spotřebitelské úrovně považujeme za vhodné pro ukázky, stejně jako jednotlivce a začínající podniky, kteří mohou tolerovat nižší spolehlivost. Ale tito zákazníci jsou méně hodnotní, takže věříme, že DePIN, přizpůsobené speciálně pro Web2 podniky, budou z dlouhodobého hlediska hodnotnější. Výsledkem je, že projekt GPU DePIN se vyvinul z prvních dnů primárně spotřebitelského hardwaru k A100/H100 a dostupnosti na úrovni clusteru.
Realita – praktické případy použití kryptoměny x AI
Nyní diskutujeme případy použití, které poskytují skutečné výhody. To jsou skutečné výhry a Crypto x AI může přidat jasnou hodnotu.
Skutečný přínos č. 1: Obsluhování zákazníků Web2
McKinsey odhaduje, že v rámci 63 analyzovaných případů použití by generativní umělá inteligence mohla ročně přidat ekvivalent 2,6 bilionu USD k 4,4 bilionu USD – ve srovnání s celkovým HDP Spojeného království v roce 2021 ve výši 3,1 bilionu USD. To by zvýšilo dopad AI o 15 % až 40 %. Pokud vezmeme v úvahu dopad generativní umělé inteligence zabudované do softwaru, který se v současnosti používá pro jiné úkoly než případy použití, odhaduje se, že dopad se zhruba zdvojnásobí.
Pokud provedete výpočet na základě výše uvedených odhadů, znamená to, že celková globální tržní hodnota umělé inteligence (mimo generativní umělou inteligenci) by mohla být v desítkách bilionů dolarů. Pro srovnání, celková hodnota všech kryptoměn (včetně bitcoinu a všech altcoinů) se dnes pohybuje pouze kolem 2,7 bilionu dolarů. Přiznejme si to: naprostá většina zákazníků, kteří potřebují AI v krátkodobém horizontu, budou zákazníci Web2, protože zákazníci Web3, kteří skutečně potřebují AI, budou jen malou částí z těchto 2,7 bilionu dolarů (vzhledem k tomu, že BTC je trh, samotný bitcoin nevyžaduje/nepoužívá AI).
Případy použití Web3 AI jsou teprve na začátku a není jasné, jak velký bude trh. Jedno je ale jisté – v dohledné době bude představovat jen malou část trhu Web2. Věříme, že Web3 AI má stále světlou budoucnost, ale to jen znamená, že nejvýkonnější aplikace Web3 AI právě teď slouží zákazníkům Web2.
Hypotetické příklady zákazníků Web2, kteří by mohli těžit z Web3 AI, zahrnují:
Vybudujte od základů softwarovou společnost zaměřenou na umělou inteligenci, vertikálně specifickou (např. Cedar.ai nebo Observe.ai)
Velké podniky, které dolaďují modely pro své vlastní účely (např. Netflix)
Rychle rostoucí poskytovatelé umělé inteligence (např. Anthropic)
Softwarové společnosti integrující umělou inteligenci do stávajících produktů (např. Canva)
Jedná se o relativně stabilní roli zákazníka, protože zákazníci jsou obvykle velcí a hodnotní. Je nepravděpodobné, že v brzké době přestanou fungovat a představují obrovské potenciální zákazníky pro služby AI. Služby Web3 AI sloužící zákazníkům Web2 budou těžit z této stabilní zákaznické základny.
Proč by ale zákazníci Web2 chtěli používat zásobník Web3? Zbytek tohoto článku tuto situaci ilustruje.
Skutečná výhoda č. 2: Nižší náklady na využití GPU s GPU DePIN
GPU DePIN agreguje nedostatečně využívaný výpočetní výkon GPU, z nichž nejspolehlivější pochází z datových center, a zpřístupňuje jej pro vyvozování AI. Jednoduchá analogie k tomuto problému je „Airbnb v GPU“.
Důvod, proč jsme z GPU DePIN nadšeni, je ten, že, jak již bylo zmíněno výše, je nedostatek čipů NVIDIA a v současné době jsou promarněné cykly GPU, které by mohly být použity pro vyvození AI. Tito vlastníci hardwaru mají utopené náklady a v současné době nedostatečně využívané vybavení, takže tato částečná GPU mohou být zpřístupněna za mnohem nižší cenu, než je současný stav, protože to ve skutečnosti „najde peníze“ pro vlastníka hardwaru.
Příklady:
Stroj AWS. Pokud byste si dnes pronajali H100 od AWS, museli byste se zavázat k 1-letému pronájmu, protože nabídka na trhu je omezená. To vytváří odpad, protože GPU pravděpodobně nebudete používat 7 dní v týdnu, 365 dní v roce.
Hardware pro těžbu filecoinů. Filecoin má velkou dotovanou nabídku, ale ne velkou skutečnou poptávku. Filecoin nikdy nenašel skutečnou pozici pro produktový trh, takže těžaři Filecoinů hrozili, že zaniknou. Tyto stroje jsou vybaveny grafickými procesory, které lze přepracovat pro nenáročné úlohy odvození AI.
Hardware pro těžbu ETH. Když Ethereum přejde z PoW na PoS, rychle to uvolní spoustu hardwaru, který lze znovu použít pro odvození AI.
Všimněte si, že ne veškerý hardware GPU je vhodný pro odvození AI. Jedním ze zřejmých důvodů je, že starší GPU nemají množství GPU paměti potřebné pro LLM, i když již existuje několik zajímavých inovací, které mohou v tomto ohledu pomoci. Technologie Exabits může například nahrát aktivní neurony do paměti GPU a neaktivní neurony do paměti CPU. Předpovídají, které neurony musí být aktivní/neaktivní. To umožňuje grafickým procesorům nižší třídy zvládat zátěže AI, a to i s omezenou pamětí GPU. Díky tomu jsou GPU nižší třídy užitečnější pro vyvozování AI.
Web3 AI DePIN bude muset svůj produkt postupem času vyvíjet a poskytovat služby na podnikové úrovni, jako je jednotné přihlášení, soulad se SOC 2, smlouvy o úrovni služeb (SLA) a další. To je podobné tomu, co současní poskytovatelé cloudových služeb nabízejí zákazníkům Web2.
Skutečná výhoda č. 3: Modely odolné vůči cenzuře, aby se zabránilo autocenzuře OpenAI
O cenzuře AI se hodně diskutuje. Turecko například dočasně zakázalo OpenAI (později svůj přístup změnili, když OpenAI zlepšilo dodržování předpisů). Jsme přesvědčeni, že cenzura na národní úrovni je nezajímavá, protože země musí přijmout umělou inteligenci, aby zůstaly konkurenceschopné.
OpenAI také provádí autocenzuru. OpenAI například nezpracuje obsah NSFW. OpenAI nebude předpovídat ani příští prezidentské volby. Myslíme si, že případy použití AI jsou nejen zajímavé, ale existuje obrovský trh, kterého se však OpenAI z politických důvodů nedotkne.
Open source je skvělé řešení, protože úložiště Github nejsou ovlivňována akcionáři ani správní radou. Jedním z příkladů je Venice.ai, který slibuje soukromí a funguje způsobem odolným vůči cenzuře. Umělá inteligence Web3 ji může efektivně posunout na další úroveň tím, že tyto modely s otevřeným zdrojovým softwarem (OSS) pohání na levnějších clusterech GPU, aby bylo možné usuzovat. Z těchto důvodů věříme, že OSS + Web3 je ideální kombinací, která připraví cestu pro AI odolnou cenzuře.
Skutečná výhoda č. 4: Vyhněte se odesílání osobních údajů do OpenAI
Velké podniky mají obavy o soukromí svých interních dat. Pro tyto zákazníky může být obtížné důvěřovat třetí straně OpenAI, že tato data vlastní.
Ve Web3 se může pro tyto společnosti zdát ještě znepokojivější (navenek), že se jejich interní data náhle objeví na decentralizovaném webu. Existují však inovace v technologiích pro zvýšení soukromí pro AI:
Trusted Execution Environment (TEE), jako je Super protokol
Fully Homomorphic Encryption (FHE), jako je Fhenix.io (portfoliová společnost fondu spravovaného Hack VC) nebo Inco Network (obě poháněné Zama.ai), stejně jako PPML společnosti Bagel
Tyto technologie se stále vyvíjejí a výkon se neustále zlepšuje s připravovanými Zero Knowledge (ZK) a FHE ASIC. Ale dlouhodobým cílem je chránit podniková data a zároveň dolaďovat model. Jakmile se tyto protokoly objeví, Web3 se může stát ještě atraktivnějším místem pro počítání AI, které zachovává soukromí.
Skutečná výhoda č. 5: Využijte nejnovější inovace v modelu s otevřeným zdrojovým kódem
Open source software v posledních několika desetiletích ubírá podíl na trhu proprietárního softwaru. LLM považujeme za určitou formu proprietárního softwaru schopného narušit OSS. Pozoruhodné příklady vyzyvatelů zahrnují Llama, RWKV a Mistral.ai. Tento seznam se nepochybně časem rozroste (komplexnější seznam lze nalézt na Openrouter.ai). Využitím Web3 AI (využívané modely OSS) mohou lidé inovovat pomocí těchto nových inovací.
Věříme, že v průběhu času může globální vývojová pracovní síla open source v kombinaci s pobídkami pro kryptoměny řídit rychlou inovaci v modelech open source a na nich postavených agentů a rámců. Příkladem protokolu agenta AI je Theoriq. Theoriq využívá modely OSS k vytvoření propojené sítě složených agentů AI, které lze sestavit a vytvořit tak řešení AI na vyšší úrovni.
Důvod, proč jsme si tím jisti, je ten, že v minulosti většinu inovací „vývojářského softwaru“ OSS postupem času pomalu překonávalo. Microsoft byl kdysi proprietární softwarovou společností a nyní je společností číslo 1 přispívající do Github. Má to svůj důvod, když se podíváte na to, jak Databricks, PostGresSQL, MongoDB a další narušují proprietární databáze, je to příklad toho, že OSS narušuje celé odvětví, takže precedent je zde docela přesvědčivý.
Je tu však problém. Jedna ošemetná věc na open source velkých jazykových modelech (OSS LLMs) je, že OpenAI začala uzavírat smlouvy o placených licenčních datech s některými organizacemi, jako je Reddit a New York Times. Pokud bude tento trend pokračovat, může být kvůli finančním překážkám při získávání dat obtížnější konkurovat velkým jazykovým modelům s otevřeným zdrojovým kódem. Nvidia může dále zvýšit své investice do důvěrných počítačů jako pomůcku pro bezpečné sdílení dat. Čas ukáže, jak se to vyvine.
Skutečný přínos č. 6: Konsensus prostřednictvím náhodného výběru vzorků se snížením nákladů nebo důkazů ZK
Jednou z výzev vyvozování Web3 AI je ověřování. Předpokládá se, že validátoři mají možnost ošidit své výsledky, aby získali poplatky, takže validace závěrů je důležitým měřítkem. Všimněte si, že k tomuto podvádění ve skutečnosti ještě nedošlo, protože inference AI je v plenkách, ale je nevyhnutelná, pokud nebudou podniknuty kroky k omezení tohoto chování.
Standardní přístup Web3 je nechat více validátorů opakovat stejnou operaci a porovnávat výsledky. Jak již bylo zmíněno dříve, do očí bijící výzvou v tomto problému je to, že odvození AI je velmi drahé kvůli současnému nedostatku špičkových čipů Nvidia. Vzhledem k tomu, že Web3 může poskytnout levnější odvození prostřednictvím nedostatečně využívaného GPU DePIN, redundantní výpočty vážně oslabí hodnotovou nabídku Web3.
Slibnějším řešením je provádět ZK důkazy pro off-chain inferenční výpočty AI. V tomto případě mohou být ověřeny stručné důkazy ZK, aby se zjistilo, zda byl model trénován správně, nebo zda závěr probíhal správně (tzv. zkML). Příklady zahrnují Modulus Labs a ZKonduit. Vzhledem k tomu, že operace ZK jsou výpočetně náročné, je výkon těchto řešení stále v plenkách. Očekáváme však, že se situace s vydáním hardwarových ASIC ZK v blízké budoucnosti zlepší.
Slibnější je myšlenka poněkud „optimistické“ metody uvažování založené na vzorkování AI. V tomto modelu je ověřena pouze malá část výsledků vytvořených validátorem, ale ekonomické náklady na lomítko jsou nastaveny dostatečně vysoko, takže v případě zachycení existuje silná ekonomická překážka pro validátory, aby podváděli. Tímto způsobem ušetříte nadbytečné výpočty.
Další slibnou myšlenkou jsou řešení pro vodoznaky a otisky prstů, jako je řešení navržené společností Bagel Network. Je to podobné mechanismu, kterým Amazon Alexa poskytuje zajištění kvality modelu umělé inteligence v zařízení napříč svými miliony zařízení.
Skutečný přínos č. 7: Úspory s OSS (Zisky OpenAI)
Další příležitostí, kterou Web3 pro AI přináší, je demokratizace nákladů. Dosud jsme diskutovali o úsporách nákladů na GPU s DePIN. Web3 však také nabízí možnost ušetřit marže na centralizovaných službách Web2 AI (jako je OpenAI, která má v době psaní tohoto článku roční příjmy přes 1 miliardu USD). Tyto úspory nákladů pocházejí ze skutečnosti, že používání modelů OSS spíše než proprietárních modelů dosahuje dalších úspor, protože tvůrci modelů se nesnaží o zisk.
Mnoho modelů OSS zůstane zcela zdarma, což povede k nejlepší ekonomice pro zákazníky. Ale mohou existovat některé modely OSS, které také zkoušejí tyto způsoby monetizace. Vezměte si, že pouze 4 % všech modelek na Hugging Face byla vyškolena společnostmi s rozpočtem, aby pomohly modelky dotovat. Zbývajících 96 % modelek trénuje komunita. Tato skupina (96 % Hugging Face) má základní reálné náklady (včetně nákladů na výpočty a datových nákladů). Proto bude potřeba tyto modely nějakým způsobem zpeněžit.
Existuje několik návrhů na zpeněžení modelu open source softwaru. Jedním z nejzajímavějších je koncept „počátečního vydání modelu“, který spočívá v tokenizaci modelu samotného, uchování části tokenů pro tým a přesunutí některých budoucích příjmů z modelu k držitelům tokenů, i když určité Právní a regulační překážky.
Ostatní modely OSS se pokusí zpeněžit využití. Všimněte si, že pokud se to stane realitou, model OSS se může začít stále více podobat jeho monetizačnímu modelu Web2. Ve skutečnosti se ale trh rozdělí na dvě části, přičemž některé modely zůstanou zcela volné.
Skutečný přínos č. 8: Decentralizované zdroje dat
Jednou z největších výzev, kterým AI čelí, je nalezení správných dat pro trénování modelu. Již dříve jsme zmínili, že decentralizované školení AI má své problémy. Co ale použít decentralizovanou síť k získání dat (která pak mohou být použita pro školení jinde, dokonce i v tradičních Web2 místech)?
To je přesně to, co startupy jako Grass dělají. Grass je decentralizovaná síť složená z "datových škrabáků", kteří přispívají nečinným výpočetním výkonem strojů ke zdrojům dat, aby poskytovali informace pro trénování modelů umělé inteligence. Hypoteticky by tento zdroj dat mohl ve velkém měřítku překonat úsilí o interní zdroje dat jakékoli společnosti díky síle velké sítě motivovaných uzlů. To zahrnuje nejen získávání více dat, ale jejich častější získávání, aby byla relevantnější a aktuálnější. Ve skutečnosti je také nemožné zastavit hordy decentralizovaného seškrabování dat, protože jsou neodmyslitelně decentralizované a nesídlí v rámci jediné IP adresy. Mají také síť, která čistí a normalizuje data, takže je užitečná, jakmile je seškrábnete.
Jakmile budete mít data, potřebujete také umístění pro jejich uložení v řetězci, stejně jako LLM generované pomocí těchto dat.
Upozorňujeme, že role dat v Web3 AI se může v budoucnu změnit. Současný stav LLM dnes spočívá v předtrénování modelu pomocí dat a jeho zdokonalování v průběhu času o další data. Jelikož se však data na internetu mění v reálném čase, jsou tyto modely vždy trochu zastaralé. Proto jsou odpovědi odvozené LLM mírně nepřesné.
Budoucím směrem může být nové paradigma – data „v reálném čase“. Koncept spočívá v tom, že když je položena inferenční otázka pro velký jazykový model (LLM), LLM může procházet tipy a vkládat data, která jsou znovu shromážděna z internetu v reálném čase. LLM tak může využívat nejnovější data. Tráva na této části pracuje.
Zvláštní poděkování patří následujícím lidem za jejich zpětnou vazbu a pomoc s tímto článkem: Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng, JW Wang.