V minulém roce AI narativ na trhu kryptoměn vzkvétal, přičemž přední VC jako a16z, Sequoia, Lightspeed a Polychain sázely desítky milionů dolarů jediným tahem pera. Do Web3 vstoupilo také mnoho kvalitních týmů s vědecko-výzkumným zázemím a prestižními školami, které se ubírají směrem k decentralizované AI. Během následujících 12 měsíců budeme svědky realizace těchto vysoce kvalitních projektů.

Letos v říjnu OpenAI vybrala dalších 6,6 miliardy dolarů a závody ve zbrojení na dráze AI dosáhly nebývalé výšky. Retailoví investoři mají jen málo příležitostí, jak vydělat peníze mimo přímé investice do Nvidie a hardwaru, a toto nadšení se musí i nadále šířit do kryptoměn, zejména s nedávnou vlnou odchytu psů řízenou AI ​​Meme. Dá se předvídat, že Crypto x AI, ať už se jedná o existující token nebo nový hvězdný projekt, bude mít stále silnou dynamiku.

S decentralizovaným AI projektem Hyperbolic, který nedávno získal další investice od Polychain a Lightspeed, jsme se zaměřili na šest projektů, které nedávno obdržely velké financování od významných institucí, a prozkoumali jsme vývojové linie projektů Crypto x AI infrastruktury a podívali se, jak decentralizované technologie mohou podpořit lidstvo v budoucnosti AI.

  • Hyperbolic: Nedávno oznámil dokončení financování ve výši přes 12 milionů dolarů v A kole vedeného Variant a Polychain, celkové financování přesáhlo 20 milionů dolarů. Mezi účastníky jsou známé VC jako Bankless Ventures, Chapter One, Lightspeed Faction, IOSG, Blockchain Builders Fund, Alumni Ventures a Samsung Next.

  • PIN AI: Dokončil financování ve výši 10 milionů dolarů v pre-seed kole, investovali renomovaní VC jako a16z CSX, Hack VC a Blockchain Builders Fund (Stanford Blockchain Accelerator).

  • Vana: Dokončila financování ve výši 18 milionů dolarů v A kole a 5 milionů dolarů v strategickém financování, investovali renomovaní VC jako Paradigm, Polychain a Coinbase.

  • Sahara: Dokončila financování ve výši 43 milionů dolarů v A kole, investovali známí VC jako Binance Labs, Pantera Capital a Polychain.

  • Aethir: V roce 2023 dokončil financování ve výši 9 milionů dolarů při ocenění 150 milionů dolarů a v roce 2024 dokončil prodej přibližně 120 milionů dolarů v uzlech.

  • IO.NET: Dokončil financování ve výši 30 milionů dolarů v A kole, investovali renomovaní VC jako Hack VC, Delphi Digital a Foresight Ventures.

Tři prvky AI: data, výpočetní síla a algoritmy.

Marx nám v Kapitálu říká, že výrobní prostředky, výrobní síla a výrobní vztahy jsou klíčovými prvky v sociální produkci. Pokud uděláme analýzu, zjistíme, že existují také klíčové prvky v oblasti umělé inteligence.

V éře AI jsou klíčové výpočetní síla, data a algoritmy.

V AI jsou data výrobními prostředky. Například to, co každý den děláte na telefonu, když píšete zprávy nebo fotíte a sdílíte obrázky, jsou data, která fungují jako „suroviny“ pro AI a tvoří základ její činnosti.

Tato data zahrnují různé formy od strukturovaných číselných informací po nestrukturované obrázky, audio, video a text. Bez dat se AI algoritmy nemohou učit a optimalizovat. Kvalita, množství, pokrytí a rozmanitost dat přímo ovlivňují výkon AI modelu, určují, zda je schopen efektivně splnit konkrétní úkol.

V AI je výpočetní síla výrobní síla. Výpočetní síla je základním výpočetním zdrojem potřebným k provádění AI algoritmů. Čím silnější je výpočetní síla, tím rychleji se zpracovávají data a tím lepší jsou výsledky. Síla výpočetní síly přímo určuje efektivitu a schopnost AI systému.

Silná výpočetní síla nejen zkracuje dobu tréninku modelu, ale také podporuje složitější architektury modelů, což zvyšuje inteligenci AI. Velké jazykové modely jako ChatGPT od OpenAI potřebují měsíce trénink na silných výpočetních clusterech.

V AI jsou algoritmy výrobními vztahy. Algoritmus je srdcem AI, jehož design určuje, jak spolupracují data a výpočetní síla, a je klíčem k transformaci dat na inteligentní rozhodnutí. S podporou silné výpočetní síly je algoritmus schopen lépe se učit vzory v datech a aplikovat je na skutečné problémy.

Z tohoto pohledu jsou data palivem AI, výpočetní síla je motorem AI a algoritmus je duší AI. AI = data + výpočetní síla + algoritmus. Každý startup, který chce v AI sektoru vyniknout, musí mít všechny tři faktory, nebo prokázat jedinečnou výhodu v jednom z nich.

S rostoucím vývojem AI směrem k multimodalitě (modely založené na různých formách informací, schopné současně zpracovávat text, obrázky a audio atd.) se potřeba výpočetní síly a dat pouze exponentiálně zvýší.

V době nedostatku výpočetní síly, Crypto posiluje AI.

Příchod ChatGPT nejenže zahájil revoluci v umělé inteligenci, ale také neúmyslně posunul výpočetní sílu a hardwarové vybavení výpočetní síly na vrchol technologických trendů.

Po „bitvě modelů“ v roce 2023, v roce 2024, s prohlubujícími se znalostmi trhu o velkých AI modelech, se globální konkurence kolem velkých modelů začíná rozdělovat na dvě cesty: „zlepšení schopností“ a „vývoj scénářů“.

V oblasti zlepšení schopností velkých modelů je největším očekáváním, že OpenAI letos vydá GPT-5, což se očekává, že posune velký model do skutečně multimodální fáze.

V oblasti vývoje scénářů velkých modelů velké technologické společnosti usilují o rychlejší integraci velkých modelů do průmyslových scénářů, aby generovaly hodnotu aplikací. Například pokusy v oblastech jako AI agenti a AI vyhledávání neustále prohlubují zlepšení uživatelského zážitku stávajících uživatelů.

Obě tyto cesty bezpochyby vyžadují vyšší poptávku po výpočetní síle. Zlepšení schopností velkých modelů se zaměřuje na trénink, což vyžaduje obrovskou výpočetní sílu v krátkém časovém rámci; aplikace velkých modelů se primárně zaměřují na inference, kde jsou požadavky na výkon výpočetní síly relativně nižší, ale klade se větší důraz na stabilitu a nízkou latenci.

Jak OpenAI odhadlo v roce 2018, od roku 2012 se potřeba výpočetní síly pro trénink velkých modelů každé 3,5 měsíce zdvojnásobuje, přičemž roční nárůst potřebné výpočetní síly může dosáhnout až 10x. Zároveň s rostoucím počtem velkých modelů a aplikací nasazovaných do skutečných podnikových scénářů roste také potřeba výpočetní síly pro inference.

Problém je na obzoru, poptávka po vysokovýkonných GPU roste rychlým tempem na celosvětové úrovni, zatímco nabídka neudržuje krok. Například čip H100 od Nvidie v roce 2023 zažil vážný nedostatek dodávek, jehož mezera přesáhla 430 000 kusů. Nově vycházející čip B100, který zvyšuje výkon 2,5x a pouze o 25 % zvyšuje náklady, by mohl opět čelit nedostatku dodávek. Tento nerovnováha mezi poptávkou a nabídkou povede k dalšímu nárůstu nákladů na výpočetní sílu, což mnoha malým a středním podnikům ztíží zvládnutí vysokých nákladů na výpočty a omezí jejich rozvojový potenciál v oblasti AI.

Velké technologické společnosti jako OpenAI, Google a Meta mají silnější schopnosti získávání zdrojů, mají peníze a zdroje na budování vlastních výpočetních infrastruktur. Což je pro AI startupy, nemluvě o těch, které ještě nezískaly financování, téměř nemožné?

Skutečně je koupě druhotných GPU na platformách jako eBay nebo Amazon jednou z možností. I když to snižuje náklady, může to přinést problém s výkonem a dlouhodobými náklady na údržbu. V této době nedostatku GPU se budování infrastruktury pro startupy pravděpodobně nikdy nestane optimální volbou.

I když již existují poskytovatelé GPU cloudu na pronájem na požádání, vysoké ceny představují pro ně značnou výzvu. Například cena jednoho GPU Nvidia A100 je přibližně 80 dolarů za den. Pokud potřebujete 50 kusů, které běží 25 dní v měsíci, náklady na výpočetní sílu dosáhnou 80 x 50 x 25 = 100 000 dolarů/měsíc.

To dává decentralizované síti výpočetní síly založené na architektuře DePIN příležitost k expanze, což se dá říci, že se jí daří. Jak to udělali IO.NET, Aethir a Hyperbolic, přenáší náklady na infrastrukturu výpočetní síly AI startupů na samotnou síť. A navíc, umožňuje každému na světě připojit nevyužité GPU ze svého domova, což výrazně snižuje náklady na výpočty.

Aethir: Globální GPU sdílená síť, která činí výpočetní sílu dostupnou pro všechny.

Aethir dokončil v září 2023 financování ve výši 9 milionů dolarů při ocenění 150 milionů dolarů a v březnu až květnu tohoto roku dokončil prodej Checker Node, který přinesl přibližně 120 milionů dolarů. Aethir získal 60 milionů dolarů za pouhých 30 minut prodeje Checker Node, což ukazuje na uznání a očekávání trhu pro tento projekt.

Jádrem Aethiru je vybudování decentralizované GPU sítě, která dává každému příležitost přispět svými nevyužitými GPU zdroji a získat zisk. Je to jako proměnit každý počítač na malý superpočítač, kde všichni sdílejí výpočetní sílu. Výhodou je, že to může výrazně zvýšit využití GPU, snížit plýtvání zdroji a zároveň umožnit firmám nebo jednotlivcům, kteří potřebují velké množství výpočetní síly, získat potřebné zdroje za nižší náklady.

Aethir vytvořil decentralizovanou síť DePIN, která funguje jako zdrojový bazén, motivující datová centra, herní studia, technologické společnosti a hráče z celého světa, aby připojili nevyužité GPU. Tito poskytovatelé GPU mohou svobodně připojit nebo odpojit GPU od sítě, což zajišťuje vyšší využití než prosté nevyužívání. To umožňuje Aethiru poskytovat GPU zdroje od spotřebitelských, profesionálních až po datová centra a to za ceny nižší o více než 80 % ve srovnání s cenami Web2 cloudových poskytovatelů.

DePIN architektura Aethiru zajišťuje kvalitu a stabilitu těchto rozptýlených výpočetních zdrojů. Tři nejdůležitější části jsou:

Container (kontejner) je výpočetní jednotka Aethiru, funguje jako cloudový server a zajišťuje provádění a vykreslování aplikací. Každý úkol je zabalen do samostatného kontejneru, který funguje jako relativně izolované prostředí pro provoz zákaznických úkolů, čímž se vyhýbá vzájemnému rušení úkolů.

Indexer (indexátor) slouží k okamžitému přiřazení a nasazení dostupných výpočetních zdrojů podle požadavků úkolu. Současně dynamický mechanismus úpravy zdrojů může dynamicky přidělovat zdroje různým úkolům podle zatížení celé sítě, aby dosáhl nejlepšího celkového výkonu.

Checker (kontrolor) je zodpovědný za okamžité sledování a hodnocení výkonu kontejneru. Může okamžitě sledovat a hodnotit stav celé sítě a reagovat na potenciální bezpečnostní problémy včas. V případě potřeby reagovat na bezpečnostní incidenty, jako jsou kybernetické útoky, může okamžitě vydat varování a zahájit ochranná opatření, pokud zjistí abnormální chování. Podobně, když se objeví úzké hrdlo v síti, může Checker také okamžitě vydat upozornění, aby se problém mohl včas vyřešit a zajistit kvalitu a bezpečnost služeb.

Spolupráce mezi Container, Indexer a Checker poskytuje zákazníkům volnost v přizpůsobení konfigurace výpočetní síly a bezpečné, stabilní a relativně cenově dostupné cloudové služby. Pro oblasti jako AI a hry je Aethir dobrým komerčním řešením.

Celkově Aethir přetváří přidělování a využívání GPU zdrojů prostřednictvím DePIN, což činí výpočetní sílu dostupnější a ekonomičtější. Již dosáhl několika dobrých výsledků v oblasti AI a her a neustále rozšiřuje své partnery a obchodní linie, s neomezeným potenciálem pro budoucnost.

IO.NET: Distribuovaná superpočítačová síť, která překonává výpočetní překážky.

IO.NET dokončil v březnu tohoto roku financování ve výši 30 milionů dolarů v A kole, investovali známí VC jako Hack VC, Delphi Digital a Foresight Ventures.

Podobně jako Aethir, vytváří podnikový decentralizovaný výpočetní síť, která shromažďuje globální volné výpočetní zdroje (GPU, CPU) a poskytuje AI startupům levnější, dostupnější a flexibilnější služby výpočetní síly.

Na rozdíl od Aethiru, IO.NET využívá rámec Ray (IO-SDK) k transformaci tisíců GPU clusterů na celek, který slouží strojovému učení (rámec Ray také využívá OpenAI při trénování GPT-3). Při trénování velkých modelů na jednotlivých zařízeních se značně projevují omezení paměti CPU/GPU a sekvenční zpracování pracovních toků. Využití rámce Ray pro orchestraci a dávkování umožnilo paralelizaci výpočetních úloh.

Aby toho bylo dosaženo, IO.NET používá víceúrovňovou architekturu:

  • Vrstva uživatelského rozhraní: Nabízí uživatelům vizuální front-end rozhraní, včetně veřejného webu, zákaznické oblasti a oblasti dodavatelů GPU, s cílem poskytnout intuitivní a uživatelsky přívětivý zážitek.

  • Bezpečnostní vrstva: Zajišťuje integritu a bezpečnost systému a integruje mechanismy jako ochranu sítě, uživatelskou autentizaci a zaznamenávání aktivit.

  • API vrstva: Slouží jako komunikační uzel pro webové stránky, dodavatele a interní správu, což usnadňuje výměnu dat a provádění různých operací.

  • Backendová vrstva: Tvoří jádro systému, které spravuje clustery/GPU, interakce se zákazníky a automatizaci rozšiřování a další provozní úkoly.

  • Databázová vrstva: Odpovídá za ukládání a správu dat, hlavní úložiště se stará o strukturovaná data, zatímco cache se používá pro zpracování dočasných dat.

  • Úroveň úloh: Spravuje asynchronní komunikaci a provádění úkolů, aby zajistila vysokou efektivitu zpracování a tok dat.

  • Infrastrukturní vrstva: Tvoří základ systému a zahrnuje pool GPU zdrojů, nástroje pro orchestraci a provádění/ML úkolů, vybavené silnými monitorovacími řešeními.

Technologicky IO.NET uvedlo na trh své jádrové technologie IO-SDK s víceúrovňovou architekturou, která řeší výzvy distribuované výpočetní síly, stejně jako technologii zpětného tunelování a mřížkovou VPN architekturu pro zajištění bezpečného připojení a ochrany soukromí dat. V kontextu Web3, který je v poslední době velmi populární, se předpokládá, že má slibný výhled.

Celkově je hlavní misí IO.NET vybudovat největší DePIN infrastrukturu na světě, shromáždit všechny nevyužité GPU zdroje z celého světa a poskytnout podporu pro AI a strojové učení, které vyžaduje velké množství výpočetní síly.

Hyperbolic: Vytváření „AI pralesa“, realizace prosperující a vzájemně se podporující decentralizované AI infrastruktury.

Dnes Hyperbolic znovu oznámil dokončení financování ve výši přes 12 milionů dolarů v A kole, vedeného Variant a Polychain Capital, s celkovým financováním přes 20 milionů dolarů. Mezi účastníky jsou známé VC jako Bankless Ventures, Chapter One, Lightspeed Faction, IOSG, Blockchain Builders Fund, Alumni Ventures a Samsung Next. Mezi nejvýznamnějšími investory je silikonské VC Polychain a LightSpeed Faction, které zvýšily investice po seed kole, což dostatečně dokazuje vedoucí postavení Hyperbolic v oblasti Web3 AI.

Hlavním posláním Hyperbolic je učinit AI přístupnou pro každého, aby si ji vývojáři mohli dovolit a tvůrci ji mohli využívat. Hyperbolic si klade za cíl vybudovat „AI prales“, kde mohou vývojáři nalézt potřebné zdroje k inovaci, spolupráci a rozvoji. Podobně jako přírodní lesy, kde jsou ekosystémy vzájemně propojené, živé a obnovitelné, umožňují tvůrcům nekonečně prozkoumávat.

Na názorech dvou spoluzakladatelů Jaspera a Yuchena, i když AI modely mohou být open-source, bez otevřených výpočetních zdrojů to stále nestačí. V současnosti mnohé velké datové centrum kontrolují GPU zdroje, což odrazuje mnoho těch, kteří chtějí využívat AI. Hyperbolic chce tento stav zvrátit tím, že integruje globální nevyužité výpočetní zdroje, aby vytvořil DePIN infrastrukturu výpočetní síly, která by umožnila každému snadno používat AI.

Proto Hyperbolic představuje koncept „otevřeného AI cloudu“, kde mohou být připojeny jak osobní počítače, tak datová centra k poskytování výpočetní síly. Na tomto základě Hyperbolic vytvořil ověřitelnou, soukromou AI vrstvu, která umožňuje vývojářům vytvářet AI aplikace s inferenčními schopnostmi, přičemž potřebná výpočetní síla pochází přímo z AI cloudu.

Podobně jako Aethir a IO.NET, Hyperbolic AI cloud má svůj jedinečný model GPU clusteru, nazývaný „sluneční systém cluster“. Jak víme, sluneční systém zahrnuje Merkur, Mars a další nezávislé planety, sluneční systém cluster Hyperbolic spravuje například Merkur cluster, Mars cluster, Jupiter cluster. Tyto GPU clustry mají široké využití, různou velikost, ale jsou navzájem nezávislé a spravovány slunečním systémem.

Tento model zajišťuje, že GPU cluster splňuje dvě charakteristiky: je flexibilnější a maximalizuje efektivitu ve srovnání s Aethir a IO.NET.

  • Regulace rovnováhy stavu, GPU cluster se automaticky rozšiřuje nebo zmenšuje podle potřeby.

  • Pokud dojde k přerušení v nějakém clusteru, sluneční systém cluster automaticky detekuje a opraví.

V experimentech porovnávajících výkon velkých jazykových modelů (LLM) dosáhl GPU cluster Hyperbolic propustnosti 43 tokenů/s, což nejenže překonalo 42 tokenů/s týmem Together AI složeným ze 60 lidí, ale také výrazně překonalo 27 tokenů/s týmem HuggingFace, který má více než 300 členů.

Ve srovnávacích experimentech rychlosti generování obrazů také GPU cluster Hyperbolic ukázal, že jeho technologické schopnosti nelze podceňovat. Při použití stejného SOTA otevřeného modelu generování obrazů Hyperbolic vedl s rychlostí 17,6 obrazů/min, což nejenže překonalo 13,6 obrazů/min od Together AI, ale také výrazně překonalo 6,5 obrazů/min od IO.NET.

Tato data silně dokazují, že model GPU clusteru Hyperbolic má velmi vysokou účinnost, což jeho vynikající výkon odlišuje od větších konkurentů. A s výhodou nízkých cen je Hyperbolic velmi vhodný pro komplexní AI aplikace, které potřebují vysokou výpočetní sílu, a poskytuje téměř okamžité reakce a zajišťuje, že AI modely mají při zpracování složitých úkolů vyšší přesnost a efektivitu.

Z pohledu inovací v kryptoměnách si myslíme, že Hyperbolic by měl věnovat pozornost vývoji validačního mechanismu PoSP (Proof of Sampling, důkaz o vzorkování), aby decentralizovaně řešil jednu z největších výzev v oblasti AI – ověření, zda výstup pochází z určeného modelu, což umožňuje ekonomicky efektivní decentralizaci procesu inference.

Na základě principu PoSP vyvinul tým Hyperbolic mechanismus spML (vzorkovací strojové učení), který náhodně vzorkuje transakce v síti, odměňuje poctivé a trestá nepoctivé, aby dosáhl lehkého ověřovacího efektu, čímž se snížila výpočetní zátěž sítě, což umožnilo téměř každému AI startupu realizovat své AI služby v decentralizované podobě s ověřitelným vzorem.

Konkrétní implementační proces je následující:

1) Uzly vypočítaly funkci a šifrovaným způsobem odeslaly výsledky orchestrátorovi.

2) Poté orchestrátor rozhodne, zda důvěřuje tomuto výsledku. Pokud ano, uzly získají odměnu za výpočet.

3) Pokud nedůvěřuje, orchestrátor náhodně vybere ověřovatele v síti a vyzve uzly k výzvě, aby vypočítaly stejnou funkci. Stejně tak ověřovatelé odesílají výsledky orchestrátorovi šifrovaným způsobem.

4) Nakonec orchestrátor zkontroluje, zda jsou všechny výsledky konzistentní. Pokud ano, uzly a ověřovatelé získají odměny; pokud nejsou konzistentní, zahájí se arbitrážní proces a provede se zpětné sledování výpočtového procesu každého výsledku. Poctivci získají odměnu za svou přesnost, nepoctivci budou potrestáni za podvod.

Uzly nevědí, zda budou jejich výsledky zpochybněny, ani nevědí, jakého ověřovatele si orchestrátor vybere, aby zpochybnil, což má zajistit spravedlnost ověření. Náklady na podvod daleko převyšují potenciální zisk.

Pokud se v budoucnu spML osvědčí, může to změnit pravidla hry pro AI aplikace, což učiní ověřování inference bez důvěry realitou. Kromě toho Hyperbolic disponuje jedinečnou schopností využívat algoritmy BF16 v modelové inferenci (zatímco konkurenti jsou stále na FP8), což efektivně zvyšuje přesnost inference a činí decentralizované inference služby Hyperbolic výjimečně konkurenceschopné.

Kromě toho se inovace Hyperbolic projevují také v integraci dodávek výpočetní síly AI cloudu s AI aplikacemi. Poptávka po decentralizovaných výpočetních trzích je sama o sobě relativně nízká, Hyperbolic přitahuje vývojáře k vytváření AI aplikací prostřednictvím budování ověřitelné AI infrastruktury, přičemž výpočetní síla může být přímo a bezproblémově integrována do AI aplikací bez obětování výkonu a bezpečnosti. Jakmile dosáhne určitého měřítka, může být soběstačná a dosáhnout rovnováhy mezi nabídkou a poptávkou.

Vývojáři mohou na Hyperbolic vytvářet inovativní AI aplikace zaměřené na výpočetní sílu, Web2 a Web3, například:

  • GPU Exchange, obchodní platforma postavená na GPU síti (orchestrální vrstvě), zbožňuje „GPU zdroje“ a umožňuje jejich volný obchod, což činí výpočetní sílu efektivnější.

  • IAO, nebo tokenizace AI agentů, umožňuje přispěvatelům vydělávat tokeny, přičemž příjmy AI agentů jsou rozděleny mezi držitele tokenů.

  • AI řízené DAO, které pomáhá s rozhodováním a správou financí prostřednictvím umělé inteligence.

  • GPU Restaking, umožňuje uživatelům připojit GPU k Hyperbolic a poté je znovu vsadit na AI aplikace.

Celkově Hyperbolic vybudoval otevřený AI ekosystém, který umožňuje každému snadno používat AI. Prostřednictvím technologických inovací Hyperbolic usiluje o to, aby se AI stala dostupnější a přístupnější, což vytváří budoucnost AI plnou interoperability a kompatibility a podporuje spolupráci a inovace.

Data se vracejí uživatelům, abychom se společně pustili do vlny AI.

Dnes jsou data zlatým dolem, osobní data jsou bezplatně získávána a komercializována technologickými giganty.

Data jsou potravou pro AI. Bez kvalitních dat nemohou ani nejpokročilejší algoritmy vykonávat svou funkci. Množství, kvalita a rozmanitost dat přímo ovlivňují výkon AI modelu.

Jak jsme již zmínili, v oboru se očekává příchod GPT-5. Ale stále nepřichází, možná z důvodu nedostatečného množství dat. Pouze ve fázi publikování potřeboval GPT-3 objem dat 20 bilionů tokenů. GPT-5 se očekává, že dosáhne objemu 200 bilionů tokenů. Kromě stávajících textových dat je potřeba více multimodálních dat, která je třeba vyčistit, aby mohla být použita k trénování.

Na dnešním otevřeném internetu je kvalitních datových vzorků relativně málo. Realita je taková, že velké modely vykazují v jakémkoli oboru skvělé výkony v generování otázek a odpovědí, ale selhávají, když čelí konkrétním odborným otázkám, což může vést k iluzím, kdy model „seriózně blábolí“.

Aby se zajistila „čerstvost“ dat, velké společnosti umělé inteligence často uzavírají smlouvy s vlastníky velkých datových zdrojů. Například OpenAI uzavřelo dohodu v hodnotě 60 milionů dolarů s Reddit.

Některé komunitní platformy nedávno začaly požadovat od uživatelů podepsání smluv, které vyžadují souhlas uživatelů s tím, aby byl obsah použit pro trénink třetích stran AI modelů, avšak uživatelé za to nedostávají žádnou odměnu. Tato vykořisťovatelská praxe vyvolala veřejnou diskusi o právech na používání dat.

Je zřejmé, že potenciál decentralizace a sledovatelnosti zdrojů blockchainu je přirozeně vhodný pro zlepšení dostupnosti dat a zdrojů, a zároveň poskytuje více kontroly a transparentnosti uživatelským datům a možnost získávání zisků prostřednictvím účasti na trénování a optimalizaci AI modelů. Tento nový způsob vytváření hodnoty dat výrazně zvýší účast uživatelů a podpoří celkovou prosperitu ekosystému.

Web3 již má některé společnosti zaměřené na AI data, jako například:

  • Získávání dat: Ocean Protocol, Vana, PIN AI, Sahara a další.

  • Zpracování dat: Public AI, Lightworks a další.

Mezi zajímavé projekty patří Vana, PIN AI a Sahara, které nedávno získaly velké financování a mají silné investory. Tyto projekty překonávají sub-obory a kombinují získávání dat s vývojem AI, což podporuje realizaci AI aplikací.

Vana: Uživatelé ovládají data, DAO a mechanismus přispění přetvářejí ekonomiku AI dat.

Vana dokončila v prosinci 2022 kolo financování ve výši 18 milionů dolarů a v září tohoto roku dokončila strategické financování ve výši 5 milionů dolarů. Investovali známí VC jako Paradigm, Polychain a Coinbase.

Základní myšlenkou Vany je „uživatelská vlastněná data, uživatelská vlastněná AI“. V této době, kdy jsou data králem, Vana chce rozbít monopol velkých společností na data a umožnit uživatelům, aby kontrolovali svá data a profitovali z nich.

Vana je decentralizovaná datová síť zaměřená na ochranu soukromých dat, aby uživatelská data mohla být flexibilně používána jako finanční aktiva. Vana se snaží přetvořit strukturu ekonomiky dat a změnit uživatele z pasivních poskytovatelů dat na aktivní účastníky a spolupodílníky ekosystému.

Aby se tato vize uskutečnila, Vana umožňuje uživatelům shromáždit a nahrát data prostřednictvím data DAO a poté ověřit hodnotu dat prostřednictvím mechanismu důkazu o příspěvku, a to vše při zachování soukromí. Tato data mohou být použita pro trénink AI a uživatelé získávají pobídky na základě kvality nahraných dat.

V implementačním způsobu architektura Vany zahrnuje pět klíčových komponentů: vrstvu likvidity dat, vrstvu přenositelnosti dat, univerzální připojovací skupiny, nezávislé úložiště dat a decentralizovanou aplikační vrstvu.

Vrstva likvidity dat (Data Liquidity Layer): Toto je jádro sítě Vana, které motivuje, agreguje a ověřuje hodnotná data prostřednictvím datových likviditních bazénů (DLP). DLP funguje jako datový „likviditní bazén“, každý DLP je chytrá smlouva specializovaná na agregaci specifických typů datových aktiv, jako jsou data ze sociálních médií Reddit, Twitter a další.

Vrstva přenositelnosti dat (Data Portability Layer): Tento komponent dává uživatelským datům přenositelnost, což zajišťuje, že uživatelé mohou snadno přenášet a používat svá data mezi různými aplikacemi a AI modely.

Ekosystém dat: To je mapa, která sleduje tok dat v celém ekosystému v reálném čase a zajišťuje transparentnost.

Nezávislé úložiště dat: Inovace Vany spočívá v jejím jedinečném způsobu správy dat, kdy uživatelé mají vždy plnou kontrolu nad svými daty. Původní data uživatelů nebudou uložena na blockchainu, ale uživatel si sám zvolí místo uložení, například cloudový server nebo osobní server.

Decentralizovaná aplikační vrstva: Na základě dat Vana vytváří otevřený ekosystém aplikací, ve kterém mohou vývojáři využívat data shromážděná pomocí DLP k vytváření různých inovativních aplikací, včetně AI aplikací, zatímco přispěvatelé dat mohou získávat dividendy z těchto aplikací.

V současnosti Vana vybudovala DLP zaměřené na platformy jako ChatGPT, Reddit, LinkedIn, Twitter a další zaměřené na AI a prohlížení dat. S přibývajícími DLP a více inovativními aplikacemi vybudovanými na platformě má Vana potenciál stát se infrastrukturou nové generace pro decentralizovanou ekonomiku AI a dat.

To nás přivádí k nedávné zprávě, že Meta sbírá data britských uživatelů Facebooku a Instagramu, aby zlepšila rozmanitost LLM, avšak byla kritizována za to, že umožnila uživatelům „odhlásit se“ namísto „souhlasit“. Možná by Meta mohla na Vana vytvořit DLP pro Facebook a Instagram, což by zajistilo ochranu soukromí dat a motivovalo více uživatelů k aktivnímu přispívání dat.

PIN AI: Decentralizovaný AI asistent, mobilní AI, který propojuje data s každodenním životem.

PIN AI v září tohoto roku dokončil financování ve výši 10 milionů dolarů v pre-seed kole, přičemž se na této investici podíleli renomovaní VC a andělští investoři jako a16z CSX, Hack VC a Blockchain Builders Fund (Stanford Blockchain Accelerator).

PIN AI je otevřená AI síť, kterou podporuje distribuovaná datová úložiště založená na architektuře DePIN. Uživatelé se mohou připojit k této síti, poskytnout osobní data/preference uživatelů a získat tokenové pobídky. Tento krok umožňuje uživatelům znovu získat kontrolu a monetizovat svá data. Vývojáři pak mohou využívat data k vytváření užitečných AI agentů.

Jejich vizí je stát se decentralizovanou alternativou k Apple Intelligence, která se snaží poskytovat užitečné aplikace pro uživatelskou komunitu, realizovat uživatelské záměry, jako je online nákup zboží, plánování cestování a plánování investičního chování.

PIN AI se skládá ze dvou typů AI: osobního AI asistenta a externí AI služby.

Osobní AI asistent může přistupovat k uživatelským datům, shromažďovat potřeby uživatelů a poskytovat jim odpovídající data, když externí AI potřebuje data. Základ PIN AI tvoří distribuovaná datová úložiště DePIN, která poskytují bohatá uživatelská data pro inference externích AI služeb, aniž by měly přístup k osobním údajům uživatelů.

S PIN AI uživatelé nebudou potřebovat otevírat tisíce mobilních aplikací pro různé úkoly. Když uživatel vyjádří svému osobnímu AI asistentovi záměr „chci si koupit nové oblečení“, „objednat nějaké jídlo“ nebo „najít nejlepší investiční příležitosti v tomto článku“, AI nejenže zná preference uživatele, ale také efektivně vykonává všechny tyto úkoly – najde nejrelevantnější aplikace a poskytovatele služeb a realizuje uživatelův záměr formou soutěžení.

Nejdůležitější je, že PIN AI si uvědomil nutnost zavést decentralizované služby, které poskytují větší hodnotu v současném kontextu, kdy jsou uživatelé zvyklí přímo interagovat s centralizovanými poskytovateli služeb. Osobní AI asistent může legitimně jménem uživatele získávat vysoce hodnotná data vznikající při interakci uživatele s aplikacemi Web2 a ukládat je a volat je decentralizovaným způsobem, což umožňuje, aby stejná data měla větší hodnotu a aby uživatelé i volající z toho profitovali.

I když hlavní síť PIN AI ještě nebyla oficiálně spuštěna, tým ukázal uživatelům produktový koncept na Telegramu, aby si mohli přiblížit vizi.

Hi PIN Bot se skládá ze tří částí: Play, Data Connectors a AI Agent.

Play je AI virtuální partner, který podporují modely jako PIN AI-1.5b, Gemma, Llama a další. To je ekvivalent osobního AI asistenta PIN AI.

V Data Connectors mohou uživatelé připojit své účty Google, Facebook, X a Telegram, aby získali body na vylepšení svého virtuálního partnera. V budoucnu bude rovněž možné připojit účty Amazon, eBay, Uber a další. To odpovídá DePIN datové síti PIN AI.

Své vlastní data používejte sami, po propojení dat mohou uživatelé klást požadavky svému virtuálnímu partnerovi (brzy přichází), který poskytne uživatelská data odpovídajícím AI agentům k vyřízení.

Oficiálně bylo vyvinuto několik prototypů AI agentů, které jsou nyní stále ve fázi testování, a tyto jsou ekvivalentem externích AI služeb PIN AI. Například X Insight, zadáním Twitter účtu může analyzovat výkon tohoto účtu. Jakmile Data Connectors podpoří účty na platformách jako je e-commerce a doručování, AI agenti jako Shopping a Order Food budou schopni autonomně zpracovávat uživatelské objednávky.

Celkově PIN AI vytvořil otevřenou AI síť prostřednictvím DePIN + AI, která umožňuje vývojářům vytvářet skutečně užitečné AI aplikace, což usnadňuje a zintenzivňuje život uživatelů. Jak se k tomu připojuje více a více vývojářů, PIN AI přinese více inovativních aplikací, díky nimž se AI skutečně začlení do každodenního života.

Sahara: Víceúrovňová architektura pro správu AI dat, soukromí a spravedlivé obchodování.

Sahara dokončila v srpnu tohoto roku financování ve výši 43 milionů dolarů v A kole od známých VC jako Binance Labs, Pantera Capital a Polychain.

Sahara AI je vícestupňová architektura AI blockchainové aplikační platformy, která se zaměřuje na vybudování spravedlivějšího a transparentnějšího modelu vývoje AI, schopného přiřazovat hodnotu datům a sdílet zisky s uživateli, čímž řeší problémy, jako jsou soukromí, bezpečnost, získávání dat a transparentnost v tradičních AI systémech.

Zjednodušeně řečeno, Sahara AI chce vytvořit decentralizovanou AI síť, která by umožnila uživatelům kontrolovat svá data a získávat odměny na základě kvality dat, která přispívají. Uživatelé se tak nestávají pasivními poskytovateli dat, ale stávají se aktivními stavebníky ekosystému, kteří sdílejí zisky.

Uživatelé mohou nahrát data na svůj decentralizovaný datový trh a poté prostřednictvím speciálního mechanismu prokázat vlastnictví těchto dat („potvrzení vlastnictví“). Tato data mohou být použita k trénování AI, přičemž uživatelé získávají odměny na základě kvality dat.

Sahara AI zahrnuje čtyřvrstvou architekturu aplikací, transakcí, dat a exekuce, která poskytuje silný základ pro rozvoj AI ekosystému.

  • Aplikační vrstva: Nabízí bezpečné trezory, decentralizované datové trhy AI, bezkódové nástroje a nástroje Sahara ID. Tyto nástroje zajišťují ochranu soukromí dat a podporují spravedlivé odměňování uživatelů, a dále zjednodušují proces vytváření a nasazení AI aplikací.

Zjednodušeně řečeno, trezor využívá pokročilé šifrovací technologie k zajištění bezpečnosti AI dat; decentralizovaný trh s AI daty může být použit pro sběr, označování a transformaci dat, což podporuje inovace a spravedlivé obchodování; bezkódové nástroje usnadňují vývoj AI aplikací; Sahara ID spravuje reputaci uživatelů a zajišťuje důvěru.

  • Transakční vrstva: Blockchain Sahara zajišťuje efektivitu a stabilitu sítě pomocí konsensuálního mechanismu Proof of Stake (PoS), což umožňuje dosažení konsensu i v přítomnosti zlovolných uzlů. Kromě toho je nativní předkompilovaná funkce Sahary navržena speciálně pro optimalizaci AI zpracování, což umožňuje efektivní výpočty přímo v prostředí blockchainu a zvyšuje výkon systému.

  • Datová vrstva: Spravuje on-chain a off-chain data. On-chain zpracovává operace a atributy s neschopností sledování, zajišťuje důvěru a transparentnost; off-chain se zabývá velkými datovými sadami a zajišťuje integritu a bezpečnost dat pomocí technologií Merkle Tree a zero-knowledge proofs, což brání duplikaci a manipulaci s daty.

  • Exekuční vrstva: Abstrahuje operace trezoru, AI modelů a AI aplikací, podporuje různé paradigmy pro trénink, inference a služby AI.

Celá čtyřvrstvá architektura nejen zajišťuje bezpečnost a škálovatelnost systému, ale také odráží velkou vizi Sahara AI, která podporuje kooperativní ekonomiku a rozvoj AI, s cílem zásadně změnit způsob aplikace AI technologií a přinést uživatelům inovativnější a spravedlivější řešení.

Závěr

S neustálým pokrokem technologií AI a vzestupem kryptoměnových trhů stojíme na prahu nové éry.

S neustálým přílivem velkých modelů a aplikací roste poptávka po výpočetní síle exponenciálně. Nicméně nedostatek výpočetní síly a zvyšující se náklady představují obrovskou výzvu pro mnoho malých a středních podniků. Naštěstí decentralizovaná řešení, zejména Hyperbolic, Aethir a IO.NET, poskytují AI startupům nové cesty k získání výpočetní síly, snižují náklady a zvyšují efektivitu.

Současně vidíme, jak důležitá je data pro rozvoj AI. Data nejsou jen potravou pro AI, ale také klíčem k realizaci AI aplikací. Projekty jako PIN AI, Sahara a další podporují uživatele v účasti na sběru a sdílení dat, čímž poskytují silnou podporu pro rozvoj AI.

Výpočetní síla a data nejsou důležité pouze během tréninkové fáze, ale také v průběhu celého procesu AI aplikací, od příjmu dat po výrobní inference. Každá fáze potřebuje k realizaci masivního zpracování dat různé nástroje a to je neustále se opakující proces.

V tomto světě, kde se AI a Crypto prolínají, máme důvod věřit, že v budoucnu uvidíme více inovativních AI projektů, které nejen změní naše pracovní a životní styl, ale také posunou celou společnost směrem k inteligentnější a decentralizované budoucnosti. S neustálým pokrokem technologií a zráním trhu očekáváme příchod otevřenější, spravedlivější a efektivnější éry AI.