Alex Xu - Mint Ventures

Původní čas zveřejnění: 2024-04-08 10:23

Původní odkaz: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analysis-of-upcoming-tokenlaunch-io-net /

úvod

Ve svém minulém článku jsem zmínil, že ve srovnání s předchozími dvěma cykly tento cyklus krypto býčího trhu postrádá dostatečně vlivné nové obchody a nové příběhy aktiv. Umělá inteligence je jedním z mála nových příběhů v tomto kole oblasti Web3 Autor tohoto článku se pokusí utřídit mé myšlenky na následující dvě otázky na základě letošního horkého projektu AI IO.NET:

  • Komerční nutnost AI+Web3

  • Nezbytnost a výzvy distribuovaných počítačových služeb

Zadruhé autor utřídí klíčové informace projektu IO.NET, reprezentativního projektu AI distribuovaného výpočetního výkonu, včetně produktové logiky, konkurenčních produktů a pozadí projektu, a odvodí ocenění projektu.

Část myšlenek tohoto článku o kombinaci AI a Web3 byla inspirována „The Real Merge“, kterou napsal výzkumník Delphi Digital Michael rinko. Některé názory v tomto článku jsou shrnuty a citovány z článku. Čtenářům se doporučuje přečíst si původní článek.

Tento článek je zinscenovaným myšlením autora v době zveřejnění. V budoucnu se může změnit a názory mohou být také velmi subjektivní ve faktech, datech a úvahách, nepoužívejte jej jako investiční odkaz Komentáře a diskuse od kolegů jsou vítány.

Následuje hlavní text.

1. Obchodní logika: kombinace AI a Web3

1.1 2023: Nový „zázračný rok“ vytvořený umělou inteligencí

Když se podíváme zpět na historii lidského vývoje, jakmile technologie dosáhne průlomu, budou následovat otřesné změny od každodenního života jednotlivců, přes různé průmyslové struktury a celou lidskou civilizaci.

V historii lidstva jsou dva důležité roky, a to 1666 a 1905. Nyní jsou známé jako dva „zázračné roky“ v dějinách vědy a techniky.

Rok 1666 je považován za rok zázraků, protože Newtonovy vědecké úspěchy se v tomto roce objevily koncentrovaně. V tomto roce otevřel fyzikální obor optiky, založil matematický obor počtu a odvodil gravitační vzorec, základní zákon moderní přírodní vědy. Každý z nich bude základním příspěvkem k rozvoji lidské vědy v příštích sto letech, což značně urychlí rozvoj celkové vědy.

Druhým zázračným rokem byl rok 1905. V té době Einstein, kterému bylo pouhých 26 let, publikoval čtyři po sobě jdoucí články v „Annals of Physics“, které pojednávaly o fotoelektrickém jevu (který položil základy kvantové mechaniky) a Brownově pohybu (stal se metoda pro analýzu náhodných procesů), speciální teorie relativity a rovnice hmotnosti a energie (tj. slavný vzorec E=MC^2). V hodnocení pozdějších generací každý z těchto čtyř prací překonal průměrnou úroveň Nobelovy ceny za fyziku (sám Einstein získal Nobelovu cenu také za práci o fotoelektrickém jevu) a historický proces lidské civilizace byl opět značně pokročilých.

Rok 2023, který právě uplynul, bude s největší pravděpodobností nazván dalším „zázračným rokem“ kvůli ChatGPT.

Rok 2023 považujeme za „zázračný rok“ v historii lidské vědy a techniky, a to nejen kvůli obrovskému pokroku GPT v porozumění a vytváření přirozeného jazyka, ale také proto, že lidé přišli na růst schopností velkých jazykových modelů díky vývoji Pravidlo GPT - tedy rozšířením parametrů modelu a trénovacích dat lze exponenciálně zlepšovat schopnosti modelu - a v tomto procesu krátkodobě (pokud je dostatečný výpočetní výkon) není žádné úzké hrdlo.

Tato schopnost má daleko k porozumění jazyku a generování dialogu. Může být také široce používána v různých vědeckých a technologických oblastech. Vezměte si jako příklad aplikaci velkých jazykových modelů:

  • V roce 2018 nositel Nobelovy ceny za chemii Francis Arnold při slavnostním ceremoniálu řekl: „Dnes můžeme číst, zapisovat a upravovat jakoukoli sekvenci DNA v praktických aplikacích, ale ještě ji nemůžeme skládat, pět let po jeho projevu v roce 2023 ze Stanfordské univerzity a startupu Salesforce Research v Silicon Valley AI publikovali článek v „Nature-Biotechnology“. Použili velký jazykový model vyladěný na základě GPT3 tak, aby šel od 0 Byl vytvořen milion nových proteinů a dva proteiny se zcela odlišnými strukturami. , ale oba s baktericidními schopnostmi, se očekává, že se stanou řešením boje proti bakteriím vedle antibiotik. Jinými slovy: s pomocí AI se podařilo prolomit úzké hrdlo „tvorby“ bílkovin.

  • Algoritmus umělé inteligence AlphaFold dříve předpovídal strukturu téměř všech 214 milionů proteinů na Zemi během 18 měsíců. Tento výsledek byl v minulosti stokrát dílem všech lidských strukturálních biologů.

S různými modely založenými na umělé inteligenci vše od tvrdých technologií, jako je biotechnologie, věda o materiálech a výzkum a vývoj léčiv až po humanitní obory, jako je právo a umění, zahájí zemětřesné změny a rok 2023 je prvním rokem toho všeho.

Všichni víme, že schopnost lidstva vytvářet bohatství v minulém století exponenciálně rostla a rychlá vyspělost technologie AI tento proces nevyhnutelně dále urychlí.

Graf trendů globálního HDP, zdroj dat: Světová banka

1.2 Kombinace AI a Crypto

Abychom v podstatě porozuměli nutnosti kombinovat AI a krypto, můžeme vycházet z doplňkových charakteristik obou.

Doplňkové funkce AI a Crypto

AI má tři atributy:

  • Náhodnost: Umělá inteligence je náhodná Za jejím mechanismem tvorby obsahu je černá skříňka, kterou je obtížné reprodukovat a odhalit, takže výsledky jsou také náhodné.

  • Náročné na zdroje: AI je odvětví náročné na zdroje, které vyžaduje hodně energie, čipů a výpočetního výkonu.

  • Inteligence podobná lidské: AI bude (brzy) schopna projít Turingovým testem a poté budou lidé k nerozeznání od strojů*

※Dne 30. října 2023 zveřejnil výzkumný tým na Kalifornské univerzitě v San Diegu výsledky Turingova testu (zpráva o testu) na GPT-3.5 a GPT-4.0. Skóre GPT4.0 je 41 %, což je pouhých 9 % od hranice 50 %. Skóre lidského testu stejného projektu je 63 %. Smyslem tohoto Turingova testu je, kolik procent lidí si myslí, že osoba, se kterou chatují, je skutečná osoba. Pokud překročí 50 %, znamená to, že alespoň polovina lidí v davu si myslí, že konverzačním partnerem je lidská bytost, nikoli stroj, což je považováno za osobu, která prošla Turingovým testem.

Zatímco umělá inteligence vytváří pro lidstvo nový skok vpřed v produktivitě, její tři atributy také přinášejí obrovské výzvy pro lidskou společnost, konkrétně:

  • Jak ověřovat a kontrolovat náhodnost AI, aby se náhodnost stala spíše výhodou než chybou

  • Jak překonat obrovský nedostatek energie a výpočetního výkonu, který vyžaduje AI

  • Jak poznat rozdíl mezi lidmi a stroji

Charakteristiky krypto a blockchainové ekonomiky mohou být tím správným lékem k řešení problémů, které přináší AI. Ekonomika šifrování má následující tři vlastnosti:

  • Determinismus: Obchod běží na základě blockchainu, kódu a chytrých kontraktů. Pravidla a hranice jsou jasné.

  • Efektivní alokace zdrojů: Krypto-ekonomika vybudovala obrovský globální volný trh. Ceny, sběr a oběh zdrojů jsou velmi rychlé a díky existenci tokenů lze použít pobídky k urychlení sladění nabídky a poptávky na trhu a urychlit dosažení kritických bodů.

  • Bez důvěry: Kniha je otevřená, kód je otevřený zdroj a každý si jej může snadno ověřit, což přináší „nedůvěryhodný“ systém, zatímco technologie ZK se současně s ověřením vyhýbá ohrožení soukromí

Dále budou použity tři příklady pro ilustraci komplementarity AI a krypto ekonomiky.

Příklad A: Řešení náhodnosti, AI Agent na základě kryptoekonomie

AI Agent je program umělé inteligence zodpovědný za vykonávání práce pro lidi na základě lidské vůle (reprezentativní projekty zahrnují Fetch.AI). Předpokládejme, že chceme, aby náš agent AI zpracoval finanční transakci, například „Nakupte 1 000 $ v BTC“. Agenti AI mohou čelit dvěma situacím:

Scénář 1: Potřebuje se spojit s tradičními finančními institucemi (jako je BlackRock) a zakoupit BTC ETF Čelí velkému počtu problémů s adaptací mezi agenty AI a centralizovanými institucemi, jako je KYC, kontrola informací, přihlášení, ověření identity atd. V tuto chvíli je to stále velmi problematické.

Ve druhém případě běží na nativní ekonomice šifrování a situace se mnohem zjednoduší. Přímo použije váš účet k podepsání a zadání příkazu k dokončení transakce prostřednictvím Uniswapu nebo agregované obchodní platformy a obdrží WBTC (neboli. jiné zapouzdření) formátu BTC), celý proces je rychlý a snadný. Ve skutečnosti to dělají různé obchodní BOTy. Ve skutečnosti hráli roli juniorského agenta AI, ale jejich práce je zaměřena na obchodování. V budoucnu budou různé typy obchodních BOTů nevyhnutelně schopny provádět složitější obchodní záměry s integrací a vývojem AI. Například: sledovat 100 adres chytrých peněz v řetězci, analyzovat jejich obchodní strategie a míru úspěšnosti, použít 10 % prostředků na mé adrese k provedení podobných transakcí do týdne a zastavit, když efekt není dobrý, a shrnout možnost důvodu selhání.

Umělá inteligence bude fungovat lépe v blockchainovém systému, v podstatě kvůli jasnosti kryptoekonomických pravidel a přístupu do systému bez povolení. Plněním úkolů podle omezených pravidel budou také menší potenciální rizika, která přináší náhodnost AI. Například výkon AI v šachových a karetních soutěžích a videohrách předčil lidi, protože šachy a karetní hry jsou uzavřená pískoviště s jasnými pravidly. Pokrok AI v autonomním řízení bude relativně pomalý, protože výzvy otevřeného vnějšího prostředí jsou větší a je pro nás těžší tolerovat nahodilost problémů se zpracováním AI.

Příklad B: Formování zdrojů a shromažďování zdrojů prostřednictvím tokenových pobídek

Globální výpočetní síť za BTC, její současný celkový výpočetní výkon (Hashrate: 576,70 EH/s) převyšuje komplexní výpočetní výkon superpočítačů jakékoli země. Jeho rozvojová motivace pochází z jednoduchých a spravedlivých síťových pobídek.

Trend výpočetního výkonu sítě BTC, zdroj: https://www.coinwarz.com/

Projekty DePIN, včetně Mobile, se navíc snaží využít tokenové pobídky k formování oboustranného trhu na obou stranách nabídky i poptávky, aby bylo dosaženo síťových efektů. IO.NET, na který se tento článek zaměří dále, je platforma navržená pro získávání výpočetního výkonu AI. Doufáme, že prostřednictvím modelu tokenu bude stimulován větší potenciál výpočetního výkonu AI.

Příklad C: Otevřený zdrojový kód, který zavádí ZK, rozlišuje lidi a stroje a zároveň chrání soukromí

Jako projekt Web3, na kterém se podílel zakladatel OpenAI Sam Altman, Worldcoin používá hardwarové zařízení Orb ke generování exkluzivních a anonymních hash hodnot založených na biometrii lidské duhovky a technologii ZK k ověření identity a rozlišení mezi lidmi a stroji. Začátkem března tohoto roku začal umělecký projekt Web3 Drip používat Worldcoin ID k ověřování skutečných uživatelů a vydávání odměn.

Kromě toho Worldcoin nedávno také otevřel programový kód svého iris hardwaru Orb, aby poskytl záruky bezpečnosti a soukromí biometrických údajů uživatelů.

Obecně řečeno, díky jistotě kódu a kryptografie, výhodám oběhu zdrojů a získávání finančních prostředků, které přináší mechanismus bez povolení a tokenů, a nedůvěryhodným atributům založeným na otevřeném zdrojovém kódu a veřejných účetních knihách, se kryptoekonomika stala pro AI hlavní výzvou. lidská společnost důležité potenciální řešení.

A mezi nimi je nejnaléhavější výzvou s nejsilnější komerční poptávkou extrémní hlad po produktech umělé inteligence ve výpočetních zdrojích, který obklopuje obrovskou poptávku po čipech a výpočetním výkonu.

To je také hlavní důvod, proč růst projektů distribuovaného výpočetního výkonu přesahuje celkovou dráhu umělé inteligence v tomto býčím tržním cyklu.


Obchodní nezbytnost decentralizovaného výpočtu

Umělá inteligence vyžaduje masivní výpočetní zdroje, ať už pro trénovací modely nebo provádění dedukcí.

V tréninkové praxi velkých jazykových modelů se potvrdila jedna skutečnost: dokud bude škála datových parametrů dostatečně velká, vzniknou velké jazykové modely s některými schopnostmi, které dříve nebyly k dispozici. Exponenciální skok ve schopnostech každé generace GPT ve srovnání s předchozí generací je způsoben exponenciálním nárůstem množství výpočtů potřebných pro trénování modelu.

Výzkum DeepMind a Stanfordské univerzity ukazuje, že když různé velké jazykové modely čelí různým úkolům (operace, zodpovídání perských otázek, porozumění přirozenému jazyku atd.), potřebují pouze zvětšit velikost parametrů modelu během trénování modelu (odpovídajícím způsobem školení The množství výpočtů se také zvýšilo), dokud trénovací množství nedosáhne 10^22 FLOPů (FLOPs označuje operace s plovoucí desetinnou čárkou za sekundu, používané k měření výpočetního výkonu), výkon jakéhokoli úkolu je téměř stejný jako u náhodných odpovědí. A jakmile škála parametrů překročí kritickou hodnotu této škály, výkon úlohy se prudce zlepší, bez ohledu na jazykový model.

来源: Vznikající schopnosti velkých jazykových modelů

来源: Vznikající schopnosti velkých jazykových modelů

Je to také ověření zákona a praxe „velkých zázraků“ v oblasti výpočetní síly, které vedlo zakladatele OpenAI Sama Altmana k návrhu získat 7 bilionů USD na vybudování pokročilé továrny na čipy, která je 10krát větší než současná velikost TSMC (tato část Očekává se, že bude stát 1,5 bilionu) a zbývající prostředky použije na výrobu čipů a školení modelů.

Kromě výpočetního výkonu potřebného k trénování modelů umělé inteligence vyžaduje proces odvození samotného modelu také mnoho výpočetního výkonu (ačkoli množství výpočtů je menší než u školení), takže hlad po čipech a výpočetním výkonu se stal hlavním faktorem při účasti na trati AI normálního stavu člověka.

Ve srovnání s centralizovanými poskytovateli výpočetního výkonu s umělou inteligencí, jako jsou Amazon Web Services, Google Cloud Platform, Microsoft Azure atd., patří mezi hlavní hodnotové nabídky distribuovaného výpočetního výkonu AI:

  • Dostupnost: Získání přístupu k výpočetním čipům pomocí cloudových služeb jako AWS, GCP nebo Azure často trvá týdny a oblíbené modely GPU často nejsou na skladě. Navíc, aby získali výpočetní výkon, spotřebitelé často potřebují podepsat dlouhodobé, nepružné smlouvy s těmito velkými společnostmi. Distribuovaná výpočetní platforma může poskytnout flexibilní výběr hardwaru a větší dostupnost.

  • Nízké ceny: Díky použití nečinných čipů a dotacím tokenů poskytovaných poskytovatelem síťového protokolu dodavateli čipů a výpočetní energie může být síť distribuovaného výpočetního výkonu schopna poskytovat levnější výpočetní výkon.

  • Odolnost vůči cenzuře: V současné době jsou špičkové výpočetní výkonové čipy a dodávky monopolizovány velkými technologickými společnostmi. Vláda reprezentovaná Spojenými státy navíc zvyšuje svou kontrolu nad službami výpočetního výkonu AI, které lze flexibilně distribuovat. Toto je také nabídka základní hodnoty platformy služeb výpočetního výkonu založené na webu3.

Pokud je fosilní energie krví průmyslové éry, pak výpočetní výkon může být krví nové digitální éry otevřené AI a dodávka výpočetního výkonu se stane infrastrukturou AI. Stejně jako se stablecoiny staly prosperující vedlejší větví legální měny v éře Web3, stane se trh distribuované výpočetní energie vedlejší větví rychle rostoucího trhu výpočetní energie AI?

Vzhledem k tomu, že se jedná o poměrně raný trh, vše se teprve uvidí. Následující faktory však mohou stimulovat narativ nebo tržní přijetí distribuovaných počítačů:

  • Nabídka a poptávka po GPU jsou i nadále napjaté. Pokračující omezená nabídka GPU může přimět některé vývojáře, aby vyzkoušeli distribuované počítačové platformy.

  • Regulační expanze. Pokud chcete získat služby výpočetního výkonu AI z velké platformy cloud computingu, musíte projít KYC a vrstvami recenzí. To může místo toho podpořit přijetí distribuovaných počítačových platforem, zejména v oblastech podléhajících omezením a sankcím.

  • Token cenový stimul. Zvýšení cen tokenů během býčího tržního cyklu zvýší dotační hodnotu platformy na stranu nabídky GPU, čímž přiláká více dodavatelů, aby vstoupili na trh, zvětší velikost trhu a sníží skutečnou kupní cenu spotřebitelů.

Zároveň jsou však výzvy distribuovaných počítačových platforem také zcela zřejmé:

  • Technické a inženýrské výzvy

    • Problém ověření práce: Vzhledem k hierarchické struktuře výpočtu modelu hlubokého učení je výstup každé vrstvy použit jako vstup následující vrstvy Proto ověření platnosti výpočtu vyžaduje provedení všech předchozích prací, které nelze snadno a účinně ověřit. K vyřešení tohoto problému potřebují distribuované výpočetní platformy vyvinout nové algoritmy nebo použít přibližné ověřovací techniky, které mohou poskytnout pravděpodobnostní záruky správnosti výsledků spíše než absolutní jistotu.

    • Problém paralelizace: Platforma distribuovaného výpočetního výkonu shromažďuje velké množství čipů, což znamená, že výpočetní výkon poskytovaný jedním zařízením je relativně omezený. Jediný dodavatel čipu může téměř dokončit tréninkové nebo uvažovací úkoly modelu AI nezávisle v krátkém čase Proto musí být paralelizace použita k demontáži a distribuci úloh, aby se zkrátil celkový čas dokončení. Paralelizace bude nevyhnutelně čelit řadě problémů, jako je způsob dekompozice úloh (zejména komplexní úlohy hlubokého učení), datové závislosti a dodatečné náklady na komunikaci mezi zařízeními.

    • Problém ochrany soukromí: Jak zajistit, aby data a modely kupujícího nebyly vystaveny příjemci úkolu?

  • Problémy s dodržováním předpisů

    • Distribuovanou výpočetní platformu lze použít jako prodejní místo k přilákání některých zákazníků kvůli její povaze bez povolení na oboustranném trhu dodávek a zásobování. Na druhou stranu, jak se zlepšují regulační standardy AI, může se stát cílem vládní nápravy. Někteří dodavatelé GPU se navíc obávají, zda jsou výpočetní zdroje, které si pronajímají, poskytovány sankcionovaným podnikům nebo jednotlivcům.

Obecně platí, že většina spotřebitelů distribuovaných počítačových platforem jsou profesionální vývojáři nebo malé a střední instituce Na rozdíl od kryptoinvestorů, kteří nakupují kryptoměny a NFT, tito uživatelé jen omezeně chápou služby, které může protokol poskytnout a udržitelnost a cena nemusí být hlavní motivací pro jejich rozhodování. V současné době mají platformy distribuovaných počítačů před sebou ještě dlouhou cestu, aby získaly uznání od takových uživatelů.

Dále jsme vytřídili a analyzovali informace o projektu IO.NET, nového projektu distribuovaného výpočetního výkonu v tomto cyklu, a na základě současných projektů AI a projektů distribuovaných počítačů ve stejné stopě na trhu jsme vypočítali jeho možný potenciál po úroveň ocenění.

2. Distribuovaná platforma výpočetního výkonu AI: IO.NET

2.1 Umístění projektu

IO.NET je decentralizovaná výpočetní síť, která buduje oboustranný trh kolem čipů Strana nabídky je výpočetní výkon čipů distribuovaných po celém světě (hlavně GPU, ale také CPU a iGPU společnosti Apple atd.) a strana poptávky. doufá, že dokončí inženýry umělé inteligence pro nácvik modelů umělé inteligence nebo úkoly odvození.

Na oficiálních stránkách IO.NET se píše:

Naše mise

Dát dohromady jeden milion GPU do sítě DePIN – decentralizované fyzické infrastruktury.

Jejím posláním je integrovat miliony GPU do své sítě DePIN.

Ve srovnání se stávajícími poskytovateli služeb výpočetního výkonu cloudové umělé inteligence jsou jeho hlavní prodejní body zdůrazněny:

  • Flexibilní kombinace: Inženýři umělé inteligence mohou libovolně vybírat a kombinovat čipy, které potřebují k vytvoření „shluku“ pro dokončení svých vlastních výpočetních úkolů.

  • Rychlé nasazení: Nejsou potřeba týdny schvalování a čekání (aktuálně situace u centralizovaných dodavatelů, jako je AWS), nasazení lze dokončit a úkoly lze spustit během desítek sekund

  • Nízké ceny služeb: Náklady na služby jsou o 90 % nižší než u běžných výrobců

Kromě toho IO.NET také plánuje v budoucnu spustit obchod s modelem AI a další služby.

2.2 Mechanismus produktu a obchodní data

Produktový mechanismus a zkušenosti s nasazením

Stejně jako Amazon Cloud, Google Cloud a Alibaba Cloud se výpočetní služba poskytovaná IO.NET nazývá IO Cloud. IO Cloud je distribuovaná decentralizovaná čipová síť schopná spouštět kód strojového učení založený na Pythonu a spouštět programy umělé inteligence a strojového učení.

Základní obchodní modul IO Cloud se nazývá Clusters, což je skupina GPU, která se může sama koordinovat, aby dokončila výpočetní úkoly.

Rozhraní produktu IO.NET je uživatelsky velmi přívětivé Pokud chcete nasadit svůj vlastní čipový cluster pro dokončení výpočetních úloh AI, po vstupu na jeho stránku s produktem Clusters můžete začít konfigurovat, co chcete, podle potřeby.

Informace o stránce: https://cloud.io.net/cloud/clusters/create-cluster, stejné níže

Nejprve si musíte vybrat svůj vlastní scénář mise V současné době máte na výběr ze tří typů:

  1. Obecné: Poskytuje obecnější prostředí, vhodné pro počáteční fáze projektu, kde nejsou specifické požadavky na zdroje jisté.

  2. Vlak: Cluster určený pro školení a dolaďování modelů strojového učení. Tato možnost může poskytnout více prostředků GPU, vyšší kapacitu paměti a/nebo rychlejší síťová připojení pro zvládnutí těchto náročných výpočetních úloh.

  3. Inference: Cluster navržený pro odvození s nízkou latencí a velkou zátěž. V kontextu strojového učení se inference týká použití trénovaného modelu k předpovědi nebo analýze nových dat a poskytování zpětné vazby. Proto se tato možnost zaměří na optimalizaci latence a propustnosti pro podporu potřeb zpracování dat v reálném čase nebo téměř v reálném čase.

Poté je třeba vybrat dodavatele čipového clusteru Aktuálně IO.NET dosáhl spolupráce s Render Network a těžařskou sítí Filecoin, takže uživatelé si mohou vybrat IO.NET nebo čipy z dalších dvou sítí jako dodavatele vlastního výpočetního clusteru. Je to ekvivalentní tomu, že IO.NET hraje roli agregátora (ale v době psaní tohoto článku je služba Filecon dočasně offline). Za zmínku stojí, že podle stránky je aktuálně počet dostupných GPU pro IO.NET 200 000+, zatímco počet dostupných GPU pro Render Network je 3 700+.

Dále vstupujeme do procesu výběru hardwaru klastrového čipu V současné době jsou jedinými typy hardwaru, které IO.NET uvádí pro výběr, GPU, s výjimkou CPU nebo iGPU společnosti Apple (M1, M2 atd.) a GPU jsou hlavně produkty NVIDIA.

Mezi oficiálně uvedenými a dostupnými hardwarovými možnostmi GPU je podle údajů autorových testů v daný den počet dostupných GPU v síti IO.NET 206 001. Mezi nimi má nejvíce dostupných dat GeForce RTX 4090 (45 250 fotografií), následovaná GeForce RTX 3090 Ti (30 779 fotografií).

Navíc čip A100-SXM4-80GB (tržní cena 15 000 $+), který je efektivnější při zpracování výpočetních úloh AI, jako je strojové učení, hluboké učení a vědecké výpočty, má online 7 965 fotografií.

Grafická karta NVIDIA H100 80GB HBM3 (tržní cena 40 000 $+), která byla od počátku návrhu hardwaru speciálně navržena pro umělou inteligenci, má 3,3krát vyšší výkon než A100, což je 4,5krát vyšší výkon než u A100, a skutečný počet online obrázků je 86.

Po výběru hardwarového typu clusteru musí uživatel zvolit také region clusteru, rychlost komunikace, počet a čas pronajatých GPU a další parametry.

Nakonec vám IO.NET poskytne účet založený na komplexních výběrech. Vezměte si jako příklad konfiguraci clusteru autora:

  • Obecný scénář úkolu

  • 16 čipů A100-SXM4-80GB

  • Maximální rychlost připojení (Ultra High Speed)

  • Umístění Spojené státy americké

  • Doba pronájmu je 1 týden

Celková fakturovaná cena je 3311,6 $ a hodinová cena pronájmu jedné karty je 1,232 $

Ceny za hodinový pronájem jedné karty A100-SXM4-80GB na Amazon Cloud, Google Cloud a Microsoft Azure jsou 5,12 $, 5,07 $ a 3,67 $ (zdroj dat: https://cloud-gpus.com/, skutečná cena bude vycházet ze změny podrobností smlouvy a podmínek).

Proto, pokud jde o samotnou cenu, je výpočetní výkon čipu IO.NET skutečně mnohem levnější než výkon běžných výrobců a kombinace dodávek a pořizování jsou také velmi flexibilní a provoz je také snadný.

Obchodní podmínky

Situace na straně nabídky

K 4. dubnu letošního roku byla podle oficiálních údajů celková nabídka GPU IO.NET na straně nabídky 371 027 a zásoba CPU 42 321. Navíc je jejím partnerem Render Network a k síťovému napájení je připojeno 9997 GPU a 776 CPU.

Zdroj dat: https://cloud.io.net/explorer/home, stejný níže

Když autor psal tento článek, 214 387 z celkového počtu GPU připojených k IO.NET bylo online a míra online dosáhla 57,8 %. Online rychlost GPU z Render Network je 45,1 %.

Co znamenají výše uvedená data na straně nabídky?

Pro srovnání uvádíme Akash Network, další zavedený distribuovaný výpočetní projekt, který je online již delší dobu.

Akash Network spustil svůj mainnet již v roce 2020, zpočátku se zaměřoval na distribuované služby pro CPU a úložiště. V červnu 2023 spustila testovací síť GPU služeb a v září téhož roku spustila hlavní síť GPU distribuovaného výpočetního výkonu.

Zdroj dat: https://stats.akash.network/provider-graph/graphics-gpu

Podle oficiálních údajů společnosti Akash, ačkoli strana nabídky od spuštění sítě GPU nadále roste, celkový počet připojení GPU je zatím pouze 365.

Soudě podle nabídky GPU je IO.NET o několik řádů vyšší než Akash Network a je již největší dodavatelskou sítí v distribuovaném obvodu výpočetního výkonu GPU.

Situace na straně poptávky

Ze strany poptávky je však IO.NET stále v raných fázích kultivace trhu V současné době není celkový počet skutečných uživatelů využívajících IO.NET k provádění výpočetních úloh velký. Úkolové zatížení většiny online GPU je 0 % a pouze čtyři čipy – A100 PCIe 80 GB K8S, RTX A6000 K8S, RTX A4000 K8S a H100 80 GB HBM3 – zpracovávají úlohy. A kromě A100 PCIe 80GB K8S je zatížitelnost ostatních tří čipů necelých 20 %.

Oficiální hodnota tlaku sítě zveřejněná ten den byla 0 %, což znamená, že většina dodávky čipu je v online pohotovostním stavu.

Pokud jde o rozsah síťových nákladů, IO.NET vynaložil servisní poplatky ve výši 586 029 $ a cena za poslední den byla 3 200 $.

Zdroj dat: https://cloud.io.net/explorer/clusters

Rozsah výše uvedených poplatků za vypořádání sítě, jak z hlediska celkové částky, tak z hlediska denního objemu transakcí, je řádově stejný jako u Akash, většina příjmů sítě Akash však pochází z části CPU a zásoba CPU společnosti Akash je více než 20 000.

Zdroj dat: https://stats.akash.network/

Kromě toho IO.NET také zveřejnila obchodní data AI logických úloh zpracovávaných sítí Dosud zpracovala a ověřila více než 230 000 logických úloh, nicméně většinu tohoto obchodního objemu tvoří projekt sponzorovaný IO.NET BC8.AI.

Zdroj dat: https://cloud.io.net/explorer/inferences

Soudě podle aktuálních obchodních dat se nabídka IO.NET rozrůstá hladce. Stimulována očekáváním výsadku a komunitními aktivitami s kódovým označením „Ignition“ rychle shromáždila velké množství výpočetního výkonu čipu AI. Jeho expanze na straně poptávky je stále v rané fázi a organická poptávka je v současnosti nedostatečná. Pokud jde o současné nedostatky na straně poptávky, ať už je to tím, že expanze spotřebitelské strany ještě nezačala, nebo proto, že současná zkušenost se službami ještě není stabilní, a proto chybí široké přijetí, je třeba to ještě vyhodnotit.

Avšak vzhledem k tomu, že mezeru ve výpočetním výkonu AI je obtížné v krátkodobém horizontu zaplnit, existuje velké množství inženýrů a projektů AI, kteří hledají alternativy a mohou mít zájem o decentralizované poskytovatele služeb dosud uskutečněný poptávkový ekonomický rozvoj Se stimulací aktivit, postupným zlepšováním produktových zkušeností a následným postupným slaďováním nabídky a poptávky je stále na co se těšit.

2.3 Zázemí týmu a finanční situace

Týmová situace

Základní tým IO.NET byl založen v oblasti kvantitativního obchodování Před červnem 2022 se zaměřoval na vývoj systémů kvantitativního obchodování s akciemi a krypto aktivy na institucionální úrovni. Vzhledem k požadavku na výpočetní výkon v backendu systému začal tým zkoumat možnosti decentralizovaného zpracování a nakonec se zaměřil na konkrétní problém snižování nákladů na výpočetní služby GPU.

Zakladatel a CEO: Ahmad Shadid

Ahmad Shadid se před IO.NET zabýval kvantitativním a finančním inženýrstvím a je také dobrovolníkem v nadaci Ethereum.

CMO & Chief Strategy Officer: Garrison Yang

Garrison Yang se oficiálně připojil k IO.NET v březnu tohoto roku. Dříve byl viceprezidentem pro strategii a růst ve společnosti Avalanche a vystudoval University of California, Santa Barbara.

COO: Tory Green

Tory Green je COO společnosti io.net Dříve byl COO Hum Capital, ředitelem korporátního rozvoje a strategie ve Fox Mobile Group a vystudoval Stanford.

Soudě podle informací Linkedin IO.NET má tým centrálu v New Yorku, USA, s pobočkou v San Franciscu. Současná velikost týmu je více než 50 lidí.

Situace financování

IO.NET zatím zveřejnilo pouze jedno kolo financování, to znamená financování série A dokončené v březnu tohoto roku s oceněním 1 miliardy USD, čímž bylo získáno celkem 30 milionů USD v čele s Hack VC a dalšími zúčastněnými investory. patří mimo jiné Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures a ArkStream Capital.

Za zmínku stojí, že možná kvůli investici obdržené od nadace Aptos byl projekt BC8.AI, který byl původně používán pro vypořádání a účtování na Solaně, převeden na stejný vysoce výkonný L1 Aptos.

2.4 Výpočet ocenění

Podle předchozího zakladatele a generálního ředitele Ahmada Shadida spustí IO.NET token na konci dubna.

IO.NET má dva cílové projekty, které lze použít jako referenční pro oceňování: Render Network a Akash Network, přičemž oba jsou reprezentativní distribuované výpočetní projekty.

Rozsah tržní hodnoty IO.NET můžeme odvodit dvěma způsoby: 1. Poměr trhu k prodeji, tj.: poměr tržní hodnota/výnosy 2. Poměr tržní hodnota/počet síťových čipů;

Podívejme se nejprve na odpočet z ocenění na základě poměru ceny k prodeji:

Z hlediska poměru ceny a prodeje lze Akash použít jako spodní hranici oceňovacího rozsahu IO.NET, zatímco Render lze použít jako referenční cenový produkt vyšší třídy s rozsahem FDV od 1,67 miliardy USD do 5,93 USD. miliarda.

Nicméně, vezmeme-li v úvahu, že projekt IO.NET je aktualizován, příběh je žhavější, spolu s menší tržní hodnotou v raném oběhu a současným větším rozsahem na straně nabídky, není možnost, že jeho FDV překoná Render, malá.

Podívejme se na srovnání ocenění z jiného úhlu, konkrétně na „poměr ceny a jádra“.

V tržním kontextu, kde poptávka po AI výpočetním výkonu převyšuje nabídku, je nejdůležitějším prvkem distribuované AI výpočetní sítě rozsah nabídky GPU, a proto můžeme provést horizontální srovnání s „market-to-core“. poměr“ a použijte „celkovou tržní hodnotu projektu a počet čipů v síti „Poměr množství“ k odvození možného rozsahu ocenění IO.NET, který mohou čtenáři použít jako referenci tržní hodnoty.

Pokud se rozsah tržní hodnoty IO.NET vypočítá na základě poměru trhu k jádru, IO.NET používá poměr trhu k jádru Render Network jako horní limit a Akash Network jako spodní limit je 20,6 až 197,5 miliardy USD.

Věřím, že ať jsou čtenáři ohledně projektu IO.NET jakkoli optimističtí, budou si myslet, že jde o extrémně optimistický výpočet tržní hodnoty.

A musíme vzít v úvahu, že současný počet obrovských online čipů IO.NET je stimulován airdropovými očekáváními a incentivními aktivitami. Skutečný počet online čipů na straně nabídky je po oficiálním spuštění projektu ještě potřeba sledovat .

Obecně tedy platí, že kalkulace ocenění z pohledu poměru ceny a prodeje mohou být vypovídající.

Jako projekt s trojí aurou ekologie AI+DePIN+Solana počká IO.NET a uvidí, jaká bude jeho tržní hodnota po svém spuštění.

3. Referenční informace

  • Delphi Digital: Skutečné sloučení

  • Galaxie: Pochopení průniku krypto a AI

Původní odkaz: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analysis-of-upcoming-tokenlaunch-io-net /

Přetištěno komunitou io.net Binance Square, původní autorská práva a odpovědnost za obsah náleží původnímu autorovi Přetištění ze strany io.net a Binance Square neznamená, že potvrzuje nebo podporuje některé nebo všechny názory na přetištěný obsah.