Alex Xu – Mint Ventures

Oryginalny czas publikacji: 2024-04-08 10:23

Oryginalny link: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analytic-of-upcoming-tokenlaunch-io-net /

wstęp

W moim ostatnim artykule wspomniałem, że w porównaniu z poprzednimi dwoma cyklami, w tym cyklu hossy na rynku kryptowalut brakuje wystarczająco wpływowych nowych narracji biznesowych i nowych aktywów. AI to jedna z niewielu nowych narracji w tej rundzie Web3. Autor tego artykułu spróbuje uporządkować moje przemyślenia na temat następujących dwóch kwestii w oparciu o tegoroczny gorący projekt AI IO.NET:

  • Komercyjna konieczność AI+Web3

  • Konieczność i wyzwania usług przetwarzania rozproszonego

Po drugie, autor uporządkuje kluczowe informacje o projekcie IO.NET, reprezentatywnym projekcie rozproszonej mocy obliczeniowej AI, w tym logikę produktu, konkurencyjne produkty i tło projektu, i wyprowadzi wycenę projektu.

Część przemyśleń zawartych w tym artykule na temat połączenia sztucznej inteligencji i Web3 została zainspirowana książką „The Real Merge” napisaną przez badacza Delphi Digital, Michaela Rinko. Niektóre poglądy zawarte w tym artykule zostały przetrawione i zacytowane z artykułu. Czytelnikom zaleca się przeczytanie oryginalnego artykułu.

Ten artykuł jest inscenizowanym myśleniem autora na dzień publikacji. Może on ulec zmianie w przyszłości, a poglądy są wysoce subiektywne. Mogą również zawierać błędy w faktach, danych i rozumowaniu. Prosimy nie używać go jako odniesienia inwestycyjnego Komentarze i dyskusje od innych osób są mile widziane.

Poniżej znajduje się tekst główny.

1. Logika biznesowa: połączenie AI i Web3

1.1 2023: Nowy „cudowny rok” stworzony przez sztuczną inteligencję

Patrząc wstecz na historię rozwoju człowieka, gdy technologia osiągnie przełom, nastąpią wstrząsające zmiany w życiu codziennym poszczególnych osób, w różnych strukturach przemysłowych i w całej cywilizacji ludzkiej.

W historii ludzkości są dwa ważne lata, a mianowicie 1666 i 1905. Obecnie nazywa się je dwoma „cudownymi latami” w historii nauki i technologii.

Rok 1666 uznawany jest za Rok Cudów, ponieważ w tym roku dokonało się skupienie osiągnięć naukowych Newtona. W tym roku otworzył dziedzinę optyki fizycznej, założył matematyczną gałąź rachunku różniczkowego i wyprowadził wzór na grawitację, podstawowe prawo współczesnych nauk przyrodniczych. Każdy z nich w ciągu najbliższych stu lat wniesie fundamentalny wkład w rozwój nauk humanistycznych, znacznie przyspieszając rozwój całej nauki.

Drugim rokiem cudu był rok 1905. W tym czasie Einstein, mając zaledwie 26 lat, opublikował w „Annals of Physics” cztery kolejne artykuły, dotyczące efektu fotoelektrycznego (pokładając podwaliny mechaniki kwantowej) i ruchów Browna (stając się metoda analizy procesów losowych), ważne odniesienia), szczególna teoria względności i równanie masy i energii (czyli słynny wzór E=MC^2). W ocenie późniejszych pokoleń każda z tych czterech prac przekroczyła średni poziom Nagrody Nobla z fizyki (sam Einstein zdobył Nagrodę Nobla także za pracę o efekcie fotoelektrycznym), a historyczny proces cywilizacji ludzkiej po raz kolejny znacznie się pogorszył. zaawansowane. Kilka kroków.

Rok 2023, który właśnie minął, najprawdopodobniej zostanie nazwany kolejnym „rokiem cudów” za sprawą ChatGPT.

Uważamy rok 2023 za „cudowny rok” w historii nauki i technologii ludzkiej, nie tylko ze względu na ogromny postęp GPT w rozumieniu i generowaniu języka naturalnego, ale także dlatego, że ludzie odkryli wzrost możliwości dużych modeli językowych w wyniku ewolucji Zasada GPT – czyli rozbudowując parametry modelu i dane treningowe, można wykładniczo zwiększać możliwości modelu – i w krótkim okresie nie ma wąskiego gardła w tym procesie (o ile moc obliczeniowa jest wystarczająca).

Ta umiejętność jest daleka od rozumienia języka i generowania dialogu. Może być również szeroko stosowana w różnych dziedzinach nauki i technologii. Weźmy na przykład zastosowanie dużych modeli językowych w dziedzinie biologii:

  • W 2018 r. zdobywca Nagrody Nobla w dziedzinie chemii Francis Arnold powiedział podczas ceremonii wręczenia nagród: „Dziś możemy czytać, pisać i edytować dowolną sekwencję DNA w zastosowaniach praktycznych, ale nie możemy jeszcze jej skomponować”. Pięć lat po jego przemówieniu, w 2023 r., badacze z Uniwersytetu Stanforda i startupu Salesforce Research zajmującego się sztuczną inteligencją z Doliny Krzemowej opublikowali artykuł w „Nature-Biotechnology”. Zastosowali duży model językowy, precyzyjnie dostrojony w oparciu o GPT3, aby wyjść z 0. Stworzono milion nowych białek i dwa białka o zupełnie różnych strukturach. , ale oba mają działanie bakteriobójcze, oczekuje się, że oprócz antybiotyków staną się rozwiązaniem do zwalczania bakterii. Innymi słowy: za pomocą sztucznej inteligencji przełamano wąskie gardło w „tworzeniu” białek.

  • Wcześniej algorytm sztucznej inteligencji AlphaFold przewidywał strukturę prawie wszystkich 214 milionów białek na Ziemi w ciągu 18 miesięcy. Wynik ten był setki razy większy od wyników prac wszystkich ludzkich biologów strukturalnych w przeszłości.

Dzięki różnym modelom opartym na sztucznej inteligencji wszystko, od twardych technologii, takich jak biotechnologia, inżynieria materiałowa oraz badania i rozwój leków, po dziedziny humanistyczne, takie jak prawo i sztuka, zapoczątkuje wstrząsające zmiany, a rok 2023 jest pierwszym rokiem tego wszystkiego.

Wszyscy wiemy, że zdolność ludzkości do tworzenia bogactwa wzrosła wykładniczo w ciągu ostatniego stulecia, a szybka dojrzałość technologii sztucznej inteligencji nieuchronnie jeszcze bardziej przyspieszy ten proces.

Wykres trendu światowego PKB, źródło danych: Bank Światowy

1.2 Połączenie sztucznej inteligencji i kryptowalut

Aby zasadniczo zrozumieć konieczność połączenia sztucznej inteligencji i kryptowalut, możemy zacząć od uzupełniających się cech tych dwóch.

Uzupełniające się funkcje AI i Crypto

AI ma trzy atrybuty:

  • Losowość: sztuczna inteligencja jest losowa. Za mechanizmem tworzenia treści kryje się czarna skrzynka, którą trudno odtworzyć i wykryć, dlatego też wyniki są losowe.

  • Zasobochłonna: sztuczna inteligencja to branża wymagająca dużych zasobów, wymagająca dużej ilości energii, chipów i mocy obliczeniowej.

  • Inteligencja podobna do ludzkiej: sztuczna inteligencja (wkrótce) będzie w stanie przejść test Turinga, a potem ludzi będzie nie do odróżnienia od maszyn*

※30 października 2023 r. zespół badawczy Uniwersytetu Kalifornijskiego w San Diego opublikował wyniki testu Turinga (raport z testu) na GPT-3.5 i GPT-4.0. Wynik GPT4.0 wynosi 41%, czyli tylko 9% od granicy pozytywnej wynoszącej 50%. Wynik testu tego samego projektu na ludziach wynosi 63%. Znaczenie tego testu Turinga pokazuje, ile procent ludzi uważa, że ​​osoba, z którą rozmawiają, jest prawdziwą osobą. Jeśli przekracza 50%, oznacza to, że co najmniej połowa zgromadzonych osób uważa, że ​​rozmówcą jest człowiek, a nie maszyna, co uznaje się za spełniające test Turinga.

Chociaż sztuczna inteligencja zapewnia ludzkości skok do przodu, jej trzy atrybuty stwarzają również ogromne wyzwania dla społeczeństwa ludzkiego, a mianowicie:

  • Jak weryfikować i kontrolować losowość AI, aby losowość stała się zaletą, a nie wadą

  • Jak sprostać ogromnej luce w zakresie energii i mocy obliczeniowej wymaganej przez sztuczną inteligencję

  • Jak odróżnić ludzi od maszyn

Charakterystyka kryptowalut i gospodarki blockchain może być właściwym lekarstwem, aby sprostać wyzwaniom stawianym przez sztuczną inteligencję. Gospodarka kryptograficzna ma następujące trzy cechy:

  • Determinizm: biznes działa w oparciu o blockchain, kod i inteligentne kontrakty. Zasady i granice są jasne. To, co zostanie wprowadzone, zapewni wysoki stopień pewności.

  • Efektywna alokacja zasobów: Krypto-gospodarka zbudowała ogromny globalny wolny rynek. Wycena, gromadzenie i obrót zasobami są bardzo szybkie, a dzięki istnieniu tokenów można zastosować zachęty w celu przyspieszenia dopasowania podaży i popytu na rynku i przyspieszyć dotarcie do punktów krytycznych.

  • Bez zaufania: księga jest otwarta, kod jest open source i każdy może go łatwo zweryfikować, tworząc system „bez zaufania”, podczas gdy technologia ZK pozwala uniknąć narażenia prywatności w tym samym czasie co weryfikacja

Następnie zostaną użyte trzy przykłady, aby zilustrować komplementarność sztucznej inteligencji i kryptowaluty.

Przykład A: Rozwiązywanie losowości, agent AI oparty na kryptoekonomii

AI Agent to program sztucznej inteligencji odpowiedzialny za wykonywanie pracy dla człowieka w oparciu o ludzką wolę (reprezentatywne projekty to Fetch.AI). Załóżmy, że chcemy, aby nasz agent AI przetworzył transakcję finansową, np. „Kup 1000 dolarów w BTC”. Agenci AI mogą spotkać się z dwiema sytuacjami:

Scenariusz 1: Chce połączyć się z tradycyjnymi instytucjami finansowymi (takimi jak BlackRock) i zakupić fundusze ETF BTC. Stoi przed dużą liczbą problemów adaptacyjnych pomiędzy agentami AI a instytucjami scentralizowanymi, takimi jak KYC, przegląd informacji, logowanie, weryfikacja tożsamości itp. W tej chwili jest to nadal bardzo kłopotliwe.

Scenariusz 2: Działa w oparciu o natywną ekonomię szyfrowania, a sytuacja stanie się znacznie prostsza, bezpośrednio użyje Twojego konta do podpisania i złożenia zlecenia w celu sfinalizowania transakcji za pośrednictwem Uniswap lub zagregowanej platformy handlowej i otrzymania WBTC (lub innego). enkapsulacja) w formacie BTC), cały proces jest szybki i łatwy. W rzeczywistości tym właśnie zajmują się różne Trading BOTy. W rzeczywistości pełniły rolę młodszego agenta AI, ale ich praca koncentruje się na handlu. W przyszłości, wraz z integracją i ewolucją sztucznej inteligencji, różne typy BOT-ów handlowych nieuchronnie będą w stanie realizować bardziej złożone intencje handlowe. Na przykład: śledź 100 adresów Smart Money w sieci, przeanalizuj ich strategie handlowe i wskaźniki sukcesu, wykorzystaj 10% środków znajdujących się na moim adresie na wykonanie podobnych transakcji w ciągu tygodnia i zatrzymaj się, gdy efekt nie jest dobry, i podsumuj możliwość przyczyny niepowodzenia.

Sztuczna inteligencja będzie działać lepiej w systemie blockchain, głównie ze względu na przejrzystość zasad kryptoekonomicznych i dostęp do systemu bez pozwolenia. Wykonując zadania według ograniczonych zasad, potencjalne ryzyko, jakie niesie ze sobą losowość sztucznej inteligencji, również będzie mniejsze. Na przykład wyniki sztucznej inteligencji w konkursach szachowych i karcianych oraz w grach wideo przewyższyły ludzi, ponieważ gry w szachy i karty to zamknięte piaskownice z jasnymi zasadami. Postęp sztucznej inteligencji w jeździe autonomicznej będzie stosunkowo powolny, ponieważ wyzwania otwartego środowiska zewnętrznego są większe i trudniej jest nam tolerować losowość problemów z przetwarzaniem AI.

Przykład B: Kształtowanie zasobów i gromadzenie zasobów poprzez symboliczne zachęty

Obecna całkowita moc obliczeniowa globalnej sieci mocy obliczeniowej stojącej za BTC (Hashrate: 576,70 EH/s) przekracza wszechstronną moc obliczeniową superkomputerów w dowolnym kraju. Motywacja do rozwoju opiera się na prostych i uczciwych zachętach sieciowych.

Trend mocy obliczeniowej sieci BTC, źródło: https://www.coinwarz.com/

Ponadto projekty DePIN, w tym Mobile, również próbują wykorzystywać symboliczne zachęty do kształtowania dwustronnego rynku po obu stronach podaży i popytu, aby osiągnąć efekty sieciowe. IO.NET, na którym skupimy się w dalszej części artykułu, to platforma zaprojektowana do gromadzenia mocy obliczeniowej AI. Można mieć nadzieję, że dzięki modelowi tokenowemu zostanie pobudzony większy potencjał mocy obliczeniowej AI.

Przykład C: Kod open source, wprowadzenie ZK, rozróżnienie ludzi i maszyn przy jednoczesnej ochronie prywatności

Jako projekt Web3, w którym uczestniczy założyciel OpenAI Sam Altman, Worldcoin wykorzystuje urządzenie sprzętowe Orb do generowania ekskluzywnych i anonimowych wartości skrótu w oparciu o biometrię ludzkiej tęczówki i technologię ZK w celu weryfikacji tożsamości i rozróżnienia ludzi od maszyn. Na początku marca tego roku projekt artystyczny Web3 Drip zaczął używać identyfikatorów Worldcoin do weryfikacji prawdziwych użytkowników i przyznawania nagród.

Ponadto firma Worldcoin niedawno udostępniła na zasadach open source kod programu swojego sprzętu iris Orb, aby zapewnić gwarancje bezpieczeństwa i prywatności danych biometrycznych użytkowników.

Ogólnie rzecz biorąc, ze względu na pewność kodu i kryptografii, zalety obiegu zasobów i pozyskiwania funduszy wynikające z mechanizmu bezpozwoleń i tokenów oraz atrybuty zaufania oparte na otwartym kodzie źródłowym i księgach publicznych, gospodarka kryptograficzna stała się głównym wyzwaniem dla sztucznej inteligencji społeczeństwo ludzkie. Ważne potencjalne rozwiązanie.

Wśród nich najpilniejszym wyzwaniem związanym z największym popytem komercyjnym jest skrajny głód produktów AI w zasobach obliczeniowych, związany z ogromnym zapotrzebowaniem na chipy i moc obliczeniową.

Jest to również główny powód, dla którego wzrost projektów dotyczących rozproszonej mocy obliczeniowej przekracza ogólną ścieżkę sztucznej inteligencji w obecnym cyklu hossy.


Biznesowa konieczność zdecentralizowanych obliczeń

Sztuczna inteligencja wymaga ogromnych zasobów obliczeniowych, zarówno do uczenia modeli, jak i do przeprowadzania wnioskowań.

W praktyce szkoleniowej dużych modeli językowych potwierdzono jeden fakt: dopóki skala parametrów danych będzie wystarczająco duża, pojawią się duże modele językowe z pewnymi możliwościami, które wcześniej nie były dostępne. Wykładniczy skok możliwości każdej generacji GPT w porównaniu z poprzednią generacją wynika z wykładniczego wzrostu ilości obliczeń wymaganych do uczenia modeli.

Badania przeprowadzone przez DeepMind i Uniwersytet Stanforda pokazują, że gdy różne duże modele językowe stają przed różnymi zadaniami (operacje, odpowiadanie na pytania w języku perskim, rozumienie języka naturalnego itp.), wystarczy jedynie zwiększyć rozmiar parametrów modelu podczas uczenia modelu (odpowiednio uczenie The ilość obliczeń również wzrosła), dopóki ilość uczenia nie osiągnie 10^22 FLOPów (FLOPy odnoszą się do operacji zmiennoprzecinkowych na sekundę, używanych do pomiaru wydajności obliczeniowej), wydajność każdego zadania jest prawie taka sama jak przy losowym udzielaniu odpowiedzi. ; A gdy skala parametrów przekroczy wartość krytyczną tej skali, wydajność zadania znacznie się poprawia, niezależnie od modelu językowego.

Książka: Wschodzące możliwości dużych modeli językowych

Książka: Wschodzące możliwości dużych modeli językowych

To także weryfikacja prawa i praktyki „wielkich cudów” mocy obliczeniowej skłoniła założyciela OpenAI Sama Altmana do zaproponowania zebrania 7 bilionów dolarów na budowę zaawansowanej fabryki chipów 10 razy większej niż obecne rozmiary TSMC (ta część Ma kosztować 1,5 biliona dolarów), a pozostałe środki wykorzystać na produkcję chipów i szkolenie modeli.

Oprócz mocy obliczeniowej potrzebnej do uczenia modeli AI, proces wnioskowania samego modelu wymaga również dużej mocy obliczeniowej (choć ilość obliczeń jest mniejsza niż w przypadku uczenia), więc głód chipów i mocy obliczeniowej stał się głównym czynnikiem uczestnictwa w normalnym stanie osoby na ścieżce AI.

W porównaniu ze scentralizowanymi dostawcami mocy obliczeniowej AI, takimi jak Amazon Web Services, Google Cloud Platform, Microsoft Azure itp., główne propozycje wartości rozproszonego przetwarzania AI obejmują:

  • Dostępność: uzyskanie dostępu do chipów obliczeniowych za pomocą usług w chmurze, takich jak AWS, GCP lub Azure, często zajmuje tygodnie, a popularne modele procesorów graficznych są często niedostępne. Ponadto, aby pozyskać moc obliczeniową, konsumenci często muszą podpisywać długoterminowe, sztywne umowy z tymi dużymi firmami. Rozproszona platforma obliczeniowa może zapewnić elastyczny wybór sprzętu i większą dostępność.

  • Niskie ceny: Ze względu na wykorzystanie bezczynnych chipów i dotacje tokenowe zapewniane przez stronę protokołu sieciowego dostawcom chipów i mocy obliczeniowej, rozproszona sieć mocy obliczeniowej może być w stanie zapewnić tańszą moc obliczeniową.

  • Odporność na cenzurę: obecnie najnowocześniejsze chipy i zasilacze mocy obliczeniowej są monopolizowane przez duże firmy technologiczne, a rząd reprezentowany przez Stany Zjednoczone wzmaga kontrolę nad możliwością dystrybucji mocy obliczeniowej AI w sposób elastyczny i swobodny Stopniowo staje się to wyraźnym żądaniem, jest to również podstawowa propozycja wartości platformy usług mocy obliczeniowej opartej na web3.

Jeśli energia kopalna jest krwią ery przemysłowej, to moc obliczeniowa może być krwią nowej ery cyfrowej otwartej przez sztuczną inteligencję, a podaż mocy obliczeniowej stanie się infrastrukturą ery sztucznej inteligencji. Tak jak monety typu stablecoin stały się kwitnącą gałęzią legalnej waluty w erze Web3, czy rynek rozproszonej mocy obliczeniowej stanie się boczną gałęzią szybko rosnącego rynku mocy obliczeniowej AI?

Ponieważ jest to wciąż dość wczesny rynek, wszystko dopiero się okaże. Jednakże następujące czynniki mogą stymulować narrację lub przyjęcie przez rynek rozproszonej mocy obliczeniowej:

  • Podaż i popyt na procesory graficzne są nadal wysokie. Utrzymująca się ograniczona podaż procesorów graficznych może skłonić niektórych programistów do wypróbowania platform przetwarzania rozproszonego.

  • Ekspansja regulacyjna. Jeśli chcesz uzyskać usługi mocy obliczeniowej AI z dużej platformy mocy obliczeniowej w chmurze, musisz przejść KYC i warstwy recenzji. Zamiast tego może to sprzyjać przyjmowaniu rozproszonych platform obliczeniowych, zwłaszcza w obszarach podlegających ograniczeniom i sankcjom.

  • Tokenowy bodziec cenowy. Wzrost cen tokenów podczas cyklu hossy zwiększy wartość dotacji platformy dla strony podaży GPU, przyciągając w ten sposób więcej dostawców do wejścia na rynek, zwiększając wielkość rynku i obniżając rzeczywistą cenę zakupu dla konsumentów.

Ale jednocześnie wyzwania związane z rozproszonymi platformami obliczeniowymi są również dość oczywiste:

  • Wyzwania techniczne i inżynieryjne

    • Problem weryfikacji pracy: Ze względu na hierarchiczną strukturę obliczeń modelu głębokiego uczenia, wynik każdej warstwy służy jako wejście kolejnej warstwy, dlatego weryfikacja poprawności obliczeń wymaga wykonania wszystkich wcześniejszych prac, które nie da się łatwo i skutecznie zweryfikować. Aby rozwiązać ten problem, rozproszone platformy obliczeniowe muszą opracować nowe algorytmy lub zastosować przybliżone techniki weryfikacji, które mogą zapewnić probabilistyczne gwarancje poprawności wyników, a nie absolutną pewność.

    • Problem równoległości: platforma rozproszonej mocy obliczeniowej gromadzi podaż chipów z długim ogonem, co oznacza, że ​​moc obliczeniowa dostarczana przez pojedyncze urządzenie jest stosunkowo ograniczona. Pojedynczy dostawca chipów może niemal ukończyć zadania szkoleniowe lub wnioskowania modelu AI samodzielnie w krótkim czasie. Dlatego do demontażu i rozdzielenia zadań należy zastosować równoległość, aby skrócić całkowity czas realizacji. Równoległość nieuchronnie napotka szereg problemów, takich jak dekompozycja zadań (szczególnie złożonych zadań głębokiego uczenia się), zależności danych i dodatkowe koszty komunikacji między urządzeniami.

    • Kwestia ochrony prywatności: Jak zadbać o to, aby dane i modele kupującego nie zostały ujawnione odbiorcy zadania?

  • Wyzwania związane ze zgodnością z przepisami

    • Rozproszona platforma obliczeniowa może zostać wykorzystana jako atut w celu przyciągnięcia niektórych klientów ze względu na niewymagający pozwolenia charakter dwustronnego rynku dostaw i zamówień. Z drugiej strony w miarę ulepszania standardów regulacyjnych dotyczących sztucznej inteligencji może ona stać się celem sprostowań ze strony rządu. Ponadto niektórzy dostawcy procesorów graficznych martwią się również tym, czy wynajmowane przez nich zasoby obliczeniowe są udostępniane firmom lub osobom fizycznym objętym sankcjami.

Ogólnie rzecz biorąc, większość konsumentów rozproszonych platform obliczeniowych to profesjonalni programiści lub małe i średnie instytucje. W przeciwieństwie do inwestorów zajmujących się kryptowalutami, którzy kupują kryptowaluty i NFT, użytkownicy ci mają ograniczoną wiedzę na temat usług, jakie może zapewnić protokół. Istnieją wyższe wymagania dotyczące stabilności i zrównoważony rozwój, a cena może nie być główną motywacją przy podejmowaniu decyzji. Obecnie rozproszone platformy obliczeniowe mają przed sobą jeszcze długą drogę, aby zyskać uznanie takich użytkowników.

Następnie uporządkowaliśmy i przeanalizowaliśmy informacje o projekcie IO.NET, nowego projektu rozproszonej mocy obliczeniowej w tym cyklu, i na podstawie bieżących projektów AI i projektów obliczeń rozproszonych w tej samej ścieżce na rynku obliczyliśmy jego możliwy potencjał rynkowy po jego uruchomieniu.

2. Rozproszona platforma mocy obliczeniowej AI: IO.NET

2.1 Pozycjonowanie projektu

IO.NET to zdecentralizowana sieć obliczeniowa, która buduje dwustronny rynek wokół chipów. Strona podaży to moc obliczeniowa chipów dystrybuowanych na całym świecie (głównie procesorów graficznych, ale także procesorów i iGPU firmy Apple itp.) oraz strona popytowa. ma nadzieję ukończyć inżynierów sztucznej inteligencji do zadań związanych ze szkoleniem modeli AI lub wnioskowaniem.

Na oficjalnej stronie IO.NET pisze:

Nasza misja

Połączenie miliona procesorów graficznych w DePIN – zdecentralizowaną sieć infrastruktury fizycznej.

Jej misją jest integracja milionów procesorów graficznych z siecią DePIN.

W porównaniu z istniejącymi dostawcami usług mocy obliczeniowej AI w chmurze, główne zalety tej firmy to:

  • Elastyczna kombinacja: inżynierowie AI mogą swobodnie wybierać i łączyć potrzebne chipy, tworząc „klaster” umożliwiający realizację własnych zadań obliczeniowych.

  • Szybkie wdrożenie: nie ma potrzeby tygodni zatwierdzania i czekania (obecnie sytuacja ma miejsce w przypadku scentralizowanych dostawców, takich jak AWS), wdrożenie można zakończyć i rozpocząć zadania w ciągu kilkudziesięciu sekund

  • Niskie ceny usług: Koszt usług jest o 90% niższy niż w przypadku głównych producentów

Ponadto IO.NET planuje w przyszłości uruchomienie sklepu z modelami AI i innych usług.

2.2 Mechanizm produktu i dane biznesowe

Mechanizm produktu i doświadczenie wdrożeniowe

Podobnie jak Amazon Cloud, Google Cloud i Alibaba Cloud, usługa obliczeniowa świadczona przez IO.NET nazywa się IO Cloud. IO Cloud to rozproszona, zdecentralizowana sieć chipów zdolna do wykonywania kodu uczenia maszynowego opartego na Pythonie oraz uruchamiania programów AI i uczenia maszynowego.

Podstawowy moduł biznesowy IO Cloud nosi nazwę Klastry. Klastry to grupa procesorów graficznych, które mogą samokoordynować się w celu wykonania zadań obliczeniowych. Inżynierowie sztucznej inteligencji mogą dostosować żądany klaster do własnych potrzeb.

Interfejs produktu IO.NET jest bardzo przyjazny dla użytkownika. Jeśli chcesz wdrożyć własny klaster chipów w celu wykonania zadań obliczeniowych AI, po wejściu na stronę produktu Clusters możesz rozpocząć konfigurowanie wymaganego klastra chipów.

Informacje o stronie: https://cloud.io.net/cloud/clusters/create-cluster, to samo poniżej

Najpierw musisz wybrać własny scenariusz misji. Obecnie do wyboru są trzy typy misji:

  1. Ogólne: zapewnia bardziej ogólne środowisko, odpowiednie dla wczesnych etapów projektu, gdy konkretne wymagania dotyczące zasobów są niepewne.

  2. Pociąg: klaster przeznaczony do uczenia i dostrajania modeli uczenia maszynowego. Ta opcja może zapewnić więcej zasobów procesora graficznego, większą pojemność pamięci i/lub szybsze połączenia sieciowe do obsługi intensywnych zadań obliczeniowych.

  3. Wnioskowanie: klaster zaprojektowany do wnioskowania o małych opóźnieniach i dużych obciążeń. W kontekście uczenia maszynowego wnioskowanie oznacza wykorzystanie wyszkolonego modelu do prognozowania lub analizowania nowych danych i przekazywania informacji zwrotnych. Dlatego ta opcja będzie koncentrować się na optymalizacji opóźnień i przepustowości w celu obsługi przetwarzania danych w czasie rzeczywistym lub prawie w czasie rzeczywistym.

Następnie należy wybrać dostawcę klastra chipów. Obecnie IO.NET nawiązał współpracę z siecią wydobywczą Render Network i Filecoin, dzięki czemu użytkownicy mogą wybrać IO.NET lub chipy z pozostałych dwóch sieci jako dostawcę własnego klastra obliczeniowego. . Jest to odpowiednik IO.NET pełniącego rolę agregatora (jednak w momencie pisania tego artykułu usługa Filecon jest tymczasowo wyłączona). Warto wspomnieć, że według strony liczba dostępnych procesorów graficznych dla IO.NET wynosi obecnie ponad 200 000, natomiast liczba dostępnych procesorów graficznych dla Render Network wynosi ponad 3700.

Następnie wkraczamy w proces wyboru sprzętu w postaci układu klastra. Obecnie jedynymi typami sprzętu wymienianymi przez IO.NET do wyboru są procesory graficzne, z wyłączeniem procesorów CPU lub iGPU firmy Apple (M1, M2 itp.), a procesory graficzne to głównie produkty NVIDIA.

Wśród oficjalnie wymienionych i dostępnych opcji sprzętowych GPU, według danych testowych autora z dnia, liczba dostępnych procesorów graficznych w sieci IO.NET wynosi 206 001. Wśród nich najwięcej dostępnych danych ma GeForce RTX 4090 (45 250 zdjęć), a na drugim miejscu znajduje się GeForce RTX 3090 Ti (30 779 zdjęć).

Ponadto chip A100-SXM4-80GB (cena rynkowa ponad 15 000 dolarów), który jest bardziej wydajny w przetwarzaniu zadań obliczeniowych AI, takich jak uczenie maszynowe, głębokie uczenie się i obliczenia naukowe, ma 7965 zdjęć w Internecie.

Karta graficzna NVIDIA H100 80 GB HBM3 (cena rynkowa ponad 40 000 USD), która od początku projektowania sprzętu została specjalnie zaprojektowana dla sztucznej inteligencji, ma wydajność uczenia 3,3 razy większą niż A100 i wydajność wnioskowania 4,5 razy większą niż A100, a rzeczywista liczba obrazów online wynosi 86.

Po wybraniu typu sprzętu klastra użytkownik musi także wybrać region klastra, prędkość komunikacji, liczbę i czas wynajmowanych procesorów graficznych oraz inne parametry.

Na koniec IO.NET wystawi Ci rachunek na podstawie kompleksowych wyborów. Weźmy za przykład autorską konfigurację klastra:

  • Ogólny scenariusz zadania

  • 16 układów A100-SXM4-80GB

  • Maksymalna prędkość połączenia (Ultra High Speed)

  • Lokalizacja Stany Zjednoczone

  • Okres wynajmu wynosi 1 tydzień

Całkowita cena rachunku wynosi 3311,6 $, a godzinowa cena wynajmu jednej karty to 1,232 $

Ceny godzinowego wynajmu jednej karty A100-SXM4-80GB w Amazon Cloud, Google Cloud i Microsoft Azure wynoszą odpowiednio 5,12 $, 5,07 $ i 3,67 $ (źródło danych: https://cloud-gpus.com/, rzeczywista cena będzie opierać się na szczegółach Umowy i zmianie warunków).

Dlatego też, biorąc pod uwagę samą cenę, moc obliczeniowa chipów IO.NET jest w rzeczywistości znacznie tańsza niż w przypadku głównych producentów, a kombinacja dostaw i zakupów jest również bardzo elastyczna, a rozpoczęcie operacji jest również łatwe.

Warunki biznesowe

Sytuacja po stronie podaży

Według oficjalnych danych na dzień 4 kwietnia br. całkowita podaż procesorów graficznych IO.NET po stronie podaży wyniosła 371 027, a podaż procesorów – 42 321. Ponadto Render Network jest jego partnerem, a do zasilania sieciowego podłączonych jest 9997 procesorów graficznych i 776 procesorów.

Źródło danych: https://cloud.io.net/explorer/home, to samo poniżej

Kiedy autor pisał ten artykuł, 214 387 z całkowitej liczby procesorów graficznych podłączonych do IO.NET było w trybie online, a wskaźnik online osiągnął 57,8%. Szybkość online procesora graficznego z Render Network wynosi 45,1%.

Co oznaczają powyższe dane po stronie podaży?

Dla porównania przedstawiamy Akash Network, kolejny uznany projekt przetwarzania rozproszonego, który jest dostępny w Internecie od dłuższego czasu.

Akash Network uruchomiła swoją sieć główną już w 2020 roku, początkowo koncentrując się na usługach rozproszonych w zakresie procesorów i pamięci masowej. W czerwcu 2023 roku uruchomiła sieć testową usług GPU, a we wrześniu tego samego roku uruchomiła główną sieć rozproszonej mocy obliczeniowej GPU.

Źródło danych: https://stats.akash.network/provider-graph/graphics-gpu

Według oficjalnych danych Akash, od momentu uruchomienia swojej sieci GPU, choć strona podażowa stale rośnie, łączna liczba połączeń GPU na razie wynosi zaledwie 365.

Sądząc po podaży procesorów graficznych, IO.NET jest o kilka rzędów wielkości wyższy niż sieć Akash i jest już największą siecią dostawczą w rozproszonym obwodzie mocy obliczeniowej GPU.

Sytuacja po stronie popytowej

Jednak od strony popytowej IO.NET jest wciąż na wczesnym etapie rozwoju rynku. Obecnie łączna liczba rzeczywistych użytkowników korzystających z IO.NET do wykonywania zadań obliczeniowych nie jest duża. Obciążenie większości procesorów graficznych online wynosi 0% i tylko cztery chipy – A100 PCIe 80 GB K8S, RTX A6000 K8S, RTX A4000 K8S i H100 80 GB HBM3 – wykonują zadania przetwarzania. Z wyjątkiem A100 PCIe 80 GB K8S, nośność pozostałych trzech układów jest mniejsza niż 20%.

Oficjalna wartość ciśnienia sieciowego podana tego dnia wynosiła 0%, co oznacza, że ​​większość dostawców chipów znajduje się w stanie gotowości online.

Jeśli chodzi o skalę kosztów sieci, IO.NET poniósł opłaty za usługi w wysokości 586 029 $, a koszt poprzedniego dnia wyniósł 3200 $.

Źródło danych: https://cloud.io.net/explorer/clusters

Skala powyższych opłat za rozliczenia sieci, zarówno pod względem całkowitej kwoty, jak i dziennego wolumenu transakcji, jest tego samego rzędu wielkości co Akash, jednak większość przychodów sieci Akash pochodzi z części CPU, a podaż procesora Akash jest większa 20 000.

Źródło danych: https://stats.akash.network/

Ponadto IO.NET ujawnił również dane biznesowe dotyczące zadań wnioskowania AI przetwarzanych przez sieć. Do tej pory przetworzył i zweryfikował ponad 230 000 zadań wnioskowania, jednak większość tego wolumenu biznesowego jest generowana przez projekt sponsorowany przez IO.NET BC8.AI.

Źródło danych: https://cloud.io.net/explorer/inferences

Sądząc po bieżących danych biznesowych, strona podażowa IO.NET rozwija się płynnie. Pod wpływem oczekiwań dotyczących zrzutów i działań społeczności o kryptonimie „Ignition” szybko zgromadziła dużą ilość mocy obliczeniowej chipów AI. Jej ekspansja po stronie popytowej jest jeszcze w początkowej fazie, a popyt organiczny jest obecnie niewystarczający. Jeśli chodzi o obecne niedociągnięcia po stronie popytu, należy to jeszcze ocenić, niezależnie od tego, czy wynikają one z faktu, że ekspansja po stronie konsumentów jeszcze się nie rozpoczęła, czy też z tego, że obecne doświadczenia w zakresie usług nie są jeszcze stabilne i w związku z tym nie są stosowane na dużą skalę.

Biorąc jednak pod uwagę, że lukę w mocy obliczeniowej sztucznej inteligencji trudno wypełnić w krótkim okresie, istnieje duża liczba inżynierów i projektów zajmujących się sztuczną inteligencją szuka alternatyw i może być zainteresowana zdecentralizowanymi dostawcami usług. Ponadto IO.NET nie jest zainteresowany dotychczas zrealizowany rozwój gospodarczy po stronie popytu. Wraz z stymulacją działalności, stopniową poprawą doświadczenia związanego z produktami, a następnie stopniowym dopasowywaniem podaży i popytu, nadal warto z niecierpliwością czekać.

2.3 Tło zespołu i sytuacja finansowa

Sytuacja w drużynie

Główny zespół IO.NET powstał w branży handlu ilościowego. Przed czerwcem 2022 r. skupiał się na opracowywaniu systemów handlu ilościowego na poziomie instytucjonalnym dla akcji i aktywów kryptograficznych. Ze względu na zapotrzebowanie na moc obliczeniową w backendzie systemu, zespół zaczął badać możliwość zdecentralizowanego przetwarzania, by w końcu skupić się na konkretnej kwestii, jaką jest zmniejszenie kosztów usług obliczeniowych GPU.

Założyciel i dyrektor generalny: Ahmad Shadid

Ahmad Shadid był zaangażowany w prace związane z inżynierią ilościową i finansową przed IO.NET, a także jest wolontariuszem w Fundacji Ethereum.

CMO i dyrektor ds. strategii: Garrison Yang

Garrison Yang oficjalnie dołączył do IO.NET w marcu tego roku. Wcześniej był wiceprezesem ds. strategii i rozwoju w Avalanche i ukończył Uniwersytet Kalifornijski w Santa Barbara.

Dyrektor operacyjny: Tory Green

Tory Green jest dyrektorem operacyjnym io.net. Wcześniej był dyrektorem operacyjnym Hum Capital, dyrektorem ds. rozwoju korporacyjnego i strategii w Fox Mobile Group. Jest absolwentem Uniwersytetu Stanforda.

Sądząc po informacjach IO.NET na Linkedin, siedziba zespołu znajduje się w Nowym Jorku w USA, a oddział w San Francisco. Obecnie zespół liczy ponad 50 osób.

Sytuacja finansowa

IO.NET ujawnił jak dotąd tylko jedną rundę finansowania, tj. finansowanie Serii A zakończone w marcu tego roku o wycenie 1 miliarda USD, w ramach którego pozyskano łącznie 30 milionów USD, pod przewodnictwem Hack VC i innych uczestniczących inwestorów obejmują między innymi Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continuous Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures i ArkStream Capital.

Warto wspomnieć, że być może dzięki inwestycji otrzymanej od Fundacji Aptos, projekt BC8.AI, który pierwotnie służył do rozliczeń i księgowości na Solanie, został przekonwertowany na ten sam, wysokowydajny L1 Aptos.

2.4 Kalkulacja wyceny

Według poprzedniego założyciela i dyrektora generalnego Ahmada Shadida, IO.NET uruchomi token pod koniec kwietnia.

IO.NET ma dwa projekty docelowe, które można wykorzystać jako punkt odniesienia do wyceny: Render Network i Akash Network, oba są reprezentatywnymi projektami przetwarzania rozproszonego.

Przedział wartości rynkowej IO.NET możemy wydedukować na dwa sposoby: 1. Stosunek rynku do sprzedaży, czyli: stosunek wartości rynkowej do przychodów; 2. Stosunek wartości rynkowej do liczby chipów sieciowych.

Przyjrzyjmy się najpierw odliczeniu z wyceny na podstawie stosunku ceny do sprzedaży:

Z punktu widzenia stosunku ceny do sprzedaży, Akash może być stosowany jako dolna granica zakresu wyceny IO.NET, podczas gdy Render może być stosowany jako wysokiej klasy punkt odniesienia dla wyceny, z zakresem FDV od 1,67 miliarda USD do 5,93 miliarda dolarów.

Biorąc jednak pod uwagę aktualizację projektu IO.NET, narrację jest gorętszą, w połączeniu z mniejszą wartością rynkową wczesnego nakładu i obecną większą skalą po stronie podaży, prawdopodobieństwo, że jego FDV przewyższy Render, nie jest małe.

Przyjrzyjmy się innemu kątowi porównania wycen, a mianowicie „stosunkowi ceny do rdzenia”.

W kontekście rynkowym, gdzie zapotrzebowanie na moc obliczeniową AI przewyższa podaż, najważniejszym elementem rozproszonej sieci mocy obliczeniowej AI jest skala strony podaży GPU. Dlatego możemy dokonać porównania horyzontalnego z „market-to-core”. współczynnik” i użyj „całkowitej wartości rynkowej projektu i liczby chipów w sieci „Quantity Ratio”, aby wywnioskować możliwy zakres wyceny IO.NET, który czytelnicy będą mogli wykorzystać jako odniesienie wartości rynkowej.

Jeśli zakres wartości rynkowej IO.NET jest obliczany na podstawie stosunku rynku do rdzenia, IO.NET używa stosunku rynku do rdzenia Render Network jako górnego limitu i Akash Network jako dolnego limitu wynosi od 20,6 miliardów dolarów do 197,5 miliardów dolarów.

Wierzę, że niezależnie od tego, jak optymistycznie podchodzą czytelnicy do projektu IO.NET, pomyślą, że jest to niezwykle optymistyczna kalkulacja wartości rynkowej.

Musimy także wziąć pod uwagę, że obecna liczba ogromnej liczby chipów online IO.NET jest stymulowana oczekiwaniami dotyczącymi zrzutów i działaniami motywacyjnymi. Rzeczywistą liczbę chipów online po stronie podaży należy nadal obserwować po oficjalnym uruchomieniu projektu .

Dlatego też, generalnie, kalkulacje wyceny z perspektywy relacji ceny do sprzedaży mogą dawać więcej informacji.

Jako projekt o potrójnej aurze ekologii AI+DePIN+Solana, IO.NET poczeka i zobaczy, jaka będzie jego wartość rynkowa po uruchomieniu.

3. Informacje referencyjne

  • Delphi Digital: Prawdziwe połączenie

  • Galaxy: Zrozumienie skrzyżowania kryptowalut i sztucznej inteligencji

Oryginalny link: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analytic-of-upcoming-tokenlaunch-io-net /

Przedrukowany przez społeczność io.net Binance Square. Pierwotne prawa autorskie i odpowiedzialność za treść należą do pierwotnego autora. Przedruk dokonany przez io.net i Binance Square nie oznacza, że ​​potwierdza lub wspiera niektóre lub wszystkie poglądy przedrukowanej treści.