tło

Wraz z uruchomieniem GPT 4 LLM przez OpenAI, zaobserwowano potencjał różnych modeli AI Text-to-Image. Aplikacje oparte na dojrzałych modelach AI rosną z dnia na dzień, a zapotrzebowanie na zasoby obliczeniowe, takie jak procesory graficzne, rośnie.

GPU Utils W artykule z 2023 roku omawiającym sytuację podaży i popytu na procesor graficzny Nvidia H 100 wskazano, że duże przedsiębiorstwa zaangażowane w biznes AI mają duży popyt na procesory graficzne. Giganci technologiczni, tacy jak Meta, Tesla i Google, kupili dużą liczbę procesorów graficznych Procesory graficzne Nvidia do budowy centrum danych dla sztucznej inteligencji. Meta ma około 21 000 procesorów graficznych A 100, Tesla ma około 7 000 procesorów graficznych A 100, a Google również znacząco inwestuje w procesory graficzne w swoich centrach danych, chociaż nie podano konkretnych liczb. Zapotrzebowanie na procesory graficzne, zwłaszcza H 100, stale rośnie, napędzane potrzebą szkolenia dużych modeli językowych (LLM) i innych aplikacji AI.

Jednocześnie, według danych Statisty, wielkość rynku sztucznej inteligencji wzrosła ze 134,8 miliarda w 2022 r. do 241,8 miliarda w 2023 r. i ma osiągnąć 738,7 miliarda w 2030 r., wzrosła także wartość rynku usług w chmurze około 14% z 633 miliardów, wśród których jest wiele. Częściowo przypisuje się to szybko rosnącemu zapotrzebowaniu na moc obliczeniową GPU na rynku sztucznej inteligencji.

W przypadku rynku sztucznej inteligencji, który szybko rośnie i zawiera ogromny potencjał, pod jakim kątem możemy zdekonstruować i zbadać powiązane punkty wejścia inwestycyjnego? Na podstawie raportu IBM podsumowaliśmy infrastrukturę wymaganą do tworzenia i wdrażania aplikacji i rozwiązań opartych na sztucznej inteligencji. Można powiedzieć, że infrastruktura AI istnieje głównie po to, aby przetwarzać i optymalizować dużą liczbę zbiorów danych i zasobów obliczeniowych wykorzystywanych w modelach szkoleniowych. Rozwiązuje problemy wydajności przetwarzania zbiorów danych, niezawodności modeli i skalowalności aplikacji zarówno od strony sprzętowej, jak i programowej. .

Modele i aplikacje szkoleniowe AI wymagają dużej ilości zasobów obliczeniowych, preferując środowiska chmurowe o niskim opóźnieniu i moc obliczeniową GPU. Stos oprogramowania obejmuje również rozproszone platformy obliczeniowe (Apache Spark/Hadoop). Spark rozdziela przepływy pracy, które muszą zostać przetworzone, w dużych klastrach obliczeniowych i ma wbudowaną równoległość i konstrukcję odporną na awarie. Naturalna zdecentralizowana konstrukcja blockchainu uczyniła rozproszone węzły normą, a mechanizm konsensusu POW stworzony przez BTC ustalił, że górnicy muszą konkurować mocą obliczeniową (obciążeniem), aby wygrać wyniki bloków, co wymaga tej samej mocy obliczeniowej co sztuczna inteligencja. to podobny proces generowania problemów związanych z modelem/wnioskowaniem. W rezultacie tradycyjni producenci serwerów w chmurze zaczęli rozszerzać nowe modele biznesowe, wynajmując karty graficzne i sprzedając moc obliczeniową na wzór wynajmu serwerów. I naśladując ideę blockchain, moc obliczeniowa AI przyjmuje rozproszoną konstrukcję systemu, która może wykorzystywać bezczynne zasoby GPU w celu zmniejszenia kosztów mocy obliczeniowej start-upów.

Wprowadzenie do projektu IO.NET

Io.net to dostawca rozproszonej mocy obliczeniowej połączony z blockchainem Solana, którego celem jest wykorzystanie rozproszonych zasobów obliczeniowych (GPU CPU) do rozwiązywania problemów związanych z zapotrzebowaniem na moc obliczeniową w obszarach sztucznej inteligencji i uczenia maszynowego. IO integruje bezczynne karty graficzne z niezależnych centrów danych i kopaczy kryptowalut oraz łączy projekty kryptograficzne, takie jak Filecoin/Render, aby połączyć zasoby ponad 1 miliona procesorów graficznych, aby rozwiązać problem niedoboru zasobów obliczeniowych AI.

Na poziomie technicznym io.net opiera się na ray.io, platformie uczenia maszynowego, która implementuje przetwarzanie rozproszone. Zapewnia rozproszone zasoby obliczeniowe dla aplikacji AI, które wymagają mocy obliczeniowej od uczenia się przez wzmacnianie i głębokiego uczenia się po dostrajanie i uruchamianie modeli. Każdy może dołączyć do sieci mocy obliczeniowej io jako pracownik lub programista bez dodatkowych uprawnień. Jednocześnie sieć dostosuje cenę mocy obliczeniowej w zależności od złożoności, pilności i podaży zasobów obliczeniowych pracy obliczeniowej i na tej podstawie wyceni ją. dynamika rynku. W oparciu o charakterystykę rozproszonej mocy obliczeniowej, backend io będzie także dopasowywał dostawców GPU do programistów w oparciu o rodzaj zapotrzebowania na GPU, aktualną dostępność, lokalizację i reputację osoby żądającej.

$IO jest natywnym tokenem systemu io.net i służy jako środek wymiany pomiędzy dostawcami mocy obliczeniowej a nabywcami usług mocy obliczeniowej. Korzystanie z $IO może obniżyć opłaty za obsługę zamówień o 2% w porównaniu do $USDC. Jednocześnie $IO odgrywa również ważną rolę motywacyjną w zapewnieniu normalnego działania sieci: posiadacze tokenów $IO mogą zadeklarować określoną ilość $IO na rzecz węzłów, a działanie węzła wymaga również zadeklarowania tokenów $IO przychód odpowiadający okresowi bezczynności maszyny.

Obecna kapitalizacja rynkowa tokena $IO wynosi około 360 milionów dolarów, a FDV około 3 miliardy dolarów.

Ekonomia tokena $IO

Maksymalna łączna podaż $IO wynosi 800 milionów, z czego 500 milionów zostało przydzielonych wszystkim stronom, gdy token był TGE. Pozostałe 300 milionów tokenów będzie wydawane stopniowo przez 20 lat (kwota wydania maleje o 1,02% co miesiąc), około 12% rocznie). Obecny nakład IO wynosi 95 milionów, na co składa się 75 milionów odblokowanych na ekologiczne badania i rozwój oraz budowanie społeczności podczas TGE oraz 20 milionów nagród wydobywczych od Binance Launchpool.

Nagrody dla dostawców mocy obliczeniowej podczas sieci testowej IO są rozdzielane w następujący sposób:

  • Sezon 1 (stan na 25 kwietnia) – 17 500 000 IO

  • Sezon 2 (1 maja – 31 maja) – 7 500 000 IO

  • Sezon 3 (1 czerwca – 30 czerwca) – 5 000 000 IO

Oprócz nagród za testową moc obliczeniową sieci, IO przekazało także kilka zrzutów twórcom, którzy brali udział w budowaniu społeczności:

  • (Pierwsza runda) Społeczność / Twórca treści / Galxe / Discord – 7 500 000 IO

  • Sezon 3 (1 czerwca – 30 czerwca) Uczestnicy Discord i Galxe – 2 500 000 IO

Wśród nich nagroda za moc obliczeniową sieci testowej w pierwszym kwartale oraz nagroda za pierwszą rundę tworzenia społeczności/Galxe zostały rozdane podczas TGE.

Według oficjalnej dokumentacji ogólny rozkład $IO jest następujący:

Mechanizm niszczenia tokenów $IO

Io.net realizuje odkup i zniszczenie tokenów $IO zgodnie z ustalonym zestawem ustalonych procedur. Konkretne ilości odkupu i zniszczenia zależą od ceny $IO w momencie realizacji. Fundusze wykorzystane na zakup $IO pochodzą z dochodu operacyjnego IOG (Internet procesorów graficznych - GPU Internet). Od każdego nabywcy mocy obliczeniowej i dostawcy mocy obliczeniowej w IOG pobierana jest opłata w wysokości 0,25%, a $USDC. wykorzystanej 2% opłaty manipulacyjnej za zakup mocy obliczeniowej.

Analiza produktów konkurencyjnych

Projekty podobne do io.net obejmują Akash, Nosana, OctaSpace, Clore.AI i inne zdecentralizowane rynki mocy obliczeniowej, które koncentrują się na zaspokajaniu potrzeb obliczeniowych modeli AI.

  • Dzięki zdecentralizowanemu modelowi rynkowemu Akash Network wykorzystuje niewykorzystane rozproszone zasoby obliczeniowe, gromadzi i dzierżawi nadwyżkę mocy obliczeniowej oraz reaguje na brak równowagi pomiędzy podażą i popytem poprzez dynamiczne rabaty i mechanizmy motywacyjne, osiągając efektywną i pozbawioną zaufania alokację zasobów w oparciu o inteligentne kontrakty. opłacalne i zdecentralizowane usługi przetwarzania w chmurze. Umożliwia górnikom Ethereum i innym użytkownikom z niewykorzystanymi zasobami GPU wynajmowanie ich, tworząc rynek usług w chmurze. Na tym rynku usługi są wyceniane w ramach mechanizmu aukcji odwrotnej, w ramach którego kupujący mogą składać oferty wynajmu tych zasobów, co powoduje, że ceny stają się mniej konkurencyjne.

  • Nosana to zdecentralizowany projekt rynku mocy obliczeniowej w ekosystemie Solana. Jego głównym celem jest wykorzystanie niewykorzystanych zasobów mocy obliczeniowej do utworzenia siatki GPU w celu zaspokojenia potrzeb obliczeniowych wnioskowania AI. Projekt wykorzystuje programy na platformie Solana do definiowania działania swojego rynku mocy obliczeniowej i zapewnienia, że ​​węzły GPU uczestniczące w sieci rozsądnie realizują zadania. Obecnie, oprócz drugiej fazy działania sieci testowej, świadczy usługi mocy obliczeniowej dla procesu wnioskowania modelu LLama 2 i Stable Diffusion.

  • OctaSpace to skalowalna infrastruktura węzłów chmury obliczeniowej typu open source, która umożliwia dostęp do rozproszonego przetwarzania, przechowywania danych, usług, sieci VPN i nie tylko. OctaSpace obejmuje moc obliczeniową procesora i procesora graficznego, obsługującą przestrzeń dyskową dla zadań ML, narzędzi AI, przetwarzania obrazu i renderowania scen za pomocą Blendera. OctaSpace zostanie uruchomiony w 2022 roku i działa na własnym blockchainie kompatybilnym z Layer 1 EVM. Blockchain wykorzystuje system dwułańcuchowy, który łączy mechanizmy konsensusu Proof of Work (PoW) i Proof of Authority (PoA).

  • Clore.AI to rozproszona platforma superkomputerowa GPU, która umożliwia użytkownikom pozyskiwanie najwyższej klasy zasobów mocy obliczeniowej GPU z węzłów zapewniających moc obliczeniową na całym świecie. Obsługuje wiele zastosowań, takich jak szkolenie AI, wydobywanie kryptowalut i renderowanie filmów. Platforma zapewnia tanie i wydajne usługi GPU, a użytkownicy mogą otrzymać nagrody w postaci tokenów Clore, wynajmując procesory graficzne. Clore.ai koncentruje się na bezpieczeństwie, jest zgodne z prawem europejskim i zapewnia potężne API umożliwiające bezproblemową integrację. Jeśli chodzi o jakość projektu, strona Clore.AI jest stosunkowo szorstka i nie ma szczegółowej dokumentacji technicznej umożliwiającej weryfikację autentyczności prezentacji projektu i autentyczności danych. Pozostajemy podejrzliwi co do zasobów karty graficznej projektu i prawdziwego poziomu uczestnictwa.

W porównaniu z innymi produktami na zdecentralizowanym rynku mocy obliczeniowej, io.net jest obecnie jedynym projektem, do którego każdy może dołączyć, aby zapewnić zasoby mocy obliczeniowej bez pozwolenia. Użytkownicy mogą korzystać z sieci co najmniej 30 procesorów graficznych klasy konsumenckiej wkład mocy obliczeniowej obejmuje także zasoby chipów Apple, takie jak Macbook M2 i Mac Mini. Większe zasoby procesora graficznego i procesora oraz bogata konstrukcja API umożliwiają IO obsługę różnych potrzeb obliczeniowych AI, takich jak wnioskowanie wsadowe, uczenie równoległe, dostrajanie hiperparametrów i uczenie się przez wzmacnianie. Jego infrastruktura back-end składa się z szeregu warstw modułowych, które umożliwiają efektywne zarządzanie zasobami i automatyczne ustalanie cen. Inne projekty dotyczące rynku rozproszonej mocy obliczeniowej dotyczą głównie współpracy z zasobami kart graficznych przedsiębiorstw i istnieją pewne progi udziału użytkowników. Dlatego też IO może mieć możliwość wykorzystania kryptograficznego koła zamachowego ekonomii tokenów w celu wykorzystania większej ilości zasobów karty graficznej.

Poniżej znajduje się porównanie aktualnej wartości rynkowej/FDV io.net i konkurencyjnych produktów

Przegląd i wnioski

Można powiedzieć, że notowanie $IO na Binance jest godnym początkiem przebojowego projektu, który od samego początku przyciąga wiele uwagi. Sieć testowa stała się popularna w całej sieci i stopniowo była atakowana przez wszystkich w czasie rzeczywistym test, kwestionując zasady punktów nieprzezroczystych. Token wszedł do sieci podczas korekty rynkowej, otworzył się niżej i wzrósł, ostatecznie powracając do stosunkowo racjonalnego przedziału wyceny. Jednakże uczestnicy sieci testowej, którzy przybyli ze względu na bogatą ofertę inwestycyjną io.net, niektórzy byli zadowoleni, a niektórzy smutni. Większość użytkowników, którzy wynajmowali procesory graficzne, ale nie nalegali na uczestnictwo w sieci testowej co sezon, nie uzyskała idealnej dodatkowej stopy zwrotu zgodnie z oczekiwaniami Zamiast tego mamy do czynienia z rzeczywistością „anty-Lu”. Podczas testów sieci io.net podzielił pulę nagród z każdego okresu na dwie pule: GPU i wysokowydajnego procesora, aby obliczyć je osobno. Ogłoszenie punktów za sezon 1 zostało przełożone ze względu na incydent z włamaniem, ale ostatecznie punkty zostały przyznane współczynnik wymiany puli procesorów graficznych podczas TGE został określony w najbliższej przyszłości na poziomie 90:1. Koszt wynajmu procesorów graficznych od głównych producentów platform chmurowych znacznie przewyższa przychody ze zrzutów. W sezonie 2 urzędnik w pełni wdrożył mechanizm weryfikacji PoW. Prawie 3-watowe urządzenia GPU pomyślnie wzięły udział w weryfikacji PoW. Ostateczny stosunek wymiany punktów wyniósł 100:1.

Po długo oczekiwanym starcie, czy io.net może osiągnąć zamierzony cel, jakim jest zapewnienie różnych potrzeb obliczeniowych dla aplikacji AI, i ile rzeczywistego zapotrzebowania pozostaje po sieci testowej, być może tylko czas może dać najlepszy dowód.

odniesienie:

https://docs.io.net/docs

https://blockcrunch.substack.com/p/rndr-akt-ionet-the-complete-guide

https://www.odaily.news/post/5194118

https://www.theblockbeats.info/news/53690

https://www.binance.com/en/research/projects/ionet

https://www.ibm.com/topics/ai-infrastructure

https://gpus.llm-utils.org/nvidia-h100-gpus-supply-and-demand/

https://www.statista.com/statistics/941835/artificial-intelligence-market-size-revenue-comparisons/

https://www.grandviewresearch.com/press-release/global-cloud-ai-market