Autor: Laboratoria LFG

Pierwotny czas publikacji: 3 czerwca 2024 r

Oryginalny link: https://www.chaincatcher.com/article/2127297

Jeśli podstawą io.net są rozwiązania „oddolne”, co byś o tym pomyślał?

Pozyskał finansowanie w wysokości 30 milionów dolarów i zyskał przychylność czołowych stolic, takich jak Hack VC, Multicoin Capital, Delphi Digital, Solana Lab itp. W żadnym wypadku nie jest to takie „przyziemne”, zwłaszcza z etykietą mocy obliczeniowej GPU/rewolucja AI, oba te pojęcia są synonimami najwyższej klasy.

Jednak w zgiełku dyskusji społecznościowych często pomija się kluczowe wskazówki, zwłaszcza głębokie zmiany, jakie io.net może wprowadzić w globalnej sieci komputerowej - różniące się od „elitarnej” pozycji AWS, Azure i GCP, io. net zasadniczo podąża drogą cywilną:

Niewłaściwie umiejscowiony, aby uzupełnić zaniedbane zapotrzebowanie na moc obliczeniową typu „talia + długi ogon”, gromadzić bezczynne zasoby procesora graficznego, tworzyć zdecentralizowaną rozproszoną sieć obliczeniową na poziomie przedsiębiorstwa i szerzej zapewniać bardziej przyrostowe/zapasowe zasoby mocy obliczeniowej Innowacje w zakresie sztucznej inteligencji dla małych i średnich przedsiębiorstw użytkowników, wykorzystując niski koszt i dużą elastyczność, aby osiągnąć „ponowne wyzwolenie produktywności” w zakresie globalnych innowacji w zakresie sztucznej inteligencji.

Za falą AI kryje się zaniedbany nurt relacji produkcji mocy obliczeniowej

Jakie są podstawowe zasoby produktywności tej fali sztucznej inteligencji i przyszłej ery gospodarki cyfrowej?

Nie ma wątpliwości co do mocy obliczeniowej.

Według Precedence Research, globalny rynek sprzętu do sztucznej inteligencji będzie rósł w złożonym rocznym tempie wzrostu (CAGR) na poziomie 24,3% i przekroczy 473,53 miliardów dolarów do 2033 roku.

Nawet jeśli odłożymy prognozy i spojrzymy w przyszłość z logicznej perspektywy przyrostów i zapasów, wyraźnie możemy stwierdzić, że w przyszłym procesie rozwoju rynku mocy obliczeniowej przez długi czas będą istnieć dwie główne sprzeczności:

  • W wymiarze przyrostowym wykładniczy trend wzrostu mocy obliczeniowej po stronie popytu będzie znacznie większy niż liniowy trend wzrostu mocy obliczeniowej po stronie podaży;

  • W wymiarze zapasowym moc obliczeniowa jest „uszczypnięta” ze względu na efekt głowy, a gracze z pasem i długim ogonem nie mają co jeść, ale duża liczba rozproszonych zasobów GPU jest bezczynna, co skutkuje poważnym niedopasowaniem podaży do popytu ;

Wymiar przyrostowy: zapotrzebowanie na moc obliczeniową jest znacznie większe niż podaż

Pierwszy to wymiar przyrostowy Oprócz szybkiego rozwoju dużych modeli AIGC, szybko rozprzestrzeniają się niezliczone scenariusze sztucznej inteligencji we wczesnych stadiach epidemii, takie jak opieka medyczna, edukacja i inteligentna jazda, a wszystkie wymagają ogromnych mocy obliczeniowych. Dlatego obecny rynek Luka w zasobach obliczeniowych GPU nie tylko będzie nadal istnieć, ale nawet będzie się powiększać.

Innymi słowy, z punktu widzenia podaży i popytu, w dającej się przewidzieć przyszłości rynkowe zapotrzebowanie na moc obliczeniową musi być znacznie większe niż podaż, a krzywa popytu w dalszym ciągu będzie wykazywać wykładniczy trend wzrostowy w krótkim okresie.

Po stronie podaży, ze względu na ograniczenia praw fizycznych i rzeczywistych czynników produkcji, niezależnie od tego, czy chodzi o usprawnienie procesów, czy budowę fabryk na dużą skalę w celu zwiększenia mocy produkcyjnych, w najlepszym przypadku można osiągnąć jedynie wzrost liniowy, co jest skazane na porażkę, ponieważ wąskie gardło mocy obliczeniowej Rozwój sztucznej inteligencji będzie istniał jeszcze przez długi czas.

Rozmiar zapasów: Istnieje poważna rozbieżność między podażą a popytem wśród graczy z talią i długim ogonem.

Jednocześnie przy ograniczonych zasobach obliczeniowych i poważnych wąskich gardłach wzrostu Amazon Cloud Technology (AWS), Microsoft Azure i Google Cloud Platform (GCP) łącznie odpowiadają za ponad 60% udziału w przetwarzaniu w chmurze i znajdują się w oczywistej pozycja na rynku sprzedającego.

Gromadzą wysokowydajne układy GPU i monopolizują dużą ilość zasobów obliczeniowych. Jednak mali i średni odbiorcy mocy obliczeniowej ze środkowej i długiej półki nie tylko nie mają siły przetargowej, ale także muszą stawić czoła wielu problemom, takim jak wysoka moc obliczeniowa. koszty kapitału, bariery wejścia na rynek KYC i warunki leasingu Ponadto tradycyjne. Ze względu na wskaźnik przychodów giganci usług w chmurze nieuchronnie ignorują zróżnicowane wymagania biznesowe użytkowników „talia + długi ogon” (takie jak krótsze, bardziej bezpośrednie i mniejsze potrzeby leasingowe). itp.).

W rzeczywistości jednak poza siecią mocy obliczeniowej gigantów usług w chmurze duża część mocy obliczeniowej GPU jest niewykorzystana i bezużyteczna. Na przykład na całym świecie istnieją setki tysięcy niezależnych internetowych centrów danych (IDC) innych firm w niewielkim marnowaniu zasobów na zadania szkoleniowe, nawet obejmujące szyfrowanie. Ogromna moc obliczeniowa farm wydobywczych i projektów szyfrujących, takich jak Filecoin, Render i Aethir, jest bezczynna.

Według oficjalnych szacunków io.net, obecny wskaźnik bezczynności kart graficznych IDC w samych Stanach Zjednoczonych wynosi aż ponad 60%. Doprowadziło to do ironicznego paradoksu niedopasowania podaży i popytu: dziesiątki tysięcy małych i średnich centra danych o dużych rozmiarach, kopalnie szyfrowania itp. Ponad połowa zasobów mocy obliczeniowej operatorów rynkowych i innych operatorów jest codziennie marnowana i nie może zapewnić efektywnych przychodów. Jednak przedsiębiorcy zajmujący się sztuczną inteligencją na niższym szczeblu i na długim ogonie to znoszą wysokie koszty i wysoki próg usług mocy obliczeniowej gigantów chmurowych, które są jeszcze bardziej zróżnicowane, nie mogą zostać zaspokojone.

Susza zabija suszę, a podlewanie zabija – te dwie podstawowe przesłanki zostały wyjaśnione. Już na pierwszy rzut oka widać zasadniczą sprzeczność między obecnym globalnym rozwojem sztucznej inteligencji a globalnym rynkiem mocy obliczeniowej – z jednej strony innowacja w zakresie sztucznej inteligencji jest wszędzie, a z drugiej. zapotrzebowanie na moc obliczeniową Z drugiej strony zapotrzebowanie na moc obliczeniową typu „pas + długi ogon” oraz bezczynne zasoby procesora graficznego nie mogą zostać skutecznie zaspokojone i znajdują się one poza obecnym rynkiem mocy obliczeniowej.

Problemem tym jest nie tylko sprzeczność między rosnącym zapotrzebowaniem przedsiębiorców zajmujących się sztuczną inteligencją na moc obliczeniową a wstecznym wzrostem mocy obliczeniowej, ale także brak równowagi i niewystarczające niedopasowanie podaży i popytu wśród ogromnej liczby przedsiębiorców zajmujących się sztuczną inteligencją „talia + długi ogon”, operatorzy energetyczni Konflikty między nimi znacznie wykraczają poza możliwości rozwiązywania scentralizowanych dostawców usług w chmurze.

Z tego powodu potrzeby rynku również wymagają nowych rozwiązań. Wyobraź sobie, że jeśli ci operatorzy dysponujący mocą obliczeniową mogą elastycznie wybierać dzierżawę mocy obliczeniowej, gdy są za darmo, czy mogą uzyskać klaster obliczeniowy podobny do AWS niewielkim kosztem?

Należy wiedzieć, że budowa nowej sieci danych o tak dużej mocy obliczeniowej jest niezwykle kosztowna. Doprowadziło to do powstania platform dopasowujących moc obliczeniową, ukierunkowanych specjalnie na bezczynne zasoby mocy obliczeniowej w środkowej i końcowej części oraz na małą i średnią sztuczną inteligencję. przedsiębiorcom w celu mobilizacji rozproszonych, niewykorzystanych zasobów mocy obliczeniowej, specjalnie dopasowanych do szkoleń w zakresie małych i średnich modeli oraz dużych modeli w segmentowanych scenariuszach, takich jak medyczne, prawne i finansowe.

Nie tylko może zaspokoić zróżnicowane potrzeby mocy obliczeniowej średniego i tylnego segmentu, ale będzie także niewłaściwie umieszczonym uzupełnieniem istniejącego wzorca usług mocy obliczeniowej zdominowanego przez scentralizowanych gigantów chmurowych:

  • Giganci usług w chmurze dysponujący ogromnymi zasobami obliczeniowymi są odpowiedzialni za „pilne i niebezpieczne potrzeby”, takie jak szkolenia na dużych modelach i obliczenia o wysokiej wydajności;

  • Zdecentralizowane rynki mocy obliczeniowej w chmurze, takie jak io.net, są odpowiedzialne za bardziej zróżnicowane „elastyczne i tanie potrzeby”, takie jak obliczenia małych i średnich modeli, dostrajanie dużych modeli i wdrażanie wnioskowania;

W rzeczywistości ma zapewnić bardziej inkluzywną, dynamicznie zrównoważoną krzywą podaży i popytu pomiędzy opłacalnością a jakością mocy obliczeniowej, co jest również bardziej zgodne z ekonomiczną logiką rynkowej optymalizacji alokacji zasobów.

Dlatego rozproszone sieci komputerowe, takie jak io.net, są zasadniczo rozwiązaniem integrującym „AI + Crypto”, czyli wykorzystującym rozproszone ramy współpracy w połączeniu z podstawowymi środkami ekonomicznymi w postaci symbolicznych zachęt w celu zaspokojenia potrzeb osób o ogromnym potencjale, ale które na wygnaniu Średnie zapotrzebowanie rynku na sztuczną inteligencję pozwala małym i średnim zespołom zajmującym się sztuczną inteligencją dostosowywać i kupować wymagane usługi obliczeniowe oparte na procesorach graficznych, których duże chmury nie są w stanie zapewnić zgodnie z ich potrzebami, realizując w ten sposób „ponowne wyzwolenie produktywności” w globalnym przetwarzaniu danych. rynek energii i rozwój sztucznej inteligencji.

Czyli mówiąc wprost, io.net nie jest bezpośrednim konkurentem AWS, Azure i GCP. Jest raczej „wyprzedzonym towarzyszem uzupełniającym”, który współpracuje z nimi w celu optymalizacji alokacji globalnych zasobów obliczeniowych i wspólnego poszerzania rynku. Odpowiada jedynie za „koszty” na różnych poziomach. To po prostu pierwsza linia popytu na „wydajność i jakość mocy obliczeniowej”.

Nie jest nawet wykluczone, że io.net może stworzyć udział w rynku nie mniejszy niż wielkość trzech istniejących gigantów chmurowych, poprzez agregację graczy podaży i popytu „talia + długi ogon”.

io.net: platforma dopasowująca i handlowająca globalną mocą obliczeniową GPU

Właśnie dlatego, że io.net opiera się na rozproszonej współpracy Web3 + symboliczne zachęty do przekształcenia stosunków produkcyjnych średniego i tylnego rynku mocy obliczeniowej, faktycznie możemy w nim dostrzec cień gospodarki współdzielenia, takiej jak Uber i Didi, czyli podobnie do Ubera, platformy dopasowującej i handlującej mocą obliczeniową GPU Didi Didi.

Jak wszyscy wiemy, zanim nie istniały Uber i Didi, w szerokim znaczeniu nie istniała możliwość zamawiania taksówki przez użytkownika, ponieważ kilka prywatnych samochodów stanowiło ogromną i nieuporządkowaną sieć nieużywanych pojazdów weź taksówkę. Możesz tylko pomachać i poczekać na poboczu drogi lub poprosić o wysyłkę w odpowiedniej firmie zajmującej się taksówkami w każdym mieście. Jest to również rynek sprzedawcy i nie jest przyjazny dla większości zwykłych ludzi ludzie.

W rzeczywistości jest to również prawdziwy obraz aktualnej strony podaży i popytu na całym rynku mocy obliczeniowej. Jak wspomniano powyżej, małe i średnie strony popytu na moc obliczeniową w pasie i długim ogonie nie tylko nie mają siły przetargowej, ale ale także muszą stawić czoła wysokim kosztom kapitałowym, barierom wejścia na rynek w ramach KYC, warunkom najmu i wielu innym problemom.

Patrząc na to konkretnie, w jaki sposób io.net realizuje swoją pozycję „globalnego centrum dystrybucji mocy obliczeniowej GPU + rynku dopasowującego” lub jakiego rodzaju architektura systemu i usługi funkcjonalne są potrzebne, aby pomóc użytkownikom ze średniego i długiego ogona uzyskać moc obliczeniową zasoby?

Elastyczna i niedroga platforma dopasowująca

Największą cechą io.net jest platforma dopasowująca moc obliczeniową do niewielkich zasobów.

Oznacza to, że podobnie jak Uber i Didi nie wiąże się z faktyczną obsługą ciężkich zasobów wysokiego ryzyka, takich jak sprzęt GPU, ale wykorzystuje moc obliczeniową średniej i długiej sprzedaży detalicznej (z których wiele uważa się za obliczenia drugiej klasy moc obliczeniową w dużych chmurach, takich jak AWS).

Jeden koniec io.net jest podłączony do tysięcy bezczynnych procesorów graficznych (samochodów prywatnych) w małych i średnich IDC, farmach wydobywczych, projektach szyfrowania itp., a drugi koniec jest podłączony do zapotrzebowania na moc obliczeniową setek milionów małych i średnich firm (przewoźnicy taksówek), a następnie io.net .net służy jako platforma dopasowująca do planowania pośredniego, podobnie jak broker dopasowujący niezliczone zlecenia kupna i sprzedaży jedno po drugim.

Pomaga to przedsiębiorcom szkolić bardziej spersonalizowane małe i średnie modele sztucznej inteligencji, gromadząc bezczynną moc obliczeniową, stosując niskie koszty i bardziej elastyczne konfiguracje wdrożeniowe, znacznie poprawiając wykorzystanie zasobów, a korzyści są oczywiste niezależnie od tego, czy na rynku jest za zimno, czy za gorąco tak długo jak występuje niedopasowanie zasobów, popyt na platformy dopasowujące będzie największy:

  • Po stronie podaży dostawcy niewykorzystanych zasobów mocy obliczeniowej, tacy jak małe i średnie IDC, kopalnie i projekty szyfrowania, muszą jedynie łączyć się z io.net. Nie ma potrzeby tworzenia dedykowanego działu BD ani nie jest to konieczne być zmuszonym do sprzedaży AWS z rabatem ze względu na małą skalę mocy obliczeniowej. Wręcz przeciwnie, bezczynną moc obliczeniową można bezpośrednio dopasować do odpowiednich małych i średnich klientów korzystających z mocy obliczeniowej po cenach rynkowych lub nawet wyższych cenach przy wyjątkowo niskich cenach. koszty tarcia, uzyskując w ten sposób korzyści;

  • Po stronie popytu mali i średni odbiorcy mocy obliczeniowej, którzy pierwotnie nie mieli siły przetargowej przed dużymi chmurami, takimi jak AWS, mogą również korzystać z potoku zasobów io.net, aby łączyć się z mocą obliczeniową na mniejszą skalę, która nie wymaga pozwolenia , nie wymaga oczekiwania, nie wymaga KYC i ma bardziej elastyczny czas wdrożenia. Możesz dowolnie wybierać i łączyć chipy potrzebne do utworzenia „klastra” w celu wykonania spersonalizowanych zadań obliczeniowych;

Po stronie podaży i popytu na moc obliczeniową w środkowym ogonie występują podobne problemy, takie jak słaba siła przetargowa i niska autonomia w obliczu dużych chmur, takich jak AWS. io.net ożywia podaż i popyt w średnim i długim okresie -tail w celu zapewnienia takiej platformy dopasowującej, która umożliwia zarówno stronie podaży, jak i popytu realizację transakcji po lepszych cenach i bardziej elastycznych konfiguracjach niż duże chmury, takie jak AWS.

Z tej perspektywy, podobnie jak w przypadku platform takich jak Taobao, wczesne pojawienie się gorszej mocy obliczeniowej jest również prawem rozwojowym, którego nie można wyeliminować w ramach ekonomii platform. io.net również stworzył system reputacji dla strony podaży lub strony popytu , w oparciu o wydajność obliczeniową i uczestnictwo w sieci. Aby gromadzić punkty i otrzymywać nagrody lub rabaty.

Zdecentralizowany klaster GPU

Po drugie, chociaż io.net jest platformą dopasowującą podaż detaliczną do popytu, obecne scenariusze obliczeniowe, takie jak duże modele, wymagają kilku kart graficznych do wspólnego wykonywania obliczeń — zależy to nie tylko od liczby bezczynnych procesorów graficznych, które pasująca platforma może agregować zasoby, zależy to również od od tego, jak blisko jest połączona rozproszona moc obliczeniowa na platformie.

Innymi słowy, ta rozproszona sieć obejmująca małą i średnią moc obliczeniową w różnych regionach i różnej wielkości wymaga wdrożenia „zdecentralizowanej, ale scentralizowanej” architektury mocy obliczeniowej: można umieścić kilka rozproszonych procesorów graficznych zgodnie z elastycznymi potrzebami obliczeniowymi różnych scenariuszy. Trenuj w tym samym środowisku i upewnij się, że komunikacja i współpraca między różnymi procesorami graficznymi muszą być bardzo szybkie, przynajmniej w celu osiągnięcia takich funkcji, jak małe opóźnienia, które są wystarczające do użycia.

Różni się to całkowicie od dylematu niektórych zdecentralizowanych projektów przetwarzania w chmurze, które można ograniczyć jedynie do wykorzystania procesorów graficznych w tej samej sali komputerowej. Za techniczną implementacją stoi „trojka” z portfolio produktów io.net: IO Cloud, Pracownik IO, Eksplorator IO.

  • Podstawowym modułem biznesowym IO Cloud są klastry, czyli grupa procesorów graficznych, która może samodzielnie koordynować zadania obliczeniowe. Inżynierowie sztucznej inteligencji mogą dostosować żądany klaster do własnych potrzeb. Jest on również płynnie zintegrowany z IO-SDK Rozszerzaj aplikacje AI i Python, aby zapewnić kompleksowe rozwiązania;

  • IO Worker zapewnia przyjazny dla użytkownika interfejs użytkownika, który umożliwia dostawcom i nabywcom efektywne zarządzanie operacjami dostaw w aplikacji internetowej, w tym zarządzanie kontami użytkowników, monitorowanie aktywności obliczeniowej, wyświetlanie danych w czasie rzeczywistym, śledzenie temperatury i zużycia energii, pomoc przy instalacji, portfel Funkcje związane z zarządzaniem, zabezpieczeniami i kalkulacją rentowności;

  • IO Explorer przede wszystkim zapewnia użytkownikom kompleksowe statystyki i wizualizacje wszystkich aspektów chmury GPU. Umożliwia użytkownikom łatwe monitorowanie, analizowanie i zrozumienie każdego szczegółu sieci io.net, zapewniając pełny wgląd w aktywność sieci, istotne statystyki, punkty danych i transakcje z nagrodami;

Dzięki powyższej architekturze funkcjonalnej io.net umożliwia dostawcom mocy obliczeniowej łatwe udostępnianie nieaktywnych zasobów obliczeniowych, znacznie zmniejszając barierę wejścia. Strony popytowe nie muszą podpisywać długoterminowych umów i znosić długiego czasu oczekiwania typowego dla tradycyjnych usług w chmurze. Może szybko skonfigurować klaster z wymaganym procesorem graficznym i uzyskać usługi takie jak super moc obliczeniowa i zoptymalizowaną reakcję serwera.

Lekki scenariusz elastycznego popytu

Mówiąc bardziej szczegółowo, mówiąc o źle dopasowanych scenariuszach usług w dużych chmurach, takich jak io.net i AWS, skupiają się one głównie na lekkich, elastycznych potrzebach niektórych dużych chmur, które nie są opłacalne. Można wśród nich pomyśleć o modelu Uwzględniono tutaj szkolenia w obszarach niszowych, takich jak małe i średnie projekty w zakresie przedsiębiorczości w zakresie sztucznej inteligencji, dostrajanie dużych modeli i inne zróżnicowane scenariusze.

Ponadto istnieje uniwersalny scenariusz, który można łatwo przeoczyć: wnioskowanie o modelu.

Jak wszyscy wiemy, wczesne szkolenie dużych modeli, takich jak GPT, wymaga użycia dziesiątek tysięcy wydajnych procesorów graficznych, super mocy obliczeniowej i ogromnych ilości danych do długoterminowych obliczeń o wysokiej jakości. Jest to również absolutna zaleta dużych chmur, takich jak AWS i GCP.

Jednak po treningu głównym zapotrzebowaniem na moc obliczeniową staje się wnioskowanie z modelu długoterminowego. Zapotrzebowanie na moc obliczeniową na tym etapie jest również znacznie wyższe niż na etapie szkolenia – wnioskowanie na podstawie wyuczonego modelu, co zwykle robimy. Codzienny dialog i scenariusze interakcji między użytkownikami a modelami takimi jak GPT stanowią 80–90% udziału obliczeń AI.

Co ciekawe, ogólna moc obliczeniowa procesu wnioskowania jest wolniejsza. Uzyskanie odpowiedzi może zająć tylko dziesiątki procesorów graficznych i kilka minut, a jednocześnie wymagania dotyczące opóźnienia sieci i współbieżności są niższe w przypadku większości AI firma może nie trenować oddzielnie swoich własnych dużych modeli, a jedynie zdecydować się na optymalizację i dostrojenie wokół kilku wiodących dużych modeli, takich jak GPT. Scenariusze te są naturalnie odpowiednie dla rozproszonych zasobów obliczeniowych io.net.

Oprócz scenariuszy zastosowań o wysokiej intensywności i wysokich standardach stosowanych przez mniejszość, szersze, codzienne, lekkie scenariusze są również dziewiczym obszarem, który należy pilnie zagospodarować. Mogą wydawać się fragmentaryczne, ale udział w rynku jest jeszcze większy z najnowszego raportu Bank of America wynika, że ​​obliczenia wysokiej wydajności stanowią jedynie niewielką część całkowitego dostępnego rynku centrów danych (TAM), stanowiąc zaledwie około 5%.

Krótko mówiąc, nie chodzi o to, że AWS, GCP itp. są niedostępne, ale o to, że io.net jest bardziej opłacalne.

Zwycięzca Web2 BD

Oczywiście ostatecznie główna konkurencyjność io.net i innych platform w zakresie rozproszonych zasobów obliczeniowych leży w możliwościach BD, które są głównym zwycięzcą.

Oprócz cudu, jakim są wysokowydajne chipy Nvidii, które dały początek brokerom kart graficznych, największym problemem, który nęka wielu małych i średnich IDC oraz innych operatorów mocy obliczeniowej, jest to, że „wino jest dobre, ale uliczka jest ciemna”.

Zatem z tej perspektywy io.net ma w rzeczywistości wyjątkową przewagę konkurencyjną, którą trudno powtórzyć w przypadku projektów na tym samym ścieżce – bezpośrednio w Dolinie Krzemowej znajduje się zespół Web2 BD. Wszyscy oni są weteranami z doświadczeniem w branży na rynku mocy obliczeniowej od wielu lat, Pao nie tylko rozumie różnorodne scenariusze małych i średnich klientów, ale także rozumie potrzeby terminali wielu klientów Web2.

Według oficjalnych informacji io.net, obecnie dwadzieścia lub trzydzieści firm Web2 wyraziło chęć zakupu/dzierżawy mocy obliczeniowej i są skłonne próbować lub popełniać błędy ze względu na niższe koszty i bardziej elastyczne usługi mocy obliczeniowej (niektóre mogą nie móc w ogóle czekać na AWS) moc obliczeniowa), metodą prób i błędów, a każdy klient potrzebuje co najmniej setek lub tysięcy kart graficznych (równowartość setek tysięcy dolarów w zamówieniach na moc obliczeniową miesięcznie).

Ten rodzaj rzeczywistej gotowości terminala do płacenia po stronie popytu zasadniczo przyciągnie więcej bezczynnych zasobów obliczeniowych, aby aktywnie przelać się na stronę podaży, ułatwiając przejęcie wiodącej roli w przerwaniu kręgu Web2 i Web3 i stworzeniu efektu skali sieci pierwszego gracza .

Możliwa jest tokenizowana moc obliczeniowa ekologicznej warstwy rozliczeniowej

Jak wspomniano powyżej, io.net opiera się na rozproszonej współpracy Web3 + zachętach tokenowych do przekształcenia średniego i końcowego rynku mocy obliczeniowej, z których ten ostatni przyjmuje głównie model IO i IOSD z dwoma tokenami:

  1. Użyteczność tokena IO obejmuje płacenie opłat za wynajem mocy obliczeniowej, zapewnianie pracownikom IO zachęt do alokacji, nagradzanie zespołów wdrożeniowych AI i ML za dalsze korzystanie z sieci, równoważenie częściowego popytu i podaży, ustalanie cen jednostek obliczeniowych pracowników IO oraz zarządzanie społecznością itp.;

  2. Stabilną monetę IOSD, powiązaną z dolarem amerykańskim, można uzyskać wyłącznie poprzez spalenie IO, a jej celem jest zapewnienie stabilnego nośnika przechowywania wartości i transakcji dla platformy io.net;

Ponadto io.net rozważa również wsparcie strony podażowej, aby zwiększyć prawdopodobieństwo wynajmu poprzez zastawienie IO w hipotece. Strona popytowa może również obciążyć IO, aby nadać priorytet wykorzystaniu wysokowydajnych procesorów graficznych, umożliwiając w ten sposób rozwój kompletnego ekosystemu. funkcję kredytu hipotecznego w celu przejęcia całego ekosystemu mocy obliczeniowej.

To właściwie rodzi kolejne pytanie. Skoro io.net zgromadził ogromne zasoby obliczeniowe w stanie bezczynności, czy może pójść o krok dalej i bezpośrednio połączyć je z metodą tokenizacji mocy obliczeniowej Crypto, aby zapewnić procesorowi graficznemu większe możliwości finansowe w łańcuchu?

Na przykład w przyszłości io.net będzie całkowicie możliwe zbudowanie dedykowanego łańcucha mocy obliczeniowej w oparciu o ogromną sieć mocy obliczeniowej, dostarczając usługi infrastruktury opartej na tokenach bez zezwoleń i barier wejścia, każdy i każde urządzenie będzie mogło to zrobić bezpośrednio transfer mocy obliczeniowej (taki jak konwersja A100 i H100 na standardowe tokeny lub NFT), umożliwiając w ten sposób handel, stakowanie, pożyczanie, udzielanie pożyczek i dźwignię finansową.

Jest to równoznaczne z utworzeniem rozległego rynku mocy obliczeniowej GPU w sieci, dla użytkowników i funduszy z całego świata, którzy mogą swobodnie i skutecznie wchodzić na rynek. Możemy po prostu wyobrazić sobie dwa scenariusze, aby uzyskać wgląd w przyszłość finansów w sieci moc obliczeniową. Jaką wyobraźnię może mieć rynek?

1.Token mocy obliczeniowej bezpieczeństwa

Przykładowo, jeśli dany operator mocy obliczeniowej na io.net posiada kilka kart graficznych A100 lub H100, ale ma w tym momencie potrzeby finansowe lub chce wcześniej zaoszczędzić pieniądze, może wystawić moc obliczeniową odpowiadającą tym kartom graficznym na io .net Wartość jest pakowana jako NFT lub FT – token reprezentuje zdyskontowany przepływ środków pieniężnych z mocy obliczeniowej odpowiedniej karty graficznej w następnym roku (lub określonym okresie) i może być wyceniony w IO.

Ponieważ większość zwykłych inwestorów nie ma możliwości bezpośredniego zakupu, przechowywania i obsługi mocy obliczeniowej AI, ten typ tokena zapewnia inwestorom rynkowym możliwość kontrolowania wzrostu i spadku cen mocy obliczeniowej Operatorów w przyszłości przy ograniczonym przepływie środków pieniężnych zyskały również dźwignię finansową i mogą realizować elastyczną płynność zgodnie z rzeczywistymi potrzebami w dowolnym miejscu i czasie.

W tym okresie karta graficzna stojąca za Tokenem jest obsługiwana przez io.net, a późniejsze przepływy pieniężne uzyskane z odpowiedniej mocy obliczeniowej są dzielone proporcjonalnie (posiadacze Tokena otrzymują 0,9, a węzły operacyjne otrzymują 0,1).

A ponieważ jest to ustandaryzowany token, może być swobodnie rozpowszechniany i sprzedawany w walutach CEX lub DEX, podobnie jak inne tokeny. Spowoduje to dalsze kształtowanie cen mocy obliczeniowej w czasie rzeczywistym z bezpłatnym wejściem i wyjściem oraz rzeczywiste przekształcenie mocy obliczeniowej procesora graficznego w zasób o zasięgu globalnym płynność.

2. Token mocy obliczeniowej obligacji

Ponadto można także pozyskać środki na zakup wysokowydajnych kart graficznych poprzez emisję tokenów obligacji w celu zwiększenia mocy obliczeniowej sieci. Kwota główna obligacji jest równa wartości samego sprzętu karty graficznej, a odsetki od obligacji stanowią dochód z przepływów pieniężnych dzierżawienie mocy obliczeniowej karty graficznej w przyszłości, co oznacza, że ​​potencjalna wartość wynajmu mocy obliczeniowej karty graficznej i przyszłe dochody stanowią wartość rynkową Tokena. Posiadając Token możesz uzyskać realny dochód RWA.

Jest to równoznaczne z utworzeniem ogromnego rynku mocy obliczeniowej GPU dla użytkowników z całego świata. Użytkownicy i fundusze z całego świata mogą swobodnie i skutecznie wejść na rynek mocy obliczeniowej GPU, nie martwiąc się o wysokie progi i wysokie fundusze. To dodatkowo łączy prawdziwe karty graficzne i różne Całkowita integracja zdecentralizowanych produktów finansowych położyła podwaliny pod większą liczbę bogatszych usług wsparcia dla użytkowników w przyszłości.

Co ważniejsze, cały proces wykorzystuje IO jako główną walutę transakcyjną/obiegową, co sprawia, że ​​io.net/IO stanie się warstwą rozliczeniową/walutą rozliczeniową całego globalnego ekosystemu mocy obliczeniowej, a także tego łańcucha wokół tokenizacji mocy obliczeniowej. rynek finansowy może niemal odtworzyć przestrzeń wyceny podobną do narracji o zdecentralizowanej sieci mocy obliczeniowej io.net.

streszczenie

Ogólnie rzecz biorąc, Web3, jako nowy typ relacji produkcyjnych, jest w naturalny sposób dostosowany do sztucznej inteligencji, co reprezentuje nowy rodzaj produktywności. Jest to także równoczesny rozwój technologii i możliwości relacji produkcyjnych. Z tej perspektywy podstawowa logika io. net właśnie poprzez przyjęcie „Infrastruktura ekonomiczna „Web3+ Token Economy” zmieni relacje produkcyjne pomiędzy tradycyjnymi gigantami usług w chmurze, użytkownikami mocy obliczeniowej o średniej i długiej ogonie oraz globalnymi zasobami obliczeniowymi bezczynnej sieci:

Zapewnij rozwiązania rzeczywistych problemów związanych z zasilaniem i popytem na moc obliczeniową AI, zbuduj dwustronny rynek obejmujący i obsługujący zasoby obliczeniowe GPU typu „talia + długi ogon” oraz potrzeby użytkowników, optymalizując podaż i alokację zasobów mocy obliczeniowej oraz wprowadzając globalny rozwój sztucznej inteligencji, w szczególności Produktywność małych i średnich innowacji w zakresie sztucznej inteligencji zostanie znacznie wyzwolona.

Wizja jest niewątpliwie ambitna, jeśli się powiedzie, najprawdopodobniej stanie się podstawową infrastrukturą dopasowującą i warstwą rozliczania wartości globalnego ekosystemu obliczeń GPU. Oczekuje się, że uzyska najlepszą premię za wycenę. Jest to wysoce pomysłowe, ale niewątpliwie tak jest pełen wyzwań.

Oryginalny link: https://www.chaincatcher.com/article/2127297

Przedrukowany przez społeczność io.net Binance Square. Pierwotne prawa autorskie i odpowiedzialność za treść należą do pierwotnego autora. Przedruk dokonany przez io.net i Binance Square nie oznacza, że ​​potwierdza lub wspiera niektóre lub wszystkie poglądy przedrukowanej treści.