Autor: Paul Timofeev Źródło: Shoal Research Tłumaczenie: Shan Oppa, Golden Finance

Bada rolę zdecentralizowanej infrastruktury obliczeniowej we wspieraniu rynku zdecentralizowanych procesorów graficznych oraz zapewnia kompleksową analizę i dodatkowe studia przypadków.

Kluczowe wnioski

  • Wraz z rozwojem uczenia maszynowego, a zwłaszcza rozwoju generatywnej sztucznej inteligencji, która wymaga dużej liczby obciążeń obliczeniowych, zasoby obliczeniowe stają się coraz bardziej poszukiwane. Jednak w miarę jak duże firmy i rządy gromadzą te zasoby, start-upy i niezależni programiści borykają się obecnie z niedoborem procesorów graficznych na rynku, co skutkuje wygórowanymi kosztami lub brakiem dostępności.

  • Computing DePIN umożliwiają zdecentralizowany rynek zasobów obliczeniowych, umożliwiając ludziom na całym świecie oferowanie bezczynnych zasobów obliczeniowych, takich jak procesory graficzne, w zamian za nagrody pieniężne. Ma to na celu pomóc mniej popularnym konsumentom procesorów graficznych uzyskać dostęp do nowych strumieni dostaw i uzyskać zasoby programistyczne, których potrzebują do swoich obciążeń, przy niższych kosztach i narzutach.

  • Obecnie przetwarzanie DePINów w dalszym ciągu stoi przed wieloma wyzwaniami ekonomicznymi i technicznymi, konkurując z tradycyjnymi scentralizowanymi dostawcami usług, z których część z czasem rozwiąże się sama, podczas gdy inne będą wymagały w przyszłości nowych rozwiązań i optymalizacji.

Informatyka to nowa ropa naftowa

Od czasu rewolucji przemysłowej technologia popycha ludzkość do przodu w niespotykanym dotychczas tempie, wpływając lub całkowicie zmieniając niemal każdy aspekt codziennego życia. Komputer ostatecznie stał się zwieńczeniem zbiorowego wysiłku badaczy, naukowców i inżynierów komputerowych. Pierwotnie zaprojektowane do rozwiązywania dużych zadań arytmetycznych w celu wspomagania zaawansowanych operacji wojskowych, komputery stały się podstawą współczesnego życia. W miarę jak rośnie wpływ komputerów na ludzkość, popyt na te maszyny i wymagane przez nie zasoby stale rośnie, przewyższając dostępną podaż. To z kolei stworzyło dynamikę na rynku, na którym większość programistów i firm nie ma dostępu do kluczowych zasobów, pozostawiając rozwój uczenia maszynowego i generatywnej sztucznej inteligencji, czyli obecnie najbardziej rewolucyjnych technologii, w rękach kilku dobrze finansowanych graczy. Jednocześnie duże ilości niewykorzystanych zasobów obliczeniowych stanowią lukratywną okazję do złagodzenia braku równowagi między podażą i popytem na moc obliczeniową, co zwiększa potrzebę odpowiednich mechanizmów koordynacji między uczestnikami po obu stronach transakcji. Dlatego wierzymy, że zdecentralizowane systemy oparte na technologii blockchain i zasobach cyfrowych mają kluczowe znaczenie dla rozwoju szerszych, bardziej demokratycznych i odpowiedzialnych produktów i usług generatywnej sztucznej inteligencji.

Zasoby obliczeniowe

Obliczenia można zdefiniować jako dowolną czynność, aplikację lub obciążenie, podczas którego komputer generuje jawne dane wyjściowe w oparciu o dane wejściowe. Ostatecznie odnosi się do mocy obliczeniowej i obliczeniowej komputerów, która stanowi podstawę podstawowej użyteczności tych maszyn w dzisiejszym, nowoczesnym świecie, gdzie same komputery wygenerowały w ubiegłym roku aż 1,1 biliona dolarów przychodów.

Zasoby obliczeniowe odnoszą się do różnych komponentów sprzętu i oprogramowania, które obsługują przetwarzanie i przetwarzanie. W miarę wzrostu liczby aplikacji i funkcji obsługiwanych przez te komponenty, stają się one coraz ważniejsze w życiu codziennym. Doprowadziło to do przepychanek między władzami państwowymi a przedsiębiorstwami w celu zgromadzenia jak największej liczby tych zasobów w celu przetrwania. Znajduje to odzwierciedlenie w wynikach rynkowych firm dostarczających te zasoby (np. Nvidia, której kapitalizacja rynkowa wzrosła o ponad 3000% w ciągu ostatnich 5 lat).

GPU

Jednostki przetwarzania grafiki (GPU) są jednym z najważniejszych zasobów współczesnych obliczeń o wysokiej wydajności. Jego podstawową funkcją jest wyspecjalizowany obwód elektroniczny, który przyspiesza obciążenia grafiki komputerowej poprzez przetwarzanie równoległe. Procesory graficzne, pierwotnie przeznaczone dla branży gier i komputerów osobistych, ewoluowały, aby służyć wielu powstającym technologiom, które będą kształtować świat przyszłości (np. komputery mainframe i komputery osobiste, urządzenia mobilne, przetwarzanie w chmurze, Internet rzeczy). Jednak rozwój uczenia maszynowego i sztucznej inteligencji szczególnie zintensyfikował zapotrzebowanie na te zasoby – procesory graficzne przyspieszają operacje uczenia maszynowego i sztucznej inteligencji, wykonując obliczenia równolegle, zwiększając w ten sposób moc obliczeniową i wydajność finalnej technologii.

Powstanie sztucznej inteligencji

W swej istocie sztuczna inteligencja (AI) to technologia, która umożliwia komputerom i maszynom symulowanie ludzkiej inteligencji i umiejętności rozwiązywania problemów. Model sztucznej inteligencji działa jak sieć neuronowa składająca się z wielu różnych fragmentów danych. Modele wymagają mocy obliczeniowej, aby zidentyfikować i poznać relacje między tymi danymi, a następnie odwoływać się do tych relacji podczas tworzenia wyników w oparciu o dane wejściowe.

Rozwój i produkcja sztucznej inteligencji nie jest niczym nowym; w 1967 roku Frank Rosenblatt zbudował Mark 1 Perceptron, pierwszy komputer oparty na sieciach neuronowych, który „uczył się” metodą prób i błędów. Ponadto pod koniec lat 90. i na początku XXI wieku opublikowano dużą liczbę badań akademickich, które położyły podwaliny pod rozwój nowoczesnej sztucznej inteligencji, a od tego czasu branża stale się rozwija.

Oprócz wysiłków badawczo-rozwojowych „wąskie” modele sztucznej inteligencji stanowią podstawę wielu zaawansowanych aplikacji, które są obecnie używane. Przykłady obejmują algorytmy mediów społecznościowych, Siri firmy Apple i Alexa firmy Amazon, spersonalizowane rekomendacje produktów i nie tylko. Warto zauważyć, że rozwój głębokiego uczenia się zmienił rozwój sztucznej inteligencji generatywnej (AGI). Algorytmy głębokiego uczenia się wykorzystują większe lub „głębsze” sieci neuronowe niż aplikacje do uczenia maszynowego, co stanowi bardziej skalowalną alternatywę o szerszych możliwościach wydajnościowych. Generatywny model sztucznej inteligencji „koduje uproszczoną reprezentację danych szkoleniowych i emituje nowe dane wyjściowe, które są podobne, ale nie identyczne w odniesieniu do nich”.

Głębokie uczenie umożliwia programistom rozszerzanie generatywnych modeli sztucznej inteligencji na obrazy, mowę i inne złożone typy danych, a przełomowe aplikacje, takie jak ChatGPT, które ustanowiły rekordy dla najszybciej rosnącej bazy użytkowników w dzisiejszych czasach, wciąż opierają się wyłącznie na generatywnej sztucznej inteligencji i głębokim uczeniu się Poznaj wczesne wersje tego, co jest możliwe.

Mając to na uwadze, nie jest zaskoczeniem, że rozwój generatywnej sztucznej inteligencji wiąże się z wieloma obciążeniami obliczeniowymi wymagającymi znacznych ilości mocy obliczeniowej i mocy obliczeniowej.

Według raportu „Triple Whammy of Deep Learning Application Demand” tworzenie aplikacji AI podlega kilku kluczowym obciążeniom:

  • Trening — model musi przetwarzać i analizować duże zbiory danych, aby dowiedzieć się, jak reagować na dane wejściowe.

  • Dostrajanie — model przechodzi serię iteracyjnych procesów, podczas których dostraja się i optymalizuje różne hiperparametry w celu poprawy wydajności i jakości.

  • Symulacje — niektóre modele, takie jak algorytmy uczenia się przez wzmacnianie, przed wdrożeniem przechodzą serię symulacji testowych.

Oblicz niedobór: popyt > podaż

W ciągu ostatnich kilku dziesięcioleci różne postępy technologiczne spowodowały bezprecedensowy wzrost zapotrzebowania na moc obliczeniową i moc obliczeniową. W rezultacie dzisiejsze zapotrzebowanie na zasoby obliczeniowe, takie jak procesory graficzne, znacznie przekracza dostępną podaż, tworząc wąskie gardło w rozwoju sztucznej inteligencji, które bez skutecznych rozwiązań będzie się nadal pogłębiać.

Szersze ograniczenia podaży są również spowodowane tym, że duża liczba firm aktywnie kupuje więcej procesorów graficznych, niż faktycznie potrzebuje, zarówno w celu uzyskania przewagi konkurencyjnej, jak i sposobu przetrwania we współczesnej gospodarce globalnej. Dostawcy rozwiązań informatycznych często korzystają ze struktur kontraktowych wymagających długoterminowych zobowiązań kapitałowych, aby zapewnić klientom dostawy znacznie przekraczające ich zapotrzebowanie.

Badania Epoch pokazują, że ogólna liczba wydań modeli sztucznej inteligencji wymagających dużej mocy obliczeniowej szybko rośnie, co sugeruje, że zapotrzebowanie na zasoby niezbędne do zasilania tych technologii będzie w dalszym ciągu szybko rosnąć.

Wraz ze wzrostem złożoności modeli sztucznej inteligencji zapotrzebowanie twórców aplikacji na moc obliczeniową i moc obliczeniową stale rośnie. Z kolei wydajność procesora graficznego i jego dostępność będą odgrywać coraz większą rolę. Tendencja ta już jest widoczna wraz ze wzrostem popytu na wysokiej klasy procesory graficzne, takie jak te produkowane przez firmę Nvidia, które firma nazywa procesorami graficznymi „metalami ziem rzadkich” lub „złotem” branży sztucznej inteligencji.

Szybka komercjalizacja sztucznej inteligencji grozi przekazaniem kontroli garstce gigantów technologicznych, podobnie jak dzisiejsza branża mediów społecznościowych, co budzi obawy co do etycznych podstaw tych modeli. Słynnym przykładem są niedawne kontrowersje związane z Google Gemini. Chociaż wiele dziwacznych reakcji na różne podpowiedzi nie stwarzało wówczas żadnego rzeczywistego zagrożenia, incydent ukazał ryzyko nieodłącznie związane z garstką firm dominujących i kontrolujących rozwój sztucznej inteligencji.

Dzisiejsze start-upy technologiczne stoją przed coraz większymi wyzwaniami związanymi z pozyskiwaniem zasobów obliczeniowych do obsługi swoich modeli sztucznej inteligencji. Aplikacje te wymagają szeroko zakrojonych procesów obliczeniowych przed wdrożeniem modelu. W przypadku małych firm gromadzenie dużej liczby procesorów graficznych jest przedsięwzięciem niezrównoważonym i chociaż tradycyjne usługi przetwarzania w chmurze, takie jak AWS czy Google Cloud, zapewniają płynną i wygodną obsługę programistów, ich ograniczona pojemność ostatecznie prowadzi do wysokich kosztów. Najważniejsze jest to, że nie każdy jest w stanie wymyślić plan zebrania 7 bilionów dolarów na pokrycie kosztów sprzętu.

Co więc zrobić?

Nvidia oszacowała wcześniej, że na całym świecie istnieje ponad 40 000 firm korzystających z procesorów graficznych do celów sztucznej inteligencji i obliczeń akcelerowanych, a społeczność programistów liczy ponad 4 miliony na całym świecie. W przyszłości oczekuje się, że światowy rynek sztucznej inteligencji wzrośnie z 515 miliardów dolarów w 2023 r. do 2,74 biliona dolarów w 2032 r., przy średniej rocznej stopie wzrostu wynoszącej 20,4%. Jednocześnie oczekuje się, że do 2032 r. rynek procesorów graficznych osiągnie wartość 400 miliardów dolarów, przy średniej rocznej stopie wzrostu wynoszącej 25%.

Jednak w następstwie rewolucji sztucznej inteligencji pogłębiająca się nierównowaga między podażą a popytem na zasoby obliczeniowe może stworzyć raczej dystopijną przyszłość, w której garstka dobrze finansowanych gigantów zdominuje rozwój wielu technologii transformacyjnych. Dlatego wierzymy, że wszystkie drogi prowadzą do zdecentralizowanych alternatywnych rozwiązań, które pomogą wypełnić lukę między potrzebami twórców sztucznej inteligencji a dostępnymi zasobami.

Rola DePINów

Czym są DePINy?

DePIN to termin ukuty przez zespół badawczy Messari i oznacza zdecentralizowaną sieć infrastruktury fizycznej. Rozkładając to na czynniki pierwsze, decentralizacja oznacza, że ​​nie ma jednego podmiotu pobierającego czynsz i ograniczającego dostęp. Infrastruktura fizyczna natomiast odnosi się do wykorzystywanych „rzeczywistych” zasobów fizycznych. Sieć odnosi się do grupy aktorów pracujących w skoordynowany sposób, aby osiągnąć z góry określony cel lub zestaw celów. Obecnie całkowita kapitalizacja rynkowa DePINs wynosi około 28,3 miliarda dolarów.

Trzon DePIN stanowi globalna sieć węzłów, która łączy zasoby infrastruktury fizycznej z blockchainem, aby osiągnąć zdecentralizowany rynek, połączyć nabywców i dostawców, a każdy może zostać dostawcą i świadczyć usługi oraz wnosić wkład do sieci. W tym przypadku centralni pośrednicy, którzy ograniczają dostęp do sieci za pomocą różnych środków prawnych i regulacyjnych, a także opłat za usługi, zostają zastąpieni zdecentralizowanymi protokołami składającymi się z inteligentnych kontraktów i kodu, zarządzanymi przez odpowiednich posiadaczy tokenów.

Wartość DePIN polega na tym, że stanowią zdecentralizowaną, dostępną, tanią i skalowalną alternatywę dla tradycyjnych sieci zasobów i dostawców usług. Umożliwiają zdecentralizowane rynki zaprojektowane w celu osiągnięcia określonego celu końcowego; koszt towarów i usług zależy od dynamiki rynku, każdy może w nim uczestniczyć w dowolnym momencie i naturalnie maleje wraz ze wzrostem liczby dostawców i spadkiem marży zysku.

Korzystanie z blockchain umożliwia DePINom budowanie kryptoekonomicznych systemów zachęt, które pomagają zapewnić uczestnikom sieci odpowiednie wynagrodzenie za swoje usługi, co czyni interesariuszami kluczowych dostawców wartości. Należy jednak zauważyć, że efekty sieciowe osiągnięte poprzez przekształcenie małych pojedynczych sieci w większe systemy produkcyjne mają kluczowe znaczenie dla wykorzystania wielu korzyści płynących z DePINów. Ponadto, chociaż nagrody w formie tokenów okazały się potężnym sposobem na wprowadzenie nowych rozwiązań do sieci, ustanowienie trwałych zachęt pomagających w utrzymaniu użytkowników i długoterminowym przyjęciu pozostaje kluczowym wyzwaniem w szerszej przestrzeni DePIN.

Jak działają DePINy?

Aby lepiej zrozumieć wartość, jaką DePIN wnoszą we wspieraniu zdecentralizowanego rynku przetwarzania danych, ważne jest rozpoznanie różnych elementów strukturalnych i sposobu, w jaki współpracują one ze sobą, tworząc zdecentralizowaną sieć zasobów. Rozważmy strukturę i aktorów DePIN.

protokół

Zdecentralizowany protokół, zestaw inteligentnych kontraktów zbudowany na bazie podstawowej sieci blockchain, służy do ułatwiania opartych na zaufaniu interakcji między uczestnikami sieci. W idealnym przypadku protokół byłby zarządzany przez zróżnicowaną grupę interesariuszy aktywnie zaangażowanych w długoterminowy sukces sieci. Ci interesariusze następnie głosują nad proponowanymi zmianami i udoskonaleniami, korzystając z posiadanych przez siebie tokenów protokołu. Biorąc pod uwagę, że pomyślna koordynacja sieci rozproszonej sama w sobie jest ogromnym wyzwaniem, główny zespół zazwyczaj zachowuje początkowo uprawnienia do wdrażania tych zmian, a następnie przekazuje władzę zdecentralizowanej organizacji autonomicznej (DAO).

uczestnicy sieci

Użytkownicy końcowi sieci zasobów są jej najcenniejszymi uczestnikami i można ich klasyfikować ze względu na ich funkcjonalność.

Dostawca: osoba fizyczna lub podmiot, który zapewnia zasoby sieci w zamian za nagrody pieniężne wypłacane w natywnych tokenach DePIN. Dostawcy są „podłączeni” do sieci za pośrednictwem natywnych protokołów blockchain, które mogą wymuszać proces umieszczony na białej liście lub proces niewymagający uprawnień. Otrzymując tokeny, dostawcy zyskują udziały w sieci, podobnie jak zainteresowane strony w kontekście własności kapitału, umożliwiając im głosowanie nad różnymi propozycjami i rozwojem sieci, takimi jak te, które ich zdaniem pomogą zwiększyć popyt i zwiększyć Propozycję wartości sieci, tworząc w ten sposób wyższe ceny tokenów w czasie. Oczywiście jest również prawdopodobne, że dostawcy otrzymujący tokeny wykorzystują DePIN jako formę pasywnego dochodu i sprzedają tokeny zaraz po ich otrzymaniu.

Konsumenci: są to osoby lub podmioty aktywnie poszukujące zasobów zapewnianych przez DePIN, np. start-upy zajmujące się sztuczną inteligencją poszukujące procesorów graficznych, reprezentujące stronę popytową równania ekonomicznego. Jeżeli stosowanie DePIN-ów przyniesie realne korzyści w porównaniu z tradycyjnymi alternatywami (takie jak niższe koszty i wymagania ogólne), konsumenci będą zmuszeni do korzystania z DePIN-ów, reprezentując w ten sposób organiczny popyt na sieć. DePIN zazwyczaj wymagają od konsumentów płacenia za zasoby w ich natywnym tokenie w celu tworzenia wartości i utrzymywania stabilnych przepływów pieniężnych.

ratunek

DePINy mogą obsługiwać różne rynki i alokować zasoby przy użyciu różnych modeli biznesowych. Blockworks zapewnia do tego doskonałe ramy; niestandardowe sprzętowe DePIN, które zapewniają dostawcom dedykowany, zastrzeżony sprzęt do alokacji; oraz standardowe sprzętowe DePIN, które umożliwiają przypisanie istniejących bezczynnych zasobów (w tym między innymi mocy obliczeniowej, pamięci masowej i przepustowości).

Ekonomia

W idealnie funkcjonującym DePIN wartość powstaje w wyniku przychodów, jakie konsumenci płacą zasobom dostawcy. Ciągły popyt na sieć oznacza ciągły popyt na token natywny, co pokrywa się z zachętami ekonomicznymi dla dostawców i posiadaczy tokenów. Generowanie zrównoważonego popytu organicznego na wczesnych etapach stanowi wyzwanie dla większości start-upów, dlatego DePIN zapewniają inflacyjne bodźce symboliczne, aby zachęcić wczesnych dostawców i zwiększyć podaż w sieci, generując w ten sposób popyt, który wygeneruje więcej dostaw organicznych. Przypomina to sposób, w jaki VC dotowały koszty przejazdów Ubera na wczesnych etapach działalności firmy, aby pozyskać początkową bazę klientów, jeszcze bardziej przyciągnąć kierowców i poprawić efekty sieciowe.

DePIN muszą zarządzać zachętami związanymi z tokenami w sposób możliwie strategiczny, ponieważ odgrywają one kluczową rolę w ogólnym sukcesie sieci. Kiedy popyt i przychody sieci wzrosną, emisja tokenów powinna się zmniejszyć. Zamiast tego, gdy popyt i przychody spadną, należy ponownie wykorzystać emisję tokenów w celu ponownego pobudzenia podaży.

Aby lepiej zilustrować, jak wygląda skuteczna sieć DePIN, rozważ „koło zamachowe DePIN”, dodatnią pętlę odblaskową używaną do prowadzenia DePIN. Podsumowanie w następujący sposób:

  1. DePIN zachęca dostawców do wnoszenia zasobów do sieci poprzez dystrybucję inflacyjnych nagród w postaci tokenów i ustanawia podstawowy poziom podaży dostępnej do konsumpcji.

  2. Zakładając, że liczba dostawców zacznie rosnąć, w sieci zacznie rozwijać się dynamika konkurencji, podnosząc ogólną jakość towarów i usług dostarczanych przez sieć do poziomu lepszego niż istniejące rozwiązania rynkowe, uzyskując tym samym przewagę konkurencyjną. Oznacza to, że zdecentralizowany system przewyższa tradycyjnych scentralizowanych dostawców usług, co nie jest łatwym zadaniem.

  3. DePIN zaczął generować popyt organiczny, zapewniając dostawcom legalny przepływ środków pieniężnych. Stanowi to atrakcyjną szansę dla inwestorów i dostawców, w dalszym ciągu napędzając popyt na sieć, a tym samym ceny tokenów.

Wzrost ceny symbolu zwiększa przychody dostawców, przyciąga więcej dostawców i ponownie uruchamia koło zamachowe.

Ramy te zapewniają przekonujące strategie wzrostu, warto jednak zauważyć, że mają one w dużej mierze charakter teoretyczny i zakładają, że sieć dostarcza zasoby w sposób konkurencyjny i pozostanie istotna przez długi okres czasu.​

Oblicz DePIN

Zdecentralizowany rynek przetwarzania danych wchodzi w zakres szerszego ruchu znanego jako „ekonomia współdzielenia” – systemu gospodarczego typu peer-to-peer opartego na konsumentach dzielących się towarami i usługami bezpośrednio z innymi konsumentami za pośrednictwem platform internetowych. Model ten został zapoczątkowany przez firmy takie jak eBay, obecnie jest zdominowany przez firmy takie jak Airbnb i Uber i ostatecznie zostanie zakłócony, gdy następna generacja technologii transformacyjnych zaleje rynki światowe. Gospodarka współdzielenia będzie warta 15 miliardów dolarów do 2023 r. i oczekuje się, że do 2031 r. wzrośnie do prawie 80 miliardów dolarów na całym świecie, co ilustruje szersze trendy w zachowaniach konsumentów, z których naszym zdaniem DePIN odniesie korzyści i odegra kluczową rolę w realizacji tego trendu.​

Fundamentalny

Computing DePIN to sieć typu peer-to-peer, która łączy dostawców i nabywców za pośrednictwem zdecentralizowanego rynku i ułatwia alokację zasobów obliczeniowych. Kluczowa różnica między tymi sieciami polega na tym, że skupiają się one na standardowych zasobach sprzętowych, które są już dziś dostępne dla wielu ludzi. Jak już wspomnieliśmy, pojawienie się głębokiego uczenia się i generatywnej sztucznej inteligencji stworzyło wąskie gardło w dostępie do zasobów kluczowych dla rozwoju sztucznej inteligencji poprzez gwałtowny wzrost zapotrzebowania na moc obliczeniową ze względu na obciążenia wymagające dużych zasobów. Krótko mówiąc, zdecentralizowane rynki komputerowe mają na celu złagodzenie tych wąskich gardeł poprzez utworzenie nowego przepływu dostaw — takiego, który obejmuje cały świat i może w nim uczestniczyć każdy.​

Obliczając DePIN, każda osoba lub podmiot może natychmiast pożyczyć swoje niewykorzystane zasoby i otrzymać odpowiednią rekompensatę za swoje usługi. Jednocześnie każda osoba lub podmiot może uzyskać niezbędne zasoby z globalnej sieci niewymagającej zezwoleń przy niższych kosztach i większej elastyczności niż istniejące produkty rynkowe. Dlatego możemy uporządkować uczestników zaangażowanych w obliczanie DePIN za pomocą prostych ram ekonomicznych:

  • Strona podaży: osoba fizyczna lub podmiot będący właścicielem zasobów obliczeniowych i chcący pożyczyć lub sprzedać swoje zasoby komputerowe w zamian za dotacje.

  • Strona popytowa: osoba lub podmiot, który potrzebuje obliczeń i jest skłonny za nie zapłacić.​

Kluczowe zalety obliczania DePINów

Computing DePIN oferuje wiele zalet, które czynią go alternatywą dla scentralizowanych dostawców usług i rynków. Po pierwsze, zezwolenie na transgraniczny udział w rynku bez zezwolenia otwiera nowy strumień dostaw, zwiększając ilość zasobów krytycznych wymaganych do obsługi obciążeń wymagających dużej mocy obliczeniowej. Compute DePIN skupiają się na zasobach sprzętowych, które większość ludzi już posiada — każdy posiadacz komputera do gier ma już kartę graficzną dostępną do wynajęcia. Poszerza to pulę programistów i zespołów, którzy mogą uczestniczyć w tworzeniu towarów i usług nowej generacji, z korzyścią dla większej liczby ludzi na całym świecie.

Patrząc głębiej, infrastruktura blockchain obsługująca DePIN zapewnia wydajny i skalowalny kanał rozliczeniowy ułatwiający transakcje peer-to-peer. Kryptopochodne aktywa finansowe (tokeny) zapewniają wspólną jednostkę wartości, którą uczestnicy strony popytu wykorzystują do płacenia dostawcom, wykorzystując mechanizmy dystrybucji spójne z dzisiejszą, coraz bardziej zglobalizowaną gospodarką. Odnosząc się do wspomnianej wcześniej struktury koła zamachowego DePIN, strategiczne zarządzanie zachętami ekonomicznymi może być bardzo korzystne w celu zwiększenia efektów sieciowych (strony podaży i popytu) DePIN, zwiększając w ten sposób konkurencję między dostawcami. Ta dynamika zmniejsza koszty jednostkowe, jednocześnie poprawiając jakość usług, tworząc trwałą przewagę konkurencyjną dla DePIN, z której dostawcy mogą czerpać korzyści jako posiadacze tokenów i dostawcy kluczowych wartości.

DePINy działają podobnie do dostawców usług przetwarzania w chmurze, a ich celem jest zapewnienie elastycznego doświadczenia użytkownika, w którym można uzyskać dostęp do zasobów i zapłacić za nie na żądanie. Według prognozy Grandview Research wielkość globalnego rynku przetwarzania w chmurze będzie rosła średniorocznie na poziomie 21,2% i do 2030 r. przekroczy 2,4 biliona dolarów, co potwierdza wykonalność tego modelu biznesowego, biorąc pod uwagę przyszłe zapotrzebowanie na zasoby obliczeniowe Prognoza popytu. Nowoczesne platformy przetwarzania w chmurze wykorzystują centralny serwer do obsługi całej komunikacji pomiędzy urządzeniami klienckimi a serwerami, tworząc pojedynczy punkt awarii w ich działaniu. Zbudowane na blockchainie, DePINy mogą zapewnić większą odporność na cenzurę i odporność niż tradycyjni dostawcy usług. Chociaż atak na pojedynczą organizację lub podmiot (taki jak centralny dostawca usług w chmurze) może zagrozić całej sieci podstawowych zasobów, kody DePIN są zaprojektowane tak, aby były odporne na takie incydenty ze względu na ich rozproszony charakter. Po pierwsze, sam blockchain jest globalnie rozproszoną siecią prywatnych węzłów, zaprojektowaną tak, aby opierać się scentralizowanej władzy sieciowej. Dodatkowo obliczanie DePINów pozwala na uczestnictwo w sieci bez pozwolenia, omijając bariery prawne i regulacyjne. W zależności od charakteru dystrybucji tokenów, DePINy mogą zastosować uczciwy proces głosowania w sprawie proponowanych zmian i udoskonaleń protokołu, eliminując możliwość nagłego zamknięcia całej sieci przez jeden podmiot.

Obecny stan obliczania DePINów

Renderuj sieć

Render Network to obliczeniowy DePIN, który łączy kupujących i sprzedających procesory graficzne za pośrednictwem zdecentralizowanego rynku obliczeniowego, a transakcje przeprowadzane są za pośrednictwem jego natywnego tokena. Rynek procesorów graficznych Render obejmuje dwie kluczowe strony – twórców poszukujących mocy obliczeniowej oraz operatorów węzłów, którzy wynajmują bezczynne procesory graficzne w zamian za wynagrodzenie w natywnych tokenach Render. Operatorzy węzłów są klasyfikowani na podstawie systemu opartego na reputacji, a twórcy mogą wybierać procesory graficzne z wielopoziomowego systemu cen. Algorytm konsensusu Proof-of-Render (POR) koordynuje operacje, a operatorzy węzłów angażują swoje zasoby obliczeniowe (GPU) do obsługi zadań, a mianowicie renderowania grafiki. Po zakończeniu zadania algorytm POR aktualizuje status operatora węzła, w tym zmiany wyniku reputacji w oparciu o jakość zadania. Infrastruktura blockchain firmy Render ułatwia płatności za zadania, zapewniając dostawcom i nabywcom przejrzysty i wydajny kanał rozliczeniowy umożliwiający dokonywanie transakcji za pośrednictwem tokenów sieciowych.

Render Network został wymyślony przez Julesa Urbacha w 2009 r., a sieć została uruchomiona w Ethereum we wrześniu 2020 r. (RNDR), a około trzy lata później migrowała do Solana (RENDER) w celu poprawy wydajności sieci i zmniejszenia kosztów operacyjnych.

W chwili pisania tego tekstu sieć renderująca przetworzyła do 33 milionów zadań (pod względem wyrenderowanych klatek) i od momentu powstania rozrosła się do 5600 węzłów. Spalono nieco mniej niż 60 tys. RENDER. Jest to proces, który ma miejsce, gdy kredyty za pracę są rozdzielane pomiędzy operatorów węzłów.

Sieć we/wy

Io Net uruchamia zdecentralizowaną sieć GPU na platformie Solana, która ma służyć jako warstwa koordynacyjna pomiędzy ogromną ilością bezczynnych zasobów obliczeniowych a rosnącą liczbą osób i podmiotów potrzebujących mocy obliczeniowej zapewnianej przez te zasoby. Unikalną zaletą Io Net jest to, że nie konkuruje bezpośrednio z innymi DePINami na rynku, ale zamiast tego agreguje procesory graficzne z różnych źródeł, w tym z centrów danych, górników i innych DePINów, w tym Render Network i Filecoin, jednocześnie wykorzystując zastrzeżone DePIN-y — Internet-of- Procesory graficzne (IoG) — w celu koordynowania działań i dostosowywania zachęt wśród uczestników rynku. Klienci IO Net mogą dostosowywać klastry w IO Cloud do swoich obciążeń, wybierając typ procesora, lokalizację, szybkość komunikacji, zgodność i czas trwania usługi. Zamiast tego każdy, kto ma obsługiwany model procesora graficznego (12 GB RAM, 256 GB SSD) może uczestniczyć w projekcie jako pracownik IO i otrzymywać wynagrodzenie, udostępniając swoje bezczynne zasoby obliczeniowe w sieci. Chociaż płatności za usługi rozliczane są obecnie w walutach fiducjarnych i USDC, sieć wkrótce będzie obsługiwać także płatności w natywnym tokenie $IO. Cena płacona za zasób jest określana na podstawie jego podaży i popytu, a także różnych specyfikacji procesora graficznego i algorytmów konfiguracyjnych. Ostatecznym celem Io Net jest stać się preferowanym rynkiem procesorów graficznych, oferując niższe koszty i lepszą jakość usług niż nowi dostawcy usług w chmurze.

Wielowarstwową architekturę IO można odwzorować w następujący sposób:

  • Warstwa interfejsu użytkownika – składa się z publicznej witryny internetowej, obszaru klienta i obszaru roboczego.

  • Warstwa zabezpieczeń — ta warstwa składa się z zapór sieciowych do ochrony sieci, usług uwierzytelniania do uwierzytelniania użytkowników i usług rejestrowania w celu śledzenia działań.

  • Warstwa API — ta warstwa służy jako warstwa komunikacyjna i składa się z publicznych interfejsów API, prywatnych interfejsów API oraz wewnętrznych interfejsów API do zarządzania klastrem, analizowania oraz monitorowania i raportowania.

  • Warstwa zaplecza — warstwa zaplecza zarządza obszarami roboczymi, operacjami klastra/GPU, interakcjami z klientami, monitorowaniem rozliczeń i użycia, analizą i autoskalowaniem.

  • Warstwa bazy danych — ta warstwa jest repozytorium danych systemu, wykorzystującym podstawową pamięć masową dla danych strukturalnych i pamięć podręczną dla często używanych danych tymczasowych.

  • Message Broker i warstwa zadań – ta warstwa ułatwia asynchroniczną komunikację i zarządzanie zadaniami.

  • Warstwa infrastruktury — ta warstwa zawiera pule procesorów graficznych, narzędzia do orkiestracji i zarządza wdrażaniem zadań.

Aktualne statystyki/mapa drogowa:

W chwili pisania tego tekstu:

  • Całkowite przychody sieci: 1,08 miliona dolarów

  • Łącznie obliczone godziny: 837,6 tys. godzin

  • Całkowita liczba procesorów graficznych gotowych do klastra: 20,4 tys

  • Całkowita liczba procesorów przygotowujących klaster: 5,6 tys

  • Łączna liczba transakcji w sieci: 1,67 mln

  • Całkowita liczba wniosków: 335,7 tys

  • Łączna liczba utworzonych klastrów: 15,1 tys

Dane pochodzą z Io Net Explorer.

Oni pójdą

Aethir to DePIN do przetwarzania w chmurze, który ułatwia współdzielenie zasobów obliczeniowych o wysokiej wydajności w domenach i aplikacjach wymagających dużej mocy obliczeniowej. Wykorzystuje pule zasobów, aby umożliwić globalną alokację procesora graficznego przy znacznie obniżonych kosztach i umożliwia zdecentralizowaną własność poprzez rozproszoną własność zasobów. Firma Aether zaprojektowała rozproszoną platformę GPU specjalnie ukierunkowaną na obciążenia o wysokiej wydajności, takie jak gry i trenowanie i wnioskowanie modeli sztucznej inteligencji. Łącząc klastry GPU w jedną sieć, Aethir ma na celu zwiększenie rozmiaru klastra, poprawiając w ten sposób ogólną wydajność i niezawodność usług świadczonych w swojej sieci.

Aethir Network to zdecentralizowana gospodarka złożona z górników, programistów, użytkowników, posiadaczy tokenów i DAO Aethir. Trzy kluczowe role zapewniające pomyślne działanie sieci to kontenery, indeksatory i inspektorzy. Kontenery to węzły mocy sieci, służące jako dedykowane węzły, które wykonują kluczowe operacje mające na celu utrzymanie aktywności sieci, w tym sprawdzanie poprawności transakcji i renderowanie treści cyfrowych w czasie rzeczywistym. Kontrolerzy to pracownicy zapewnienia jakości, którzy stale monitorują wydajność kontenera i jakość usług, aby zapewnić niezawodne i wydajne działanie spełniające potrzeby konsumentów procesorów graficznych. Indeksator pełni funkcję mechanizmu dopasowującego pomiędzy użytkownikiem a najlepszym dostępnym kontenerem. Podstawą tej struktury jest blockchain Arbitrum Layer 2, który zapewnia zdecentralizowaną warstwę rozliczeniową ułatwiającą płatności za towary i usługi w sieci Aethir przy użyciu natywnego tokena $ATH.

Oddaj dowód

Węzły w sieci Aethir pełnią dwie kluczowe funkcje – renderowanie Proof of Capability, które losowo wybiera grupę pracowników co 15 minut w celu sprawdzenia transakcji, oraz renderowanie Proof of Work, które ściśle monitoruje wydajność sieci, aby zapewnić użytkownikom najlepszą możliwą obsługę, w oparciu o na żądanie i lokalizację geograficzną Dostosuj zasoby. Nagrody za wydobycie są dystrybuowane w formie natywnych tokenów $ATH wśród uczestników obsługujących węzły sieci Aethir w zamian za zapewniane przez nich zasoby obliczeniowe.

I dziecko

Nosana to zdecentralizowana sieć GPU zbudowana na platformie Solana. Nosana umożliwia każdemu udostępnianie bezczynnych zasobów obliczeniowych i otrzymywanie za to nagród w postaci tokenów $NOS. DePIN ułatwia przydzielanie ekonomicznych procesorów graficznych, które można wykorzystać do obsługi złożonych obciążeń AI bez narzutów związanych z tradycyjnymi rozwiązaniami chmurowymi. Każdy może uruchomić węzeł Nosana, wynajmując bezczynne procesory graficzne i zdobywając nagrody w postaci tokenów proporcjonalne do mocy procesora graficznego dostarczanego do sieci.

Sieć łączy dwie strony alokujące zasoby obliczeniowe: użytkowników poszukujących dostępu do zasobów obliczeniowych oraz operatorów węzłów udostępniających zasoby obliczeniowe. Ważne decyzje dotyczące protokołu i aktualizacje są głosowane przez posiadaczy tokenów NOS i zarządzane przez Nosana DAO.

Nosana przedstawiła szczegółowy plan działania dotyczący swoich przyszłych planów – Galactica (wersja 1.0 – pierwsza połowa 2024 r.) uruchomi sieć główną, udostępni CLI i SDK oraz skoncentruje się na rozbudowie sieci za pośrednictwem węzłów kontenerowych dla konsumenckich procesorów graficznych. Triangulum (wersja 1.X – druga połowa 2024 r.) zintegruje główne protokoły i złącza uczenia maszynowego dla PyTorch, HuggingFace i TensorFlow. Whirlpool (wersja 1.X - pierwsza połowa 2025 r.) rozszerzy obsługę różnych procesorów graficznych firm AMD, Intel i Apple Silicon. Sombrero (v1.

Akash

Sieć Akash to sieć typu open source typu proof-of-stake zbudowana na Cosmos SDK, zdecentralizowanym rynku przetwarzania w chmurze, który umożliwia każdemu dołączenie i wniesienie wkładu. Token $AKT służy do zabezpieczania sieci, ułatwiania płatności za zasoby i koordynowania wyrównania ekonomicznego między uczestnikami sieci. Sieć Akash składa się z kilku kluczowych elementów:

  • Warstwa Blockchain wykorzystująca Tendermint Core i Cosmos SDK w celu zapewnienia konsensusu.

  • Warstwa aplikacji zarządza wdrażaniem i alokacją zasobów.

  • Warstwa dostawcy zarządza zasobami, ustalaniem stawek i wdrażaniem aplikacji użytkownika.

  • Warstwa użytkownika umożliwiająca użytkownikom interakcję z siecią Akash, zarządzanie zasobami i monitorowanie stanu aplikacji za pośrednictwem interfejsu CLI, konsoli i pulpitów nawigacyjnych.

Sieć, która początkowo skupiała się na usługach leasingu pamięci masowej i procesorów, później rozszerzyła leasing i alokację procesorów graficznych za pośrednictwem platformy AkashML w odpowiedzi na wzrost obciążeń związanych ze szkoleniem i wnioskowaniem AI oraz ich zapotrzebowaniem na moc obliczeniową. AkashML korzysta z systemu „aukcji odwrotnej”, w którym klienci (zwani najemcami) podają cenę, jaką chcą zapłacić za procesor graficzny, a dostawcy rozwiązań obliczeniowych (zwani dostawcami) konkurują w dostarczaniu żądanych procesorów graficznych.

W chwili pisania tego tekstu w łańcuchu bloków Akash przeprowadzono łącznie ponad 12,9 miliona transakcji, na dostęp do zasobów obliczeniowych wykorzystano ponad 535 000 dolarów i wynajęto ponad 189 tys. unikalnych wdrożeń.

Inne projekty warte wspomnienia

Dziedzina obliczeniowego DePIN wciąż ewoluuje, a wiele zespołów ściga się, aby wprowadzić na rynek innowacyjne i wydajne rozwiązania. Inne przykłady warte dalszego zbadania to: Hyperbolic buduje wspólną platformę otwartego dostępu do pul zasobów przeznaczonych do rozwoju sztucznej inteligencji, Exabits buduje rozproszoną sieć mocy obliczeniowej zasilaną przez koparki obliczeniowe, a Shaga buduje platformę na platformie Solana, która umożliwia wypożyczanie komputerów PC i walutowanie sieć do gier po stronie serwera.

Ważne uwagi i perspektywy na przyszłość

Teraz, gdy zrozumieliśmy podstawowe zasady obliczania DePIN i dokonaliśmy przeglądu kilku aktualnie prowadzonych dodatkowych studiów przypadków, ważne jest, aby rozważyć konsekwencje tych zdecentralizowanych sieci, w tym zalety i wady.

wyzwanie

Budowanie sieci rozproszonych na dużą skalę często wymaga kompromisów pomiędzy wydajnością, bezpieczeństwem i odpornością. Na przykład szkolenie modelu sztucznej inteligencji w globalnie rozproszonej sieci sprzętu towarowego może być mniej opłacalne i czasochłonne. Jak wspomniano wcześniej, modele sztucznej inteligencji i związane z nimi obciążenia stają się coraz bardziej złożone, co wymaga stosowania bardziej wydajnych procesorów graficznych niż standardowych procesorów graficznych.

Właśnie dlatego duże firmy gromadzą wysokowydajne procesory graficzne, co jest nieodłącznym wyzwaniem w obliczeniach DePIN i próbach rozwiązania problemu niedoborów procesorów graficznych poprzez utworzenie niewymagającego pozwolenia rynku, na którym każdy może pożyczyć niewykorzystane zasoby. Protokoły mogą rozwiązać ten problem na dwa główne sposoby: poprzez ustawienie podstawowych wymagań dla dostawców procesorów graficznych chcących wnieść swój wkład do sieci oraz poprzez połączenie zasobów obliczeniowych dostarczonych do sieci w celu uzyskania większego zestawu. Jednak ten model jest z natury większym wyzwaniem niż scentralizowany dostawca usług, który może przeznaczyć więcej kapitału na bezpośrednią współpracę z dostawcami sprzętu, takimi jak Nvidia. DePIN-y powinni wziąć to pod uwagę w przyszłości. Jeśli zdecentralizowany protokół ma wystarczająco duży skarbiec, DAO może głosować za przeznaczeniem części środków na zakup wysokowydajnych procesorów graficznych, którymi można zarządzać w sposób zdecentralizowany i wynajmować po wyższej cenie niż standardowe procesory graficzne.

Kolejnym wyzwaniem specyficznym dla obliczania DePINów jest zarządzanie odpowiednią ilością wykorzystania zasobów. Na wczesnych etapach większość obliczeniowych DePIN będzie borykać się z niewystarczającym zapotrzebowaniem strukturalnym, z jakim boryka się obecnie wiele startupów. Ogólnie rzecz biorąc, wyzwaniem dla DePIN jest zapewnienie wystarczającej podaży na wczesnym etapie, aby osiągnąć minimalną realną jakość produktu. Bez dostaw sieć nie będzie w stanie generować zrównoważonego popytu i obsługiwać klientów w okresach szczytowego zapotrzebowania. Drugą stroną równania jest obawa związana z nadwyżką podaży. Powyżej pewnego progu większe świadczenie jest korzystne tylko wtedy, gdy wykorzystanie sieci zbliża się do pełnej przepustowości lub osiąga ją. W przeciwnym razie DePIN będzie narażony na ryzyko przepłacenia za dostawy, co z kolei doprowadzi do niepełnego wykorzystania zasobów, co spowoduje zmniejszenie przychodów dostawców, chyba że protokół zwiększy emisję tokenów w celu zatrzymania dostawców.

Podobnie jak sieć telekomunikacyjna bez szerokiego zasięgu geograficznego jest bezużyteczna, tak sieć taksówek jest bezużyteczna, jeśli pasażerowie muszą zbyt długo czekać na przejazd. DePIN jest bezużyteczny, jeśli ma długoterminowo płacić ludziom za zapewnianie zasobów. Podczas gdy scentralizowani dostawcy usług mogą przewidywać zapotrzebowanie na zasoby i efektywnie zarządzać podażą, obliczeniowym DePINom brakuje centralnego organu zarządzającego tym wykorzystaniem. Dlatego DePIN muszą być szczególnie strategiczne przy ustalaniu wykorzystania zasobów.

Większym pytaniem dla zdecentralizowanego rynku procesorów graficznych jest to, że niedobory procesorów graficznych mogą dobiegać końca. Mark Zuckerberg powiedział niedawno w wywiadzie, że jego zdaniem wąskim gardłem w przyszłości będzie energia, a nie zasoby obliczeniowe, ponieważ firmy będą teraz spieszyć się z budowaniem dużej liczby centrów danych, zamiast gromadzić zasoby obliczeniowe, jak to ma miejsce obecnie. Oczywiście oznacza to, że koszt procesorów graficznych prawdopodobnie spadnie ze względu na wolniejszy popyt, ale rodzi to również pytanie, jak startupy AI poradzą sobie pod względem wydajności i wydajności, jeśli budowa własnych centrów danych podniesie poprzeczkę dla wydajności modeli AI do niespotykanego dotąd poziomu konkurować z dużymi firmami pod względem jakości usług.

Studium przypadku obliczania DePIN

Powtórzmy, że istnieje coraz większa rozbieżność między złożonością modeli sztucznej inteligencji a ich późniejszymi potrzebami w zakresie przetwarzania i obliczeń a ilością dostępnych wysokowydajnych procesorów graficznych i innych zasobów obliczeniowych.

Obliczeniowe DePINy mają potencjał do innowacyjnych zmian w segmencie rynku obliczeniowego, który jest dziś zdominowany przez głównych producentów sprzętu i dostawców usług przetwarzania w chmurze, w oparciu o kilka kluczowych możliwości:

  1. Zapewnij niższe koszty towarów i usług.

  2. Zapewnia większą odporność na cenzurę i gwarancje odporności sieci.

  3. Potencjalne wytyczne regulacyjne dotyczące korzystania ze sztucznej inteligencji wymagają, aby modele sztucznej inteligencji były jak najbardziej otwarte na potrzeby dostrajania i szkolenia oraz aby każdy mógł łatwo uzyskać do nich dostęp w dowolnym miejscu.

Odsetek gospodarstw domowych w USA wyposażonych w komputery i dostęp do Internetu wzrósł wykładniczo, zbliżając się do 100%. Znaczący wzrost odnotowano także w wielu częściach świata. Sugeruje to, że potencjalni dostawcy zasobów obliczeniowych (właściciele procesorów graficznych) mogą być skłonni pożyczać niewykorzystane zasoby, biorąc pod uwagę wystarczające zachęty pieniężne i płynny proces transakcji. Oczywiście jest to bardzo przybliżony szacunek, ale sugeruje, że mogą już istnieć podstawy zrównoważonej gospodarki współdzielenia zasobów obliczeniowych.

Poza sztuczną inteligencją przyszłe zapotrzebowanie na obliczenia będzie pochodzić także z wielu innych branż, takich jak obliczenia kwantowe. Oczekuje się, że wielkość rynku obliczeń kwantowych wzrośnie z 928,8 mln USD w 2023 r. do 6,5288 mld USD w 2030 r., przy średniej rocznej stopie wzrostu wynoszącej 32,1%. Produkcja w tej branży będzie wymagała różnego rodzaju zasobów, ale ciekawie będzie zobaczyć, czy zostaną wprowadzone na rynek jakiekolwiek DePINy do obliczeń kwantowych i jak będą wyglądać.

„Silny ekosystem modeli open source działających na sprzęcie konsumenckim to ważny środek zaradczy chroniący przyszłą wartość przed nadmierną centralizacją w sztucznej inteligencji i przy znacznie niższych kosztach niż w przypadku gigantów korporacyjnych i wojska”.

Duże przedsiębiorstwa mogą nie być docelowymi odbiorcami DePIN i nie będą. Obliczenia DePIN ponownie wzmacniają pozycję indywidualnych programistów, małych przedsiębiorców i start-upów dysponujących ograniczonymi zasobami. Umożliwiają konwersję niewykorzystanych zasobów w innowacyjne pomysły i rozwiązania wynikające z obfitości większej ilości zasobów obliczeniowych. Sztuczna inteligencja niewątpliwie zmieni życie miliardów ludzi. Zamiast martwić się, że zastąpi ona pracę wszystkich, powinniśmy propagować pogląd, że sztuczna inteligencja może wzmocnić pozycję jednostek, osób rozpoczynających działalność na własny rachunek, start-upów i szerszej opinii publicznej.