Autor:PAUL TIMOFEEV

Zusammengestellt von: Deep Wave TechFlow

Die zentralen Thesen

  • Rechenressourcen werden mit dem Aufkommen von maschinellem Lernen und Deep Learning für die generative KI-Entwicklung immer beliebter, die beide große rechenintensive Arbeitslasten erfordern. Da jedoch große Unternehmen und Regierungen diese Ressourcen anhäufen, sind Startups und unabhängige Entwickler nun mit einem Mangel an GPUs auf dem Markt konfrontiert, was zu überhöhten Kosten und/oder der Unzugänglichkeit von Ressourcen führt.

  • Computing DePINs ermöglicht die Schaffung eines dezentralen Marktplatzes für Rechenressourcen wie GPUs, indem es jedem auf der Welt ermöglicht, seinen ungenutzten Vorrat gegen finanzielle Belohnungen anzubieten. Dies soll unterversorgten GPU-Kunden helfen, Zugang zu neuen Lieferkanälen zu erhalten, um die für ihre Arbeitslasten benötigten Entwicklungsressourcen zu geringeren Kosten und Gemeinkosten zu erhalten.

  • Die Berechnung von DePINs steht im Wettbewerb mit herkömmlichen zentralisierten Dienstanbietern immer noch vor vielen wirtschaftlichen und technischen Herausforderungen, von denen sich einige mit der Zeit von selbst lösen werden, während andere neue Lösungen und Optimierungen erfordern.

Computing ist das neue Öl

Seit der industriellen Revolution hat die Technologie die Menschheit in einem beispiellosen Tempo vorangetrieben und nahezu jeden Aspekt des täglichen Lebens beeinflusst oder völlig verändert. Computer entstanden letztendlich als Höhepunkt der gemeinsamen Bemühungen von Forschern, Akademikern und Computeringenieuren. Ursprünglich für die Lösung umfangreicher Rechenaufgaben bei fortgeschrittenen Militäroperationen konzipiert, haben sich Computer zu einer tragenden Säule des modernen Lebens entwickelt. Da der Einfluss von Computern auf die Menschheit weiterhin in beispiellosem Tempo zunimmt, wächst die Nachfrage nach diesen Maschinen und den Ressourcen, die sie antreiben, weiter und übersteigt das verfügbare Angebot. Dies wiederum hat zu einer Marktdynamik geführt, in der den meisten Entwicklern und Unternehmen der Zugang zu kritischen Ressourcen fehlt, sodass die Entwicklung von maschinellem Lernen und generativer künstlicher Intelligenz – einer der transformativsten Technologien heute – in den Händen einiger weniger Akteure liegt ausreichend Kapital. Gleichzeitig bietet das große Angebot an ungenutzten Rechenressourcen eine lukrative Gelegenheit, das Ungleichgewicht zwischen Rechenangebot und -nachfrage zu lindern, was den Bedarf an Koordinierungsmechanismen zwischen beiden Parteien erhöht. Daher glauben wir, dass dezentrale Systeme, die auf Blockchain-Technologie und digitalen Assets basieren, für die umfassendere, demokratischere und verantwortungsvollere Entwicklung generativer KI-Produkte und -Dienste von entscheidender Bedeutung sind.

Rechenressourcen

Computing kann als eine Vielzahl von Aktivitäten, Anwendungen oder Arbeitslasten definiert werden, bei denen ein Computer explizite Ausgaben basierend auf bestimmten Eingaben ausgibt. Letztendlich bezieht es sich auf die Rechen- und Verarbeitungsleistung von Computern, die den Kernnutzen dieser Maschinen darstellt, die viele Teile der modernen Welt antreiben und allein im vergangenen Jahr einen Umsatz von satten 1,1 Billionen US-Dollar generiert haben.

Rechenressourcen beziehen sich auf die verschiedenen Hardware- und Softwarekomponenten, die die Datenverarbeitung und -verarbeitung ermöglichen. Da die Anzahl der Anwendungen und Funktionen, die sie ermöglichen, weiter zunimmt, werden diese Komponenten immer wichtiger und im täglichen Leben der Menschen immer präsenter. Dies hat zu einem Gerangel zwischen Staatsgewalten und Unternehmen geführt, um so viele dieser Ressourcen wie möglich anzuhäufen, um zu überleben. Dies spiegelt sich in der Marktleistung der Unternehmen wider, die diese Ressourcen bereitstellen (z. B. Nvidia, dessen Marktkapitalisierung in den letzten 5 Jahren um mehr als 3000 % gestiegen ist).

Grafikkarte

Die GPU ist eine der wichtigsten Ressourcen im modernen Hochleistungsrechnen. Die Kernfunktion einer GPU besteht darin, als spezialisierter Schaltkreis zu fungieren, der Computergrafik-Workloads durch Parallelverarbeitung beschleunigt. GPUs dienten ursprünglich der Spiele- und PC-Branche, haben sich jedoch weiterentwickelt und dienen nun vielen neuen Technologien, die die Welt von morgen prägen werden (z. B. Konsolen und PCs, mobile Geräte, Cloud Computing, das Internet der Dinge). Die Nachfrage nach diesen Ressourcen ist jedoch aufgrund des Aufkommens von maschinellem Lernen und künstlicher Intelligenz besonders gestiegen – durch die parallele Ausführung von Berechnungen beschleunigen GPUs ML- und KI-Vorgänge und verbessern so die Verarbeitungsleistung und Fähigkeiten der resultierenden Technologie.

Der Aufstieg der KI

Der Kern der KI besteht darin, Computern und Maschinen die Simulation menschlicher Intelligenz und Problemlösungsfähigkeiten zu ermöglichen. KI-Modelle bestehen als neuronale Netze aus vielen verschiedenen Datenblöcken. Modelle benötigen Rechenleistung, um Beziehungen zwischen diesen Daten zu identifizieren und zu lernen und sich dann auf diese Beziehungen zu beziehen, wenn sie Ausgaben basierend auf gegebenen Eingaben erstellen.

Entgegen der landläufigen Meinung ist die Entwicklung und Produktion von KI nicht neu; 1967 baute Frank Rosenblatt den Mark 1 Perceptron, den ersten Computer, der auf neuronalen Netzen basierte und durch Versuch und Irrtum „lernte“. Darüber hinaus wurde ein Großteil der akademischen Forschung, die den Grundstein für die Entwicklung der KI, wie wir sie heute kennen, legte, in den späten 1990er und frühen 2000er Jahren veröffentlicht, und die Branche hat sich seitdem kontinuierlich weiterentwickelt.

Neben der Forschungs- und Entwicklungsarbeit sind „schmale“ KI-Modelle heute bereits in einer Vielzahl leistungsstarker Anwendungen im Einsatz. Beispiele hierfür sind Social-Media-Algorithmen wie Siri von Apple und Alexa von Amazon, individuelle Produktempfehlungen und mehr. Insbesondere der Aufstieg des Deep Learning hat die Entwicklung der künstlichen generativen Intelligenz (AGI) verändert. Deep-Learning-Algorithmen nutzen größere oder „tiefere“ neuronale Netze als Anwendungen für maschinelles Lernen und stellen eine skalierbarere und leistungsfähigere Alternative dar. Generative KI-Modelle „kodieren eine vereinfachte Darstellung ihrer Trainingsdaten und beziehen sich darauf, um neue Ausgaben zu erzeugen, die ähnlich, aber nicht identisch sind.“

Deep Learning ermöglicht es Entwicklern, generative KI-Modelle auf Bilder, Sprache und andere komplexe Datentypen zu erweitern, und wegweisende Apps wie ChatGPT, das Rekorde für das schnellste Benutzerwachstum in der Neuzeit aufgestellt hat, sind nur einige der Möglichkeiten, die mit generativer KI möglich sind und tiefes Lernen.

Vor diesem Hintergrund sollte es nicht überraschen, dass die generative KI-Entwicklung mehrere rechenintensive Arbeitslasten umfasst, die erhebliche Mengen an Rechenleistung und Rechenleistung erfordern.

Gemäß dem Dreiklang der Anforderungen an Deep-Learning-Anwendungen wird die Entwicklung von KI-Anwendungen durch mehrere wichtige Arbeitslasten begrenzt;

  • Training – Das Modell muss große Datensätze verarbeiten und analysieren, um zu lernen, wie es auf gegebene Eingaben reagiert.

  • Optimierung – Das Modell durchläuft eine Reihe iterativer Prozesse, bei denen verschiedene Hyperparameter abgestimmt und optimiert werden, um Leistung und Qualität zu verbessern.

  • Simulationen – Einige Modelle, wie z. B. Reinforcement-Learning-Algorithmen, durchlaufen vor der Bereitstellung eine Reihe von Simulationen zum Testen.

Kalkulationskrise: Die Nachfrage übersteigt das Angebot

In den letzten Jahrzehnten haben viele technologische Fortschritte zu einem beispiellosen Anstieg der Nachfrage nach Rechen- und Rechenleistung geführt. Infolgedessen übersteigt die Nachfrage nach Rechenressourcen wie GPUs heute das verfügbare Angebot bei weitem, was zu einem Engpass in der KI-Entwicklung führt, der ohne effektive Lösungen nur weiter zunehmen wird.

Die umfassenderen Lieferengpässe werden zusätzlich durch die große Zahl von Unternehmen verstärkt, die GPUs über ihren eigentlichen Bedarf hinaus kaufen, sowohl als Wettbewerbsvorteil als auch als Überlebensmittel in der modernen globalen Wirtschaft. Computeranbieter verwenden häufig Vertragsstrukturen, die langfristige Kapitalbindungen erfordern und den Kunden mehr Angebot bieten, als ihre Nachfrage erfordert.

Die Forschung von Epoch zeigt, dass die Gesamtzahl rechenintensiver KI-Modellveröffentlichungen schnell zunimmt, was darauf hindeutet, dass der Ressourcenbedarf, der diese Technologien antreibt, weiterhin schnell zunehmen wird.

Da die Komplexität von KI-Modellen weiter zunimmt, steigen auch die Anforderungen an die Rechen- und Verarbeitungsleistung von Anwendungsentwicklern. Die Leistung der GPU und deren spätere Verfügbarkeit werden wiederum eine immer wichtigere Rolle spielen. Dies geschieht bereits aufgrund der wachsenden Nachfrage nach High-End-GPUs, wie sie beispielsweise von Nvidia hergestellt werden, das GPUs als „Seltenerdmetalle“ oder „Gold“ der KI-Industrie anpreist.

Die rasche Kommerzialisierung von KI birgt die Gefahr, dass die Kontrolle an eine Handvoll Technologiegiganten übergeben wird, ähnlich wie in der heutigen Social-Media-Branche, was Bedenken hinsichtlich der ethischen Grundlagen dieser Modelle aufkommen lässt. Ein berühmtes Beispiel ist die jüngste Kontroverse um Google Gemini. Obwohl seine vielen bizarren Reaktionen auf verschiedene Aufforderungen zu diesem Zeitpunkt keine wirkliche Gefahr darstellten, zeigte der Vorfall die inhärenten Risiken auf, die damit verbunden sind, dass eine kleine Anzahl von Unternehmen die KI-Entwicklung dominieren und kontrollieren.

Heutige Technologie-Startups stehen vor zunehmenden Herausforderungen bei der Beschaffung von Rechenressourcen zur Unterstützung ihrer KI-Modelle. Diese Anwendungen führen vor der Modellbereitstellung viele rechenintensive Prozesse durch. Für kleinere Unternehmen ist die Anhäufung einer großen Anzahl von GPUs ein weitgehend unhaltbares Unterfangen, und herkömmliche Cloud-Computing-Dienste wie AWS oder Google Cloud bieten zwar ein nahtloses und bequemes Entwicklererlebnis, verfügen jedoch über eine begrenzte Kapazität. Dies führt letztendlich zu hohen Kosten, die sich viele Entwickler nicht leisten können . Letztlich schafft es nicht jeder, 7 Billionen US-Dollar aufzubringen, um die Kosten für seine Hardware zu decken.

Was ist der Grund?

Nvidia schätzt, dass mehr als 40.000 Unternehmen weltweit GPUs für KI und beschleunigtes Computing nutzen und die Entwicklergemeinschaft mehr als 4 Millionen Menschen umfasst. Mit Blick auf die Zukunft wird erwartet, dass der globale KI-Markt von 515 Milliarden US-Dollar im Jahr 2023 auf 2,74 Billionen US-Dollar im Jahr 2032 wachsen wird, mit einer durchschnittlichen jährlichen Wachstumsrate von 20,4 %. Gleichzeitig wird erwartet, dass der GPU-Markt bis 2032 400 Milliarden US-Dollar erreichen wird, mit einer durchschnittlichen jährlichen Wachstumsrate von 25 %.

Allerdings könnte das wachsende Ungleichgewicht zwischen Angebot und Nachfrage nach Rechenressourcen im Zuge der KI-Revolution eine eher utopische Zukunft schaffen, in der eine Handvoll gut finanzierter Giganten die Entwicklung transformativer Technologien zentral dominieren. Daher glauben wir, dass alle Wege zu dezentralen Alternativlösungen führen, um die Lücke zwischen den Bedürfnissen der KI-Entwickler und den verfügbaren Ressourcen zu schließen.

DePINs Rolle

Was sind DePINs?

DePIN ist ein vom Forschungsteam von Messari geprägter Begriff und steht für Decentralized Physical Infrastructure Network. Dezentralisierung bedeutet insbesondere, dass es keine einzelne Einheit gibt, die Mieten einzieht und den Zugang einschränkt. Physische Infrastruktur bezieht sich auf die physischen Ressourcen, die im „realen Leben“ genutzt werden. Ein Netzwerk bezieht sich auf eine Gruppe von Akteuren, die koordiniert zusammenarbeiten, um ein vorgegebenes Ziel oder eine Reihe von Zielen zu erreichen. Heute beträgt die gesamte Marktkapitalisierung von DePINs etwa 28,3 Milliarden US-Dollar.

Das Herzstück von DePINs ist ein globales Netzwerk von Knotenpunkten, die physische Infrastrukturressourcen mit der Blockchain verbinden, um einen dezentralen Marktplatz zu schaffen, der Käufer und Lieferanten von Ressourcen verbindet, auf dem jeder Lieferant werden und für seine Dienstleistungen und Wertbeiträge bezahlt werden kann Netzwerk. In diesem Fall wird ein zentraler Vermittler, der den Zugang zum Netzwerk durch verschiedene rechtliche und regulatorische Mittel sowie Servicegebühren einschränkt, durch ein dezentrales Protokoll ersetzt, das aus intelligenten Verträgen und Code besteht und von den entsprechenden Token-Inhabern verwaltet wird.

Der Wert von DePINs besteht darin, dass sie eine dezentrale, zugängliche, kostengünstige und skalierbare Alternative zu herkömmlichen Ressourcennetzwerken und Dienstanbietern bieten. Sie ermöglichen es dezentralen Märkten, bestimmte Endziele zu bedienen; die Kosten für Waren und Dienstleistungen werden durch die Marktdynamik bestimmt und jeder kann jederzeit teilnehmen, wodurch die Stückkosten auf natürliche Weise aufgrund einer Erhöhung der Anzahl der Lieferanten und einer Minimierung der Gewinnmargen gesenkt werden.

Durch den Einsatz von Blockchain können DePINs kryptoökonomische Anreizsysteme aufbauen, die dazu beitragen, dass Netzwerkteilnehmer für ihre Dienste angemessen entlohnt werden, wodurch wichtige Wertanbieter zu Stakeholdern werden. Es ist jedoch wichtig zu beachten, dass Netzwerkeffekte, die durch die Umwandlung kleiner persönlicher Netzwerke in größere, produktivere Systeme erzielt werden, der Schlüssel zur Verwirklichung der vielen Vorteile von DePINs sind. Darüber hinaus haben sich Token-Belohnungen zwar als leistungsstarkes Instrument für Netzwerk-Bootstrap-Mechanismen erwiesen, die Schaffung nachhaltiger Anreize zur Unterstützung der Benutzerbindung und der langfristigen Akzeptanz bleibt jedoch eine zentrale Herausforderung im breiteren DePIN-Bereich.

Wie funktionieren DePINs?

Um den Wert von DePINs für die Ermöglichung des dezentralen Computermarkts besser zu verstehen, ist es wichtig, die verschiedenen beteiligten Strukturkomponenten zu erkennen und zu erkennen, wie sie zusammenarbeiten, um ein dezentrales Ressourcennetzwerk zu bilden. Betrachten wir die Struktur und die Akteure von DePIN.

Protokoll

Ein dezentrales Protokoll, eine Reihe intelligenter Verträge, die auf einem zugrunde liegenden „Basisschicht“-Blockchain-Netzwerk aufbauen, wird verwendet, um vertrauenslose Interaktionen zwischen Netzwerkteilnehmern zu ermöglichen. Idealerweise sollte ein Protokoll von einer vielfältigen Gruppe von Interessengruppen verwaltet werden, die sich aktiv dafür einsetzen, zum langfristigen Erfolg des Netzwerks beizutragen. Diese Stakeholder nutzen dann ihren Anteil an den Protokoll-Tokens, um über vorgeschlagene Änderungen und Entwicklungen in DePIN abzustimmen. Da die erfolgreiche Koordinierung eines verteilten Netzwerks an sich schon eine große Herausforderung darstellt, behält das Kernteam in der Regel die Macht, diese Änderungen zunächst umzusetzen, und überträgt die Macht dann an eine dezentrale autonome Organisation (DAO).

Netzwerkteilnehmer

Die Endnutzer eines Ressourcennetzwerks sind dessen wertvollste Teilnehmer und können anhand ihrer Funktionalität klassifiziert werden.

  • Anbieter: Eine natürliche oder juristische Person, die dem Netzwerk Ressourcen im Austausch für monetäre Belohnungen bereitstellt, die in nativen DePIN-Tokens gezahlt werden. Anbieter „verbinden“ sich mit dem Netzwerk über Blockchain-native Protokolle, die einen On-Chain-Prozess auf der Whitelist oder einen erlaubnisfreien Prozess erzwingen können. Durch den Erhalt von Token erhalten Anbieter einen Anteil am Netzwerk, ähnlich wie Stakeholder im Kontext von Kapitalbeteiligungen, und können so über verschiedene Vorschläge und Entwicklungen im Netzwerk abstimmen, beispielsweise über solche, die ihrer Meinung nach dazu beitragen, die Nachfrage und den Netzwerkwert zu steigern im Laufe der Zeit höhere Token-Preise schaffen. Natürlich können Anbieter, die Token erhalten, DePINs auch als eine Form des passiven Einkommens nutzen und die Token nach Erhalt verkaufen.

  • Verbraucher: Hierbei handelt es sich um Einzelpersonen oder Organisationen, die aktiv nach von DePIN bereitgestellten Ressourcen suchen, beispielsweise KI-Startups, die nach GPUs suchen und die Nachfrageseite der Wirtschaftsgleichung darstellen. Wenn die Verwendung von DePIN gegenüber herkömmlichen Alternativen echte Vorteile bietet (z. B. geringere Kosten und Gemeinkosten), werden Verbraucher von der Verwendung von DePIN angezogen und stellen somit eine organische Nachfrage nach dem Netzwerk dar. DePINs erfordern in der Regel, dass Verbraucher für Ressourcen in ihren nativen Token bezahlen, um Wert zu generieren und einen stabilen Cashflow aufrechtzuerhalten.

Ressource

DePINs können unterschiedliche Märkte bedienen und unterschiedliche Geschäftsmodelle zur Ressourcenallokation übernehmen. Blockworks bietet ein gutes Framework: kundenspezifische Hardware-DePINs, die dedizierte proprietäre Hardware für die Verteilung durch Lieferanten bereitstellen; Standard-Hardware-DePINs, die die Verteilung vorhandener ungenutzter Ressourcen ermöglichen, einschließlich, aber nicht beschränkt auf Rechenleistung, Speicher und Bandbreite.

Wirtschaftsmodell

In einem ideal funktionierenden DePIN ergibt sich der Wert aus den Einnahmen, die Verbraucher für Lieferantenressourcen zahlen. Eine anhaltende Nachfrage nach dem Netzwerk bedeutet eine anhaltende Nachfrage nach dem nativen Token, was mit den wirtschaftlichen Anreizen für Anbieter und Token-Inhaber übereinstimmt. Für die meisten Start-ups stellt die Generierung einer nachhaltigen Bio-Nachfrage in der Anfangsphase eine Herausforderung dar. Aus diesem Grund bietet DePINs inflationäre Token-Anreize, um Anreize für frühe Lieferanten zu schaffen und die Versorgung des Netzwerks anzukurbeln, um Nachfrage und damit eine organischere Versorgung zu generieren. Dies ähnelt der Art und Weise, wie Risikokapitalfirmen in der Anfangsphase von Uber die Fahrpreisgebühren subventionierten, um den anfänglichen Kundenstamm zu stärken, weitere Fahrer anzuziehen und die Netzwerkeffekte zu verbessern.

DePINs müssen Token-Anreize so strategisch wie möglich verwalten, da sie eine Schlüsselrolle für den Gesamterfolg des Netzwerks spielen. Wenn die Nachfrage und die Netzwerkeinnahmen steigen, sollte die Ausgabe von Token zurückgehen. Wenn Nachfrage und Umsatz zurückgehen, sollte stattdessen die Ausgabe von Token erneut als Anreiz für das Angebot genutzt werden.

Um weiter zu veranschaulichen, wie ein erfolgreiches DePIN-Netzwerk aussieht, betrachten Sie das „DePIN-Schwungrad“, eine positive Rückkopplungsschleife, die DePINs leitet. Zusammengefasst wie folgt:

  1. DePIN verteilt inflationäre Token-Belohnungen, um Anbieter zu motivieren, Ressourcen zum Netzwerk beizutragen und ein für den Verbrauch verfügbares Grundangebot zu schaffen.

  2. Unter der Annahme, dass die Zahl der Anbieter zu wachsen beginnt, beginnt sich im Netzwerk eine Wettbewerbsdynamik zu entwickeln, die die Gesamtqualität der vom Netzwerk bereitgestellten Waren und Dienstleistungen erhöht, bis es Dienstleistungen bereitstellt, die den bestehenden Marktlösungen überlegen sind, und so einen Wettbewerbsvorteil erlangt. Das bedeutet, dass dezentrale Systeme traditionelle zentralisierte Dienstleister übertreffen, was keine leichte Aufgabe ist.

  3. Es begann sich eine organische Nachfrage nach DePIN zu bilden, die den Lieferanten einen legitimen Cashflow verschaffte. Dies stellt eine attraktive Chance für Investoren und Anbieter dar und treibt die Netzwerknachfrage und damit die Token-Preise weiter voran.

  4. Ein Anstieg des Token-Preises erhöht den Lieferantenumsatz, zieht mehr Lieferanten an und bringt das Schwungrad wieder in Schwung.

Dieser Rahmen bietet eine überzeugende Wachstumsstrategie, obwohl es wichtig ist zu beachten, dass er weitgehend theoretisch ist und die anhaltende Wettbewerbsattraktivität der vom Netzwerk bereitgestellten Ressourcen voraussetzt.

DePINs berechnen

Der dezentrale Computermarkt ist Teil einer breiteren Bewegung, die als „Sharing Economy“ bekannt ist, einem Peer-to-Peer-Wirtschaftssystem, das darauf basiert, dass Verbraucher Waren und Dienstleistungen über Online-Plattformen direkt mit anderen Verbrauchern teilen. Dieses Modell wurde von Unternehmen wie eBay ins Leben gerufen, wird heute von Unternehmen wie Airbnb und Uber dominiert und steht kurz vor der Zerstörung, da die nächste Generation transformativer Technologien die globalen Märkte erobert. Die Sharing Economy wird im Jahr 2023 einen Wert von 150 Milliarden US-Dollar haben und bis 2031 voraussichtlich auf fast 800 Milliarden US-Dollar anwachsen. Dies veranschaulicht breitere Trends im Verbraucherverhalten, von denen wir glauben, dass DePINs davon profitieren und eine Schlüsselrolle spielen werden.

Grundlegend

Computing DePINs sind Peer-to-Peer-Netzwerke, die Lieferanten und Käufer über einen dezentralen Marktplatz verbinden, um die Zuweisung von Computerressourcen zu erleichtern. Ein wesentliches Unterscheidungsmerkmal dieser Netzwerke ist ihr Fokus auf Standard-Hardwareressourcen, die sich bereits heute in den Händen vieler Menschen befinden. Wie wir besprochen haben, hat das Aufkommen von Deep Learning und generativer KI aufgrund ihrer ressourcenintensiven Arbeitslasten zu einem Anstieg der Nachfrage nach Rechenleistung geführt, was zu einem Engpass für die KI-Entwicklung beim Zugriff auf kritische Ressourcen geführt hat. Einfach ausgedrückt zielt der dezentrale Computermarkt darauf ab, diese Engpässe zu lindern, indem er einen neuen Versorgungsfluss schafft – einen, der die ganze Welt umspannt und an dem jeder teilnehmen kann.

Bei der Berechnung von DePIN kann jede Einzelperson oder Organisation jederzeit ihre ungenutzten Ressourcen zur Verfügung stellen und eine angemessene Entschädigung erhalten. Gleichzeitig kann jede Einzelperson oder Organisation zu geringeren Kosten und mit größerer Flexibilität als bei bestehenden Marktprodukten auf die erforderlichen Ressourcen aus dem globalen erlaubnisfreien Netzwerk zugreifen. Daher können wir die Akteure bei der Berechnung von DePINs anhand eines einfachen wirtschaftlichen Rahmens beschreiben:

  • Angebotsseite: Eine natürliche oder juristische Person, die Computerressourcen besitzt und bereit ist, ihre Computerressourcen gegen Subventionen zu verleihen oder zu verkaufen.

  • Nachfrageseite: Eine Person oder Organisation, die Rechenressourcen benötigt und bereit ist, dafür einen Preis zu zahlen.

Hauptvorteile der Berechnung von DePINs

Die Berechnung von DePINs bietet eine Reihe von Vorteilen, die es zu einer attraktiven Alternative zu zentralisierten Dienstleistern und Märkten machen. Erstens erschließt die Ermöglichung einer erlaubnisfreien grenzüberschreitenden Marktteilnahme einen neuen Versorgungsstrom und erhöht die Menge an kritischen Ressourcen, die für rechenintensive Arbeitslasten erforderlich sind. Compute DePINs konzentrieren sich auf Hardwareressourcen, die die meisten Menschen bereits besitzen – jeder, der einen Gaming-PC besitzt, verfügt bereits über eine GPU zur Miete. Dadurch wird der Pool an Entwicklern und Teams erweitert, die sich am Aufbau der nächsten Generation von Waren und Dienstleistungen beteiligen können, was mehr Menschen auf der ganzen Welt zugutekommt.

Darüber hinaus bietet die Blockchain-Infrastruktur, die DePINs unterstützt, eine effiziente und skalierbare Abwicklungsschiene zur Erleichterung der für Peer-to-Peer-Transaktionen erforderlichen Mikrozahlungen. Krypto-native Finanzanlagen (Tokens) stellen eine gemeinsame Werteinheit dar, die nachfrageseitige Akteure zur Bezahlung von Lieferanten nutzen, und sorgen so durch einen Verteilungsmechanismus für wirtschaftliche Anreize, der mit der zunehmend globalisierten Wirtschaft von heute im Einklang steht. Bezugnehmend auf das DePIN-Schwungrad, das wir zuvor entwickelt haben, kann die strategische Steuerung wirtschaftlicher Anreize sehr hilfreich sein, um die Netzwerkeffekte von DePIN zu steigern (sowohl auf der Angebots- als auch auf der Nachfrageseite), was wiederum den Wettbewerb zwischen den Anbietern erhöht. Diese Dynamik reduziert die Stückkosten und verbessert gleichzeitig die Servicequalität, was einen nachhaltigen Wettbewerbsvorteil für DePIN schafft, von dem Anbieter als Token-Inhaber und Schlüsselwertanbieter profitieren können.

DePINs ähneln Cloud-Computing-Dienstanbietern hinsichtlich der flexiblen Benutzererfahrung, die sie bieten möchten, wobei auf Ressourcen bei Bedarf zugegriffen und diese bezahlt werden können. Gemäß der Prognose von Grandview Research wird die Größe des globalen Cloud-Computing-Marktes voraussichtlich mit einer durchschnittlichen jährlichen Wachstumsrate von 21,2 % wachsen und bis 2030 mehr als 2,4 Billionen US-Dollar erreichen, was die Machbarkeit eines solchen Geschäftsmodells im Kontext zeigt Zukünftiges Wachstum der Nachfrage nach Rechenressourcen. Moderne Cloud-Computing-Plattformen nutzen zentrale Server, um die gesamte Kommunikation zwischen Client-Geräten und Servern abzuwickeln, wodurch ein Single Point of Failure in ihren Abläufen entsteht. Da DePINs jedoch auf Blockchain basieren, bieten sie eine größere Zensurresistenz und Widerstandsfähigkeit als herkömmliche Dienstleister. Der Angriff auf eine einzelne Organisation oder Entität, beispielsweise einen zentralen Cloud-Dienstanbieter, gefährdet das gesamte zugrunde liegende Ressourcennetzwerk, und DePINs sind aufgrund ihrer verteilten Natur darauf ausgelegt, solchen Vorfällen standzuhalten. Erstens ist die Blockchain selbst ein weltweit verteiltes Netzwerk privater Knoten, das darauf ausgelegt ist, der zentralisierten Netzwerkautorität zu widerstehen. Darüber hinaus ermöglicht die Berechnung von DePINs eine erlaubnislose Netzwerkteilnahme unter Umgehung rechtlicher und regulatorischer Hindernisse. Abhängig von der Art der Token-Verteilung könnten DePINs einen fairen Abstimmungsprozess anwenden, um über vorgeschlagene Änderungen und Entwicklungen des Protokolls abzustimmen, wodurch die Möglichkeit ausgeschlossen wird, dass eine einzelne Einheit plötzlich das gesamte Netzwerk abschaltet.

Der Stand der DePIN-Berechnung heute

Render-Netzwerk

Render Network ist ein Computing-DePIN, das Käufer und Verkäufer von GPUs über einen dezentralen Computing-Marktplatz verbindet, wobei Transaktionen über ihre nativen Token abgewickelt werden. Am GPU-Markt von Render sind zwei Hauptparteien beteiligt: ​​Entwickler, die Zugang zu Rechenleistung suchen, und Knotenbetreiber, die ungenutzte GPUs an Entwickler vermieten und dafür eine Vergütung in Form lokaler Render-Tokens erhalten. Knotenbetreiber werden anhand eines Reputationssystems eingestuft, und Entwickler können GPUs aus einem mehrstufigen Preissystem auswählen. Der Proof-of-Render (POR)-Konsensalgorithmus koordiniert Vorgänge, wobei Knotenbetreiber ihre Rechenressourcen (GPUs) für die Bearbeitung von Aufgaben, nämlich Grafik-Rendering-Arbeiten, einsetzen. Nach Abschluss einer Aufgabe aktualisiert der POR-Algorithmus den Status des Knotenbetreibers, einschließlich Änderungen im Reputationswert basierend auf der Aufgabenqualität. Die Blockchain-Infrastruktur von Render erleichtert Zahlungen für Arbeit und bietet Lieferanten und Käufern einen transparenten und effizienten Abwicklungsweg für Transaktionen über Netzwerk-Tokens.

Render Network wurde ursprünglich von Jules Urbach im Jahr 2009 konzipiert. Das Netzwerk ging im September 2020 auf Ethereum (RNDR) live und migrierte etwa drei Jahre später zu Solana (RENDER), um die Netzwerkleistung zu verbessern und die Betriebskosten zu senken.

Zum jetzigen Zeitpunkt hat das Render-Netzwerk bis zu 33 Millionen Aufgaben verarbeitet (gemessen als gerenderte Frames), und die Gesamtzahl der Knoten ist seit seiner Gründung auf 5.600 angewachsen. Ungefähr 60.000 RENDERs wurden zerstört, ein Prozess, der bei der Verteilung von Arbeitsguthaben an Knotenbetreiber auftritt.

IO-Netz

Io Net startet ein dezentrales GPU-Netzwerk auf Solana, das als Koordinierungsschicht zwischen großen Mengen ungenutzter Rechenressourcen und den Einzelpersonen und Organisationen dient, die die von diesen Ressourcen bereitgestellte Rechenleistung benötigen. Das Alleinstellungsmerkmal von Io Net besteht darin, dass es nicht direkt mit anderen DePINs auf dem Markt konkurriert, sondern GPUs aus einer Vielzahl von Quellen aggregiert, darunter Rechenzentren, Miner und andere DePINs wie Render Network und Filecoin, und dabei proprietäre DePINs nutzt — —Internet- of-GPUs (IoG), um den Betrieb zu koordinieren und die Anreize für Marktteilnehmer auszurichten. IO Net-Kunden können ihre Workload-Cluster auf IO Cloud anpassen, indem sie Prozessortyp, Standort, Kommunikationsgeschwindigkeit, Compliance und Servicezeiten auswählen. Stattdessen kann jeder mit einem unterstützten GPU-Modell (12 GB RAM, 256 GB SSD) als IO Worker teilnehmen und dem Netzwerk seine ungenutzten Rechenressourcen zur Verfügung stellen. Während Zahlungen für Dienstleistungen derzeit in Fiat und USDC abgewickelt werden, wird das Netzwerk bald auch Zahlungen im nativen $IO-Token unterstützen. Der Preis einer Ressource wird durch Angebot und Nachfrage sowie verschiedene GPU-Spezifikationen und Konfigurationsalgorithmen bestimmt. Das ultimative Ziel von Io Net besteht darin, der GPU-Markt der Wahl zu werden, indem es niedrigere Kosten und eine höhere Servicequalität als moderne Cloud-Dienstanbieter bietet.

Die mehrschichtige IO-Architektur lässt sich wie folgt abbilden:

  • UI-Ebene – besteht aus einer öffentlichen Website, einem Kundenbereich und einem Mitarbeiterbereich.

  • Sicherheitsschicht – Diese Schicht besteht aus einer Firewall zum Netzwerkschutz, einem Authentifizierungsdienst zur Benutzerauthentifizierung und einem Protokollierungsdienst zur Verfolgung von Aktivitäten.

  • API-Schicht – Diese Schicht dient als Kommunikationsschicht und besteht aus einer öffentlichen API (für die Website verwendet), einer privaten API (für Worker verwendet) und einer internen API (für Cluster-Management, Analyse und Überwachungsberichte verwendet).

  • Backend-Schicht – Die Backend-Schicht verwaltet Worker, Cluster-/GPU-Vorgänge, Kundeninteraktionen, Abrechnungs- und Nutzungsüberwachung, Analysen und automatische Skalierung.

  • Datenbankschicht – Diese Schicht ist das Datenrepository des Systems und nutzt Primärspeicher (für strukturierte Daten) und Cache (für häufig aufgerufene temporäre Daten).

  • Nachrichtenbroker und Aufgabenschicht – Diese Schicht erleichtert die asynchrone Kommunikation und Aufgabenverwaltung.

  • Infrastrukturschicht – Diese Schicht enthält GPU-Pools, Orchestrierungstools und verwaltet die Aufgabenbereitstellung.

Aktuelle Statistiken/Roadmap

  • Zum jetzigen Zeitpunkt:

  • Gesamtumsatz des Netzwerks: 1,08 Mio. USD

  • Gesamtrechenstunden: 837,6.000 Stunden

  • Gesamtzahl der Cluster-fähigen GPUs – 20,4 KB

  • Gesamtzahl der Cluster-fähigen CPUs – 5,6 KB

  • Gesamtzahl der On-Chain-Transaktionen – 1,67 Mio

  • Gesamtzahl der Schlussfolgerungen – 335,7.000

  • Insgesamt erstellte Cluster: 15,1.000

(Daten stammen vom Io Net Explorer)

Sie werden gehen

Aethir ist ein Cloud-Computing-DePIN, das die gemeinsame Nutzung von Hochleistungsrechnerressourcen in rechenintensiven Bereichen und Anwendungen fördert. Es nutzt das Ressourcen-Pooling, um eine globale GPU-Zuteilung zu deutlich reduzierten Kosten zu erreichen und ermöglicht eine dezentrale Eigentümerschaft durch verteilte Ressourceneigentümerschaft. Aethir ist für Hochleistungs-Workloads konzipiert und eignet sich für Branchen wie Gaming sowie KI-Modelltraining und -Inferenz. Durch die Zusammenführung von GPU-Clustern in einem einzigen Netzwerk ist Aethir darauf ausgelegt, die Clustergröße zu erhöhen und dadurch die Gesamtleistung und Zuverlässigkeit der in seinem Netzwerk bereitgestellten Dienste zu verbessern.

Aethir Network ist eine dezentrale Wirtschaft, die aus Minern, Entwicklern, Benutzern, Token-Inhabern und Aethir DAO besteht. Die drei Schlüsselrollen, die einen erfolgreichen Netzwerkbetrieb gewährleisten, sind Container, Indexer und Inspektoren. Container sind die Kernknoten des Netzwerks und führen wichtige Vorgänge aus, die die Lebendigkeit des Netzwerks aufrechterhalten, einschließlich der Validierung von Transaktionen und der Darstellung digitaler Inhalte in Echtzeit. Prüfer fungieren als Qualitätssicherungspersonal und überwachen kontinuierlich die Containerleistung und Servicequalität, um einen zuverlässigen und effizienten Betrieb für GPU-Kunden sicherzustellen. Der Indexer fungiert als Matcher zwischen dem Benutzer und dem besten verfügbaren Container. Grundlage dieser Struktur ist die Arbitrum Layer 2-Blockchain, die eine dezentrale Abwicklungsschicht für die Zahlung von Waren und Dienstleistungen in nativen $ATH-Tokens im Aethir-Netzwerk bietet.

Beweis erbringen

Knoten im Aethir-Netzwerk erfüllen zwei Schlüsselfunktionen: Sie erbringen einen Kapazitätsnachweis, bei dem alle 15 Minuten eine Reihe dieser Worker-Knoten zufällig ausgewählt werden, um Transaktionen zu validieren, und erbringen einen Arbeitsnachweis, der die Netzwerkleistung genau überwacht, um sicherzustellen, dass Benutzer das bestmögliche Ergebnis erhalten Service entsprechend der Anpassung der Ressourcen an die Nachfrage und die Geografie. Miner-Belohnungen werden an Teilnehmer verteilt, die Knoten im Aethir-Netzwerk betreiben, berechnet als Wert der ihnen verliehenen Rechenressourcen und werden in nativen $ATH-Tokens bezahlt.

Und das Baby

Nosana ist ein dezentrales GPU-Netzwerk, das auf Solana basiert. Mit Nosana kann jeder ungenutzte Computerressourcen beisteuern und dafür Belohnungen in Form von $NOS-Tokens erhalten. DePIN ermöglicht eine kostengünstige GPU-Zuweisung, mit der komplexe KI-Workloads ohne den Overhead herkömmlicher Cloud-Lösungen ausgeführt werden können. Jeder kann einen Nosana-Knoten betreiben, indem er seine ungenutzten GPUs ausleiht und so Token-Belohnungen proportional zur GPU-Leistung erhält, die er dem Netzwerk zur Verfügung stellt.

Das Netzwerk verbindet zwei Parteien, die Rechenressourcen zuweisen: Benutzer, die Zugang zu Rechenressourcen suchen, und Knotenbetreiber, die Rechenressourcen bereitstellen. Über wichtige Protokollentscheidungen und -aktualisierungen wird von den NOS-Token-Inhabern abgestimmt und vom Nosana DAO verwaltet.

Nosana hat eine umfangreiche Roadmap für seine Zukunftspläne – Galactica (v1.0 – H1/2024) wird das Mainnet starten, CLI und SDK veröffentlichen und sich auf die Skalierung des Netzwerks mit Containerknoten auf Consumer-GPUs konzentrieren. Triangulum (v1.X – 2H24) wird wichtige Protokolle und Konnektoren für maschinelles Lernen wie PyTorch, HuggingFace und TensorFlow integrieren. Whirlpool (v1.X – erstes Halbjahr 2025) wird die Unterstützung für verschiedene GPUs von AMD, Intel und Apple Silicon erweitern. Sombrero (v1.X – zweite Hälfte des Jahres 2025) wird Unterstützung für mittlere und große Unternehmen, Fiat-Zahlung, Abrechnung und Teamfunktionen hinzufügen.

Akash

Akash Network ist ein Open-Source-Proof-of-Stake-Netzwerk, das auf dem Cosmos SDK basiert und es jedem ermöglicht, ohne Erlaubnis beizutreten und Beiträge zu leisten, wodurch ein dezentraler Cloud-Computing-Markt entsteht. Der $AKT-Token wird verwendet, um das Netzwerk zu sichern, Ressourcenzahlungen zu erleichtern und das wirtschaftliche Verhalten zwischen Netzwerkteilnehmern zu koordinieren. Das Akash-Netzwerk besteht aus mehreren Schlüsselkomponenten:

  1. Blockchain-Schicht, die Tendermint Core und Cosmos SDK verwendet, um einen Konsens zu gewährleisten.

  2. Die Anwendungsschicht verwaltet die Bereitstellung und Ressourcenzuweisung.

  3. Die Anbieterebene verwaltet Ressourcen, Gebote und die Bereitstellung von Benutzeranwendungen.

  4. Die Benutzerschicht ermöglicht Benutzern die Interaktion mit dem Akash-Netzwerk, die Verwaltung von Ressourcen und die Überwachung des Anwendungsstatus mithilfe von CLI, Konsolen und Dashboards.

Das Netzwerk konzentrierte sich ursprünglich auf Speicher- und CPU-Leasingdienste, da die Nachfrage nach KI-Schulungen und Inferenz-Workloads gestiegen ist, hat das Netzwerk seine Dienste um GPU-Leasing und -Zuteilung erweitert und reagiert mit seiner AkashML-Plattform auf diese Anforderungen. AkashML verwendet ein „Reverse-Auktion“-System, bei dem Kunden (sogenannte Mieter) ihre gewünschten GPU-Preise einreichen und Computerlieferanten (sogenannte Provider) um die Bereitstellung der angeforderten GPUs konkurrieren.

Zum jetzigen Zeitpunkt hat die Akash-Blockchain über 12,9 Millionen Transaktionen abgeschlossen, über 535.000 US-Dollar wurden für den Zugriff auf Computerressourcen verwendet und über 189.000 einzigartige Bereitstellungen wurden geleast.

Auszeichnung

Der Bereich der rechnergestützten DePIN entwickelt sich immer noch weiter und viele Teams konkurrieren darum, innovative und effiziente Lösungen auf den Markt zu bringen. Weitere Beispiele, die es wert sind, weiter untersucht zu werden, sind Hyperbolic, das eine kollaborative Open-Access-Plattform für Ressourcenpools für die KI-Entwicklung aufbaut, und Exabits, das ein verteiltes Rechenleistungsnetzwerk aufbaut, das von Computational Minern betrieben wird.

Wichtige Überlegungen und Zukunftsaussichten

Nachdem wir nun die Grundprinzipien der DePIN-Berechnung verstanden und mehrere derzeit laufende ergänzende Fallstudien überprüft haben, ist es wichtig, die Auswirkungen dieser dezentralen Netzwerke zu berücksichtigen, sowohl ihre Vor- als auch ihre Nachteile.

Herausforderung

Der Aufbau verteilter Netzwerke im großen Maßstab erfordert oft Kompromisse bei Leistung, Sicherheit und Ausfallsicherheit. Beispielsweise kann das Training eines KI-Modells auf einem weltweit verteilten Netzwerk aus Standardhardware weitaus weniger kosteneffektiv und zeiteffizient sein als das Training bei einem zentralisierten Dienstanbieter. Wie bereits erwähnt, werden KI-Modelle und ihre Arbeitslasten immer komplexer und erfordern mehr Hochleistungs-GPUs als Standard-GPUs.

Aus diesem Grund horten große Unternehmen in Scharen Hochleistungs-GPUs, und es ist die inhärente Herausforderung, vor der die Berechnung von DePINs steht, die darauf abzielt, den GPU-Mangel zu lösen, indem ein erlaubnisfreier Marktplatz geschaffen wird, auf dem jeder ungenutzte GPUs verleihen kann (in Bezug auf dezentrale künstliche Intelligenz). Weitere Informationen Zu den Herausforderungen, vor denen das Protokoll steht, siehe diesen Tweet). Das Protokoll kann dieses Problem auf zwei wichtige Arten lösen: durch die Festlegung grundlegender Anforderungen für GPU-Anbieter, die zum Netzwerk beitragen möchten, und durch die Bündelung der dem Netzwerk bereitgestellten Rechenressourcen, um eine größere Integrität zu erreichen. Dennoch ist die Etablierung dieses Modells im Vergleich zu zentralisierten Dienstanbietern, die mehr Mittel für die direkte Zusammenarbeit mit Hardwareanbietern wie Nvidia bereitstellen können, von Natur aus eine Herausforderung. Dies ist etwas, was DePINs bei ihrem weiteren Vorgehen berücksichtigen sollten. Wenn ein dezentrales Protokoll über einen ausreichend großen Fonds verfügt, kann das DAO dafür stimmen, einen Teil des Fonds für den Kauf von Hochleistungs-GPUs bereitzustellen, die dezentral verwaltet und zu einem höheren Preis als Standard-GPUs ausgeliehen werden können.

Eine weitere besondere Herausforderung bei der Berechnung von DePINs ist die Verwaltung einer angemessenen Ressourcennutzung. In ihrer Anfangsphase werden die meisten rechnergestützten DePINs mit einer unzureichenden strukturellen Nachfrage konfrontiert sein, so wie es auch viele Start-ups heute tun. Im Allgemeinen besteht die Herausforderung für DePINs darin, frühzeitig ein ausreichendes Angebot bereitzustellen, um eine minimale Produktqualität zu erreichen. Ohne Angebot wird das Netzwerk nicht in der Lage sein, eine nachhaltige Nachfrage zu generieren und seine Kunden in Zeiten der Spitzennachfrage zu bedienen. Andererseits ist auch ein Überangebot ein Problem. Ab einem bestimmten Schwellenwert hilft eine stärkere Bereitstellung nur dann, wenn die Netzwerkauslastung die volle Kapazität erreicht oder erreicht. Andernfalls besteht für DePIN das Risiko, zu viel für die Lieferung zu zahlen, was zu einer Unterauslastung der Ressourcen und einem Rückgang der Lieferanteneinnahmen führt, es sei denn, das Protokoll erhöht die Token-Ausgabe, um die Teilnahme der Lieferanten aufrechtzuerhalten.

Ohne eine flächendeckende geografische Abdeckung sind Telekommunikationsnetze nutzlos. Ein Taxinetz wäre nicht sinnvoll, wenn die Fahrgäste lange auf eine Fahrt warten müssten. DePIN wäre nicht nützlich, wenn es die Menschen dafür bezahlen müsste, dass sie im Laufe der Zeit Ressourcen bereitstellen. Zentralisierte Dienstanbieter können den Ressourcenbedarf vorhersagen und das Ressourcenangebot effizient verwalten, während dem rechnerischen DePIN eine zentrale Autorität zur Verwaltung der Ressourcennutzung fehlt. Daher ist es für DePIN besonders wichtig, die Ressourcennutzung möglichst strategisch zu bestimmen.

Ein größeres Problem besteht darin, dass der dezentrale GPU-Markt möglicherweise nicht länger mit einem GPU-Mangel konfrontiert ist. Mark Zuckerberg sagte kürzlich in einem Interview, dass seiner Meinung nach die Energie zum neuen Engpass werden wird und nicht die Rechenressourcen, da sich die Unternehmen nun darum bemühen werden, in großem Umfang Rechenzentren zu bauen, anstatt wie bisher Rechenressourcen zu horten. Dies bedeutet natürlich eine potenzielle Reduzierung der GPU-Kosten, wirft aber auch die Frage auf, wie KI-Startups in Bezug auf Leistung und Qualität der bereitgestellten Waren und Dienstleistungen konkurrieren werden, wenn der Aufbau proprietärer Rechenzentren die Messlatte für die Leistung von KI-Modellen insgesamt höher legt Unternehmen konkurrieren.

Fallstudie zur Berechnung von DePINs

Um es noch einmal zu betonen: Die Kluft zwischen der Komplexität von KI-Modellen und ihren nachfolgenden Verarbeitungs- und Rechenanforderungen und der Verfügbarkeit von Hochleistungs-GPUs und anderen Rechenressourcen wird immer größer.

Computational DePINs sind auf dem Weg zu innovativen Disruptoren in Computermarktsegmenten, die heute von großen Hardwareherstellern und Cloud-Computing-Dienstanbietern dominiert werden, und zwar aufgrund mehrerer Schlüsselfunktionen:

1) Bieten Sie niedrigere Kosten für Waren und Dienstleistungen.

2) Sorgen Sie für eine stärkere Zensurresistenz und Netzwerkresilienz.

3) Profitieren Sie von potenziellen regulatorischen Richtlinien, die möglicherweise erfordern, dass KI-Modelle für Feinabstimmung und Training so offen wie möglich und für jedermann leicht zugänglich sind.

Der Anteil der US-Haushalte mit Computern und Internetzugang ist exponentiell gewachsen und nähert sich 100 %. Auch in vielen Regionen der Welt ist der Anteil deutlich gestiegen. Dies deutet auf einen Anstieg der Zahl potenzieller Anbieter von Rechenressourcen (GPU-Besitzer) hin, die bereit wären, ungenutzte Ressourcen auszuleihen, wenn ausreichende finanzielle Anreize und ein reibungsloser Transaktionsprozess bestünden. Dies ist natürlich eine sehr grobe Schätzung, aber sie deutet darauf hin, dass die Grundlage für eine nachhaltige Sharing Economy von Computerressourcen möglicherweise bereits vorhanden ist.

Neben der KI wird die Nachfrage nach Computern in Zukunft auch aus vielen anderen Branchen kommen, beispielsweise aus dem Quantencomputing. Die Größe des Quantencomputing-Marktes wird voraussichtlich von 928,8 Millionen US-Dollar im Jahr 2023 auf 6528,8 Millionen US-Dollar im Jahr 2030 wachsen, mit einer durchschnittlichen jährlichen Wachstumsrate von 32,1 %. Die Produktion in der Branche wird verschiedene Arten von Ressourcen erfordern, aber es wird interessant sein zu sehen, ob Quantencomputer-DePINs auf den Markt kommen und wie sie aussehen.

„Ein starkes Ökosystem offener Modelle, die auf Verbraucherhardware laufen, ist eine wichtige Absicherung gegen eine Zukunft, in der die Werte durch KI stark zentralisiert werden und der Großteil des menschlichen Denkens von zentralen Servern gelesen und vermittelt wird, die von einer Handvoll Menschen kontrolliert werden. Diese Modelle sind auch riskanter als die.“ Das Risiko ist für Konzernriesen und das Militär viel geringer.“ – Vitalik Buterin.

Große Unternehmen sind möglicherweise nicht die Zielgruppe für DePINs und werden es auch in Zukunft nicht sein. Die Berechnung von DePINs bringt einzelne Entwickler, streitlustige Entwickler und Start-ups mit minimalem Kapital und Ressourcen zurück. Sie ermöglichen die Umwandlung ungenutzter Ressourcen in innovative Ideen und Lösungen, die durch eine höhere Rechenleistung ermöglicht werden. Künstliche Intelligenz wird zweifellos das Leben von Milliarden Menschen verändern. Anstatt zu befürchten, dass KI alle Arbeitsplätze ersetzen wird, sollten wir die Idee fördern, dass KI Einzelpersonen und selbstständige Unternehmer, Start-ups und die breite Öffentlichkeit stärken kann.