Original David Foresight Research 2024-04-30 11:01 UK

Autor: David Zhang@Foresight Ventures

Aufgrund der langfristigen und schnellen Entwicklung der Welttechnologie ist der Marktwert von Riesenunternehmen wie OpenAI und NVIDIA in den letzten zwei Jahren um ein Vielfaches gestiegen. Krypto x KI ist zum zentralen Narrativ dieses Zyklus geworden, und die steigende Marktstimmung und kontinuierliche Kapitalinvestitionen beweisen, dass sich ein starker Konsens gebildet hat. In einem Umfeld, in dem KI das Ziel ist, ist die Dezentralisierung als leistungsstarkes Werkzeug für die Entwicklung von KI sehr attraktiv und bietet Raum für Fantasie. Obwohl zwischen der Umsetzung des tatsächlichen Geschäfts und dem zentralisierten Modell immer noch eine große Lücke besteht, ist es zu einem gemeinsamen Ziel der Web3-Teilnehmer geworden, die Vorteile von Web3 zu nutzen, um die vier Kernaspekte der KI zu erweitern und durch kontinuierliche Optimierung ein größeres Potenzial auszuschöpfen .

  1. Daten

  2. Modell

  3. Zug

  4. Argumentation

Derzeit kann die Dezentralisierung in den vier oben genannten Aspekten durch Technologie unterstützt werden. Erstens müssen Daten der Kern sein. Modelle, Training und Schlussfolgerung sind alles Arten der Datenverarbeitung. Man kann also sagen, dass Daten das Rohmaterial der KI-Technologie sind und alles andere eine Verarbeitungsmethode ist. Ob Datenannotation oder Datenspeicherung, Dezentralisierung spielt hier eine große Rolle und einen großen Wert.

Wenn Daten Rohstoffe sind, dann ist Rechenleistung ein Werkzeug zur Verarbeitung von Rohstoffen zur Maximierung der Produktionseffizienz. Kommen wir direkt zum Thema unseres Artikels. In diesem Artikel analysieren wir kurz den ökologischen Rahmen von Crypto x AI x DePIN und sein Wirtschaftsmodell rund um „Rechenleistung“.

In diesem Artikel werde ich hauptsächlich die ökologischen Rahmenbedingungen und die Marktsituation von „Crypto x AI x DePIN“ erläutern, um den Lesern zu helfen, den Wert und das Potenzial dezentraler Rechenleistung zu verstehen ⬇️

1. Ökologischer Rahmen für DePIN und dezentrale Rechenleistung

Schmerzpunkt: Hochwertige Rechenleistung ist ein Muss für die KI-Forschung und -Entwicklung. Diese knappe Ressource wurde von traditionellen Giganten monopolisiert, was es für Start-ups und einzelne Benutzer schwierig macht, Rechenleistung zu einem angemessenen Preis-Leistungs-Verhältnis zu erwerben Der Preis ist für die meisten Käufer schwer zu akzeptieren.

Dezentrale Lösung: Derzeit nutzen die meisten Projekte auf der DePIN-Strecke das P2P-Wirtschaftsmodell, um Ressourcennachfragern hochwertige Ressourcen bereitzustellen, sodass jeder Benutzer als physischer Ressourcenanbieter der Einrichtung fungieren und gleichzeitig Token-Rückgaben erhalten kann.

Angesichts der steigenden Nachfrage nach dezentraler KI-Rechenleistung hat die Entwicklung des dezentralen KI-Rechenleistungs-Ökosystems einen ausgewogenen und umfassenden Rahmen geschaffen, um den Kundenbedürfnissen besser gerecht zu werden. Unter den führenden Projekten spielen Io.net, Exabit und PingPong jeweils unterschiedliche wichtige Rollen im Ökosystem. Die technischen Barrieren dieser drei Projekte und das zukünftige Entwicklungsmuster der dezentralen Rechenleistung sind ziemlich schockierend.

Das dezentrale KI-Rechenleistungsökosystem besteht hauptsächlich aus drei Teilen, die jeweils als Ressourcenagenten, Ressourcenanbieter und Kanalanbieter im Ökosystem fungieren:

Ressourcenagent – ​​Io.net

Io.net ist ein dezentrales Computernetzwerk, das als Rechenleistungsagent fungiert, um Kunden hochwertige KI-Rechenleistung zu günstigen Preisen bereitzustellen. Auf der Angebotsseite verfügt das Unternehmen über weltweit verteilte GPUs und auf der Kundenseite ist es derzeit der Startschuss für ein Startup-Unternehmen der Serie B, das sich auf KI-Inferenz konzentriert.

Kürzlich hat dieses auf der Solana-Kette basierende DePIN-Projekt eine Serie-A-Finanzierung in Höhe von 30 Millionen US-Dollar unter der Leitung von Hack VC unter Beteiligung von Multicoin Capital, Foresight Ventures, Solana Labs und anderen abgeschlossen.

Als führender Agent für KI-Rechenleistungsressourcen bündelt Io.net 1.000.000 GPUs zu einem riesigen DePIN-Rechenleistungsnetzwerk mit dem Ziel, Kunden günstigere Rechenleistung bereitzustellen. Benutzer können ihre ungenutzte GPU- und CPU-Rechenleistung manuell zur io.net-Plattform beitragen, um $IO-Token-Anreize zu erhalten. Das Hauptziel besteht darin, hochwertige KI-Rechenleistung unter dezentraler Preiskontrolle bereitzustellen, um KI-Startups bei der Kostensenkung zu unterstützen.

Computerdienst IO Cloud bereitgestellt von io.net. IO Cloud übernimmt die Bausteine ​​des Clusters, um alle GPUs miteinander verbunden zu halten, was es den GPUs ermöglicht, umfangreiche Arbeiten während des Trainings und der Inferenz zu koordinieren. Wenn GPUs harmonisch zusammenarbeiten, kann die Rechenleistung konzentriert werden, um auf größere Datenbanken zuzugreifen und komplexere Modelle zu berechnen. KI-Startups können das, was sie benötigen, zu einem Zehntel des Zentralisierungsgrads erhalten, indem sie die Produktpreise von io.net nutzen, um die Bereitstellung von Computerhardware abzuschließen. Noch auffälliger ist, dass sich io.net auf die Bündelung von Rechenleistung für maschinelles Lernen konzentriert. Io.net kann DePIN-Giganten wie Render Network und FileCoin dabei helfen, GPUs für maschinelles Lernen zu formatieren und die grundlegendste und direkteste Ressourcenunterstützung für die zugrunde liegende Technologie zu erreichen.

Derzeit ist die Anzahl der von io.net zusammengestellten GPU-Cluster branchenweit an erster Stelle. Die Anzahl der online auf io.net verfügbaren GPUs übersteigt 200.000. Unter ihnen verfügt die GeForce RTX 4090 mit fast 50.000 über die größte Anzahl verfügbarer GPUs, gefolgt von der GeForce RTX 3090 Ti mit mehr als 30.000.

Ressourcenanbieter – Exabit

Als vielversprechendster Anbieter von KI-Rechenleistung kann Exabits als KI-Rechenleistungs-Dienstknoten ausreichend Chips für tiefes maschinelles Lernen bereitstellen. Auch im Hinblick auf traditionelle KI-Rechnerressourcen kann man sagen, dass das Team von Exabits einzigartig und einzigartig ist. Das Team diente einst als First-Level-Agent für den KI-Riesen NVIDIA. Aufgrund dieser technischen Ressourcenbarrieren hat Exabit direkten Zugriff auf Hunderte von Computerräumen auf der Ressourcenversorgungsseite, darunter A/H100-, RTX4090- und A6000-Maschinen.

Exabits stellt Web3-Rechenleistungsgiganten auf Kundenseite umfangreiche Rechenleistung für maschinelles Lernen zur Verfügung. Im Vergleich zu Nebula Block-Kunden, die mehr als 140.000 US-Dollar pro Monat für den Bezug von Cloud-Diensten ausgeben, liegen die monatlichen Nutzungsgebühren für Cloud-Dienste bei Kunden bei etwa 40.000 US-Dollar, was die Kosten um mehr als 70 % senkt und auch die Effizienz steigert um 30 %.

Der Zweck von Exabits besteht darin, Kunden über einzigartige Kanäle zur Bereitstellung von Rechenleistung die schnellste, hochwertigste und zuverlässigste Rechenleistung bereitzustellen. Hochwertige Rechenleistung kann den Benutzern Kosten sparen und gleichzeitig den Kunden umfassende Serviceoptionen bieten.

Die Qualität der von Exabits bereitgestellten KI-Rechenleistung wurde von vielen KI-Rechenleistungsagenten anerkannt und hat nun eine Zusammenarbeit mit Rechenleistungsgiganten wie Renders Network und Io.net geschlossen, um durch Dezentralisierung zum maschinellen Lernen beizutragen.

Ressourcenkanalanbieter (Uber) – PingPong

Als Anbieter von DePIN-Ressourcenkanälen bietet PingPong Dienste durch Anforderungsabgleich an. PingPong verwendet ein offenes Protokoll im Plattformstil, um zugrunde liegende aggregierte Ressourcen bereitzustellen, bevor Dienste bereitgestellt werden. Das Ziel von PingPong ist es, der Service-Aggregator von DePIN zu werden, der als 1 Zoll von DePIN oder als aggregierter Uber verstanden werden kann.

So stellen Sie Dienste bereit: PingPong ruft über die Steuerschicht verschiedene Netzwerke und Richtlinien, Ressourcenbedingungen, Leistung, Stabilität usw. ab, um das SDK bereitzustellen, und stellt das SDK dann den Benutzern über Routing-Algorithmen zur Verfügung.

Problempunkt: Die Ressourcen und Dienste in jedem DePIN-Netzwerk sind begrenzt. Die Suche nach einer globalen Ressourcenzuteilung führt aufgrund einer übermäßigen regionalen Konzentration zu einer unzureichenden Servicequalität.

Lösung: Routing-Algorithmus – Erhalten Sie Daten, grundlegende Netzwerkinformationen und Maschineninformationen usw., generieren Sie nach der Aggregation Strategien und stellen Sie Dienste bereit, indem Sie den Kundenanforderungen entsprechen. Der Zweck besteht darin, die Qualität und Dienste der Anwendungsschicht von DePIN zu verbessern und das preisgünstigste Rechenleistungsnetzwerk zu finden, wenn die Ressourcen nicht ausreichen.

2. Analysieren Sie die dezentrale Rechenleistungsökologie

Io.net und Exabits haben eine strategische Zusammenarbeit geschlossen. Als Anbieter mit einer umfangreichen GPU-Maschinenbibliothek ist Exabits bestrebt, die Geschwindigkeit und Stabilität des io.net-Netzwerks zu verbessern. io.net nutzt als Agent die hochwertigste Rechenleistung von Exabits, um Kunden den Kauf und die Miete direkt im io.net-Netzwerk zu ermöglichen. Io.net und Exabits sind sich einig, dass der Erfolg der dezentralen Computerbranche und die Integration von Web3 und KI nur durch eine enge Zusammenarbeit mit frühen Branchenführern erreicht werden können. Da der Bedarf an Rechenleistung weiter wächst, treten beim traditionellen Cloud Computing derzeit einige Probleme auf:

  • Begrenzte Verfügbarkeit: Es dauert oft Wochen, über Cloud-Dienste wie AWS, GCP und Azure Zugriff auf Hardware zu erhalten, und die am häufigsten verwendeten GPU-Modelle sind oft nicht verfügbar.

  • Auswahlbeschränkungen: Die Auswahlmöglichkeiten der Benutzer hinsichtlich GPU-Hardware, Standort, Sicherheitsstufe, Latenz usw. sind begrenzt.

  • Hohe Kosten: Die Auswahl einer guten GPU ist teuer, und die monatlichen Kosten des Projekts für Training und Inferenz können leicht Hunderttausende Dollar erreichen.

Die Vision des dezentralen Computing besteht darin, eine offene, zugängliche und erschwingliche Alternative bereitzustellen, die die Kernprobleme zentralisierter Cloud-Dienstanbieter lösen kann, zu denen begrenzte Verfügbarkeit, begrenzte Hardwareauswahl und hohe Schulungskosten und Begründungsgebühren gehören. Um den Status der großen Giganten im Cloud-Computing in Frage zu stellen, müssen die Innovatoren aus heutiger Sicht immer noch zusammenarbeiten, um etwas zu schaffen und sich gegenseitig zu unterstützen, bevor sie einen revolutionären Schritt unternehmen können.

Asset-Modell

  • Asset-lastiges Modell

Exabits verfügt als Angebotsseite über eine absolute Barriere, die von NVIDIA unterstützt wird. Die einzigen Maschinen mit wertvoller Rechenleistung für maschinelles Lernen sind A100, RTX4090 und H100. Der Preis für jede dieser drei Maschinen beträgt etwa 300.000 US-Dollar. Gleichzeitig sind diese Maschinen zu äußerst knappen Ressourcen geworden und wurden lange Zeit von traditionellen KI-Giganten monopolisiert. In diesem Fall sind die Ressourcen, mit denen sich Exabits auf der Angebotsseite verbinden kann, äußerst wertvoll. Da die Qualität der ungenutzten Rechenleistung, die Privatanleger auf ihren eigenen GPUs teilen, nicht ausreicht, um die Berechnung und Verarbeitung groß angelegter KI-Modelle zu unterstützen, ist die Rolle, die Exabits im Ökosystem der dezentralen Rechenleistung spielt, von entscheidender Bedeutung und kann nicht einfach ersetzt werden.

Das von Exabits übernommene Asset-Heavy-Modell erfordert große Investitionen in Sachanlagen. Diese Höhe der Kapitalinvestitionen und Technologieinvestitionen macht es für Startups schwierig, sie zu kopieren und nachzuahmen. Wenn Exabits daher mit stärker dezentralen Rechenleistungsagenten zusammenarbeiten und die von der Branche benötigten Rechenleistungsressourcen bereitstellen können, während die Angebotsseite weiter wächst, wird es einfacher sein, B2B zu dezentralisieren, um ein Industriemonopol zu erreichen und Skaleneffekte in diesem Bereich zu erzielen der Rechenleistung.

Das größte Risiko besteht jedoch darin, dass den Rechenleistungsagenten nach der Investition einer großen Kapitalmenge nicht kontinuierlich Ressourcen zur Verfügung gestellt werden können. Ob die Angebotsseite große Gewinne erzielen kann, hängt daher stark davon ab, ob die Rechenleistungsagenten kontinuierliche Kunden haben können. Unabhängig davon, wer der Rechenleistungsagent ist, solange es Kunden und Nachfrage gibt, wird der Wert von Exabits als Angebotsseite mit dem Wachstum der Nachfrage wachsen.

  • Asset-Light-Modell

Als derzeit herausragendster Rechenleistungsagent ist io.net auf der Angebotsseite darauf angewiesen, über die ganze Welt verteilte GPUs zu haben, um ein riesiges dezentrales Rechennetzwerk zu bilden. Betrachtet man io.net aus geschäftlicher Sicht, übernimmt das Unternehmen ein Light-Asset-Betriebsmodell und baut durch Community-Operationen und die Schaffung eines hohen Maßes an Konsens eine starke Marke in der Agentur für KI-Rechenleistung auf.

Das Kerngeschäft von io.net:

  1. Aggregierte GPU-Rechenleistung und Belohnungstoken für den Einzelhandel

  2. Erhalten Sie hochwertige Rechenleistung von der Angebotsseite und verkaufen Sie diese an KI-Startups

Geschäftsperspektive:

  1. Kaufen Sie zu günstigen Preisen und verkaufen Sie hochwertige Rechenleistung von der Angebotsseite an Kunden auf der C-Seite

  2. Helfen Sie Benutzern, Token zu verdienen, indem Sie ungenutzte GPU-Rechenleistung teilen

  3. Stellen Sie Ihren Kunden eine Rechenleistungs-Mining- und Staking-Plattform zur Verfügung, aber Sie müssen in der Anfangsphase etwa 4.000 US-Dollar investieren, um bessere Renditen zu erzielen. Darauf aufbauend bietet Exabits auch die Fragmentierung von H100-Maschinen zum Leasing an und verbessert so die Liquidität.

Kundenperspektive:

  1. Der Preis für die Rechenleistung des io.net-Netzwerks ist etwa 80 % günstiger als bei anderen zentralisierten Cloud-Computing-Diensten.

  2. Setzen Sie, um zu verdienen, und teilen Sie, um zu verdienen.

  3. Nachdem Kunden einen bestimmten Kapitalbetrag investiert haben, können sie zusammengesetzte Gewinne erzielen.

Als typisches Light-Asset-Modellunternehmen besteht der größte Vorteil darin, dass das Risiko relativ gering ist. Das Team muss nicht wie die Angebotsseite vor dem Start große Maschinenkosten investieren. Aufgrund geringerer Kapitalinvestitionen ist es für Unternehmen und Investoren einfacher, höhere Gewinnmargen zu erzielen. Da gleichzeitig die Eintrittsbarrieren in die Branche niedrig sind, können Geschäftsmodelle leicht kopiert und kopiert werden, was langfristige Value-Investoren sorgfältig abwägen müssen.

3. Von 10 auf 100?

Wenn die Zusammenarbeit zwischen Exabit und Io.net dazu beitragen kann, dass das Ökosystem der dezentralen Rechenleistung von 1 auf 10 steigt, dann könnte PingPong zusammengenommen eine Chance haben, 100 zu erreichen.

Das Ziel von PingPong ist es, der größte DePIN-Service-Aggregator zu werden und einen direkten Vergleich mit uber von web2 anzustellen. Als Kanalanbieter verbinden wir Kunden durch die Aggregation der Echtzeitsituation verschiedener Ressourcen mit den Ressourcen mit dem besten Preis und der besten Qualität. PingPong übernimmt ein B2B2C-Asset-Light-Geschäftsmodell. Die erste B-Seite ist die Angebotsseite und die zweite B-Seite ist der Ressourcenagent. Die C-Seite bietet Kunden eine optimale Ressourcenauswahl.

Als Plattform werden Channel-Anbieter ihre Produkte wertvoller machen, wenn sie sich so weit wie möglich zu einer Plattform entwickeln können, die Vermögenswerte ausgeben kann. PingPong nutzt das vom Routing-Algorithmus bereitgestellte SDK, um seinen eigenen KI-Agenten mit Rechenressourcen zu erstellen. Während es neue Finanzanlagen umwandelt, unterstützt es Kunden, die die Anwendung verwenden, auch beim dynamischen Mining über das SDK, wobei der Schwerpunkt auf der Gewinnung nützlicher Rechenleistung für Rechenressourcen liegt. . Unter diesem Modell versteht man ein Asset-on-Assets-Modell, das die Liquidität von Ressourcen und Geldern erheblich verbessern kann.

Für PingPong erhoffen sie sich, dass mehr Lieferanten und Agenten in das Ökosystem der dezentralen Rechenleistung einsteigen, damit sie ihre Vorteile besser hervorheben, längere Geschäftsbereiche ausbauen und mehr Kunden gewinnen können. Es ist sehr einfach zu verstehen, dass Baidu und Dianping den Informationsbereich dominieren können, weil mehr Händler und Informationen ins Internet hochgeladen werden, was zu einer hohen Nachfrage nach Kanalanbietern führt.

4. Die Zukunft ist vielversprechend

Das dezentrale Cloud Computing entwickelt sich immer noch Schritt für Schritt. Obwohl die ökologischen Rahmenbedingungen und das Modell des dezentralen Cloud Computing sehr klar geworden sind und die Führungskräfte verschiedener Rollen auch ihrer ökologischen Verantwortung nachkommen, wollen sie den Status des traditionellen Cloud Computing aufrütteln Riese ist noch früh. Beim Vergleich mit traditionellem zentralisiertem Cloud Computing gilt zwar, dass Dezentralisierung konzeptionell viele Probleme der Kunden lösen kann, allerdings sind die Gesamtressourcen und das Volumen dieses Marktes im Vergleich immer noch sehr gering. Wenn die Rechenleistungsressourcen zur Unterstützung der Förderung von KI bei weitem nicht ausreichen, benötigt der Markt einen weiteren klaren Strom oder ein Modell, um das Dilemma zu lösen. Das dezentrale Cloud-Computing, das wir jetzt sehen, kann tatsächlich einige der Bedürfnisse von Start-up-KI-Unternehmen erfüllen. Wohin sollen wir nun Zeugen dieses subversiven Weges werden und die Teilnehmer gemeinsam die Entwicklung der Revolution verfolgen?