Hintergrund

Mit der Einführung von GPT4 LLM durch OpenAI wurde das Potenzial verschiedener KI-Text-zu-Bild-Modelle deutlich. Anwendungen, die auf ausgereiften KI-Modellen basieren, nehmen von Tag zu Tag zu und die Nachfrage nach Rechenressourcen wie GPUs steigt.

GPU-Utils In einem Artikel aus dem Jahr 2023, in dem die Angebots- und Nachfragesituation von Nvidia H100-GPUs erörtert wurde, wurde darauf hingewiesen, dass große Unternehmen im KI-Geschäft eine starke Nachfrage nach GPUs haben. Technologiegiganten wie Meta, Tesla und Google haben eine große Anzahl von Nvidia-GPUs gekauft für den KI-orientierten Aufbau von Rechenzentren. Meta verfügt über etwa 21.000 A100-GPUs, Tesla über etwa 7.000 A100 und Google hat ebenfalls erhebliche GPU-Investitionen in seine Rechenzentren getätigt, obwohl keine konkreten Zahlen angegeben wurden. Die Nachfrage nach GPUs, insbesondere nach der H100, wächst weiter, angetrieben durch die Notwendigkeit, große Sprachmodelle (LLMs) und andere KI-Anwendungen zu trainieren.

Gleichzeitig ist laut Statista-Daten die Größe des KI-Marktes von 134,8 Milliarden im Jahr 2022 auf 241,8 Milliarden im Jahr 2023 gewachsen und wird voraussichtlich 738,7 Milliarden im Jahr 2030 erreichen, und auch der Marktwert von Cloud-Diensten hat zugenommen etwa 14 % von 633 Milliarden, darunter viele Ein Teil davon ist auf die schnell wachsende Nachfrage nach GPU-Rechenleistung im KI-Markt zurückzuführen.

Aus welchem ​​Blickwinkel können wir für den KI-Markt, der schnell wächst und großes Potenzial birgt, entsprechende Einstiegspunkte für Investitionen dekonstruieren und erkunden? Basierend auf einem IBM-Bericht haben wir die Infrastruktur zusammengefasst, die zum Erstellen und Bereitstellen von Anwendungen und Lösungen für künstliche Intelligenz erforderlich ist. Man kann sagen, dass die KI-Infrastruktur hauptsächlich dazu dient, die große Anzahl von Datensätzen und Rechenressourcen zu verarbeiten und zu optimieren, auf die sich Trainingsmodelle stützen. Sie löst die Probleme der Verarbeitungseffizienz von Datensätzen, der Modellzuverlässigkeit und der Anwendungsskalierbarkeit sowohl aus Hardware- als auch aus Softwareaspekten. .

KI-Trainingsmodelle und -Anwendungen erfordern eine große Menge an Rechenressourcen und bevorzugen Cloud-Umgebungen mit geringer Latenz und GPU-Rechenleistung. Der Software-Stack umfasst auch verteilte Rechenplattformen (Apache Spark/Hadoop). Spark verteilt die zu verarbeitenden Arbeitsabläufe auf verschiedene große Rechencluster und verfügt über integrierte Parallelität und fehlertolerantes Design. Das natürliche dezentrale Design der Blockchain hat verteilte Knoten zur Norm gemacht, und der von BTC geschaffene POW-Konsensmechanismus hat festgestellt, dass Miner in der Rechenleistung (Arbeitslast) konkurrieren müssen, um die Blockergebnisse zu gewinnen, was die gleiche Rechenleistung wie KI erfordert ist ein ähnlicher Arbeitsablauf zum Generieren von Modell-/Inferenzproblemen. Infolgedessen begannen traditionelle Cloud-Server-Hersteller, neue Geschäftsmodelle zu erweitern, indem sie Grafikkarten vermieteten und Rechenleistung ähnlich wie Server vermieteten. In Anlehnung an die Idee der Blockchain übernimmt die KI-Rechenleistung ein verteiltes Systemdesign, das ungenutzte GPU-Ressourcen nutzen kann, um die Rechenleistungskosten von Startups zu senken.

Einführung in das IO.NET-Projekt

Io.net ist ein Anbieter verteilter Rechenleistung in Kombination mit der Solana-Blockchain mit dem Ziel, verteilte Rechenressourcen (GPU und CPU) zu nutzen, um Herausforderungen bei der Rechennachfrage in den Bereichen KI und maschinelles Lernen zu lösen. IO löst das Problem der Ressourcenknappheit bei KI-Rechenressourcen durch die Integration ungenutzter Grafikkarten von unabhängigen Rechenzentren und Kryptowährungs-Minern, kombiniert mit Kryptoprojekten wie Filecoin/Render und der Bündelung der Ressourcen von mehr als 1 Million GPUs.

Auf technischer Ebene basiert io.net auf ray.io, einem Framework für maschinelles Lernen, das verteiltes Computing implementiert. Es stellt KI-Anwendungen verteilte Computing-Ressourcen bereit, die von Reinforcement Learning und Deep Learning bis hin zu Modelloptimierung und Modellausführung reichen und Rechenleistung erfordern. Jeder kann dem Rechenleistungsnetzwerk von io ohne zusätzliche Berechtigungen beitreten. Gleichzeitig passt das Netzwerk den Rechenleistungspreis entsprechend der Komplexität, Dringlichkeit und dem Angebot an Rechenressourcen der Rechenarbeit an und legt die Preise darauf fest Marktdynamik. Basierend auf den Merkmalen der verteilten Rechenleistung wird das Backend von io auch GPU-Anbieter mit Entwicklern zusammenbringen, basierend auf der Art der GPU-Nachfrage, der aktuellen Verfügbarkeit, dem Standort und dem Ruf des Anforderers.

$IO ist der native Token des io.net-Systems und dient als Austauschmedium zwischen Rechenleistungsanbietern und Käufern von Rechenleistungsdiensten. Durch die Verwendung von $IO können die Auftragsbearbeitungsgebühren im Vergleich zu $USDC um %2 gesenkt werden. Gleichzeitig spielt $IO auch eine wichtige Anreizrolle bei der Sicherstellung des normalen Betriebs des Netzwerks: $IO-Token-Inhaber können einen bestimmten Betrag an $IO an Knoten verpfänden, und für den Knotenbetrieb müssen auch $IO-Token verpfändet werden Umsatz, der der Stillstandszeit der Maschine entspricht.

Die aktuelle Marktkapitalisierung des $IO-Tokens beträgt etwa 360 Millionen US-Dollar und der FDV beträgt etwa 3 Milliarden US-Dollar.

$IO-Token-Ökonomie

Das maximale Gesamtangebot an IO beträgt 800 Millionen US-Dollar, wovon 500 Millionen an alle Parteien während der Token-TGE verteilt wurden. Die restlichen 300 Millionen Token werden über einen Zeitraum von 20 Jahren schrittweise freigegeben (der Freigabebetrag wird jeden Monat um 1,02 % sinken). sinkt um ca. 12 % pro Jahr). Der aktuelle IO-Umlauf beträgt 95 Millionen, was sich aus 75 Millionen, die während der TGE für ökologische Forschung und Entwicklung sowie den Aufbau von Gemeinschaften freigeschaltet wurden, und 20 Millionen Mining-Belohnungen von Binance Launchpool zusammensetzt.

Die Belohnungen für Rechenleistungsanbieter während des IO-Testnetzwerks werden wie folgt verteilt:

  • Staffel 1 (Stand 25. April) – 17.500.000 IO

  • Staffel 2 (1. Mai – 31. Mai) – 7.500.000 IO

  • Staffel 3 (1. Juni – 30. Juni) – 5.000.000 IO

Zusätzlich zu den Belohnungen für Testnet-Rechenleistung vergab IO auch einige Airdrops an Entwickler, die am Aufbau der Community beteiligt waren:

  • (Erste Runde) Community / Content Creator / Galxe / Discord – 7.500.000 IO

  • Staffel 3 (1. Juni – 30. Juni) Discord- und Galxe-Teilnehmer – 2.500.000 IO

Unter anderem wurden während der TGE die Testnet-Rechenleistungsbelohnung für das erste Quartal und die erste Runde der Community-Erstellung/Galxe-Belohnungen aus der Luft abgeworfen.

Laut offizieller Dokumentation ist die Gesamtzuteilung von $IO wie folgt:

$IO-Token-Brennmechanismus

Io.net führt den Rückkauf und die Zerstörung von $IO-Tokens nach einem festen Satz voreingestellter Verfahren durch. Die spezifischen Rückkauf- und Zerstörungsmengen hängen vom $IO-Preis zum Zeitpunkt der Ausführung ab. Die für den Rückkauf von $IO verwendeten Mittel stammen aus den Betriebseinnahmen von IOG (The Internet of GPUs – GPU Internet), einer Auftragsbuchungsgebühr von 0,25 % von jedem der Rechenleistungskäufer und Rechenleistungsanbieter in IOG und einer Bearbeitungsgebühr von 2 % in USDC Gebühr für den Kauf von Rechenleistung.

Wettbewerbsproduktanalyse

Zu den io.net-ähnlichen Projekten gehören Akash, Nosana, OctaSpace, Clore.AI und andere Märkte für dezentrale Rechenleistung, die sich auf die Lösung der Rechenanforderungen von KI-Modellen konzentrieren.

  • Durch ein dezentrales Marktmodell nutzt Akash Network ungenutzte verteilte Rechenressourcen, bündelt und vermietet überschüssige Rechenleistung und reagiert auf Ungleichgewichte zwischen Angebot und Nachfrage durch dynamische Rabatte und Anreizmechanismen, um eine effiziente und vertrauenswürdige Ressourcenzuteilung auf der Grundlage intelligenter Verträge zu erreichen. kostengünstige und dezentrale Cloud-Computing-Dienste. Es ermöglicht Ethereum-Minern und anderen Benutzern mit nicht ausgelasteten GPU-Ressourcen, diese zu vermieten und so einen Marktplatz für Cloud-Dienste zu schaffen. In diesem Markt werden die Preise für Dienstleistungen über einen umgekehrten Auktionsmechanismus festgelegt, bei dem Käufer Angebote für die Miete dieser Ressourcen abgeben können, wodurch die Preise weniger wettbewerbsfähig werden.

  • Nosana ist ein dezentrales Rechenleistungsmarktprojekt im Solana-Ökosystem. Sein Hauptzweck besteht darin, ungenutzte Rechenleistungsressourcen zu nutzen, um ein GPU-Gitter zu bilden, um den Rechenbedarf der KI-Inferenz zu erfüllen. Das Projekt nutzt Programme auf Solana, um den Betrieb seines Rechenleistungsmarktes zu definieren und sicherzustellen, dass die am Netzwerk teilnehmenden GPU-Knoten ihre Aufgaben angemessen erledigen. Derzeit werden zusätzlich zur zweiten Phase des Testnetzwerkbetriebs Rechenleistungsdienste für den Inferenzprozess von LLama 2- und Stable Diffusion-Modellen bereitgestellt.

  • OctaSpace ist eine skalierbare Open-Source-Cloud-Knoteninfrastruktur für verteiltes Computing, die den Zugriff auf verteiltes Computing, Datenspeicherung, Dienste, VPNs und mehr ermöglicht. OctaSpace umfasst CPU- und GPU-Rechenleistung und stellt Speicherplatz für ML-Aufgaben, KI-Tools, Bildverarbeitung und das Rendern von Szenen mit Blender bereit. OctaSpace startet im Jahr 2022 und läuft auf seiner eigenen Layer-1-EVM-kompatiblen Blockchain. Die Blockchain verwendet ein Dual-Chain-System, das die Konsensmechanismen Proof of Work (PoW) und Proof of Authority (PoA) kombiniert.

  • Clore.AI ist eine verteilte GPU-Supercomputing-Plattform, die es Benutzern ermöglicht, High-End-GPU-Rechenleistungsressourcen von Knotenpunkten zu erhalten, die Rechenleistung auf der ganzen Welt bereitstellen. Es unterstützt mehrere Anwendungen wie KI-Training, Kryptowährungs-Mining und Film-Rendering. Die Plattform bietet kostengünstige, leistungsstarke GPU-Dienste und Benutzer können Clore-Token-Belohnungen erhalten, indem sie GPUs mieten. Clore.ai legt den Schwerpunkt auf Sicherheit, entspricht europäischem Recht und bietet eine leistungsstarke API für eine nahtlose Integration. In Bezug auf die Projektqualität ist die Webseite von Clore.AI relativ rau und es gibt keine detaillierte technische Dokumentation, um die Authentizität der Selbstvorstellung des Projekts und der Datenauthentizität zu überprüfen. Wir sind weiterhin misstrauisch gegenüber den Grafikkartenressourcen und dem tatsächlichen Grad der Beteiligung.

Im Vergleich zu anderen Produkten auf dem dezentralen Computermarkt ist io.net derzeit das einzige Projekt, dem jeder beitreten kann, um Computerressourcen ohne Erlaubnis bereitzustellen. Benutzer können mindestens 30 GPUs der Consumer-Klasse verwenden, um am Netzwerk teilzunehmen Enthält auch Apple-Chip-Ressourcen wie MacBook M2, Mac Mini usw. Ausreichendere GPU- und CPU-Ressourcen und eine umfangreiche API-Konstruktion ermöglichen es IO, verschiedene KI-Computing-Anforderungen zu unterstützen, wie etwa Batch-Inferenz, paralleles Training, Hyperparameter-Tuning und Reinforcement Learning. Die Back-End-Infrastruktur besteht aus einer Reihe modularer Schichten, die eine effektive Ressourcenverwaltung und automatisierte Preisgestaltung ermöglichen. Andere Projekte auf dem Markt für verteilte Rechenleistung dienen hauptsächlich der Zusammenarbeit mit Grafikkartenressourcen von Unternehmen, und es gibt bestimmte Schwellenwerte für die Benutzerbeteiligung. Daher könnte IO die Möglichkeit haben, das kryptografische Schwungrad der Token-Ökonomie zu nutzen, um mehr Grafikkartenressourcen zu nutzen.

Das Folgende ist ein Vergleich des aktuellen Marktwerts/FDV von io.net und Konkurrenzprodukten:

Rückblick und Fazit

Man kann sagen, dass die Auflistung von $IO auf Binance ein würdiger Start für ein Blockbuster-Projekt ist, das von Anfang an viel Aufmerksamkeit erregt hat. Das Testnetzwerk erfreute sich im gesamten Netzwerk großer Beliebtheit und wurde während der Verzögerung des eigentlichen Projekts nach und nach von allen angegriffen Test, der die undurchsichtigen Punkteregeln in Frage stellt. Der Token ging während der Marktkorrektur online, eröffnete tiefer und stieg wieder, um schließlich in einen relativ rationalen Bewertungsbereich zurückzukehren. Allerdings waren die Testnet-Teilnehmer, die wegen der starken Investitionspalette von io.net kamen, einige froh und andere traurig. Die meisten Benutzer, die GPUs gemietet hatten, aber nicht darauf bestanden, jede Saison am Testnet teilzunehmen, erzielten nicht die idealen Mehrrenditen Stattdessen stehen wir vor der Realität des „Anti-Lu“. Während des Testnetzwerks teilte io.net den Preispool jedes Zeitraums zur Berechnung in zwei Pools auf: GPU und Hochleistungs-CPU. Die Bekanntgabe der Punkte für Staffel 1 wurde aufgrund des Hacking-Vorfalls verschoben, am Ende jedoch die Punkte Das Umtauschverhältnis für den GPU-Pool während der TGE wurde in naher Zukunft auf 90:1 festgelegt. Die Benutzerkosten für die Anmietung von GPUs bei großen Cloud-Plattform-Herstellern übersteigen die Airdrop-Einnahmen bei weitem. Während der zweiten Staffel hat der Beamte den PoW-Verifizierungsmechanismus vollständig implementiert. Fast 30.000 GPU-Geräte haben erfolgreich teilgenommen und die PoW-Verifizierung bestanden. Das endgültige Punkteaustauschverhältnis betrug 100:1.

Ob io.net nach dem mit Spannung erwarteten Start sein erklärtes Ziel erreichen kann, verschiedene Rechenanforderungen für KI-Anwendungen bereitzustellen, und wie groß die tatsächliche Nachfrage nach dem Testnetzwerk bleiben wird, kann vielleicht nur die Zeit den besten Beweis liefern.

Referenz:

https://docs.io.net/docs

https://blockcrunch.substack.com/p/rndr-akt-ionet-the-complete-guide

https://www.odaily.news/post/5194118

https://www.theblockbeats.info/news/53690

https://www.binance.com/en/research/projects/ionet

https://www.ibm.com/topics/ai-infrastructure

https://gpus.llm-utils.org/nvidia-h100-gpus-supply-and-demand/

https://www.statista.com/statistics/941835/artificial-intelligence-market-size-revenue-comparisons/

https://www.grandviewresearch.com/press-release/global-cloud-ai-market