Hintergrund

Mit der Einführung von GPT 4 LLM durch OpenAI wurde das Potenzial verschiedener KI-Text-zu-Bild-Modelle deutlich. Die auf ausgereiften KI-Modellen basierenden Anwendungen nehmen von Tag zu Tag zu und die Nachfrage nach Rechenressourcen wie GPUs steigt.

GPU-Utils In einem Artikel aus dem Jahr 2023, in dem die Angebots- und Nachfragesituation der Nvidia H 100-GPU erörtert wurde, wurde darauf hingewiesen, dass große Unternehmen im KI-Geschäft eine starke Nachfrage nach GPUs haben. Technologiegiganten wie Meta, Tesla und Google haben eine große Anzahl davon gekauft Nvidia-GPUs für den Aufbau eines Rechenzentrums für KI. Meta verfügt über etwa 21.000 A-100-GPUs, Tesla über etwa 7.000 A-100-GPUs und Google hat ebenfalls erhebliche GPU-Investitionen in seine Rechenzentren getätigt, obwohl keine konkreten Zahlen angegeben wurden. Die Nachfrage nach GPUs, insbesondere nach der H 100, wächst weiter, angetrieben durch die Notwendigkeit, große Sprachmodelle (LLMs) und andere KI-Anwendungen zu trainieren.

Gleichzeitig ist laut Statista-Daten die Größe des KI-Marktes von 134,8 Milliarden im Jahr 2022 auf 241,8 Milliarden im Jahr 2023 gewachsen und wird voraussichtlich 738,7 Milliarden im Jahr 2030 erreichen, und auch der Marktwert von Cloud-Diensten hat zugenommen etwa 14 % von 633 Milliarden, darunter viele. Ein Teil davon ist auf die schnell wachsende Nachfrage nach GPU-Rechenleistung im KI-Markt zurückzuführen.

Aus welchem ​​Blickwinkel können wir für den KI-Markt, der schnell wächst und großes Potenzial birgt, entsprechende Einstiegspunkte für Investitionen dekonstruieren und erkunden? Basierend auf einem Bericht von IBM haben wir die Infrastruktur zusammengefasst, die zum Erstellen und Bereitstellen von Anwendungen und Lösungen für künstliche Intelligenz erforderlich ist. Man kann sagen, dass die KI-Infrastruktur hauptsächlich dazu dient, die große Anzahl von Datensätzen und Rechenressourcen zu verarbeiten und zu optimieren, auf die sich Trainingsmodelle stützen. Sie löst die Probleme der Verarbeitungseffizienz von Datensätzen, der Modellzuverlässigkeit und der Anwendungsskalierbarkeit sowohl aus Hardware- als auch aus Softwareaspekten. .

KI-Trainingsmodelle und -Anwendungen erfordern eine große Menge an Rechenressourcen und bevorzugen Cloud-Umgebungen mit geringer Latenz und GPU-Rechenleistung. Der Software-Stack umfasst auch verteilte Rechenplattformen (Apache Spark/Hadoop). Spark verteilt die zu verarbeitenden Arbeitsabläufe auf große Rechencluster und verfügt über integrierte Parallelität und fehlertolerantes Design. Das natürliche dezentrale Design der Blockchain hat verteilte Knoten zur Norm gemacht, und der von BTC geschaffene POW-Konsensmechanismus hat festgestellt, dass Miner in der Rechenleistung (Arbeitslast) konkurrieren müssen, um die Blockergebnisse zu gewinnen, was die gleiche Rechenleistung wie KI erfordert ist ein ähnlicher Arbeitsablauf zum Generieren von Modell-/Inferenzproblemen. Infolgedessen begannen traditionelle Cloud-Server-Hersteller, neue Geschäftsmodelle zu erweitern, indem sie Grafikkarten vermieteten und Rechenleistung ähnlich wie Server vermieteten. Und in Anlehnung an die Idee der Blockchain übernimmt die KI-Rechenleistung ein verteiltes Systemdesign, das ungenutzte GPU-Ressourcen nutzen kann, um die Rechenleistungskosten von Startups zu senken.

Einführung in das IO.NET-Projekt

Io.net ist ein Anbieter verteilter Rechenleistung in Kombination mit der Solana-Blockchain mit dem Ziel, verteilte Rechenressourcen (GPU-CPU) zu nutzen, um Herausforderungen bei der Rechennachfrage in den Bereichen KI und maschinelles Lernen zu lösen. IO integriert ungenutzte Grafikkarten von unabhängigen Rechenzentren und Kryptowährungs-Minern und kombiniert Krypto-Projekte wie Filecoin/Render, um die Ressourcen von mehr als 1 Million GPUs zu bündeln und das Problem der Ressourcenknappheit bei KI-Rechenressourcen zu lösen.

Auf technischer Ebene basiert io.net auf ray.io, einem Framework für maschinelles Lernen, das verteiltes Rechnen implementiert. Es stellt verteilte Rechenressourcen für KI-Anwendungen bereit, die Rechenleistung erfordern, von Reinforcement Learning und Deep Learning bis hin zu Modelloptimierung und Modellausführung. Jeder kann dem Rechenleistungsnetzwerk von io ohne zusätzliche Berechtigungen beitreten. Gleichzeitig passt das Netzwerk den Rechenleistungspreis entsprechend der Komplexität, Dringlichkeit und dem Angebot an Rechenressourcen der Rechenarbeit an und berechnet den Preis entsprechend Marktdynamik. Basierend auf den Merkmalen der verteilten Rechenleistung wird das Backend von io auch GPU-Anbieter mit Entwicklern zusammenbringen, basierend auf der Art der GPU-Nachfrage, der aktuellen Verfügbarkeit, dem Standort und dem Ruf des Anforderers.

$IO ist der native Token des io.net-Systems und dient als Austauschmedium zwischen Anbietern von Rechenleistung und Käufern von Rechenleistungsdiensten. Durch die Verwendung von $IO können die Gebühren für die Auftragsabwicklung im Vergleich zu $USDC gesenkt werden. Gleichzeitig spielt $IO auch eine wichtige Anreizrolle bei der Sicherstellung des normalen Betriebs des Netzwerks: $IO-Token-Inhaber können einen bestimmten Betrag an $IO an Knoten verpfänden, und für den Knotenbetrieb müssen auch $IO-Token verpfändet werden Umsatz, der der Stillstandszeit der Maschine entspricht.

Die aktuelle Marktkapitalisierung des $IO-Tokens beträgt etwa 360 Millionen US-Dollar und der FDV beträgt etwa 3 Milliarden US-Dollar.

$IO-Token-Ökonomie

Das maximale Gesamtangebot an IO beträgt 800 Millionen US-Dollar, wovon 500 Millionen allen Parteien zugeteilt wurden, als der Token TGE war. Die restlichen 300 Millionen Token werden schrittweise über einen Zeitraum von 20 Jahren freigegeben (der Freigabebetrag verringert sich jeden Monat um 1,02 %). ca. 12 % pro Jahr). Die aktuelle IO-Umlaufzahl beträgt 95 Millionen und setzt sich aus 75 Millionen freigeschalteten Stücken für ökologische Forschung und Entwicklung und Gemeinschaftsaufbau während TGE sowie 20 Millionen Mining-Belohnungen von Binance Launchpool zusammen.

Die Belohnungen für Rechenleistungsanbieter während des IO-Testnetzwerks werden wie folgt verteilt:

  • Staffel 1 (Stand 25. April) – 17.500.000 IO

  • Staffel 2 (1. Mai – 31. Mai) – 7.500.000 IO

  • Staffel 3 (1. Juni – 30. Juni) – 5.000.000 IO

Zusätzlich zu den Belohnungen für Testnetzwerk-Rechenleistung vergab IO auch einige Airdrops an Entwickler, die am Aufbau der Community beteiligt waren:

  • (Erste Runde) Community / Content Creator / Galxe / Discord – 7.500.000 IO

  • Staffel 3 (1. Juni – 30. Juni) Discord- und Galxe-Teilnehmer – 2.500.000 IO

Unter anderem wurden während der TGE die Belohnung für die Testnetzwerk-Rechenleistung des ersten Quartals und die erste Runde der Community-Erstellung/Galxe-Belohnungen aus der Luft abgeworfen.

Laut offizieller Dokumentation ist die Gesamtverteilung von $IO wie folgt:

Mechanismus zur Zerstörung von $IO-Token

Io.net führt den Rückkauf und die Zerstörung von $IO-Tokens nach einem festen Satz voreingestellter Verfahren durch. Die spezifischen Rückkauf- und Zerstörungsmengen hängen vom $IO-Preis zum Zeitpunkt der Ausführung ab. Die für den Rückkauf von $IO verwendeten Mittel stammen aus den Betriebseinnahmen von IOG (The Internet of GPUs – GPU Internet). Von jedem Rechenleistungskäufer und Rechenleistungsanbieter in IOG wird eine Auftragsbuchungsgebühr von 0,25 % erhoben 2 % Bearbeitungsgebühr für den Kauf von Rechenleistung.

Wettbewerbsfähige Produktanalyse

Zu den io.net-ähnlichen Projekten gehören Akash, Nosana, OctaSpace, Clore.AI und andere Märkte für dezentrale Rechenleistung, die sich auf die Lösung der Rechenanforderungen von KI-Modellen konzentrieren.

  • Durch ein dezentrales Marktmodell nutzt Akash Network ungenutzte verteilte Rechenressourcen, bündelt und vermietet überschüssige Rechenleistung und reagiert auf Ungleichgewichte zwischen Angebot und Nachfrage durch dynamische Rabatte und Anreizmechanismen, um eine effiziente und vertrauenswürdige Ressourcenzuteilung auf der Grundlage intelligenter Verträge zu erreichen. kostengünstige und dezentrale Cloud-Computing-Dienste. Es ermöglicht Ethereum-Minern und anderen Benutzern mit nicht ausgelasteten GPU-Ressourcen, diese zu vermieten und so einen Marktplatz für Cloud-Dienste zu schaffen. In diesem Markt werden die Preise für Dienstleistungen über einen umgekehrten Auktionsmechanismus festgelegt, bei dem Käufer Angebote für die Miete dieser Ressourcen abgeben können, wodurch die Preise weniger wettbewerbsfähig werden.

  • Nosana ist ein dezentrales Rechenleistungsmarktprojekt im Solana-Ökosystem. Sein Hauptzweck besteht darin, ungenutzte Rechenleistungsressourcen zu nutzen, um ein GPU-Gitter zu bilden, um den Rechenbedarf der KI-Inferenz zu erfüllen. Das Projekt verwendet Programme auf Solana, um die Funktionsweise seines Rechenleistungsmarktes zu definieren und sicherzustellen, dass die am Netzwerk teilnehmenden GPU-Knoten Aufgaben angemessen erledigen. Derzeit werden zusätzlich zur zweiten Phase des Testnetzwerkbetriebs Rechenleistungsdienste für den Inferenzprozess des LLama 2- und Stable Diffusion-Modells bereitgestellt.

  • OctaSpace ist eine skalierbare Open-Source-Cloud-Knoteninfrastruktur für verteiltes Computing, die den Zugriff auf verteiltes Computing, Datenspeicherung, Dienste, VPNs und mehr ermöglicht. OctaSpace umfasst CPU- und GPU-Rechenleistung und stellt Speicherplatz für ML-Aufgaben, KI-Tools, Bildverarbeitung und das Rendern von Szenen mit Blender bereit. OctaSpace startet im Jahr 2022 und läuft auf seiner eigenen Layer-1-EVM-kompatiblen Blockchain. Die Blockchain verwendet ein Dual-Chain-System, das die Konsensmechanismen Proof of Work (PoW) und Proof of Authority (PoA) kombiniert.

  • Clore.AI ist eine verteilte GPU-Supercomputing-Plattform, die es Benutzern ermöglicht, High-End-GPU-Rechenleistungsressourcen von Knotenpunkten zu erhalten, die Rechenleistung auf der ganzen Welt bereitstellen. Es unterstützt mehrere Anwendungen wie KI-Training, Kryptowährungs-Mining und Film-Rendering. Die Plattform bietet kostengünstige, leistungsstarke GPU-Dienste und Benutzer können Clore-Token-Belohnungen erhalten, indem sie GPUs mieten. Clore.ai legt den Schwerpunkt auf Sicherheit, entspricht europäischem Recht und bietet eine leistungsstarke API für eine nahtlose Integration. In Bezug auf die Projektqualität ist die Webseite von Clore.AI relativ rau und es gibt keine detaillierte technische Dokumentation, um die Authentizität der Selbstvorstellung des Projekts und der Datenauthentizität zu überprüfen. Wir sind weiterhin misstrauisch gegenüber den Grafikkartenressourcen und dem tatsächlichen Grad der Beteiligung.

Im Vergleich zu anderen Produkten auf dem Markt für dezentrale Rechenleistung ist io.net derzeit das einzige Projekt, dem jeder beitreten kann, um Rechenleistungsressourcen ohne Erlaubnis bereitzustellen. Benutzer können mindestens 30 GPUs der Consumer-Klasse verwenden, um am Netzwerk teilzunehmen Der Beitrag zur Rechenleistung umfasst auch Apple-Chip-Ressourcen wie MacBook M2 und Mac Mini. Ausreichendere GPU- und CPU-Ressourcen und eine umfangreiche API-Konstruktion ermöglichen es IO, verschiedene KI-Computing-Anforderungen zu unterstützen, wie etwa Batch-Inferenz, paralleles Training, Hyperparameter-Tuning und Reinforcement Learning. Die Back-End-Infrastruktur besteht aus einer Reihe modularer Schichten, die eine effektive Ressourcenverwaltung und automatisierte Preisgestaltung ermöglichen. Andere Projekte auf dem Markt für verteilte Rechenleistung dienen hauptsächlich der Zusammenarbeit mit Grafikkartenressourcen von Unternehmen, und es gibt bestimmte Schwellenwerte für die Benutzerbeteiligung. Daher könnte IO die Möglichkeit haben, das kryptografische Schwungrad der Token-Ökonomie zu nutzen, um mehr Grafikkartenressourcen zu nutzen.

Im Folgenden finden Sie einen Vergleich des aktuellen Marktwerts/FDV von io.net und Konkurrenzprodukten

Rückblick und Fazit

Man kann sagen, dass die Listung von $IO auf Binance ein würdiger Start für ein Blockbuster-Projekt ist, das von Anfang an viel Aufmerksamkeit erregt hat. Das Testnetzwerk erfreute sich im gesamten Netzwerk großer Beliebtheit und wurde während der Verzögerung des eigentlichen Projekts nach und nach von allen angegriffen Test, der die undurchsichtigen Punkteregeln in Frage stellt. Der Token ging während der Marktkorrektur online, eröffnete tiefer und stieg wieder, um schließlich in einen relativ rationalen Bewertungsbereich zurückzukehren. Allerdings waren einige der Testnet-Teilnehmer, die wegen der starken Investitionspalette von io.net kamen, froh und andere traurig. Die meisten Benutzer, die GPUs mieteten, aber nicht darauf bestanden, jede Saison am Testnet teilzunehmen, erzielten nicht die idealen Mehrrenditen Stattdessen sind wir mit der Realität von „Anti-Lu“ konfrontiert. Während des Testnetzwerks teilte io.net den Preispool jeder Periode in zwei Pools auf: GPU und Hochleistungs-CPU zur getrennten Berechnung. Die Bekanntgabe der Punkte für Staffel 1 wurde aufgrund des Hacking-Vorfalls verschoben, am Ende aber die Punkte Das Umtauschverhältnis für den GPU-Pool während der TGE wurde in naher Zukunft auf 90:1 festgelegt. Die Benutzerkosten für die Anmietung von GPUs bei großen Cloud-Plattform-Herstellern übersteigen die Airdrop-Einnahmen bei weitem. Während der zweiten Staffel hat der Beamte den PoW-Verifizierungsmechanismus vollständig implementiert. Fast 3-W-GPU-Geräte haben die PoW-Verifizierung erfolgreich bestanden.

Ob io.net nach dem mit Spannung erwarteten Start sein erklärtes Ziel, verschiedene Rechenanforderungen für KI-Anwendungen bereitzustellen, erreichen kann und wie groß die tatsächliche Nachfrage nach dem Testnetzwerk bleibt, kann vielleicht nur die Zeit den besten Beweis liefern.

Referenz:

https://docs.io.net/docs

https://blockcrunch.substack.com/p/rndr-akt-ionet-the-complete-guide

https://www.odaily.news/post/5194118

https://www.theblockbeats.info/news/53690

https://www.binance.com/en/research/projects/ionet

https://www.ibm.com/topics/ai-infrastructure

https://gpus.llm-utils.org/nvidia-h100-gpus-supply-and-demand/

https://www.statista.com/statistics/941835/artificial-intelligence-market-size-revenue-comparisons/

https://www.grandviewresearch.com/press-release/global-cloud-ai-market