Autor: LFG Labs

Ursprünglicher Veröffentlichungszeitpunkt: 3. Juni 2024

Ursprünglicher Link: https://www.chaincatcher.com/article/2127297

Was würden Sie denken, wenn der Kernhintergrund von io.net „Graswurzel“ ist?

Es hat 30 Millionen US-Dollar an Finanzmitteln eingesammelt und die Gunst von Top-Kapitalgebern wie Hack VC, Multicoin Capital, Delphi Digital, Solana Lab usw. erhalten. So „bodenständig“ ist es in keiner Weise, vor allem nicht mit dem Label von GPU-Rechenleistung/KI-Revolution, die beide ein Synonym für High-End sind.

Allerdings werden in der Hektik der Community-Diskussionen wichtige Hinweise oft übersehen, insbesondere die tiefgreifenden Veränderungen, die io.net für das globale Computernetzwerk mit sich bringen könnte – anders als die „Elite“-Positionierung von AWS, Azure und GCP, io. net. net geht im Wesentlichen den zivilen Weg:

Fehlplatziert, um den vernachlässigten Rechenleistungsbedarf „Waist + Long Tail“ zu ergänzen, ungenutzte GPU-Ressourcen zu sammeln, ein dezentrales verteiltes Rechennetzwerk auf Unternehmensebene zu schaffen und mehr inkrementelle/vorrätige Rechenleistungsressourcen breiter zu ermöglichen. KI-Innovation für kleine und mittlere Unternehmen Benutzer, die niedrige Kosten und hohe Flexibilität nutzen, um die „Wiederbefreiung der Produktivität“ globaler KI-Innovationen zu erreichen.

Hinter der KI-Welle steht die vernachlässigte Unterströmung der Rechenleistungsproduktionsbeziehungen

Was sind die zentralen Produktivitätsressourcen dieser KI-Welle und des zukünftigen Zeitalters der digitalen Wirtschaft?

An der Rechenleistung besteht kein Zweifel.

Laut Precedence Research wird der weltweite Hardware-Markt für künstliche Intelligenz voraussichtlich mit einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 24,3 % wachsen und bis 2033 473,53 Milliarden US-Dollar überschreiten.

Auch wenn wir die Prognosedaten beiseite legen und aus der logischen Perspektive von Inkrement und Bestand nach vorne blicken, können wir deutlich feststellen, dass im zukünftigen Entwicklungsprozess des Rechenleistungsmarktes noch lange Zeit zwei Hauptwidersprüche bestehen werden:

  • In der inkrementellen Dimension wird der exponentielle Trend beim nachfrageseitigen Wachstum der Rechenleistung deutlich größer sein als der lineare Trend beim angebotsseitigen Wachstum der Rechenleistung;

  • In der Inventardimension wird die Rechenleistung aufgrund des Head-Effekts „eingeschnürt“, und Taillen- und Long-Tail-Spieler haben nichts zu essen, aber eine große Anzahl verteilter GPU-Ressourcen ist ungenutzt, was zu einem gravierenden Missverhältnis zwischen Angebot und Nachfrage führt ;

Inkrementelle Dimension: Die Nachfrage nach Rechenleistung ist weitaus größer als das Angebot

Die erste ist die inkrementelle Dimension. Zusätzlich zur schnellen Verbreitung großer AIGC-Modelle breiten sich unzählige KI-Szenarien in den frühen Stadien des Ausbruchs schnell aus, etwa in den Bereichen medizinische Versorgung, Bildung und intelligentes Fahren Daher wird die Lücke bei den GPU-Rechenressourcen auf dem aktuellen Markt nicht nur bestehen bleiben, sondern sogar noch größer werden.

Mit anderen Worten: Aus der Perspektive von Angebot und Nachfrage muss die Marktnachfrage nach Rechenleistung in absehbarer Zeit weitaus größer sein als das Angebot, und die Nachfragekurve wird kurzfristig immer noch einen exponentiellen Aufwärtstrend aufweisen.

Auf der Angebotsseite kann aufgrund der Beschränkungen physikalischer Gesetze und realer Produktionsfaktoren, sei es Prozessverbesserung oder groß angelegter Fabrikbau zur Erweiterung der Produktionskapazität, bestenfalls ein lineares Wachstum erreicht werden, was zum Scheitern verurteilt ist, da es zu Engpässen bei der Rechenleistung kommt Die KI-Entwicklung wird noch lange bestehen bleiben.

Bestandsdimension: Angebot und Nachfrage von Waist- und Long-Tail-Spielern stimmen erheblich nicht überein

Gleichzeitig machen Amazon Cloud Technology (AWS), Microsoft Azure und Google Cloud Platform (GCP) angesichts begrenzter Rechenressourcen und schwerwiegender Wachstumsengpässe zusammen mehr als 60 % des Cloud-Computing-Anteils aus und befinden sich offensichtlich in einer Krise Position des Verkäufers.

Sie horten Hochleistungs-GPU-Chips und monopolisieren große Mengen an Rechenressourcen. Die kleinen und mittleren Nachfrager nach Rechenleistung im mittleren und langen Schwanz haben jedoch nicht nur keine Verhandlungsmacht, sondern müssen sich auch mit vielen Problemen auseinandersetzen, z Kapitalkosten, KYC-Eintrittsbarrieren und Leasingbedingungen. Darüber hinaus ignorieren Cloud-Service-Giganten aus Gründen der Umsatzquote zwangsläufig die differenzierten Geschäftsanforderungen von „Waist + Long Tail“-Benutzern (z. B. kürzere, unmittelbarere, kleinere Leasinganforderungen). , usw.).

Tatsächlich ist jedoch außerhalb des Rechenleistungsnetzwerks der Cloud-Service-Giganten ein großer Teil der GPU-Rechenleistung ungenutzt und nutzlos. Beispielsweise gibt es weltweit Hunderttausende unabhängige Internet-Rechenzentren (IDCs) von Drittanbietern Dies führt zu einer geringen Verschwendung von Ressourcen für Schulungsaufgaben, einschließlich der Verschlüsselung. Die enorme Rechenleistung von Mining-Farmen und Verschlüsselungsprojekten wie Filecoin, Render und Aethir steht still.

Nach offiziellen Schätzungen von io.net liegt die aktuelle Leerlaufrate von IDC-Grafikkarten allein in den Vereinigten Staaten bei über 60 %. Dies hat zu einem ironischen Paradox der Diskrepanz zwischen Angebot und Nachfrage geführt: Zehntausende kleiner und mittlerer Grafikkarten -große Rechenzentren, Verschlüsselungsminen usw. Mehr als die Hälfte der Rechenleistungsressourcen von Marktbetreibern und anderen Betreibern wird täglich verschwendet und kann keine effektiven Einnahmen bringen. Allerdings haben KI-Unternehmer in der Taille und im langen Schwanz das auszuhalten Die hohen Kosten und die hohe Schwelle der Rechenleistungsdienste der Cloud-Giganten können den noch vielfältigeren Innovationsbedarf nicht decken.

Dürre tötet Dürre und Staunässe tötet, diese beiden grundlegenden Prämissen werden geklärt. Tatsächlich können wir auf einen Blick den Kernwiderspruch zwischen der aktuellen globalen KI-Entwicklung und dem globalen Markt für Rechenleistung erkennen – einerseits ist KI-Innovation allgegenwärtig, und andererseits Die Nachfrage nach Rechenleistung Andererseits kann der Rechenleistungsbedarf „Taille + langer Schwanz“ und ungenutzte GPU-Ressourcen nicht effektiv gedeckt werden und liegt außerhalb des aktuellen Rechenleistungsmarktes.

Dieses Problem ist nicht nur der Widerspruch zwischen dem wachsenden Rechenleistungsbedarf von KI-Unternehmern und dem rückläufigen Wachstum der Rechenleistung, sondern auch das Ungleichgewicht und die unzureichende Diskrepanz zwischen Angebot und Nachfrage unter der großen Zahl von „Taille + Long Tail“-KI-Unternehmern, Computer Energiebetreiber Die Konflikte zwischen ihnen gehen weit über die Lösungsmöglichkeiten zentralisierter Cloud-Dienstanbieter hinaus.

Aus diesem Grund erfordern auch die Marktbedürfnisse neue Lösungen. Stellen Sie sich vor: Wenn diese Betreiber mit Rechenleistung flexibel entscheiden können, Rechenleistung zu vermieten, wenn sie frei sind, können sie dann einen AWS-ähnlichen Rechencluster zu geringen Kosten erhalten?

Es ist wichtig zu wissen, dass der Aufbau eines neuen Datennetzwerks mit einer so großen Rechenleistung extrem teuer ist. Dies hat dazu geführt, dass Plattformen zur Anpassung der Rechenleistung speziell auf ungenutzte Rechenleistungsressourcen im mittleren und hinteren Bereich sowie auf kleine und mittlere KI abzielen Unternehmer, um diese verstreuten ungenutzten Rechenleistungsressourcen zu mobilisieren, speziell abgestimmt auf kleine und mittlere Modellschulungen und große Modelle in segmentierten Szenarien wie Medizin, Recht und Finanzen.

Es kann nicht nur den unterschiedlichen Rechenleistungsbedarf des mittleren und unteren Endes decken, sondern wird auch eine unangebrachte Ergänzung zum bestehenden Rechenleistungsdienstmuster sein, das von zentralisierten Cloud-Giganten dominiert wird:

  • Cloud-Service-Giganten mit riesigen Rechenressourcen sind für „dringende und gefährliche Bedürfnisse“ wie das Training großer Modelle und Hochleistungsrechnen verantwortlich;

  • Dezentrale Cloud-Computing-Leistungsmärkte wie io.net sind für vielfältigere „flexible und kostengünstige Anforderungen“ verantwortlich, wie z. B. kleine und mittlere Modellberechnungen, Feinabstimmung großer Modelle und Inferenzbereitstellung;

Tatsächlich soll eine umfassendere dynamische Gleichgewichtskurve zwischen Angebot und Nachfrage zwischen Kosteneffizienz und Rechenleistungsqualität geschaffen werden, die auch eher der wirtschaftlichen Logik einer optimalen Ressourcenallokation auf dem Markt entspricht.

Daher handelt es sich bei verteilten Computernetzwerken wie io.net im Wesentlichen um eine Lösung, die „KI + Krypto“ integriert, d Im Exil ermöglicht die Nachfrage auf dem mittleren KI-Markt kleinen und mittleren KI-Teams, die erforderlichen GPU-Computing-Dienste, die große Clouds nicht bereitstellen können, entsprechend ihren Anforderungen anzupassen und zu erwerben, wodurch die „Wiederbefreiung der Produktivität“ im globalen Computing realisiert wird Strommarkt und KI-Entwicklung.

Um es ganz klar auszudrücken: io.net ist kein direkter Konkurrent von AWS, Azure und GCP, sondern ein „verdrängter Ergänzungskamerad“, der mit ihnen zusammenarbeitet, um die Allokation globaler Computerressourcen zu optimieren und gemeinsam den Marktkuchen zu vergrößern Es ist nur für die „Kosten“ auf verschiedenen Ebenen verantwortlich. Es ist nur die vorderste Linie der Nachfrage nach „Effizienz und Rechenleistungsqualität“.

Es ist nicht einmal ausgeschlossen, dass io.net durch die Zusammenführung der „Taille + Long Tail“-Angebots- und Nachfrageakteure einen Marktanteil erreichen kann, der nicht geringer ist als die Größe der drei bestehenden Cloud-Giganten.

io.net: eine Matching- und Handelsplattform für globale GPU-Rechenleistung

Gerade weil io.net auf verteilter Web3-Zusammenarbeit + Token-Anreizen basiert, um die Produktionsbeziehungen der mittleren und hinteren Rechenleistungsmärkte neu zu gestalten, können wir darin tatsächlich den Schatten der Sharing Economy wie Uber und Didi erkennen, also ähnlich an Uber, Didi Didis Matching- und Handelsplattform für GPU-Rechenleistung.

Wie wir alle wissen, gab es im weitesten Sinne keine Möglichkeit, ein Taxi anzurufen, bevor Uber und Didi existierten, da mehrere Privatwagen ein riesiges und ungeordnetes Netzwerk aus stillstehenden Fahrzeugen darstellten Nehmen Sie ein Taxi. Sie können nur am Straßenrand winken und einen Versand bei der entsprechenden Taxizentrale in jeder Stadt beantragen. Es ist außerdem ein Verkäufermarkt und für die meisten Menschen unfreundlich Menschen.

Tatsächlich ist dies auch ein getreues Abbild der aktuellen Angebots- und Nachfrageseite des gesamten Rechenleistungsmarktes. Wie oben erwähnt, haben die kleinen und mittleren Rechenleistungsnachfrageparteien in der Taille und am langen Schwanz nicht nur keine Verhandlungsmacht, Sie müssen sich aber auch mit hohen Kapitalkosten, KYC-Eintrittsbarrieren, Leasingbedingungen und vielen anderen Problemen auseinandersetzen.

Wenn man es konkret betrachtet, wie verwirklicht io.net seine Positionierung als „globales GPU-Rechenleistungsverteilungszentrum + passender Markt“ oder welche Art von Systemarchitektur und funktionalen Diensten sind erforderlich, um Mid- und Long-Tail-Benutzern dabei zu helfen, Rechenleistung zu erhalten Ressourcen?

Flexible und kostengünstige Matching-Plattform

Das größte Merkmal von io.net ist seine Asset-Light-Computing-Power-Matching-Plattform.

Das heißt, wie bei Uber und Didi geht es nicht um den eigentlichen Betrieb hochriskanter schwerer Assets wie GPU-Hardware, sondern um die Nutzung mittel- und langfristiger Rechenleistung im Einzelhandel (von denen viele als Rechenleistung zweiter Klasse gelten). Energie in großen Clouds wie AWS).

Ein Ende von io.net ist mit Tausenden von inaktiven GPUs (Privatwagen) in kleinen und mittleren IDCs, Mining-Farmen, Verschlüsselungsprojekten usw. verbunden, und das andere Ende ist mit dem Rechenleistungsbedarf von Hunderten Millionen verbunden Kleine und mittlere Unternehmen (Taxiunternehmen) und dann dient io.net .net als Matching-Plattform für die Zwischenplanung, genau wie ein Broker, der unzählige Kauf- und Verkaufsaufträge nacheinander zusammenbringt.

Dies hilft Unternehmern, personalisiertere kleine und mittlere KI-Modelle zu trainieren, indem es ungenutzte Rechenleistung nutzt, niedrige Kosten und flexiblere Bereitstellungskonfigurationen nutzt und die Ressourcennutzung erheblich verbessert. Die Vorteile liegen auf der Hand, egal ob der Markt zu kalt oder zu heiß ist Solange es eine Nichtübereinstimmung der Ressourcen gibt, wird die Nachfrage nach passenden Plattformen am stärksten sein:

  • Auf der Angebotsseite müssen Anbieter ungenutzter Rechenleistungsressourcen wie kleine und mittlere IDCs, Minen und Verschlüsselungsprojekte lediglich eine Verbindung zu io.net herstellen. Es ist nicht erforderlich, eine eigene BD-Abteilung einzurichten Aufgrund des geringen Umfangs der Rechenleistung gezwungen zu sein, mit einem Rabatt an AWS zu verkaufen, kann ungenutzte Rechenleistung direkt an geeignete kleine und mittlere Rechenleistungskunden zu Marktpreisen oder sogar zu extrem niedrigen Preisen anpassen Reibungskosten, wodurch Vorteile erzielt werden;

  • Auf der Nachfrageseite können kleine und mittlere Nachfrager nach Rechenleistung, die ursprünglich keine Verhandlungsmacht vor großen Clouds wie AWS hatten, auch die Ressourcenpipeline von io.net nutzen, um sich mit kleineren Rechenleistungen zu verbinden, für die keine Genehmigung erforderlich ist Es erfordert kein Warten, erfordert kein KYC und bietet eine flexiblere Bereitstellungszeit. Sie können die Chips, die Sie benötigen, frei auswählen und kombinieren, um einen „Cluster“ zu bilden, um personalisierte Computeraufgaben auszuführen.

Die Angebots- und Nachfrageseite der Rechenleistung weist im mittleren und mittleren Segment ähnliche Schwachstellen auf, wie z. B. eine schwache Verhandlungsmacht und geringe Autonomie gegenüber großen Clouds wie AWS. io.net belebt Angebot und Nachfrage im mittleren und langfristigen Segment -tail, um eine solche Matching-Plattform bereitzustellen, die es sowohl Angebots- als auch Nachfrageparteien ermöglicht, Transaktionen zu besseren Preisen und flexibleren Konfigurationen abzuschließen als große Clouds wie AWS.

Aus dieser Perspektive ist, ähnlich wie bei Plattformen wie Taobao, auch das frühe Auftreten schlechter Rechenleistung ein Entwicklungsgesetz, das durch die Plattformökonomie nicht beseitigt werden kann. Auch io.net hat ein Reputationssystem für die Angebotsseite oder die Nachfrageseite eingerichtet , basierend auf Rechenleistung und Netzwerkteilnahme, um Punkte zu sammeln und Prämien oder Rabatte zu erhalten.

Dezentraler GPU-Cluster

Zweitens: Obwohl io.net eine Matching-Plattform zwischen Einzelhandelsangebot und -nachfrage ist, erfordern aktuelle Computerszenarien wie große Modelle mehrere Grafikkarten, um Berechnungen gemeinsam durchzuführen – das hängt nicht nur davon ab, wie viele inaktive GPUs Ihre Matching-Plattform Ressourcen aggregieren kann, sondern auch davon davon, wie eng die verteilte Rechenleistung auf der Plattform vernetzt ist.

Mit anderen Worten: Dieses verteilte Netzwerk, das kleine und mittlere Rechenleistungen in verschiedenen Regionen und Größen abdeckt, muss eine „dezentrale, aber zentralisierte“ Rechenleistungsarchitektur implementieren: Mehrere verteilte GPUs können entsprechend den flexiblen Rechenanforderungen verschiedener Szenarien platziert werden. Trainieren Sie unter demselben Framework und stellen Sie sicher, dass die Kommunikation und Zusammenarbeit zwischen verschiedenen GPUs sehr schnell sein muss, um zumindest Funktionen wie eine niedrige Latenz zu erreichen, die für die Verwendung ausreichend sind.

Dies unterscheidet sich völlig vom Dilemma einiger dezentraler Cloud-Computing-Projekte, die sich nur auf die Nutzung von GPUs im selben Computerraum beschränken können. Bei der technischen Umsetzung handelt es sich um die „Troika“ des io.net-Produktportfolios: IO Cloud, IO-Worker, IO-Explorer.

  • Das grundlegende Geschäftsmodul von IO Cloud ist Cluster, eine GPU-Gruppe, die sich selbst koordinieren kann, um Rechenaufgaben zu erledigen. Ingenieure für künstliche Intelligenz können den gewünschten Cluster entsprechend ihren eigenen Anforderungen anpassen. Er ist außerdem nahtlos in das IO-SDK integriert Erweitern Sie KI- und Python-Anwendungen, um umfassende Lösungen bereitzustellen;

  • IO Worker bietet eine benutzerfreundliche Benutzeroberfläche, die es sowohl Lieferanten als auch Käufern ermöglicht, ihre Liefervorgänge effektiv über die Webanwendung zu verwalten, einschließlich Benutzerkontoverwaltung, Überwachung der Computeraktivität, Echtzeit-Datenanzeige, Temperatur- und Stromverbrauchsverfolgung, Installationsunterstützung, Wallet-Funktionen im Zusammenhang mit Management, Sicherheitsmaßnahmen und Rentabilitätsberechnungen;

  • IO Explorer bietet Benutzern in erster Linie umfassende Statistiken und Visualisierungen aller Aspekte der GPU-Cloud. Es ermöglicht Benutzern die einfache Überwachung, Analyse und jedes Detail des io.net-Netzwerks zu verstehen, indem es einen vollständigen Einblick in die Netzwerkaktivität, wichtige Statistiken, Datenpunkte und Belohnungstransaktionen bietet.

Aufgrund der oben genannten funktionalen Architektur ermöglicht io.net Anbietern von Rechenleistung die einfache gemeinsame Nutzung ungenutzter Rechenressourcen, wodurch die Eintrittsbarriere erheblich gesenkt wird. Nachfrageparteien müssen keine langfristigen Verträge abschließen und die bei herkömmlichen Cloud-Diensten üblichen langen Wartezeiten in Kauf nehmen. Es kann schnell einen Cluster mit der erforderlichen GPU einrichten und Dienste wie Superrechenleistung und optimierte Serverreaktion erhalten.

Leichtes elastisches Nachfrageszenario

Genauer gesagt, wenn es um die falsch ausgerichteten Service-Szenarien großer Clouds wie io.net und AWS geht, konzentrieren sie sich hauptsächlich auf die leichten elastischen Anforderungen einiger großer Clouds, die nicht kosteneffektiv sind. Darunter können Sie an Modelle denken Dazu gehören Schulungen in Nischenbereichen wie kleinen und mittleren KI-Unternehmertumsprojekten, der Feinabstimmung großer Modelle und anderen abwechslungsreichen Szenarien.

Darüber hinaus gibt es ein universell anwendbares Szenario, das leicht übersehen wird: Modellinferenz.

Wie wir alle wissen, erfordert das frühe Training großer Modelle wie GPT den Einsatz von Zehntausenden Hochleistungs-GPUs, Superrechenleistung und riesigen Datenmengen für langfristige, qualitativ hochwertige Berechnungen. Dies ist auch der absolute Vorteil von großen Clouds wie AWS und GCP.

Aber nach dem Training wird der Hauptbedarf an Rechenleistung zur langfristigen Modellinferenz. Der Bedarf an Rechenleistung ist in dieser Phase auch viel höher als der in der Trainingsphase – Inferenz basierend auf dem trainierten Modell, was wir normalerweise tun . Tägliche Dialog- und Interaktionsszenarien zwischen Benutzern und Modellen wie GPT machen 80–90 % des KI-Computing-Anteils aus.

Interessant ist, dass die Gesamtrechenleistung des Inferenzprozesses möglicherweise nur Dutzende von GPUs und ein paar Minuten dauert, um die Antwort zu erhalten, und die Anforderungen an Netzwerkverzögerung und Parallelität gleichzeitig geringer sind Das Unternehmen trainiert seine eigenen großen Modelle möglicherweise nicht separat, sondern optimiert und optimiert nur einige führende große Modelle wie GPT. Diese Szenarien eignen sich natürlich für die verteilten Leerlauf-Rechenressourcen von io.net.

Neben den hochintensiven und anspruchsvollen Anwendungsszenarien der Minderheit sind auch die breiteren, alltäglichen Leichtbauszenarien ein Neuland, das dringend erschlossen werden muss. Sie mögen fragmentiert erscheinen, aber der Marktanteil ist noch größer Dem neuesten Bericht der Bank of America zufolge macht Hochleistungsrechnen nur einen kleinen Teil des gesamten verfügbaren Marktes für Rechenzentren (TAM) aus, nämlich nur etwa 5 %.

Kurz gesagt: AWS, GCP usw. sind nicht unerschwinglich, aber io.net ist kostengünstiger.

Web2 BD-Gewinner

Letztendlich liegt die zentrale Wettbewerbsfähigkeit von io.net und anderen Plattformen für verteilte Computerressourcen natürlich in den BD-Fähigkeiten, die der Hauptgewinner sind.

Neben dem Wunder, dass NVIDIAs Hochleistungschips Grafikkarten-Brokern hervorbrachten, besteht das größte Problem, das viele kleine und mittlere IDC- und andere Rechenleistungsbetreiber plagt, darin, dass „der Wein gut, aber die Gasse dunkel“ ist.

Aus dieser Perspektive hat io.net tatsächlich einen exklusiven Wettbewerbsvorteil, der für Projekte in der gleichen Richtung schwer zu reproduzieren ist – es gibt ein Web2 BD-Team direkt im Silicon Valley. Sie sind alle Veteranen, die in das Geschäftsfeld eingetaucht sind Seit vielen Jahren kennt Pao nicht nur die vielfältigen Szenarien kleiner und mittlerer Kunden, sondern auch die Endgerätebedürfnisse vieler Web2-Kunden.

Nach offiziellen Angaben von io.net gibt es derzeit zwanzig oder dreißig Web2-Unternehmen, die ihre Bereitschaft zum Kauf/Leasing von Rechenleistung zum Ausdruck gebracht haben und aufgrund der geringeren Kosten und flexibleren Rechenleistungsdienste bereit sind, es zu versuchen oder Fehler zu machen (einige möglicherweise). nicht in der Lage sein, bei AWS überhaupt zu warten) Rechenleistung), Versuch und Irrtum, und jeder Kunde benötigt mindestens Hunderte oder Tausende von Grafikkarten (entspricht Hunderttausenden Dollar an Rechenleistungsbestellungen pro Monat).

Diese Art der tatsächlichen Zahlungsbereitschaft des Terminals auf der Nachfrageseite wird im Wesentlichen mehr ungenutzte Rechenressourcen anziehen, die aktiv auf die Angebotsseite fließen, was es einfacher macht, die Führung bei der Durchbrechung des Web2&Web3-Kreises zu übernehmen und einen First-Mover-Netzwerkskaleneffekt zu schaffen .

Eine ökologische Siedlungsschicht mit tokenisierter Rechenleistung ist möglich

Wie oben erwähnt, basiert io.net auf verteilter Web3-Zusammenarbeit + Token-Anreizen, um den mittleren und hinteren Markt für Rechenleistung neu zu gestalten, wobei letzterer hauptsächlich das Dual-Token-Modell von IO und IOSD übernimmt:

  1. Der Nutzen von Token-IO umfasst die Zahlung von Mietgebühren für Rechenleistung, die Bereitstellung von Anreizen für die Zuweisung von IO-Workern, die Belohnung von KI- und ML-Bereitstellungsteams für die fortgesetzte Nutzung des Netzwerks, den Ausgleich von Teilnachfrage und -angebot, die Preisgestaltung von IO-Worker-Rechnereinheiten und die Community-Governance usw.;

  2. Der an den US-Dollar gekoppelte Stablecoin IOSD kann nur durch Brennen von IO erhalten werden und zielt darauf ab, ein stabiles Wertspeicher- und Transaktionsmedium für die io.net-Plattform bereitzustellen;

Darüber hinaus erwägt io.net auch die Unterstützung der Angebotsseite, um die Wahrscheinlichkeit einer Anmietung durch die Verpfändung von IO zu erhöhen. Die Nachfrageseite kann auch IO verpfänden, um den Einsatz von Hochleistungs-GPUs zu priorisieren und so die Entwicklung eines vollständigen Ökosystems zu ermöglichen die Hypothekenfunktion zur Erfassung des gesamten Rechenleistungs-Ökosystems.

Dies wirft tatsächlich eine andere Frage auf: Kann io.net, da es riesige ungenutzte Rechenleistungsressourcen gesammelt hat, noch weiter gehen und direkt mit der Rechenleistungs-Tokenisierungsmethode von Crypto kombiniert werden, um der GPU größere finanzielle Möglichkeiten in der Kette zu bieten?

Beispielsweise ist es für io.net in Zukunft durchaus möglich, eine dedizierte Kette für Rechenleistung aufzubauen, die auf einem riesigen Rechenleistungsnetzwerk basiert. Durch die Bereitstellung tokenbasierter Infrastrukturdienste ohne Erlaubnis und Eintrittsbarrieren kann jeder und jedes Gerät dies direkt tun Übertragen Sie Rechenleistung (z. B. die Umwandlung von A100 und H100 in standardisierte Token oder NFT) und ermöglichen Sie so den Handel, das Abstecken, die Kreditaufnahme, die Kreditvergabe und die Hebelwirkung.

Dies entspricht der Schaffung eines riesigen On-Chain-Marktes für GPU-Rechenleistung, in den Benutzer und Gelder aus der ganzen Welt frei und effizient einsteigen können. Wir können uns einfach zwei Szenarien vorstellen, um einen Blick auf die zukünftige On-Chain-Finanzierung zu werfen Welche Vorstellungskraft kann der Markt haben?

1.Sicherheits-Rechenleistungs-Token

Wenn beispielsweise ein bestimmter Rechenleistungsbetreiber auf io.net mehrere A100- oder H100-Grafikkarten besitzt, zu diesem Zeitpunkt jedoch finanziellen Bedarf hat oder vorab Geld sparen möchte, kann er auf io die entsprechende Rechenleistung dieser Grafikkarten auflisten .net. Der Wert wird als NFT oder FT verpackt – der Token stellt den diskontierten Cashflow der Rechenleistung der entsprechenden Grafikkarte im nächsten Jahr (oder einem bestimmten Zeitraum) dar und kann in IO bepreist werden.

Da die meisten normalen Anleger nicht die Möglichkeit haben, KI-Rechenleistung direkt zu kaufen, zu halten und zu betreiben, bietet diese Art von Token den Markthändlern die Möglichkeit, über den Anstieg und Rückgang der Preise für Rechenleistung in der Zukunft zu spekulieren flow hat auch an finanzieller Hebelwirkung gewonnen und kann jederzeit und überall flexible Liquidität entsprechend dem tatsächlichen Bedarf realisieren.

Während dieses Zeitraums wird die Grafikkarte hinter dem Token von io.net betrieben und der anschließende Cashflow aus der entsprechenden Rechenleistung wird proportional aufgeteilt (Token-Inhaber erhalten 0,9 und Betreiberknoten erhalten 0,1).

Und da es sich um einen standardisierten Token handelt, kann er wie andere Token frei in CEX oder DEX gehandelt werden. Dadurch wird die Berechnung der Rechenleistung in Echtzeit mit kostenlosem Ein- und Ausstieg weiter vorangetrieben und die GPU-Rechenleistung wirklich in eine Ressource mit globaler Nutzung umgewandelt Liquidität.

2. Bond-Rechenleistungs-Token

Darüber hinaus können Sie durch die Ausgabe von Anleihen-Tokens Mittel für den Kauf von Hochleistungs-Grafikkarten aufbringen, um die Rechenleistung des Netzwerks zu erhöhen. Der Anleihenbetrag entspricht dem Wert der Grafikkartenausrüstung selbst, und die Anleihenzinsen stellen die Cashflow-Einnahmen dar Wenn Sie die Rechenleistung der Grafikkarte in der Zukunft leasen, bedeutet dies, dass der potenzielle Mietwert der Rechenleistung und die zukünftigen Einnahmen dem Marktwert des Tokens entsprechen. Durch das Halten des Tokens können Sie echte RWA-Einnahmen erzielen.

Dies entspricht der Schaffung eines riesigen GPU-Rechenleistungsmarktes für globale Benutzer. Benutzer und Gelder aus der ganzen Welt können frei und effizient in den GPU-Rechenleistungsmarkt einsteigen, ohne sich über hohe Schwellenwerte und hohe Mittel Gedanken machen zu müssen Die vollständige Integration dezentraler Finanzprodukte hat den Grundstein für mehr und umfangreichere Unterstützungsdienste für Benutzer in der Zukunft gelegt.

Noch wichtiger ist, dass der gesamte Prozess IO als Haupttransaktions-/Umlaufwährung verwendet, sodass io.net/IO voraussichtlich zur Abwicklungsschicht/Abrechnungswährung des gesamten globalen Rechenleistungs-Ökosystems wird und diese Kette rund um die Rechenleistungs-Tokenisierung die Zukunft des Der Finanzmarkt kann fast einen Bewertungsraum schaffen, der dem Narrativ des dezentralen Rechenleistungsnetzwerks io.net ähnelt.

Zusammenfassung

Im Allgemeinen ist Web3 als neue Art von Produktionsbeziehungen natürlich an KI angepasst, was eine neue Art von Produktivität darstellt. Aus dieser Perspektive ist dies auch die Kernlogik von io. net ist gerade durch die Einführung von „Die wirtschaftliche Infrastruktur der „Web3+ Token Economy“ wird die Produktionsbeziehung zwischen traditionellen Cloud-Service-Giganten, mittel- und langfristigen Rechenleistungsnutzern und globalen ungenutzten Netzwerk-Rechnerressourcen verändern:

Bieten Sie Lösungen für die wirklichen Schwachstellen des Angebots und der Nachfrage nach KI-Rechenleistung, bauen Sie einen zweiseitigen Markt auf, der „Taille + Long Tail“-GPU-Rechenressourcen und Benutzerbedürfnisse abdeckt und bedient, optimieren Sie das Angebot und die Zuweisung von Rechenleistungsressourcen und bringen Sie Die globale KI-Entwicklung, insbesondere die Produktivität kleiner und mittlerer KI-Innovationen, wird stark freigesetzt.

Die Vision ist zweifellos ehrgeizig und wird höchstwahrscheinlich zur zentralen Matching-Infrastruktur und Wertabrechnungsschicht des globalen GPU-Computing-Ökosystems werden. Sie ist äußerst einfallsreich voller Herausforderungen.

Ursprünglicher Link: https://www.chaincatcher.com/article/2127297

Nachdruck durch die io.net-Binance-Square-Community, das ursprüngliche Urheberrecht und die Verantwortung für den Inhalt liegen beim ursprünglichen Autor. Der Nachdruck durch io.net und Binance Square bedeutet nicht, dass einige oder alle Ansichten des nachgedruckten Inhalts bestätigt oder unterstützt werden.