Alex Xu - Mint Ventures

Ursprüngliche Veröffentlichungszeit: 08.04.2024 10:23

Ursprünglicher Link: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analysis-of-upcoming-tokenlaunch-io-net /

Einführung

In meinem letzten Artikel habe ich erwähnt, dass es diesem Krypto-Bullenmarktzyklus im Vergleich zu den beiden vorherigen Zyklen an ausreichend einflussreichen neuen Geschäfts- und neuen Vermögenserzählungen mangelt. KI ist eine der wenigen neuen Erzählungen in dieser Runde des Web3-Bereichs. Der Autor dieses Artikels wird versuchen, meine Gedanken zu den folgenden zwei Themen basierend auf dem diesjährigen heißen KI-Projekt IO.NET zu ordnen:

  • Die kommerzielle Notwendigkeit von AI+Web3

  • Die Notwendigkeit und Herausforderungen verteilter Computerdienste

Zweitens wird der Autor die Schlüsselinformationen des IO.NET-Projekts, eines repräsentativen Projekts für verteilte KI-Rechenleistung, einschließlich Produktlogik, Wettbewerbsprodukte und Projekthintergrund, sortieren und daraus die Bewertung des Projekts ableiten.

Ein Teil der Gedanken dieses Artikels zur Kombination von KI und Web3 wurde von „The Real Merge“ des Delphi Digital-Forschers Michael Rinko inspiriert. Einige der Ansichten in diesem Artikel sind aus dem Artikel zusammengefasst und zitiert. Den Lesern wird empfohlen, den Originalartikel zu lesen.

Dieser Artikel stellt die inszenierte Denkweise des Autors zum Zeitpunkt der Veröffentlichung dar. Er kann sich in Zukunft ändern und die Ansichten sind möglicherweise sehr subjektiv. Bitte verwenden Sie ihn nicht als Investitionsreferenz . Kommentare und Diskussionen von Kollegen sind willkommen.

Das Folgende ist der Haupttext.

1. Geschäftslogik: die Kombination von KI und Web3

1.1 2023: Das neue „Wunderjahr“, geschaffen von KI

Wenn wir auf die Geschichte der menschlichen Entwicklung zurückblicken, werden, sobald der Technologie ein Durchbruch gelingt, weltbewegende Veränderungen folgen, vom individuellen Alltagsleben über verschiedene Industriestrukturen bis hin zur gesamten menschlichen Zivilisation.

Es gibt zwei wichtige Jahre in der Geschichte der Menschheit, nämlich 1666 und 1905. Sie werden heute als die beiden „Wunderjahre“ in der Geschichte der Wissenschaft und Technik bezeichnet.

1666 gilt als das Jahr der Wunder, da Newtons wissenschaftliche Errungenschaften in diesem Jahr konzentriert zum Vorschein kamen. In diesem Jahr eröffnete er den physikalischen Zweig der Optik, begründete den mathematischen Zweig der Infinitesimalrechnung und leitete die Gravitationsformel ab, das Grundgesetz der modernen Naturwissenschaft. Jedes davon wird einen grundlegenden Beitrag zur Entwicklung der Humanwissenschaft in den nächsten hundert Jahren leisten und die Entwicklung der gesamten Wissenschaft erheblich beschleunigen.

Das zweite Wunderjahr war 1905. Damals veröffentlichte Einstein, der erst 26 Jahre alt war, vier aufeinanderfolgende Artikel in den „Annalen der Physik“, in denen er sich mit dem photoelektrischen Effekt (der den Grundstein für die Quantenmechanik legte) und der Brownschen Bewegung (die zur Quantenmechanik wurde) befasste Methode zur Analyse zufälliger Prozesse). Wichtige Referenzen), Spezielle Relativitätstheorie und die Masse-Energie-Gleichung (d. h. die berühmte Formel E=MC^2). In der Bewertung späterer Generationen übertraf jede dieser vier Arbeiten das durchschnittliche Niveau des Nobelpreises für Physik (Einstein selbst erhielt auch den Nobelpreis für seine Arbeit über den photoelektrischen Effekt), und der historische Prozess der menschlichen Zivilisation wurde noch einmal erheblich beschleunigt fortgeschritten. Mehrere Schritte.

Das gerade vergangene Jahr 2023 wird aufgrund von ChatGPT höchstwahrscheinlich als ein weiteres „Wunderjahr“ bezeichnet.

Wir betrachten 2023 als ein „Wunderjahr“ in der Geschichte der menschlichen Wissenschaft und Technologie, nicht nur wegen der enormen Fortschritte von GPT beim Verständnis und der Generierung natürlicher Sprache, sondern auch, weil die Menschen das Wachstum großer Sprachmodellfähigkeiten aus der Evolution herausgefunden haben GPT Die Regel – das heißt, durch die Erweiterung der Modellparameter und Trainingsdaten können die Fähigkeiten des Modells exponentiell verbessert werden – und es gibt kurzfristig keinen Engpass in diesem Prozess (solange die Rechenleistung ausreicht).

Diese Fähigkeit ist weit davon entfernt, Sprache zu verstehen und Dialoge zu erzeugen. Sie kann auch in verschiedenen wissenschaftlichen und technologischen Bereichen eingesetzt werden. Nehmen wir als Beispiel die Anwendung großer Sprachmodelle.

  • Im Jahr 2018 sagte der Chemie-Nobelpreisträger Francis Arnold bei der Preisverleihung: „Heute können wir jede DNA-Sequenz in praktischen Anwendungen lesen, schreiben und bearbeiten, aber fünf Jahre nach seiner Rede, im Jahr 2023, können Forscher sie noch nicht komponieren.“ Von der Stanford University und dem Silicon Valley AI-Startup Salesforce Research wurde ein Artikel in „Nature-Biotechnology“ veröffentlicht. Sie verwendeten ein großes, auf GPT3 basierendes Sprachmodell, um von 0 eine Million neue Proteine ​​​​zu schaffen, und zwei Proteine ​​​​mit völlig unterschiedlichen Strukturen , aber beide mit bakterizider Wirkung, wurden gefunden Es wird erwartet, dass sie zusätzlich zu Antibiotika eine Lösung zur Bekämpfung von Bakterien werden. Mit anderen Worten: Mit Hilfe der KI wurde der Engpass bei der Protein-„Erstellung“ durchbrochen.

  • Zuvor hatte der AlphaFold-Algorithmus der künstlichen Intelligenz die Struktur fast aller 214 Millionen Proteine ​​auf der Erde innerhalb von 18 Monaten vorhergesagt. Dieses Ergebnis war in der Vergangenheit hundertfach die Arbeit aller menschlichen Strukturbiologen.

Mit verschiedenen auf KI basierenden Modellen wird alles von harten Technologien wie Biotechnologie, Materialwissenschaft und Arzneimittelforschung und -entwicklung bis hin zu geisteswissenschaftlichen Bereichen wie Recht und Kunst weltbewegende Veränderungen einleiten, und 2023 ist das erste Jahr davon.

Wir alle wissen, dass die Fähigkeit der Menschheit, Wohlstand zu schaffen, im vergangenen Jahrhundert exponentiell gewachsen ist und dass die schnelle Reife der KI-Technologie diesen Prozess zwangsläufig noch weiter beschleunigen wird.

Globales BIP-Trenddiagramm, Datenquelle: Weltbank

1.2 Die Kombination von KI und Krypto

Um die Notwendigkeit der Kombination von KI und Krypto im Wesentlichen zu verstehen, können wir von den komplementären Eigenschaften der beiden ausgehen.

Komplementäre Funktionen von KI und Krypto

KI hat drei Eigenschaften:

  • Zufälligkeit: KI ist zufällig. Hinter ihrem Inhaltsproduktionsmechanismus verbirgt sich eine Black Box, die schwer zu reproduzieren und zu erkennen ist, sodass auch die Ergebnisse zufällig sind.

  • Ressourcenintensiv: KI ist eine ressourcenintensive Branche, die viel Energie, Chips und Rechenleistung benötigt.

  • Menschenähnliche Intelligenz: KI wird (bald) den Turing-Test bestehen können, und danach werden Menschen nicht mehr von Maschinen zu unterscheiden sein*

※Am 30. Oktober 2023 veröffentlichte das Forschungsteam der University of California, San Diego, die Turing-Testergebnisse (Testbericht) zu GPT-3.5 und GPT-4.0. Der GPT4.0-Wert liegt bei 41 %, was nur 9 % von der Bestehensgrenze von 50 % entfernt ist. Der menschliche Testwert desselben Projekts liegt bei 63 %. Die Bedeutung dieses Turing-Tests besteht darin, wie viel Prozent der Menschen denken, dass die Person, mit der sie chatten, eine reale Person ist. Wenn er 50 % übersteigt, bedeutet dies, dass mindestens die Hälfte der Menschen in der Menge denkt, dass der Gesprächspartner ein Mensch und keine Maschine ist, was den Turing-Test als bestanden ansieht.

Während KI neue Produktivitätssprünge für die Menschheit schafft, stellen ihre drei Eigenschaften auch große Herausforderungen für die menschliche Gesellschaft dar, nämlich:

  • Wie man die Zufälligkeit der KI überprüft und kontrolliert, sodass Zufälligkeit eher zum Vorteil als zum Nachteil wird

  • Wie kann die enorme Energie- und Rechenleistungslücke geschlossen werden, die die KI erfordert?

  • Wie man den Unterschied zwischen Menschen und Maschinen erkennt

Die Merkmale von Krypto und der Blockchain-Wirtschaft könnten die richtige Medizin sein, um die Herausforderungen zu lösen, die die KI mit sich bringt. Die Kryptoökonomie weist die folgenden drei Merkmale auf:

  • Determinismus: Das Geschäft läuft auf der Grundlage von Blockchain, Code und Smart Contracts. Die Regeln und Grenzen sind klar, was zu einem hohen Maß an Sicherheit führt.

  • Effiziente Ressourcenallokation: Die Kryptoökonomie hat einen riesigen globalen freien Markt aufgebaut. Die Preisgestaltung, Sammlung und Zirkulation von Ressourcen erfolgt sehr schnell. Und aufgrund der Existenz von Token können Anreize genutzt werden, um die Abstimmung von Marktangebot und -nachfrage zu beschleunigen und das Erreichen kritischer Punkte beschleunigen.

  • Vertrauensfrei: Das Hauptbuch ist offen, der Code ist Open Source und jeder kann ihn leicht überprüfen, was zu einem „vertrauenswürdigen“ System führt, während die ZK-Technologie gleichzeitig mit der Überprüfung eine Gefährdung der Privatsphäre vermeidet.

Anschließend soll anhand von drei Beispielen die Komplementarität von KI und Kryptoökonomie verdeutlicht werden.

Beispiel A: Zufälligkeit lösen, KI-Agent basierend auf Kryptoökonomie

AI Agent ist ein Programm für künstliche Intelligenz, das für die Ausführung von Arbeiten für Menschen auf der Grundlage des menschlichen Willens verantwortlich ist (repräsentative Projekte umfassen Fetch.AI). Angenommen, wir möchten, dass unser KI-Agent eine Finanztransaktion abwickelt, beispielsweise „1.000 $ in BTC kaufen“. KI-Agenten können mit zwei Situationen konfrontiert sein:

Szenario 1: Es muss eine Verbindung zu traditionellen Finanzinstituten (wie BlackRock) hergestellt und BTC-ETFs gekauft werden. Es gibt zahlreiche Anpassungsprobleme zwischen KI-Agenten und zentralisierten Institutionen, wie z. B. KYC, Informationsüberprüfung, Anmeldung, Identitätsprüfung usw. Im Moment ist es immer noch sehr problematisch.

Szenario 2: Es basiert auf der nativen Verschlüsselungsökonomie und die Situation wird viel einfacher. Es wird direkt Ihr Konto verwenden, um eine Bestellung zu unterzeichnen und aufzugeben, um die Transaktion über Uniswap oder eine aggregierte Handelsplattform abzuschließen und WBTC (oder andere) zu erhalten Encapsulation) Format BTC) ist der gesamte Vorgang schnell und einfach. Tatsächlich ist es das, was verschiedene Trading BOTs tun. Sie haben tatsächlich die Rolle eines Junior-KI-Agenten gespielt, aber ihre Arbeit konzentriert sich auf den Handel. In Zukunft werden mit der Integration und Weiterentwicklung der KI verschiedene Arten von Handels-BOTs zwangsläufig in der Lage sein, komplexere Handelsabsichten auszuführen. Zum Beispiel: Verfolgen Sie 100 Smart-Money-Adressen in der Kette, analysieren Sie ihre Handelsstrategien und Erfolgsquoten, verwenden Sie 10 % der Mittel in meiner Adresse, um innerhalb einer Woche ähnliche Transaktionen auszuführen, und stoppen Sie, wenn die Ergebnisse nicht gut sind, und fassen Sie die Möglichkeiten zusammen des Scheiterns.

KI wird in einem Blockchain-System besser funktionieren, im Wesentlichen aufgrund der Klarheit der kryptoökonomischen Regeln und des erlaubnisfreien Zugriffs auf das System. Durch die Ausführung von Aufgaben nach begrenzten Regeln werden auch die potenziellen Risiken, die die Zufälligkeit der KI mit sich bringt, geringer. Beispielsweise hat die KI bei Schach- und Kartenwettbewerben sowie bei Videospielen die Leistung von Menschen übertroffen, da Schach- und Kartenspiele geschlossene Sandkästen mit klaren Regeln sind. Der Fortschritt der KI beim autonomen Fahren wird relativ langsam sein, da die Herausforderungen der offenen externen Umgebung größer sind und es für uns schwieriger ist, die Zufälligkeit von KI-Verarbeitungsproblemen zu tolerieren.

Beispiel B: Ressourcen gestalten und Ressourcen durch Token-Anreize sammeln

Das globale Rechenleistungsnetzwerk hinter BTC übersteigt mit seiner aktuellen Gesamtrechenleistung (Hashrate: 576,70 EH/s) die Gesamtrechenleistung aller Supercomputer eines Landes. Seine Entwicklungsmotivation beruht auf einfachen und fairen Netzwerkanreizen.

Trend zur Rechenleistung des BTC-Netzwerks, Quelle: https://www.coinwarz.com/

Darüber hinaus versuchen DePIN-Projekte, darunter auch Mobile, mithilfe von Token-Anreizen einen zweiseitigen Markt auf beiden Seiten von Angebot und Nachfrage zu gestalten, um Netzwerkeffekte zu erzielen. IO.NET, auf das sich dieser Artikel als nächstes konzentriert, ist eine Plattform zur Sammlung von KI-Rechenleistung. Es besteht die Hoffnung, dass durch das Token-Modell mehr KI-Rechenleistungspotenzial angeregt wird.

Beispiel C: Open-Source-Code, Einführung von ZK, Unterscheidung von Mensch und Maschine bei gleichzeitigem Schutz der Privatsphäre

Als Web3-Projekt, an dem OpenAI-Gründer Sam Altman beteiligt ist, nutzt Worldcoin das Hardwaregerät Orb, um exklusive und anonyme Hash-Werte basierend auf der Biometrie der menschlichen Iris und der ZK-Technologie zu generieren, um die Identität zu überprüfen und zwischen Menschen und Maschinen zu unterscheiden. Anfang März dieses Jahres begann das Web3-Kunstprojekt Drip, Worldcoin-IDs zu verwenden, um echte Benutzer zu verifizieren und Belohnungen auszugeben.

Darüber hinaus hat Worldcoin kürzlich auch den Programmcode seiner Iris-Hardware Orb als Open-Source-Lösung bereitgestellt, um Garantien für die Sicherheit und den Datenschutz der Benutzerbiometrie zu bieten.

Im Allgemeinen ist die Kryptoökonomie aufgrund der Sicherheit von Code und Kryptografie, der Vorteile der Ressourcenzirkulation und der Mittelbeschaffung durch den Erlaubnis- und Token-Mechanismus sowie der vertrauenswürdigen Attribute, die auf Open-Source-Code und öffentlichen Hauptbüchern basieren, zu einer großen KI-Herausforderung geworden menschliche Gesellschaft. Eine wichtige mögliche Lösung.

Und unter ihnen ist die dringendste Herausforderung mit der stärksten kommerziellen Nachfrage der extreme Hunger nach KI-Produkten bei den Rechenressourcen, der mit der enormen Nachfrage nach Chips und Rechenleistung einhergeht.

Dies ist auch der Hauptgrund dafür, dass das Wachstum von Projekten zur verteilten Rechenleistung in diesem Bullenmarktzyklus den gesamten KI-Trend übersteigt.


Die geschäftliche Notwendigkeit dezentraler Datenverarbeitung

KI erfordert enorme Rechenressourcen, sei es für das Training von Modellen oder für die Durchführung von Inferenzen.

In der Trainingspraxis großer Sprachmodelle hat sich eine Tatsache bestätigt: Solange der Umfang der Datenparameter groß genug ist, werden große Sprachmodelle mit einigen Fähigkeiten entstehen, die zuvor nicht verfügbar waren. Der exponentielle Leistungssprung jeder GPT-Generation im Vergleich zur vorherigen Generation ist auf den exponentiellen Anstieg der für das Modelltraining erforderlichen Berechnungen zurückzuführen.

Untersuchungen von DeepMind und der Stanford University zeigen, dass, wenn verschiedene große Sprachmodelle vor unterschiedlichen Aufgaben stehen (Operationen, Beantwortung persischer Fragen, Verständnis natürlicher Sprache usw.), sie während des Modelltrainings (entsprechend Training) nur die Größe der Modellparameter erhöhen müssen Der Rechenaufwand hat sich ebenfalls erhöht), bis der Trainingsumfang nicht mehr 10^22 FLOPs erreicht (FLOPs beziehen sich auf Gleitkommaoperationen pro Sekunde, die zur Messung der Rechenleistung verwendet werden), ist die Leistung jeder Aufgabe fast die gleiche wie das zufällige Geben von Antworten. ; Und sobald die Parameterskala den kritischen Wert dieser Skala überschreitet, verbessert sich die Aufgabenleistung erheblich, unabhängig vom Sprachmodell.

Thema: Emergente Fähigkeiten großer Sprachmodelle

Thema: Emergente Fähigkeiten großer Sprachmodelle

Es ist auch die Überprüfung des Gesetzes und der Praxis „großer Wunder“ in der Rechenleistung, die OpenAI-Gründer Sam Altman dazu veranlasste, vorzuschlagen, 7 Billionen US-Dollar aufzubringen, um eine fortschrittliche Chipfabrik zu bauen, die zehnmal größer ist als die aktuelle Größe von TSMC (dieser Teil). Es wird erwartet, dass es 1,5 Billionen kostet) und die restlichen Mittel für die Chipproduktion und die Modellschulung verwenden.

Zusätzlich zur Rechenleistung, die zum Trainieren von KI-Modellen erforderlich ist, erfordert auch der Inferenzprozess des Modells selbst viel Rechenleistung (obwohl der Rechenaufwand geringer ist als der des Trainings), sodass der Hunger nach Chips und Rechenleistung gestiegen ist Ein wesentlicher Faktor bei der Teilnahme an der KI ist der Normalzustand der Person.

Im Vergleich zu zentralisierten KI-Rechenleistungsanbietern wie Amazon Web Services, Google Cloud Platform, Microsoft Azure usw. gehören zu den wichtigsten Wertversprechen des verteilten KI-Computings:

  • Zugänglichkeit: Der Zugriff auf Computerchips über Cloud-Dienste wie AWS, GCP oder Azure dauert oft Wochen und beliebte GPU-Modelle sind oft ausverkauft. Darüber hinaus müssen Verbraucher, um Rechenleistung zu erhalten, häufig langfristige, unflexible Verträge mit diesen großen Unternehmen abschließen. Die verteilte Computerplattform kann eine flexible Hardwareauswahl und eine bessere Zugänglichkeit bieten.

  • Niedrige Preise: Aufgrund der Verwendung ungenutzter Chips und der Token-Subventionen, die die Netzwerkprotokollpartei den Chip- und Rechenleistungslieferanten gewährt, kann das verteilte Rechenleistungsnetzwerk möglicherweise günstigere Rechenleistung bereitstellen.

  • Widerstand gegen Zensur: Derzeit werden hochmoderne Rechenleistungschips und -zubehör von großen Technologieunternehmen monopolisiert. Darüber hinaus verstärkt die Regierung, vertreten durch die Vereinigten Staaten, ihre Überprüfung der KI-Rechenleistungsdienste, die flexibel verteilt werden können. Dies wird nach und nach zu einer expliziten Nachfrage und ist auch das zentrale Wertversprechen der auf web3 basierenden Rechenleistungsdienstplattform.

Wenn fossile Energie das Blut des Industriezeitalters ist, dann könnte Rechenleistung das Blut des neuen digitalen Zeitalters sein, das durch KI eröffnet wurde, und die Bereitstellung von Rechenleistung wird zur Infrastruktur des KI-Zeitalters. Wird der Markt für verteilte Rechenleistung ein Nebenzweig des schnell wachsenden Marktes für KI-Rechenleistung werden, so wie sich Stablecoins im Web3-Zeitalter zu einem florierenden Nebenzweig der gesetzlichen Währung entwickelt haben?

Da es sich noch um einen recht frühen Markt handelt, bleibt alles abzuwarten. Die folgenden Faktoren können jedoch die Verbreitung oder Marktakzeptanz verteilter Rechenleistung fördern:

  • Angebot und Nachfrage bei GPUs sind weiterhin knapp. Das anhaltend knappe Angebot an GPUs könnte einige Entwickler dazu veranlassen, verteilte Computerplattformen auszuprobieren.

  • Regulatorische Erweiterung. Wenn Sie KI-Rechenleistungsdienste von einer großen Cloud-Computing-Leistungsplattform erhalten möchten, müssen Sie KYC und mehrere Überprüfungen durchlaufen. Dies könnte stattdessen die Einführung verteilter Computerplattformen fördern, insbesondere in Bereichen, die Beschränkungen und Sanktionen unterliegen.

  • Token-Preisanreiz. Der Anstieg der Token-Preise während des Bullenmarktzyklus wird den Subventionswert der Plattform für die GPU-Angebotsseite erhöhen, wodurch mehr Anbieter für den Markteintritt angelockt werden, der Markt größer wird und der tatsächliche Kaufpreis der Verbraucher sinkt.

Gleichzeitig liegen aber auch die Herausforderungen verteilter Computerplattformen auf der Hand:

  • Technische und ingenieurtechnische Herausforderungen

    • Problem der Arbeitsüberprüfung: Aufgrund der hierarchischen Struktur der Berechnung des Deep-Learning-Modells wird die Ausgabe jeder Schicht als Eingabe der nachfolgenden Schicht verwendet. Daher erfordert die Überprüfung der Gültigkeit der Berechnung die Ausführung aller vorherigen Arbeiten nicht einfach und effektiv überprüft werden können. Um dieses Problem zu lösen, müssen verteilte Computerplattformen neue Algorithmen entwickeln oder Näherungsverifizierungstechniken verwenden, die eher probabilistische Garantien für die Richtigkeit der Ergebnisse als absolute Sicherheit bieten können.

    • Parallelisierungsproblem: Die verteilte Rechenleistungsplattform sammelt einen Long-Tail-Vorrat an Chips, was bedeutet, dass die von einem einzelnen Gerät bereitgestellte Rechenleistung relativ begrenzt ist. Ein einzelner Chiplieferant kann die Trainings- oder Argumentationsaufgaben des KI-Modells nahezu abschließen Daher muss die Parallelisierung zum Abbau und zur Verteilung von Aufgaben genutzt werden, um die Gesamterledigungszeit zu verkürzen. Bei der Parallelisierung treten unweigerlich eine Reihe von Problemen auf, z. B. die Zerlegung von Aufgaben (insbesondere komplexe Deep-Learning-Aufgaben), Datenabhängigkeiten und zusätzliche Kommunikationskosten zwischen Geräten.

    • Datenschutzproblem: Wie kann sichergestellt werden, dass die Daten und Modelle des Käufers dem Empfänger der Aufgabe nicht zugänglich gemacht werden?

  • Herausforderungen bei der Einhaltung gesetzlicher Vorschriften

    • Die verteilte Computerplattform kann aufgrund ihres erlaubnisfreien Charakters des zweiseitigen Marktes aus Angebot und Beschaffung als Verkaufsargument zur Gewinnung einiger Kunden genutzt werden. Andererseits könnte die Verbesserung der KI-Regulierungsstandards zum Ziel staatlicher Korrekturen werden. Darüber hinaus machen sich einige GPU-Anbieter Sorgen darüber, ob die von ihnen gemieteten Rechenressourcen sanktionierten Unternehmen oder Einzelpersonen zur Verfügung gestellt werden.

Im Allgemeinen sind die meisten Verbraucher verteilter Computerplattformen professionelle Entwickler oder kleine und mittlere Institutionen, die Kryptowährungen und NFTs kaufen. Diese Benutzer haben ein begrenztes Verständnis für die Dienste, die das Protokoll bereitstellen kann und Nachhaltigkeit, und der Preis ist möglicherweise nicht der Hauptgrund für ihre Entscheidungsfindung. Derzeit haben verteilte Computerplattformen noch einen langen Weg vor sich, um bei solchen Benutzern Anerkennung zu finden.

Als nächstes sortierten und analysierten wir die Projektinformationen von IO.NET, einem neuen verteilten Rechenleistungsprojekt in diesem Zyklus, und berechneten basierend auf den aktuellen KI-Projekten und verteilten Rechenprojekten im gleichen Marktsegment das mögliche Marktpotenzial nach seiner Einführung.

2. Verteilte KI-Rechenleistungsplattform: IO.NET

2.1 Projektpositionierung

IO.NET ist ein dezentrales Computernetzwerk, das einen zweiseitigen Markt rund um Chips aufbaut. Die Angebotsseite ist die Rechenleistung der weltweit verteilten Chips (hauptsächlich GPUs, aber auch CPUs und iGPUs von Apple usw.) und die Nachfrageseite hofft, die Ingenieure für künstliche Intelligenz für das Training von KI-Modellen oder Inferenzaufgaben zu vervollständigen.

Auf der offiziellen Website von IO.NET heißt es:

Unsere Aufgabe

Zusammenstellung von einer Million GPUs in einem DePIN – einem dezentralen physischen Infrastrukturnetzwerk.

Seine Mission ist es, Millionen von GPUs in sein DePIN-Netzwerk zu integrieren.

Im Vergleich zu bestehenden Cloud-KI-Rechenleistungsdienstleistern werden als Hauptverkaufsargumente hervorgehoben:

  • Flexible Kombination: KI-Ingenieure können die Chips, die sie benötigen, frei auswählen und zu einem „Cluster“ kombinieren, um ihre eigenen Rechenaufgaben zu erledigen.

  • Schnelle Bereitstellung: Es sind keine wochenlangen Genehmigungen und Wartezeiten erforderlich (was derzeit bei zentralisierten Anbietern wie AWS der Fall ist), die Bereitstellung kann innerhalb weniger Sekunden abgeschlossen und Aufgaben gestartet werden

  • Günstige Dienstleistungen: Die Kosten für Dienstleistungen sind 90 % niedriger als bei Mainstream-Herstellern

Darüber hinaus plant IO.NET in Zukunft auch die Einführung eines AI Model Store und anderer Dienste.

2.2 Produktmechanismus und Geschäftsdaten

Produktmechanismus und Bereitstellungserfahrung

Wie Amazon Cloud, Google Cloud und Alibaba Cloud heißt der von IO.NET bereitgestellte Computerdienst IO Cloud. IO Cloud ist ein verteiltes, dezentrales Chip-Netzwerk, das in der Lage ist, Python-basierten Code für maschinelles Lernen auszuführen und KI- und maschinelle Lernprogramme auszuführen.

Das grundlegende Geschäftsmodul von IO Cloud heißt Cluster. Dabei handelt es sich um eine Gruppe von GPUs, die sich selbst koordinieren können, um Computeraufgaben zu erledigen und den gewünschten Cluster entsprechend ihren eigenen Anforderungen anzupassen.

Die Produktoberfläche von IO.NET ist sehr benutzerfreundlich. Wenn Sie Ihren eigenen Chip-Cluster bereitstellen möchten, um KI-Computing-Aufgaben auszuführen, können Sie nach dem Aufrufen der Produktseite „Cluster“ mit der Konfiguration des gewünschten Chip-Clusters beginnen.

Seiteninformationen: https://cloud.io.net/cloud/clusters/create-cluster, dasselbe unten

Zuerst müssen Sie Ihr eigenes Missionsszenario auswählen. Derzeit stehen drei Arten zur Auswahl:

  1. Allgemein: Bietet eine allgemeinere Umgebung, geeignet für frühe Projektphasen, in denen spezifische Ressourcenanforderungen ungewiss sind.

  2. Trainieren: Ein Cluster, der für das Training und die Feinabstimmung von Modellen für maschinelles Lernen konzipiert ist. Diese Option kann mehr GPU-Ressourcen, eine höhere Speicherkapazität und/oder schnellere Netzwerkverbindungen zur Bewältigung dieser intensiven Rechenaufgaben bereitstellen.

  3. Inferenz: Ein Cluster, der für Inferenz mit geringer Latenz und hohe Arbeitslasten konzipiert ist. Im Kontext des maschinellen Lernens bezieht sich Inferenz auf die Verwendung eines trainierten Modells, um Vorhersagen zu treffen oder neue Daten zu analysieren und Feedback zu geben. Daher konzentriert sich diese Option auf die Optimierung von Latenz und Durchsatz, um Datenverarbeitungsanforderungen in Echtzeit oder nahezu in Echtzeit zu unterstützen.

Anschließend müssen Sie den Anbieter des Chip-Clusters auswählen. Derzeit hat IO.NET eine Zusammenarbeit mit Render Network und dem Miner-Netzwerk von Filecoin geschlossen, sodass Benutzer IO.NET oder Chips aus den anderen beiden Netzwerken als Anbieter ihres eigenen Computer-Clusters auswählen können Dies entspricht der Rolle von IO.NET als Aggregator (zum Zeitpunkt des Verfassens dieses Artikels ist der Filecon-Dienst jedoch vorübergehend offline). Erwähnenswert ist, dass der Seite zufolge die Anzahl der verfügbaren GPUs für IO.NET derzeit bei über 200.000 liegt, während die Anzahl der verfügbaren GPUs für Render Network bei über 3.700 liegt.

Als nächstes beginnen wir mit der Auswahl der Cluster-Chip-Hardware. Derzeit sind die einzigen von IO.NET zur Auswahl aufgeführten Hardwaretypen GPUs, mit Ausnahme von CPUs oder Apples iGPUs (M1, M2 usw.), und GPUs sind hauptsächlich NVIDIA-Produkte.

Unter den offiziell aufgeführten und verfügbaren GPU-Hardwareoptionen beträgt die Anzahl der verfügbaren GPUs im IO.NET-Netzwerk laut den Testdaten des Autors von diesem Tag 206.001. Unter ihnen verfügt die GeForce RTX 4090 (45.250 Fotos) über die meisten verfügbaren Daten, gefolgt von der GeForce RTX 3090 Ti (30.779 Fotos).

Darüber hinaus sind für den A100-SXM4-80GB-Chip (Marktpreis über 15.000 US-Dollar), der KI-Rechneraufgaben wie maschinelles Lernen, Deep Learning und wissenschaftliches Rechnen effizienter verarbeitet, 7.965 Fotos online.

Die H100 80 GB HBM3-Grafikkarte von NVIDIA (Marktpreis über 40.000 $), die von Beginn des Hardware-Designs an speziell für KI entwickelt wurde, verfügt über eine Trainingsleistung, die 3,3-mal höher ist als die A100, eine Inferenzleistung, die 4,5-mal höher ist als die A100. und die tatsächliche Anzahl der Online-Bilder beträgt 86.

Nach Auswahl des Hardwaretyps des Clusters muss der Benutzer auch die Clusterregion, die Kommunikationsgeschwindigkeit, die Anzahl und Zeit der gemieteten GPUs und andere Parameter auswählen.

Abschließend stellt Ihnen IO.NET eine Rechnung auf Basis umfassender Auswahlen zur Verfügung. Nehmen Sie als Beispiel die Cluster-Konfiguration des Autors:

  • Allgemeines Aufgabenszenario

  • 16 A100-SXM4-80GB-Chips

  • Maximale Verbindungsgeschwindigkeit (Ultra High Speed)

  • Standort Vereinigte Staaten

  • Die Mietdauer beträgt 1 Woche

Der Gesamtrechnungspreis beträgt 3311,6 $ und der Stundenmietpreis einer einzelnen Karte beträgt 1,232 $

Die Einzelkarten-Stundenmietpreise für A100-SXM4-80GB in Amazon Cloud, Google Cloud und Microsoft Azure betragen 5,12 $, 5,07 $ bzw. 3,67 $ (Datenquelle: https://cloud-gpus.com/, der tatsächliche Preis). basieren auf Vertragsdetails und geänderten Bedingungen).

Daher ist die Chip-Rechenleistung von IO.NET allein preislich tatsächlich deutlich günstiger als die der Mainstream-Hersteller, zudem sind Angebotskombination und Beschaffung sehr flexibel und auch der Betrieb ist einfach zu starten.

Geschäftsbedingungen

Situation auf der Angebotsseite

Am 4. April dieses Jahres belief sich das Gesamtangebot von IO.NET an GPUs auf der Angebotsseite nach offiziellen Angaben auf 371.027 und das CPU-Angebot auf 42.321. Darüber hinaus ist Render Network Partner und 9997 GPUs und 776 CPUs sind an die Netzwerkversorgung angeschlossen.

Datenquelle: https://cloud.io.net/explorer/home, dasselbe unten

Als der Autor diesen Artikel schrieb, waren 214.387 der Gesamtzahl der mit IO.NET verbundenen GPUs online, und die Online-Rate erreichte 57,8 %. Die Online-Rate der GPU von Render Network liegt bei 45,1 %.

Was bedeuten die oben genannten angebotsseitigen Daten?

Zum Vergleich stellen wir Akash Network vor, ein weiteres etabliertes Distributed-Computing-Projekt, das schon länger online ist.

Akash Network startete sein Mainnet bereits im Jahr 2020 und konzentrierte sich zunächst auf verteilte Dienste für CPU und Speicher. Im Juni 2023 startete es das Testnetzwerk für GPU-Dienste und im September desselben Jahres das Hauptnetzwerk für verteilte GPU-Rechenleistung.

Datenquelle: https://stats.akash.network/provider-graph/graphics-gpu

Offiziellen Daten von Akash zufolge beträgt die Gesamtzahl der GPU-Verbindungen seit der Einführung seines GPU-Netzwerks bisher nur 365, obwohl die Angebotsseite weiter gewachsen ist.

Gemessen an der GPU-Versorgung liegt IO.NET um mehrere Größenordnungen über dem Akash-Netzwerk und ist bereits das größte Versorgungsnetzwerk im verteilten GPU-Rechenleistungskreis.

Situation auf der Nachfrageseite

Was die Nachfrage betrifft, befindet sich IO.NET jedoch noch in einem frühen Stadium der Marktbearbeitung. Derzeit ist die Gesamtzahl der tatsächlichen Benutzer, die IO.NET zur Ausführung von Computeraufgaben verwenden, nicht groß. Die Aufgabenlast der meisten Online-GPUs beträgt 0 %, und nur vier Chips – A100 PCIe 80 GB K8S, RTX A6000 K8S, RTX A4000 K8S und H100 80 GB HBM3 – verarbeiten Aufgaben. Und bis auf den A100 PCIe 80GB K8S beträgt die Auslastung der anderen drei Chips weniger als 20 %.

Der an diesem Tag veröffentlichte offizielle Netzwerkdruckwert betrug 0 %, was bedeutet, dass sich der größte Teil der Chipversorgung im Online-Standby-Zustand befindet.

Bezogen auf die Netzwerkkosten sind für IO.NET Servicegebühren in Höhe von 586.029 US-Dollar angefallen, und die Kosten beliefen sich am vergangenen Tag auf 3.200 US-Dollar.

Datenquelle: https://cloud.io.net/explorer/clusters

Die Höhe der oben genannten Netzwerkabwicklungsgebühren liegt sowohl in Bezug auf den Gesamtbetrag als auch auf das tägliche Transaktionsvolumen in der gleichen Größenordnung wie bei Akash. Der Großteil der Netzwerkeinnahmen von Akash stammt jedoch aus dem CPU-Anteil, und Akashs CPU-Versorgung ist höher 20.000.

Datenquelle: https://stats.akash.network/

Darüber hinaus hat IO.NET auch die Geschäftsdaten der vom Netzwerk verarbeiteten KI-Argumentationsaufgaben offengelegt. Bisher wurden mehr als 230.000 Reasoning-Aufgaben verarbeitet und überprüft. Der größte Teil dieses Geschäftsvolumens wird jedoch von einem von IO.NET gesponserten Projekt generiert BC8.AI.

Datenquelle: https://cloud.io.net/explorer/inferences

Den aktuellen Geschäftsdaten zufolge wächst die Angebotsseite von IO.NET reibungslos. Angeregt durch Airdrop-Erwartungen und Community-Aktivitäten mit dem Codenamen „Ignition“ hat es schnell eine große Menge an KI-Chip-Rechenleistung gesammelt. Der nachfrageseitige Ausbau steht noch am Anfang, die organische Nachfrage reicht derzeit noch nicht aus. Was die aktuellen Defizite auf der Nachfrageseite betrifft, sei es, weil die Ausweitung der Verbraucherseite noch nicht begonnen hat, oder weil das aktuelle Serviceerlebnis noch nicht stabil ist und es daher an einer breiten Akzeptanz mangelt, muss dies noch bewertet werden.

Angesichts der Tatsache, dass die Lücke in der KI-Rechenleistung kurzfristig nur schwer zu schließen ist, gibt es eine große Anzahl von KI-Ingenieuren und -Projekten, die nach Alternativen suchen und möglicherweise an dezentralen Dienstanbietern interessiert sind. Darüber hinaus ist IO.NET nicht daran interessiert Dennoch lohnt es sich, mit der Stimulierung der Aktivitäten, der schrittweisen Verbesserung des Produkterlebnisses und der anschließenden schrittweisen Abstimmung von Angebot und Nachfrage auf die nachfrageseitige wirtschaftliche Entwicklung zu blicken.

2.3 Teamhintergrund und Finanzierungssituation

Teamsituation

Das Kernteam von IO.NET wurde im Bereich des quantitativen Handels gegründet. Vor Juni 2022 konzentrierte es sich auf die Entwicklung quantitativer Handelssysteme für Aktien und Krypto-Assets auf institutioneller Ebene. Aufgrund des Bedarfs an Rechenleistung im Backend des Systems begann das Team, die Möglichkeit einer dezentralen Datenverarbeitung zu untersuchen, und konzentrierte sich schließlich auf das spezifische Problem der Reduzierung der Kosten für GPU-Datenverarbeitungsdienste.

Gründer und CEO: Ahmad Shadid

Ahmad Shadid war vor IO.NET in der quantitativen und finanztechnischen Arbeit tätig und engagiert sich außerdem ehrenamtlich bei der Ethereum Foundation.

CMO und Chief Strategy Officer: Garrison Yang

Garrison Yang kam im März dieses Jahres offiziell zu IO.NET. Zuvor war er Vizepräsident für Strategie und Wachstum bei Avalanche und schloss sein Studium an der University of California in Santa Barbara ab.

COO: Tory Green

Tory Green ist COO von io.net. Zuvor war er COO von Hum Capital, Direktor für Unternehmensentwicklung und Strategie bei der Fox Mobile Group und hat seinen Abschluss in Stanford.

Den LinkedIn-Informationen von IO.NET zufolge hat das Team seinen Hauptsitz in New York, USA, mit einer Niederlassung in San Francisco. Die aktuelle Teamgröße beträgt mehr als 50 Personen.

Finanzierungssituation

IO.NET hat bisher nur eine Finanzierungsrunde bekannt gegeben, nämlich die im März dieses Jahres abgeschlossene Serie-A-Finanzierung mit einem Wert von 1 Milliarde US-Dollar, die insgesamt 30 Millionen US-Dollar einbrachte, angeführt von Hack VC und anderen teilnehmenden Investoren Dazu gehören unter anderem Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures und ArkStream Capital.

Es ist erwähnenswert, dass das BC8.AI-Projekt, das ursprünglich für die Abrechnung und Buchhaltung auf Solana verwendet wurde, möglicherweise aufgrund der von der Aptos Foundation erhaltenen Investition auf die gleichen leistungsstarken L1-Aptos umgestellt wurde.

2.4 Bewertungsberechnung

Laut dem früheren Gründer und CEO Ahmad Shadid wird IO.NET den Token Ende April einführen.

IO.NET hat zwei Zielprojekte, die als Referenz für die Bewertung verwendet werden können: Render Network und Akash Network, beides repräsentative verteilte Computerprojekte.

Wir können den Marktwertbereich von IO.NET auf zwei Arten ableiten: 1. Markt-Umsatz-Verhältnis, das heißt: Marktwert/Umsatz-Verhältnis; 2. Marktwert/Anzahl der Netzwerk-Chips;

Schauen wir uns zunächst den Bewertungsabzug anhand des Preis-Umsatz-Verhältnisses an:

Aus Sicht des Preis-Umsatz-Verhältnisses kann Akash als untere Grenze der Bewertungsspanne von IO.NET verwendet werden, während Render als High-End-Preisreferenz für die Bewertung mit einer FDV-Spanne von 1,67 Milliarden US-Dollar verwendet werden kann 5,93 Milliarden US-Dollar.

Wenn man jedoch bedenkt, dass das IO.NET-Projekt aktualisiert wird, die Erzählung heißer ist, gepaart mit dem geringeren Marktwert der frühen Auflage und dem derzeit größeren Angebotsumfang, ist die Möglichkeit, dass sein FDV Render übertrifft, nicht gering.

Schauen wir uns zum Vergleich der Bewertungen einen anderen Blickwinkel an, nämlich das „Preis-Kern-Verhältnis“.

In einem Marktkontext, in dem die Nachfrage nach KI-Rechenleistung das Angebot übersteigt, ist der Umfang der GPU-Angebotsseite das wichtigste Element eines verteilten KI-Rechenleistungsnetzwerks. Daher können wir einen horizontalen Vergleich mit dem „Markt-zu-Kern“ anstellen Verhältnis“ und verwenden Sie den „Gesamtmarktwert des Projekts und die Anzahl der Chips im Netzwerk „Mengenverhältnis“, um den möglichen Bewertungsbereich von IO.NET abzuleiten, den die Leser als Marktwertreferenz verwenden können.

Wenn der Marktwertbereich von IO.NET auf der Grundlage des Markt-zu-Kern-Verhältnisses berechnet wird, verwendet IO.NET das Markt-zu-Kern-Verhältnis von Render Network als Obergrenze und Akash Network als Untergrenze beträgt 20,6 bis 197,5 Milliarden US-Dollar.

Ich glaube, egal wie optimistisch die Leser über das IO.NET-Projekt sind, sie werden denken, dass es sich hierbei um eine äußerst optimistische Marktwertberechnung handelt.

Und wir müssen berücksichtigen, dass die aktuelle Anzahl der Online-Chips von IO.NET durch Airdrop-Erwartungen und Anreizaktivitäten stimuliert wird. Die tatsächliche Anzahl der Online-Chips auf der Angebotsseite muss nach dem offiziellen Start des Projekts noch beobachtet werden .

Daher können Bewertungsberechnungen unter dem Gesichtspunkt des Preis-Umsatz-Verhältnisses im Allgemeinen aussagekräftiger sein.

Als Projekt mit der dreifachen Aura der KI+DePIN+Solana-Ökologie wird IO.NET abwarten, wie sein Marktwert nach seiner Einführung aussehen wird.

3. Referenzinformationen

  • Delphi Digital: Die wahre Fusion

  • Galaxy: Die Schnittstelle zwischen Krypto und KI verstehen

Ursprünglicher Link: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analysis-of-upcoming-tokenlaunch-io-net /

Nachdruck durch die io.net-Binance-Square-Community, das ursprüngliche Urheberrecht und die Verantwortung für den Inhalt liegen beim ursprünglichen Autor. Der Nachdruck durch io.net und Binance Square bedeutet nicht, dass einige oder alle Ansichten des nachgedruckten Inhalts bestätigt oder unterstützt werden.