AIGC entwickelt sich weltweit rasant weiter. Als aufstrebender Star des Solana-Ökoprojekts io.net, das auf KI-Konzepte und DePIN abzielt Track, wie man Projektsteuerung und Cloud-Computing-Dienste integriert, sind zu wichtigen Richtungen für die Markteroberung geworden. Die 11. Ausgabe von TinTinAMA spricht mit Ihnen über die GPU-Netzwerkbereitstellungsstrategie von io.net.

Am 23. Mai um 20:00 Uhr fand die 11. TinTinAMA-Veranstaltung erfolgreich statt. Die Live-Übertragung lud io.net Asia Pacific-Chef Asa und io.net-Produktmanager Bill in den Live-Übertragungsraum der Veranstaltung ein, um eine eingehende Analyse von io durchzuführen. net unter der Welle der Generierung künstlicher Intelligenz. Lösung zur Lösung aktueller Betriebsschwierigkeiten des GPU-Netzwerks. An dieser Online-Veranstaltung nahmen insgesamt 2 W+-Zuschauer teil, und viele Zuschauer interagierten auch intensiv mit den Gästen im Live-Übertragungsraum.

Freunde, die die Live-Übertragung verpasst haben, können hier klicken, um sie noch einmal anzusehen:

️ Twitter-Bereich: https://twitter.com/i/spaces/1nAJEadPbZRJL

KI + DePIN + Solana, die Rechenleistungslogik von io.net

Ab 2023 wird die heiße Welle der generativen künstlichen Intelligenz (AIGC) ansteigen und die gesamte KI-Entwicklergemeinschaft sieht sich mit einem Mangel an GPUs konfrontiert. Die Marktnachfrage nach GPUs ist riesig, aber das eigentliche Problem besteht darin, dass Angebot und Nachfrage uneinheitlich sind. Zu diesem Zweck integriert io.net GPU-Plattformen durch zentralisierte Integration und Nutzung verschiedener Rechenzentren und Dienstanbieter, sodass jeder eine effiziente Nutzung von GPUs realisieren und den Mangel an GPUs lindern kann.

Als Konzeptprojekt mit KI + DePIN + Solana basiert io.net auf der dezentralen KI-Computing-Plattform Solana und ist bestrebt, KI- und ML-Unternehmen GPU-Ressourcenintegration vom Modelltraining bis zur Inferenz zu bieten und so niedrige Kosten und hohe Effizienz zu gewährleisten. Cloud-Computing-Dienste. Durch die Integration von GPUs kann die Plattform Rechenleistung von unabhängigen Rechenzentren, Kryptowährungs-Minern und Verschlüsselungsprojekten wie Filecoin oder Render beziehen, um Zielunternehmen kostengünstigere Cloud-Computing-Dienste bereitzustellen.

Laut Gastvorstellungen und offiziellen Website-Informationen übersteigt die Gesamtzahl der io.net-Cluster derzeit 4 W, die zweite Staffel des Ignition-Prämienprogramms ist ebenfalls im Gange und die Token-IO-Vertragsadresse wurde im April dieses Jahres bekannt gegeben, io .net gab bekannt, dass sein Netzwerk über mehr als 2 W A 100 GPUs und mehr als 52 W GPUs und CPUs verfügt. Der Gesamtwert der Infrastruktur hat die 2-Milliarden-US-Dollar-Marke überschritten, mit einem Gesamtgewinn von etwa 102 W. Es hat eine Reihe von abgeschlossen Projekte unter der Leitung von Hack VC, Solana Labs, ArkStream, Animoca Brands, OKX Ventures und anderen namhaften Investoren beteiligten sich an der 30-Millionen-US-Dollar-Serie-A-Finanzierung, die eine starke finanzielle Grundlage für die schnelle Entwicklung des Projekts in der Frühphase bildete.

Erkundung der technischen Betriebsarchitektur von io.net

Bei einer weiteren Analyse der Produktzusammensetzungslogik von io.net werden mit der Unterstützung des dezentralen GPU-unterliegenden Netzwerks und der programmierbaren Rechenschicht-IO-Engine hauptsächlich Benutzer und Rechenleistungsanbieter über drei Produktteile verbunden, darunter IO Cloud, IO Worker und IO Explorer:

IO Cloud: Bereitstellung und Verwaltung dezentraler GPU-Cluster, nahtlos integriert mit IO-SDK, Bereitstellung technischer Lösungen für die Skalierung künstlicher Intelligenz und Python-Anwendungen

IO Worker: Bietet Benutzern Echtzeit-Computing-Tracking, Vorgänge verbundener Netzwerkgeräte und eine Vogelperspektive, überwacht Geräte und führt jederzeit und überall schnelle Vorgänge aus

IO Explorer: Bietet Benutzern umfassende statistische Daten und GPU-Cloud-Sichtbarkeit, um die komplexen Details des io.net-Netzwerks einfach und sofort zu überwachen, zu analysieren und zu verstehen, und bietet umfassende Einblicke in Netzwerkaktivitäten, wichtige Statistiken, Datenbelohnungen usw.

IO Cloud und IO Worker arbeiten zusammen, um Herausforderungen zu lösen

„Für IO Cloud und IO Worker besteht eine große Herausforderung darin, die Korrelation zwischen GPU-Daten in verschiedenen Netzwerkszenarien perfekt zu kombinieren. Es kann jedoch erforderlich sein, die Anzahl der GPUs aus dem GPU-Pool eines Landes zu ermitteln.“ „Einige dieser GPUs sind öffentliche IPs und einige sind private IPs in verschiedenen Netzwerkszenarien. Dann ist es eine Herausforderung, diese GPUs in dasselbe Netzwerkszenario zu integrieren, um eine stabile Dateninteraktion zu erreichen und Stabilität zu gewährleisten.“ sagte.

Um die technischen Herausforderungen von IO Cloud und IO Worker besser zu lösen, sagte Bill: „Einerseits verwendet io.net Docker-Container und einige virtuelle Mittel, um die technische Umgebung während des technischen Ausführungsprozesses sicherzustellen und die Verbindung zwischen ihnen zu realisieren Die Segmentierung stellt sicher, dass der technische Ausführungsprozess nicht von der entsprechenden Containerumgebung getrennt wird, und zwar durch nichttechnische Vertriebsmaßnahmen, an denen jeder Knotenbetreiber teilnehmen darf ein gewisses Maß an Sicherheit, um böswillige Manipulationen zu vermeiden.

Nutzen Sie den Ray-Technologie-Stack, um eine große Anzahl gleichzeitiger Aufgaben zu unterstützen

io.net zeigt nicht nur technische Überlegenheit bei der Lösung technischer Herausforderungen, sondern implementiert auch die Knoteninteraktion geschickt bei der Bewältigung gleichzeitiger Aufgaben. Derzeit basiert io.net auf Ray, um eine große Anzahl gleichzeitiger Aufgaben zu bewältigen. Solange keine zig Millionen Knoten Aufgaben ausführen, kann eine stabile Menge an Aufgaben generiert und kontinuierlich bereitgestellt werden Wenn der Grad der Interaktion bei gleichzeitigen Aufgaben besonders hoch ist, ist möglicherweise eine Schulung und Feinabstimmung des Modells der künstlichen Intelligenz erforderlich, und es erfolgt keine Echtzeit Interaktion mehrerer Daten auf autonomen Funktionsknoten.

Durch eine freundschaftliche Kooperationsbeziehung verankert io.net die Tokenisierung der Rechenleistung

Angesichts der potenziellen Konkurrenz mit anderen dezentralen Computernetzwerken ist Asa davon überzeugt, dass io.net, Render und Filecoin beide freundschaftliche Partner sind. „Tatsächlich hoffen wir alle auf eine enge Zusammenarbeit mit Ihnen, damit io.net bessere Lösungen in verschiedenen Dimensionen wie Datenstabilität und Skalierbarkeit finden kann.“ und die nachhaltige Zukunft des AI+DePIN-Tracks wirklich stärken.“ Darüber hinaus fügte Asa hinzu, dass io.net, Render und Filecoin keine völlig wettbewerbsfähigen Konzepte seien und es immer noch einige Produktunterschiede zwischen ihnen gebe. Render konzentriert sich hauptsächlich auf das AI-Rendering , und Filecoin konzentriert sich hauptsächlich auf die Datenspeicherung. Daher hat die Zusammenarbeit von io.net mit ihnen in diesem Prozess auch einen Teil „Jeder braucht, was er braucht“.

In Bezug auf die langfristige nachhaltige Entwicklung des Wirtschaftsmodells ist Asa der Ansicht, dass sich io.net von anderen Ökosystemen unterscheidet, die auf Blockbelohnungen basieren: „Wir haben ein sehr starkes BD-Geschäftsteam auf der Nachfrageseite, das einige Netzwerknutzungsszenarien vorantreibt.“ Wenn auf der Nachfrageseite das Bargeldangebot größer ist als der Output auf der Angebotsseite, besteht keine Notwendigkeit, sich auf Token zu verlassen, um Geld zu verdienen.“ Für io.net gibt es auch einen mittel- bis langfristigen wirtschaftlichen Fahrplan namens Computing Power-Tokenisierung, bei der die Rechenleistung durch Tokenisierung genutzt wird. Benutzer erkennen die Wertschätzung der Rechenleistung bei der Teilnahme am Kauf, teilen die entsprechenden Dateneinnahmen und werden dafür in Zukunft zu strategischen Vermögenswerten Aus diesem Grund bietet io.net auch offizielle Supportkanäle für die Tokenisierung von Rechenleistung. Durch die Senkung der Schwelle für den Kauf und Besitz von Rechenleistung können mehr Privatanleger an realen Transaktionen teilnehmen.

Öffnen Sie Ihre Arme für ökologische Innovationen und gehen Sie mit Entwicklern spazieren

Derzeit befindet sich das io.net-Ökosystem noch in einem frühen Entwicklungsstadium. Es wird erwartet, dass im nächsten Monat ein TGE (Token-Generation-Event) stattfindet. Danach werden weitere Ökosystemmittel und Zuschüsse generiert, und es wird ein Hackathon stattfinden für weitere Partner wie Solana gestartet. Seien Sie bereit, die Entwicklung von io.net vollständig zu unterstützen.

Als unterste Ebene des KI-Technologie-Stacks benötigt io.net mehr Projekte, um innovative Experimente im Ökosystem durchzuführen. Wenn beispielsweise mehr Projekte zur Unterstützung der Rechenleistung bereit sind, beizutreten, können mehr Speicher, Datenschutz und andere Middleware vorhanden sein Innovative Anwendungen wie KI-Agenten sowie Chat-Roboter werden die Nutzung des io-Ökosystems erhöhen, mehr Produktiterationen und Optimierungs-Upgrades durchführen und die dezentrale Entwicklung fördern. Angesichts des zukünftigen Entwicklungstrends der Web3-Technologie ist für io.net das zukunftsweisendste Layout der Clusterbetrieb. Angesichts der immer knapper werdenden Rechennachfrage kann die GPU-Knoteneffizienz nur durch schnellere und effizientere Erledigung der Aufgabe genutzt werden Durch den strategischen Einsatz und die Planung von Produkten können wir den Preiskampf um KI-Rechenleistung erfolgreich bekämpfen.

Auf dem Weg zum ultimativen Entwicklungsziel, dem Aufbau eines „GPU-Internets“, haben wir Grund zu der Annahme, dass io.net einen überlegenen Weg finden wird, das Dilemma des Computermangels in der AIGC-Entwicklungswelle zu lösen und zur weltweit größten Computerplattform für künstliche Intelligenz zu werden nahe Zukunft!