Zusammengestellt von: Alex Liu, Foresight News

Livepeer wurde 2017 eingeführt und ist das erste vollständig dezentrale Live-Video-Streaming-Netzwerkprotokoll. Ziel der Plattform ist es, eine Blockchain-basierte, kostengünstige Alternative zum traditionellen zentralisierten Rundfunk bereitzustellen. Ziel ist es, die schnell wachsende Live-Video-Streaming- und Rundfunkbranche zu revolutionieren und ein dezentrales Ökosystem einzuführen, indem es Produzenten ermöglicht, ihre Arbeiten auf der Plattform einzureichen, die dann für die Neuformatierung und Verteilung der Inhalte an Benutzer und Streaming-Plattformen verantwortlich ist.

Einfach ausgedrückt kann Livepeer über die DePin-Funktion Videoinhalte nahtlos und dezentral in Anwendungen integrieren, und das zu einem Bruchteil der Kosten herkömmlicher Lösungen.

Die Beliebtheit des DePin-Tracks stieg zu Beginn dieses Jahres sprunghaft an, und auch LPT erwischte den Wachstumszug, wobei sich der Token-Preis im Vergleich zum Jahresanfang verdoppelte. Als jemand, der vor einem Jahr Lauch für 10 Yuan kaufte und sie alle für 9,8 Yuan verkaufte, beschloss der Herausgeber, aus der Erfahrung zu lernen und den neuen Schritt von Livepeer – den Start des KI-Subnetzes – sorgfältig zu studieren.

Im Streben nach Innovation und Veränderung startet Livepeer ein KI-Subnetz

Im Zeitalter der generativen KI hat die Videoerstellung eine neue Revolution eingeläutet.

Der Bereich generativer Videos ist rasant gewachsen, seit die Sora-Demo von Open AI die Möglichkeit zeigte, Videos durch Eingabe von Textaufforderungen zu erstellen. Das Open-Source-KI-Videomodell Stable Diffusion hat in nur zwei Monaten die Marke von 10 Millionen Nutzern überschritten. Die Aussicht auf die Entwicklung von KI-Videotools steht jedoch vor großen Herausforderungen. Der 49-Milliarden-Dollar-GPU-Markt wird von einer Handvoll globaler Internetmonopole wie NVIDIA, Microsoft Azure und Amazon Web Services (AWS) kontrolliert, was die Preise in die Höhe treibt und einen globalen KI-Computing-Engpass schafft.

Aus diesem Grund hat Livepeer das Livepeer AI-Subnetz ins Leben gerufen: das erste dezentrale Videoverarbeitungsnetzwerk mit AI-Computing-Funktionen. Das Livepeer-KI-Subnetz löst die strukturellen Probleme des zentralisierten KI-Computings, indem es das offene Netzwerk von Livepeer mit Tausenden von GPUs nutzt, um kostengünstige, leistungsstarke Verarbeitungsdienste bereitzustellen. Basierend auf der dezentralen Videoverarbeitungsnetzwerkarchitektur von Livepeer bietet das Subnetz eine weltweit zugängliche, erschwingliche und offene Videoinfrastruktur, die durch wirtschaftliche Anreize mit Blockchain-Token unbegrenzt skalierbar ist.

Was genau ist das Livepeer AI-Subnetz?

Das KI-Subnetz ist ein Zweig des Livepeer-Videoinfrastrukturnetzwerks und bietet eine Sandbox-Umgebung für die sichere Entwicklung und das Testen neuer dezentraler KI-Medienverarbeitungsmärkte und -tools. Während sich das Livepeer-Netzwerk weiterhin auf die Videotranskodierung und -berechnung konzentrieren wird, wird das Livepeer-KI-Subnetz den wachsenden KI-Berechnungsbedarf decken, Aufgaben wie Aktualisierung, Untertitelgenerierung und -erkennung übernehmen und Entwickler bei der Ausführung spezifischer Video- und Medienaufgaben unterstützen.

Dieses Subnetz ermöglicht es Videoentwicklern, ihren Anwendungen eine Reihe generativer KI-Funktionen hinzuzufügen, z. B. Text-zu-Bild-, Bild-zu-Bild- und Bild-zu-Video-Konvertierung.

Diese KI-generierte Ausgabe stammt von Tsunameme.ai – der ersten Demo, die auf dem Livepeer-KI-Subnetz basiert. Es verwendet Text-zu-Bild- und Bild-zu-Video-Pipelines. Versuchen Sie, Ihre eigenen KI-Medien mit der Livepeer-Beta unter https://tsunameme.ai zu generieren

Gründe für die Einrichtung des Livepeer AI-Subnetzes

KI-Videotools senken die Hürde für die Erstellung und ermöglichen es jedem, mit nur wenigen Textbefehlen Filmmaterial zu erstellen, für das sonst ein Veranstaltungsort, ein professionelles Team und stundenlange Bearbeitung erforderlich wären. Mit zunehmender Verbreitung dieser Tools wird sich der Engpass bei der globalen zentralisierten KI-Berechnung weiter verschärfen. Darüber hinaus kann eine dezentrale KI-Infrastruktur auch den Risiken von Single Points of Failure begegnen, die stark zentralisierten Servernetzwerken innewohnen, sowie der Vertrauens- und Authentizitätskrise, die durch KI-generierte Inhalte verursacht wird.

Das Livepeer-KI-Subnetz bietet Optionen für die Schaffung einer nachhaltigen und profitablen offenen KI-Videoinfrastruktur, indem es eine weltweit zugängliche, äußerst kostengünstige Infrastruktur, einen offenen und erlaubnisfreien KI-Medienmarkt sowie Lösungen zur Inhaltsüberprüfung und Authentizität bereitstellt.

So funktioniert das Livepeer AI-Subnetz

Livepeer nutzt ein dezentrales Pay-per-Task-Modell, das es Entwicklern ermöglicht, Aufgaben nach Bedarf einzureichen und zu bezahlen, ohne teure Rechenkapazität reservieren zu müssen. Entwickler können den Preis, den sie zu zahlen bereit sind, basierend auf der erforderlichen Leistung und Netzwerkverfügbarkeit festlegen.

Die beiden Schlüsselkomponenten der Livepeer AI-Netzwerkarchitektur sind:

  1. KI-Koordinationsknoten: Diese Knoten führen KI-Aufgaben aus, halten KI-Modelle auf ihren GPUs für die sofortige Verarbeitung „aufgewärmt“ und können Modelle dynamisch laden, um Reaktionszeit und Ressourcennutzung zu optimieren.

  2. KI-Gateway-Knoten: Diese Knoten verwalten den Aufgabenfluss und weisen Aufgaben basierend auf Fähigkeiten und aktueller Auslastung den entsprechenden Koordinationsknoten zu, wodurch eine effiziente Aufgabenverteilung und Systemskalierbarkeit gewährleistet werden.

Dieses Diagramm veranschaulicht, wie Livepeer Aufgaben auf der Grundlage von Effizienz an ein verteiltes Netzwerk von GPUs verteilt, anstatt KI-Verarbeitungsanforderungen über einen zentralen Server zu leiten.

Unbegrenzte Skalierbarkeit

Die Livepeer AI-Netzwerkinfrastruktur ist so konzipiert, dass sie unbegrenzt skalierbar ist und bei Bedarf die einfache Integration zusätzlicher Orchestrierungs- und Gateway-Knoten ermöglicht. Führen Sie KI-Modelle über ein dediziertes AI-Runner-Docker-Image aus, was die Bereitstellung vereinfacht und die Skalierbarkeit für neue Pipelines erhöht. Zukünftige Entwicklungen werden die Leistung weiter verbessern und die Fähigkeiten des Containers erweitern, um immer komplexere KI-Modelle und benutzerdefinierte benutzerdefinierte Pipelines zu unterstützen.

Technischer Workflow zur Bearbeitung von Aufgaben im KI-Subnetz. Der Gateway-Knoten übergibt Aufgaben an den Koordinator, der mehrere AI-Runner-Docker-Container derselben oder verschiedener Pipelines ausführen kann. Diese Pipelines verfügen möglicherweise bereits über die angeforderten Modelle oder laden sie bei Bedarf dynamisch.

Nehmen Sie am Livepeer AI-Subnetz teil

Hardwareanbieter: Verdienen Sie Gebühren, indem Sie GPUs bereitstellen

Bestehende Livepeer-Koordinatoren können KI-Orchestrierungsknoten einrichten und ausführen, um Text-zu-Bild-, Bild-zu-Bild- und Bild-zu-Video-Inferenzaufgaben durchzuführen und so ihre bestehenden Transkodierungseinnahmen zu steigern.

Entwickler: Bringen Sie Modelle als KI-Worker ins Netzwerk

Entwickler können benutzerdefinierte Pipelines und Workflows definieren und bereitstellen, um sicherzustellen, dass ihre Anwendungen auf dem neuesten Stand der KI- und Videotechnologie sind. Entwickler können außerdem KI-Gateway-Knoten einrichten, ihre Anwendungen testen und verbessern und auf APIs für KI-Aufgaben zugreifen.

Der Start des Livepeer AI-Subnetzes markiert einen wichtigen Meilenstein für das Projekt und ist der nächste Schritt in der Mission von Livepeer, eine globale offene Videoinfrastruktur bereitzustellen. Da generative KI die Erstellung von Videoinhalten in den kommenden Jahren drastisch steigern wird, möchte das Livepeer-Netzwerk sicherstellen, dass es für die Unterstützung dieser Wachstumswelle gerüstet ist.