Autor: PonderingDurian, Forscher bei Delphi Digital
Zusammengestellt von: Pzai, Foresight News
Angesichts der Tatsache, dass Kryptowährungen im Wesentlichen Open-Source-Software mit integrierten wirtschaftlichen Anreizen sind und KI die Art und Weise, wie Software geschrieben wird, verändert, wird KI enorme Auswirkungen auf den gesamten Blockchain-Bereich haben.
AI x Crypto-Gesamtstapel
DeAI: Chancen und Herausforderungen
Meiner Meinung nach liegt die größte Herausforderung für DeAI in der Infrastrukturschicht, da der Aufbau grundlegender Modelle viel Geld erfordert und auch der Skalenertrag von Daten und Rechenleistung hoch ist.
Angesichts des Gesetzes der Skalierung haben Technologiegiganten einen natürlichen Vorteil: Während der Web2-Phase erzielten sie enorme Gewinne aus Monopolgewinnen aus der Bündelung der Verbrauchernachfrage und investierten diese Gewinne in einem Jahrzehnt künstlich niedriger Tarife wieder in die Cloud-Infrastruktur versuchen, den KI-Markt zu besetzen, indem sie Daten und Computer (Schlüsselelemente der KI) besetzen:
Token-Volumen-Vergleich großer Modelle
Aufgrund der Kapitalintensität und des hohen Bandbreitenbedarfs groß angelegter Schulungen bleiben einheitliche Supercluster die beste Option – sie bieten den Technologiegiganten die leistungsstärksten Closed-Source-Modelle – die sie mit monopolähnlichen Gewinnen und Erlösen vermieten wollen werden in jede nachfolgende Produktgeneration reinvestiert.
Es stellt sich jedoch heraus, dass der Burggraben im KI-Bereich flacher ist als der Web2-Netzwerkeffekt und führende Spitzenmodelle im Vergleich zum Bereich schnell an Wert verlieren, insbesondere wenn Meta eine „Politik der verbrannten Erde“ verfolgt und Dutzende investiert Milliarden Dollar in die Entwicklung von Open-Source-Projekten wie Llama 3.1, einem Spitzenmodell, dessen Leistung SOTA-Niveau erreicht.
Bewertung des großen Modells Lama 3
An diesem Punkt könnte die Überlagerung neuer Forschungsergebnisse zu dezentralen Trainingsmethoden mit geringer Latenz dazu führen, dass (ein Teil davon) hochmoderne Geschäftsmodelle kommerzialisiert wird – wenn die Smart-Preise sinken, wird sich der Wettbewerb (zumindest teilweise) von Hardware-Superclustern (zu Gunsten von Technologiegiganten) verlagern. Schwerpunkt auf Software-Innovation (leichte Bevorzugung von Open Source/Kryptowährungen).
Fähigkeitsindex (Qualität) – Diagramm zur Verteilung der Schulungspreise
In Anbetracht der „Hybrid-Experten“-Architektur und der Recheneffizienz der Synthese/Routing großer Modelle werden wir wahrscheinlich nicht nur mit einer Welt mit 3-5 riesigen Modellen konfrontiert sein, sondern mit einer Welt, die aus Millionen von Modellen mit unterschiedlichen Kosten besteht Leistungskompromisse. Ein miteinander verflochtenes intelligentes Netzwerk (Hive).
Dies stellt ein enormes Koordinationsproblem dar, bei dessen Lösung Blockchain- und Kryptowährungsanreize gut positioniert sein sollten.
Kernbereiche der DeAI-Investitionen
Software frisst die Welt. KI frisst Software. Und KI besteht im Grunde genommen aus Daten und Computing.
Delphi betrachtet die Komponenten in diesem Stapel:
Vereinfachung des AI x Crypto Stack
Infrastruktur
Da KI auf Daten und Berechnungen basiert, ist die DeAI-Infrastruktur bestrebt, Daten und Berechnungen so effizient wie möglich zu beschaffen, häufig mit Anreizen für Kryptowährungen. Wie bereits erwähnt, ist dies der anspruchsvollste Teil des Wettbewerbs, aber angesichts der Größe des Endmarktes dürfte er auch der lohnendste sein.
berechnen
Die Märkte für verteilte Trainingsprotokolle und GPUs waren bisher durch die Latenz eingeschränkt, aber sie hoffen, potenziell heterogene Hardware zu harmonisieren, um kostengünstigeres On-Demand-Computing für diejenigen bereitzustellen, die von den integrierten Lösungen der Giganten ausgeschlossen sind. Unternehmen wie Gensyn, Prime Intellect und Neuromesh treiben den Vorstoß für verteiltes Training voran, während Unternehmen wie io.net, Akash, Aethir und andere kostengünstige Inferenz näher an Edge Intelligence ermöglichen.
Projekt zur ökologischen Nischenverteilung basierend auf dem Gesamtangebot
Daten
In einer Welt allgegenwärtiger Intelligenz, die auf kleineren, spezialisierteren Modellen basiert, werden Datenbestände immer wertvoller und monetarisierbarer.
Bisher wurde DePIN vor allem für seine Fähigkeit gelobt, im Vergleich zu kapitalintensiven Unternehmen wie Telekommunikationsunternehmen kostengünstigere Hardware-Netzwerke aufzubauen. Der größte potenzielle Markt für DePIN wird jedoch in der Sammlung neuer Arten von Datensätzen liegen, die in intelligente On-Chain-Systeme einfließen: Proxy-Protokolle (später besprochen).
In dieser Welt wird Arbeit, der größte potenzielle Markt der Welt, durch Daten und Computer ersetzt. In dieser Welt bietet die De AI-Infrastruktur eine Möglichkeit für technisch nicht versierte Menschen, die Produktionsmittel zu nutzen und zur kommenden vernetzten Wirtschaft beizutragen.
Middleware
Das ultimative Ziel von DeAI besteht darin, effiziente zusammensetzbare Berechnungen zu ermöglichen. Wie das Haupt-LEGO von DeFi gleicht DeAI den heutigen Mangel an absoluter Leistung durch erlaubnislose Zusammensetzbarkeit aus und schafft einen Anreiz für ein offenes Ökosystem aus Software und Computerprimitiven, sich im Laufe der Zeit zu verdichten und dadurch (hoffentlich) bestehende Software und Computerprimitive zu übertreffen.
Wenn Google das Extrem der „Integration“ darstellt, dann repräsentiert DeAI das Extrem der „Modularität“. Clayton Christensen erinnert daran, dass integrierte Ansätze in aufstrebenden Industrien tendenziell führend sind, indem sie die Reibung in der Wertschöpfungskette verringern. Mit zunehmender Reife des Bereichs werden modulare Wertschöpfungsketten jedoch den Wettbewerb verbessern, indem sie den Wettbewerb auf jeder Ebene des Stapels und die Kosteneffizienz steigern:
Integrierte vs. modulare KI
Wir sind in Bezug auf mehrere Kategorien, die für die Verwirklichung dieser modularen Vision von entscheidender Bedeutung sind, sehr optimistisch:
Routenführung
Wie können Sie in einer Welt fragmentierter Intelligenz das richtige Modell und den richtigen Zeitpunkt zum besten Preis auswählen? Nachfrageseitige Aggregatoren haben schon immer einen Mehrwert geschaffen (siehe Aggregationstheorie), und Routing-Funktionen sind entscheidend für die Optimierung der Pareto-Kurve zwischen Leistung und Kosten in einer vernetzten Intelligenzwelt:
Bittensor war bei der ersten Produktgeneration führend, es sind jedoch eine Reihe engagierter Konkurrenten entstanden.
Mit „Situationsbewusstsein“ und Selbstverbesserung im Laufe der Zeit veranstaltet Allora Wettbewerbe zwischen verschiedenen Modellen zu unterschiedlichen „Themen“ und informiert über zukünftige Vorhersagen auf der Grundlage historischer Genauigkeit unter bestimmten Bedingungen.
Morpheus soll ein „Demand-Side-Router“ für Web3-Anwendungsfälle sein – im Wesentlichen ein nativer Open-Source-Agent, der den relevanten Kontext des Benutzers erfassen und in der Lage sein kann, neue Bausteine von DeFi oder der „Composable Computing“-Infrastruktur von Web3 zu passieren . „Apple Intelligence“ für effiziente Routing-Abfragen.
Agenten-Interoperabilitätsprotokolle wie Theoriq und Autonolas zielen darauf ab, das modulare Routing auf die Spitze zu treiben und es einem zusammensetzbaren, zusammengesetzten Ökosystem aus flexiblen Agenten oder Komponenten zu ermöglichen, vollwertige On-Chain-Dienste zu werden.
Kurz gesagt: In einer Welt, in der die Intelligenz rapide fragmentiert, werden Aggregatoren auf der Angebots- und Nachfrageseite eine äußerst wichtige Rolle spielen. Wenn Google ein 2-Millionen-Dollar-Unternehmen ist, das die Informationen der Welt indiziert, dann ist der Gewinner des Demand-Side-Routers – egal ob Apple, Google oder eine Web3-Lösung – das Unternehmen, das Agentenintelligenz indiziert, was zu einem größeren Ausmaß führen wird.
Coprozessor
Aufgrund ihres dezentralen Charakters ist die Blockchain sowohl hinsichtlich der Daten als auch der Rechenleistung stark begrenzt. Wie können die rechen- und datenintensiven KI-Anwendungen, die Benutzer benötigen, in die Blockchain gebracht werden? Über Coprozessor!
Die Anwendungsschicht des Coprozessors in Crypto
Sie alle sind „Orakel“, die unterschiedliche Technologien bereitstellen, um zu „verifizieren“, dass die verwendeten Basisdaten oder Modelle gültig sind. Dieser Ansatz kann neue Vertrauensannahmen in der Kette minimieren und gleichzeitig ihre Fähigkeiten erheblich verbessern. Bisher gab es viele Projekte, die zkML, opML, TeeML und kryptoökonomische Methoden verwendeten, mit unterschiedlichen Vor- und Nachteilen:
Coprozessor-Vergleich
Auf einer höheren Ebene sind Co-Prozessoren von entscheidender Bedeutung, um intelligente Verträge intelligent zu machen – indem sie eine „Data Warehouse“-ähnliche Lösung bereitstellen, um Abfragen für ein personalisierteres On-Chain-Erlebnis durchzuführen oder um zu überprüfen, ob eine bestimmte Schlussfolgerung korrekt abgeschlossen wurde.
TEE-Netzwerke (Trusted Execution) wie Super, Phala und Marlin erfreuen sich in letzter Zeit aufgrund ihrer Praktikabilität und Fähigkeit zum Hosten großer Anwendungen immer größerer Beliebtheit.
Insgesamt sind Coprozessoren von entscheidender Bedeutung für die Fusion einer hoch deterministischen, aber leistungsschwachen Blockchain mit einem leistungsstarken, aber probabilistischen Agenten. Ohne Coprozessoren gäbe es KI in dieser Blockchain-Generation nicht.
Anreize für Entwickler
Eines der größten Probleme bei der Open-Source-Entwicklung von KI ist der Mangel an Anreizen, sie nachhaltig zu gestalten. Die KI-Entwicklung ist äußerst kapitalintensiv und die Opportunitätskosten sowohl der Computer- als auch der KI-Wissensarbeit sind sehr hoch. Ohne angemessene Anreize zur Belohnung von Open-Source-Beiträgen wird der Bereich unweigerlich gegen hyperkapitalistische Supercomputer verlieren.
Von Sentiment bis Pluralis, Sahara AI und Mira besteht das Ziel dieser Projekte darin, Netzwerke zu starten, die es dezentralen Netzwerken von Einzelpersonen ermöglichen, zur Netzwerkintelligenz beizutragen und gleichzeitig entsprechende Anreize zu setzen.
Indem Open Source dies im Geschäftsmodell ausgleicht, sollte es schneller vorankommen – was Entwicklern und KI-Forschern eine globale Alternative zu großen Technologieunternehmen und die Aussicht auf eine stattliche Bezahlung auf der Grundlage der geschaffenen Wertschöpfung bietet.
Obwohl dies sehr schwierig ist und die Konkurrenz immer härter wird, ist der potenzielle Markt hier riesig.
GNN-Modell
Große Sprachmodelle segmentieren Muster in großen Textbibliotheken und lernen, das nächste Wort vorherzusagen, während graphische neuronale Netze (GNN) graphstrukturierte Daten verarbeiten, analysieren und lernen. Da On-Chain-Daten hauptsächlich aus komplexen Interaktionen zwischen Benutzern und Smart Contracts, also einem Diagramm, bestehen, scheint GNN eine logische Wahl zur Unterstützung von On-Chain-KI-Anwendungsfällen zu sein.
Projekte wie Pond und RPS versuchen, grundlegende Modelle für Web3 zu etablieren, die Anwendungen im Handel, DeFi und sogar in sozialen Anwendungsfällen haben können, wie zum Beispiel:
Preisvorhersage: Das On-Chain-Verhaltensmodell prognostiziert den Preis, die automatische Handelsstrategie und die Stimmungsanalyse
AI Finance: Integration mit bestehenden DeFi-Anwendungen, erweiterte Renditestrategien und Liquiditätsnutzung, besseres Risikomanagement/Governance
On-Chain-Marketing: gezieltere Airdrops/Positionierung, Empfehlungsmaschine basierend auf On-Chain-Verhalten
Diese Modelle werden stark auf Data-Warehousing-Lösungen wie Space and Time, Subsquid, Covalent und Hyperline zurückgreifen, denen ich sehr optimistisch bin.
GNN kann sich als unverzichtbares Hilfswerkzeug für große Modelle von Blockchain- und Web3-Data-Warehouses erweisen, das heißt, es bietet OLAP-Funktionen (Online Analytical Processing) für Web3.
Anwendung
Meiner Meinung nach sind On-Chain-Agenten vielleicht der Schlüssel zur Lösung der bekannten Benutzererfahrungsprobleme von Kryptowährungen, aber was noch wichtiger ist: Wir haben im letzten Jahrzehnt Milliarden von Dollar in die Web3-Infrastruktur investiert, aber die nachfrageseitige Nutzung ist erbärmlich gering .
Keine Sorge, die Agenten sind hier ...
Die Ergebnisse von KI-Tests steigen in verschiedenen Dimensionen menschlichen Verhaltens
Es scheint auch logisch, dass diese Agenten eine offene, erlaubnislose Infrastruktur – von Zahlungen bis hin zu Composable Computing – nutzen, um komplexere Endziele zu erreichen. In der kommenden vernetzten Smart Economy ist der Wirtschaftsfluss möglicherweise nicht mehr B -> B -> C, sondern Benutzer -> Agent -> Computernetzwerk -> Agent -> Benutzer. Das Endergebnis dieses Flusses ist ein Agenturvertrag. Anwendungs- oder dienstbasierte Unternehmen haben einen begrenzten Overhead und arbeiten hauptsächlich mit On-Chain-Ressourcen. Die Kosten für die Erfüllung der Anforderungen der Endbenutzer (oder anderer) in einem zusammensetzbaren Netzwerk sind viel geringer als bei herkömmlichen Unternehmen. So wie die Anwendungsschicht von Web2 den größten Teil des Werts erfasst, bin ich auch ein Fan der „Fat-Proxy-Protokoll“-Theorie in DeAI. Im Laufe der Zeit sollte sich die Werterfassung weiter nach oben bewegen.
Wertakkumulation in der generativen KI
Die nächsten Google, Facebook und Blackrock könnten durchaus Proxy-Protokolle sein, und die Komponenten zu ihrer Implementierung sind im Entstehen begriffen.
DeAI-Endspiel
KI wird die Form unserer Wirtschaft verändern. Heute geht der Markt davon aus, dass diese Wertsteigerung auf einige wenige große Unternehmen an der Westküste Nordamerikas beschränkt sein wird. Und DeAI vertritt eine andere Vision. Eine Vision eines offenen, zusammensetzbaren intelligenten Netzwerks mit Belohnungen und Vergütungen selbst für kleine Beiträge und mehr kollektivem Eigentum/Verantwortung.
Obwohl einige der Behauptungen von DeAI übertrieben sind und viele Projekte zu deutlich höheren Preisen als derzeit gehandelt werden, scheint das Ausmaß der Chance doch beträchtlich zu sein. Für diejenigen mit Geduld und Weitsicht könnte die letztendliche Vision von DeAI eines wirklich zusammensetzbaren Computings die Blockchain selbst rechtfertigen.