Von Ed Roman, geschäftsführender Gesellschafter bei Hack VC

Zusammengestellt: 1912212.eth, Foresight News

AI+ Crypto ist einer der Grenzbereiche, die in letzter Zeit auf dem Kryptowährungsmarkt viel Aufmerksamkeit erregt haben, wie z. B. dezentrales KI-Training, GPU-DePINs und zensurresistente KI-Modelle.

Hinter diesen schillernden Fortschritten kommen wir nicht umhin zu fragen: Ist das ein echter technologischer Durchbruch oder nur ein heißes Thema? Dieser Artikel wird für Sie den Nebel aufklären, die Vision von Verschlüsselung x KI analysieren, die tatsächlichen Herausforderungen und Chancen diskutieren und zeigen, welche davon leere Versprechen und welche tatsächlich machbar sind.

Vision Nr. 1: Dezentrales KI-Training

Das Problem beim On-Chain-KI-Training besteht darin, dass es eine Hochgeschwindigkeitskommunikation und Koordination zwischen GPUs erfordert, da neuronale Netze beim Training eine Backpropagation erfordern. Nvidia hat dafür zwei Neuerungen parat (NVLink und InfiniBand). Diese Technologien machen die GPU-Kommunikation superschnell, aber es handelt sich dabei nur um lokale Technologien, die nur auf GPU-Clustern (50+ Gigabit-Geschwindigkeiten) funktionieren, die sich in einem einzigen Rechenzentrum befinden.

Wenn ein dezentrales Netzwerk eingeführt wird, verlangsamt sich die Geschwindigkeit aufgrund der erhöhten Netzwerklatenz und Bandbreite plötzlich um mehrere Größenordnungen. Verglichen mit dem Durchsatz, den Sie über die Hochgeschwindigkeitsverbindung von Nvidia innerhalb des Rechenzentrums erreichen können, ist diese Geschwindigkeit für KI-Trainingsanwendungsfälle einfach nicht möglich.

Beachten Sie, dass es im Folgenden auch Neuerungen gibt, die Hoffnung für die Zukunft geben könnten:

  • Verteiltes Training auf InfiniBand findet in großem Umfang statt, da NVIDIA selbst verteiltes nicht-natives Training auf InfiniBand über die NVIDIA Collective Communications Library unterstützt. Allerdings befindet es sich noch im Anfangsstadium, sodass die Akzeptanzkennzahlen noch festgelegt werden müssen. Der physikalische Engpass besteht weiterhin aus der Ferne, sodass das lokale Training auf InfiniBand immer noch viel schneller ist.

  • Es wurden einige neue Forschungsergebnisse zu dezentralem Training veröffentlicht, das weniger Zeit für die Kommunikationssynchronisierung erfordert, was dezentrales Training in Zukunft möglicherweise praktischer machen könnte.

  • Intelligentes Sharding und Planen des Modelltrainings trägt zur Verbesserung der Leistung bei. Ebenso können neue Modellarchitekturen speziell für zukünftige verteilte Infrastrukturen entwickelt werden (Gensyn forscht in diesen Bereichen).

Auch der Datenteil des Trainings ist eine Herausforderung. Bei jedem KI-Trainingsprozess werden große Datenmengen verarbeitet. Typischerweise werden Modelle auf zentralisierten sicheren Datenspeichersystemen mit hoher Skalierbarkeit und Leistung trainiert. Dies erfordert die Übertragung und Verarbeitung von Terabytes an Daten und ist kein einmaliger Zyklus. Daten sind oft verrauscht und enthalten Fehler, daher müssen sie vor dem Training eines Modells bereinigt und in ein verwendbares Format konvertiert werden. Diese Phase umfasst die sich wiederholenden Aufgaben des Standardisierens, Filterns und Behandelns fehlender Werte. Sie alle stehen in einer dezentralen Umgebung vor großen Herausforderungen.

Der Trainingsdatenteil ist ebenfalls iterativ und nicht mit Web3 kompatibel. OpenAI durchlief Tausende von Iterationen, um seine Ergebnisse zu erzielen. Zu den grundlegendsten Aufgabenszenarien eines Datenwissenschaftlers in einem KI-Team gehören das Definieren von Zielen, das Vorbereiten von Daten, das Analysieren und Kuratieren von Daten, um wichtige Erkenntnisse zu gewinnen, und deren Eignung für die Modellierung. Anschließend entwickeln Sie ein Modell für maschinelles Lernen, um das definierte Problem zu lösen und seine Leistung anhand eines Testdatensatzes zu validieren. Der Prozess ist iterativ: Wenn das aktuelle Modell nicht die erwartete Leistung erbringt, kehren Experten zur Datenerfassungs- oder Modelltrainingsphase zurück, um die Ergebnisse zu verbessern. Stellen Sie sich vor, wenn dieser Prozess in einer dezentralen Umgebung durchgeführt würde, wäre es für die fortschrittlichsten vorhandenen Frameworks und Tools nicht einfach, in Web3 angepasst zu werden.

Ein weiteres Problem beim On-Chain-Training von KI-Modellen besteht darin, dass dieser Markt viel weniger interessant ist als Inferenz. Derzeit erfordert das Training umfangreicher KI-Sprachmodelle eine große Menge an GPU-Rechenressourcen. Langfristig wird Inferenz zum Hauptanwendungsfall für GPUs werden. Stellen Sie sich vor, wie viele große KI-Sprachmodelle trainiert werden müssen, um die weltweite Nachfrage zu befriedigen. Was ist mehr im Vergleich zur Anzahl der Kunden, die diese Modelle verwenden?

Annahme Nr. 2: Verwenden Sie übermäßig redundante KI-Inferenzberechnungen, um einen Konsens zu erzielen

Eine weitere Herausforderung in Bezug auf Kryptografie und KI besteht darin, die Genauigkeit der KI-Inferenz zu überprüfen, da man einer einzelnen zentralisierten Partei bei der Durchführung von Inferenzoperationen nicht vollständig vertrauen kann und das potenzielle Risiko besteht, dass sich Knoten unangemessen verhalten. Diese Herausforderung besteht bei Web2 AI nicht, da es kein dezentrales Konsenssystem gibt.

Die Lösung ist redundantes Computing, das es mehreren Knoten ermöglicht, dieselben KI-Inferenzoperationen zu wiederholen, die in einer vertrauenswürdigen Umgebung ausgeführt werden können und Single Points of Failure vermeiden.

Das Problem bei diesem Ansatz besteht jedoch darin, dass ein extremer Mangel an High-End-KI-Chips besteht. Jahrelange Wartezeiten auf High-End-NVIDIA-Chips treiben die Preise in die Höhe. Wenn die KI-Inferenz mehrmals auf mehreren Knoten ausgeführt werden muss, wird dies exponentiell teurer und ist für viele Projekte nicht durchführbar.

Annahme Nr. 3: Kurzfristige Web3-spezifische KI-Anwendungsfälle

Es wurde vorgeschlagen, dass Web3 über eigene, einzigartige KI-Anwendungsfälle verfügen sollte, die speziell auf Web3-Kunden ausgerichtet sind. Dabei kann es sich beispielsweise um ein Web3-Protokoll handeln, das KI zur Risikobewertung von DeFi-Pools verwendet, ein Web3-Wallet, das Benutzern basierend auf dem Wallet-Verlauf neue Protokolle vorschlägt, oder ein Web3-Spiel, das KI zur Steuerung von Nicht-Spieler-Charakteren (NPCs) verwendet.

Derzeit handelt es sich um einen (kurzfristig) entstehenden Markt, in dem Anwendungsfälle noch erforscht werden. Zu den Herausforderungen gehören:

  • Da die Marktnachfrage noch in den Kinderschuhen steckt, sind weniger potenzielle KI-Deals für native Web3-Anwendungsfälle erforderlich.

  • Es gibt weniger Kunden, um Größenordnungen weniger Web3-Kunden im Vergleich zu Web2-Kunden, sodass der Markt weniger dezentralisiert ist.

  • Die Kunden selbst sind weniger stabil, da es sich um Startups mit geringerer Finanzierung handelt, und einige Startups können mit der Zeit aussterben. Und Web3-KI-Dienstleister, die sich um Web3-Kunden kümmern, müssen möglicherweise einen Teil ihres Kundenstamms zurückgewinnen, um die verschwundenen Kunden zu ersetzen, was die Skalierung ihres Geschäfts äußerst schwierig macht.

Längerfristig sehen wir Web3-native KI-Anwendungsfälle sehr optimistisch, insbesondere angesichts der zunehmenden Verbreitung von KI-Agenten. Wir stellen uns vor, dass jeder Web3-Benutzer in Zukunft über eine große Anzahl von KI-Agenten verfügen wird, die ihn bei der Erledigung seiner Aufgaben unterstützen.

Vision Nr. 4: Verbraucher-GPU-DePIN

Es gibt viele dezentrale KI-Computing-Netzwerke, die auf Verbraucher-GPUs und nicht auf Rechenzentren angewiesen sind. Consumer-GPUs eignen sich ideal für Low-End-KI-Inferenzaufgaben oder Consumer-Anwendungsfälle, bei denen Latenz, Durchsatz und Zuverlässigkeit flexibel sind. Aber für ernsthafte Unternehmensanwendungsfälle (die den größten Teil des Marktes ausmachen) benötigen Kunden im Vergleich zu Heimcomputern Netzwerke mit höherer Zuverlässigkeit und häufig höherwertige GPUs, wenn sie komplexere Inferenzaufgaben haben. Für diese wertvolleren Kundenanwendungsfälle sind Rechenzentren besser geeignet.

Beachten Sie, dass wir GPUs der Verbraucherklasse für Demos sowie für Einzelpersonen und Startups, die eine geringere Zuverlässigkeit tolerieren können, als geeignet erachten. Da diese Kunden jedoch weniger wertvoll sind, glauben wir, dass DePINs, die speziell auf Web2-Unternehmen zugeschnitten sind, auf lange Sicht wertvoller sein werden. Infolgedessen hat sich das GPU-DePIN-Projekt von der primären Verwendung von Consumer-Hardware in seinen Anfängen zu einer Verfügbarkeit von A100/H100 und Cluster-Ebene entwickelt.

Realität – Praktische Anwendungsfälle von Kryptowährung x KI

Jetzt besprechen wir Anwendungsfälle, die echte Vorteile bieten. Das sind die wahren Gewinne, und Crypto x AI kann einen klaren Mehrwert schaffen.

Echter Vorteil Nr. 1: Betreuung von Web2-Kunden

McKinsey schätzt, dass generative KI in den 63 analysierten Anwendungsfällen den jährlichen Umsatz um umgerechnet 2,6 bis 4,4 Billionen US-Dollar steigern könnte – verglichen mit dem gesamten BIP des Vereinigten Königreichs im Jahr 2021 von 3,1 Billionen US-Dollar. Dies würde die Wirkung von KI um 15 bis 40 % erhöhen. Wenn wir die Auswirkungen der Einbettung generativer KI in Software berücksichtigen, die derzeit für andere Aufgaben als Anwendungsfälle verwendet wird, werden sich die Auswirkungen schätzungsweise etwa verdoppeln.

Wenn Sie die Berechnungen auf der Grundlage der oben genannten Schätzungen durchführen, bedeutet dies, dass der gesamte globale Marktwert für KI (über generative KI hinaus) im zweistelligen Billionen-Dollar-Bereich liegen könnte. Im Vergleich dazu beträgt der Gesamtwert aller Kryptowährungen (einschließlich Bitcoin und aller Altcoins) heute nur etwa 2,7 Billionen US-Dollar. Seien wir ehrlich: Die überwiegende Mehrheit der Kunden, die kurzfristig KI benötigen, werden Web2-Kunden sein, denn die Web3-Kunden, die KI wirklich benötigen, werden nur einen kleinen Teil dieser 2,7 Billionen US-Dollar ausmachen (wenn man bedenkt, dass BTC der Markt ist, Bitcoin selbst). erfordert/verwendet keine KI).

Web3-KI-Anwendungsfälle fangen gerade erst an und es ist unklar, wie groß der Markt sein wird. Eines ist jedoch sicher: Auf absehbare Zeit wird es nur einen kleinen Teil des Web2-Marktes ausmachen. Wir glauben, dass Web3 AI immer noch eine glänzende Zukunft hat, aber das bedeutet nur, dass die leistungsstärkste Anwendung von Web3 AI derzeit Web2-Kunden bedient.

Zu den hypothetischen Beispielen für Web2-Kunden, die von Web3 AI profitieren könnten, gehören:

  • Bauen Sie von Grund auf ein KI-zentriertes, branchenspezifisches Softwareunternehmen auf (z. B. Cedar.ai oder Observe.ai).

  • Große Unternehmen, die Modelle für ihre eigenen Zwecke optimieren (z. B. Netflix)

  • Schnell wachsende KI-Anbieter (z. B. Anthropic)

  • Softwareunternehmen, die KI in bestehende Produkte integrieren (z. B. Canva)

Dies ist eine relativ stabile Kundenrolle, da die Kunden typischerweise groß und wertvoll sind. Es ist unwahrscheinlich, dass sie so schnell ihre Geschäftstätigkeit aufgeben werden, und sie stellen große potenzielle Kunden für KI-Dienste dar. Web3-KI-Dienste, die Web2-Kunden bedienen, werden von diesem stabilen Kundenstamm profitieren.

Aber warum sollten Web2-Kunden einen Web3-Stack verwenden wollen? Der Rest dieses Artikels erläutert diese Situation.

Echter Vorteil Nr. 2: Niedrigere GPU-Nutzungskosten mit GPU DePIN

GPU DePIN bündelt nicht ausreichend genutzte GPU-Rechenleistung, die zuverlässigste davon stammt aus Rechenzentren, und stellt sie für KI-Inferenzen zur Verfügung. Eine einfache Analogie zu diesem Problem ist „Airbnb in GPUs“.

Der Grund, warum wir von GPU DePIN begeistert sind, liegt darin, dass, wie oben erwähnt, ein Mangel an NVIDIA-Chips besteht und derzeit GPU-Zyklen verschwendet werden, die für KI-Inferenzen verwendet werden könnten. Bei diesen Hardwarebesitzern sind die Kosten gesunken und die Ausrüstung ist derzeit nicht ausreichend ausgelastet, so dass diese Teil-GPUs zu viel geringeren Kosten als im Status Quo zur Verfügung gestellt werden können, da dadurch tatsächlich „das Geld für den Hardwarebesitzer gefunden“ wird.

Beispiele beinhalten:

  • AWS-Maschine. Wenn Sie heute einen H100 von AWS leasen würden, müssten Sie sich zu einem einjährigen Leasing verpflichten, da das Marktangebot begrenzt ist. Dadurch entsteht Verschwendung, da Sie die GPU wahrscheinlich nicht 7 Tage die Woche und 365 Tage im Jahr nutzen werden.

  • Filecoin-Mining-Hardware. Filecoin hat ein großes subventioniertes Angebot, aber keine große reale Nachfrage. Filecoin fand nie eine wirkliche Produktmarkttauglichkeit, sodass die Filecoin-Miner Gefahr liefen, ihr Geschäft aufzugeben. Diese Maschinen sind mit GPUs ausgestattet, die für Low-End-KI-Inferenzaufgaben umfunktioniert werden können.

  • ETH-Mining-Hardware. Wenn Ethereum von PoW zu PoS übergeht, wird dadurch schnell viel Hardware frei, die für KI-Inferenzen umfunktioniert werden kann.

Beachten Sie, dass nicht jede GPU-Hardware für KI-Inferenz geeignet ist. Ein offensichtlicher Grund dafür ist, dass ältere GPUs nicht über die für LLMs erforderliche Menge an GPU-Speicher verfügen, obwohl es in dieser Hinsicht bereits einige interessante Innovationen gibt, die helfen können. Beispielsweise kann die Technologie von Exabits aktive Neuronen in den GPU-Speicher und inaktive Neuronen in den CPU-Speicher laden. Sie sagen voraus, welche Neuronen aktiv/inaktiv sein müssen. Dadurch können Low-End-GPUs auch mit begrenztem GPU-Speicher KI-Arbeitslasten bewältigen. Dadurch werden Low-End-GPUs effektiver für die KI-Inferenz nützlicher.

Web3 AI DePINs muss sein Produkt im Laufe der Zeit weiterentwickeln und unternehmenstaugliche Dienste wie Single Sign-On, SOC 2-Konformität, Service Level Agreements (SLAs) und mehr bereitstellen. Dies ähnelt dem, was aktuelle Cloud-Dienstanbieter Web2-Kunden anbieten.

Echter Vorteil Nr. 3: Zensurresistente Modelle zur Vermeidung der OpenAI-Selbstzensur

Es gibt viele Diskussionen über KI-Zensur. Die Türkei beispielsweise hat OpenAI vorübergehend verboten (später änderten sie ihren Ansatz, als OpenAI die Compliance verbesserte). Wir glauben, dass Zensur auf nationaler Ebene uninteressant ist, da Länder KI einführen müssen, um wettbewerbsfähig zu bleiben.

OpenAI betreibt auch Selbstzensur. OpenAI verarbeitet beispielsweise keine NSFW-Inhalte. Auch OpenAI wird die nächste Präsidentschaftswahl nicht vorhersagen. Wir halten die KI-Anwendungsfälle nicht nur für interessant, sondern es gibt auch einen riesigen Markt, den OpenAI jedoch aus politischen Gründen nicht antasten wird.

Open Source ist eine großartige Lösung, da Github-Repositories nicht von Aktionären oder einem Vorstand beeinflusst werden. Ein Beispiel ist Venice.ai, das Privatsphäre verspricht und zensurresistent agiert. Web3 AI kann es effektiv auf die nächste Stufe bringen, indem es diese Open-Source-Software-Modelle (OSS) auf kostengünstigeren GPU-Clustern betreibt, um Inferenzen durchzuführen. Aus diesen Gründen glauben wir, dass OSS + Web3 die ideale Kombination ist, um den Weg für zensurresistente KI zu ebnen.

Echter Vorteil Nr. 4: Vermeiden Sie das Senden personenbezogener Daten an OpenAI

Große Unternehmen haben Bedenken hinsichtlich des Datenschutzes ihrer internen Daten. Für diese Kunden kann es schwierig sein, einem OpenAI-Dritten den Besitz dieser Daten anzuvertrauen.

In Web3 mag es für diese Unternehmen (oberflächlich betrachtet) noch besorgniserregender erscheinen, dass ihre internen Daten plötzlich im dezentralen Web auftauchen. Es gibt jedoch Innovationen bei datenschutzverbessernden Technologien für KI:

Trusted Execution Environment (TEE) wie Super Protocol

Fully Homomorphic Encryption (FHE) wie Fhenix.io (ein Portfoliounternehmen eines von Hack VC verwalteten Fonds) oder Inco Network (beide betrieben von Zama.ai) sowie Bagels PPML

Diese Technologien entwickeln sich immer weiter und die Leistung verbessert sich mit den kommenden Zero Knowledge (ZK)- und FHE-ASICs weiter. Das langfristige Ziel besteht jedoch darin, Unternehmensdaten zu schützen und gleichzeitig das Modell zu optimieren. Mit dem Aufkommen dieser Protokolle könnte Web3 zu einem noch attraktiveren Ort für datenschutzschonendes KI-Computing werden.

Echter Vorteil Nr. 5: Nutzen Sie die neuesten Innovationen im Open-Source-Modell

Open-Source-Software hat in den letzten Jahrzehnten den Marktanteil proprietärer Software verschlungen. Wir betrachten LLM als eine Form proprietärer Software, die OSS stören kann. Bemerkenswerte Beispiele für Herausforderer sind Llama, RWKV und Mistral.ai. Diese Liste wird zweifellos mit der Zeit wachsen (eine umfassendere Liste finden Sie unter Openrouter.ai). Durch die Nutzung von Web3 AI (unterstützt durch OSS-Modelle) können Menschen mit diesen neuen Innovationen innovativ sein.

Wir glauben, dass die globale Open-Source-Entwicklungsarbeitskraft in Kombination mit Anreizen für Kryptowährungen im Laufe der Zeit schnelle Innovationen bei Open-Source-Modellen und den darauf aufbauenden Agenten und Frameworks vorantreiben kann. Ein Beispiel für ein KI-Agentenprotokoll ist Theoriq. Theoriq nutzt OSS-Modelle, um ein miteinander verbundenes Netzwerk zusammensetzbarer KI-Agenten zu schaffen, die zu übergeordneten KI-Lösungen zusammengestellt werden können.

Der Grund, warum wir diesbezüglich zuversichtlich sind, liegt darin, dass in der Vergangenheit die meisten „Entwicklersoftware“-Innovationen im Laufe der Zeit langsam von OSS überholt wurden. Microsoft war einst ein proprietäres Softwareunternehmen und ist jetzt das Unternehmen Nr. 1, das zu Github beiträgt. Dafür gibt es einen Grund: Wenn man sich anschaut, wie Databricks, PostGresSQL, MongoDB und andere proprietäre Datenbanken revolutionieren, ist das ein Beispiel dafür, wie OSS eine ganze Branche revolutioniert, daher ist der Präzedenzfall hier ziemlich überzeugend.

Es gibt jedoch ein Problem. Eine heikle Sache bei Open-Source-Großsprachenmodellen (OSS LLMs) ist, dass OpenAI begonnen hat, mit einigen Organisationen, wie Reddit und der New York Times, kostenpflichtige Datenlizenzvereinbarungen abzuschließen. Wenn sich dieser Trend fortsetzt, könnte es aufgrund finanzieller Hürden bei der Datenbeschaffung schwieriger werden, mit großen Open-Source-Sprachmodellen zu konkurrieren. Nvidia könnte seine Investitionen in Confidential Computing weiter erhöhen, um den Datenaustausch zu sichern. Die Zeit wird zeigen, wie sich das entwickelt.

Echter Vorteil Nr. 6: Konsens durch kostensenkende Zufallsstichproben oder durch ZK-Beweise

Eine der Herausforderungen der Web3-KI-Inferenz ist die Verifizierung. Es wird davon ausgegangen, dass Validatoren die Möglichkeit haben, ihre Ergebnisse zu manipulieren, um Gebühren zu verdienen. Daher ist die Validierung von Schlussfolgerungen eine wichtige Maßnahme. Beachten Sie, dass dieser Betrug noch nicht tatsächlich stattgefunden hat, da die KI-Inferenz noch in den Kinderschuhen steckt, aber er ist unvermeidlich, es sei denn, es werden Schritte unternommen, um dieses Verhalten einzudämmen.

Der Standardansatz von Web3 besteht darin, dass mehrere Validatoren denselben Vorgang wiederholen und die Ergebnisse vergleichen. Wie bereits erwähnt, besteht die größte Herausforderung bei diesem Problem darin, dass KI-Inferenz aufgrund des aktuellen Mangels an High-End-Nvidia-Chips sehr teuer ist. Angesichts der Tatsache, dass Web3 über nicht ausgelastete GPU-DePIN kostengünstigere Inferenzen bereitstellen kann, wird die redundante Berechnung das Wertversprechen von Web3 erheblich schwächen.

Eine vielversprechendere Lösung besteht darin, ZK-Beweise für Off-Chain-KI-Inferenzberechnungen durchzuführen. In diesem Fall kann ein prägnanter ZK-Beweis überprüft werden, um festzustellen, ob das Modell korrekt trainiert wurde oder ob die Inferenz korrekt ausgeführt wurde (genannt zkML). Beispiele hierfür sind Modulus Labs und ZKonduit. Da ZK-Operationen rechenintensiv sind, steckt die Leistung dieser Lösungen noch in den Kinderschuhen. Wir gehen jedoch davon aus, dass sich die Situation mit der Veröffentlichung von ZK-Hardware-ASICs in naher Zukunft verbessern wird.

Vielversprechender ist die Idee einer etwas „optimistischen“ stichprobenbasierten KI-Schlussfolgerungsmethode. In diesem Modell wird nur ein kleiner Bruchteil der vom Validator erzeugten Ergebnisse verifiziert, aber die wirtschaftlichen Kosten des Slashs sind hoch genug angesetzt, sodass, wenn er erwischt wird, ein starker wirtschaftlicher Anreiz für Validatoren besteht, zu betrügen. Dadurch ersparen Sie sich überflüssige Berechnungen.

Eine weitere vielversprechende Idee sind Wasserzeichen- und Fingerabdrucklösungen, wie sie beispielsweise von Bagel Network vorgeschlagen werden. Dies ähnelt dem Mechanismus, mit dem Amazon Alexa die Qualitätssicherung des geräteinternen KI-Modells auf seinen Millionen Geräten ermöglicht.

Echter Vorteil Nr. 7: Einsparungen mit OSS (OpenAI-Gewinne)

Die nächste Chance, die Web3 für die KI bietet, ist die Kostendemokratisierung. Bisher haben wir mit DePIN über GPU-Kosteneinsparungen gesprochen. Aber Web3 bietet auch die Möglichkeit, Margen bei zentralisierten Web2-KI-Diensten zu sparen (wie OpenAI, das zum jetzigen Zeitpunkt einen Jahresumsatz von über 1 Milliarde US-Dollar erzielt). Diese Kosteneinsparungen ergeben sich aus der Tatsache, dass durch die Verwendung von OSS-Modellen anstelle proprietärer Modelle zusätzliche Einsparungen erzielt werden, da die Modellersteller nicht versuchen, Gewinne zu erzielen.

Viele OSS-Modelle bleiben völlig kostenlos, was für die Kunden die beste Wirtschaftlichkeit bedeutet. Möglicherweise gibt es aber auch einige OSS-Modelle, die diese Monetarisierungsmethoden ausprobieren. Bedenken Sie, dass nur 4 % aller Models auf Hugging Face von Unternehmen geschult wurden, die über das Budget zur Subventionierung der Models verfügen. Die restlichen 96 % der Modelle werden von der Community geschult. Für diese Gruppe (96 % von Hugging Face) fallen grundlegende reale Kosten an (einschließlich Rechenkosten und Datenkosten). Daher müssen diese Modelle auf irgendeine Weise monetarisiert werden.

Es gibt mehrere Vorschläge zur Monetarisierung des Open-Source-Softwaremodells. Eines der interessantesten ist das Konzept der „ersten Modellausgabe“, das darin besteht, das Modell selbst zu tokenisieren, einen Teil der Token für das Team zu behalten und einen Teil der zukünftigen Einnahmen aus dem Modell an die Token-Inhaber weiterzuleiten, obwohl es sicherlich welche gibt Rechtliche und regulatorische Hindernisse.

Andere OSS-Modelle werden versuchen, die Nutzung zu monetarisieren. Beachten Sie, dass das OSS-Modell, wenn dies Realität wird, möglicherweise immer mehr seinem Web2-Monetarisierungsmodell ähnelt. Doch in Wirklichkeit wird der Markt in zwei Teile gespalten sein, wobei einige Modelle völlig kostenlos bleiben werden.

Echter Vorteil Nr. 8: Dezentrale Datenquellen

Eine der größten Herausforderungen für KI besteht darin, die richtigen Daten zum Trainieren eines Modells zu finden. Wir haben bereits erwähnt, dass dezentrales KI-Training seine Herausforderungen mit sich bringt. Aber wie wäre es mit der Verwendung eines dezentralen Netzwerks zum Abrufen der Daten (die dann an anderer Stelle für Schulungen verwendet werden können, sogar an herkömmlichen Web2-Standorten)?

Genau das machen Startups wie Grass. Grass ist ein dezentrales Netzwerk von „Data Scrapern“, die die ungenutzte Rechenleistung ihrer Maschinen in Datenquellen einbringen, um Informationen für das Training von KI-Modellen bereitzustellen. Hypothetisch könnte diese Datenquelle im großen Maßstab aufgrund der Leistungsfähigkeit eines großen Netzwerks von Anreizknoten die internen Datenquellenbemühungen eines Unternehmens übertreffen. Dazu gehört nicht nur, mehr Daten zu erhalten, sondern sie auch häufiger abzurufen, um sie relevanter und aktueller zu machen. Tatsächlich ist es auch unmöglich, die dezentralen Daten-Scraping-Horden zu stoppen, da sie von Natur aus dezentralisiert sind und sich nicht unter einer einzigen IP-Adresse befinden. Sie verfügen außerdem über ein Netzwerk, das Daten bereinigt und normalisiert, sodass sie nach dem Scrapen nützlich sind.

Sobald Sie die Daten haben, benötigen Sie auch einen Ort zum Speichern in der Kette und die mit diesen Daten generierten LLMs.

Beachten Sie, dass sich die Rolle von Daten in Web3 AI in Zukunft ändern kann. Der aktuelle Stand von LLMs besteht heute darin, das Modell mithilfe von Daten vorab zu trainieren und es im Laufe der Zeit mit mehr Daten zu verfeinern. Da sich Daten im Internet jedoch in Echtzeit ändern, sind diese Modelle immer etwas veraltet. Daher sind die von LLM abgeleiteten Antworten etwas ungenau.

Die zukünftige Richtung könnte ein neues Paradigma sein – „Echtzeit“-Daten. Das Konzept besteht darin, dass, wenn einem großen Sprachmodell (LLM) eine Inferenzfrage gestellt wird, das LLM Hinweise weiterleiten und Daten einfügen kann, die in Echtzeit aus dem Internet erneut gesammelt werden. Auf diese Weise kann LLM die aktuellsten Daten nutzen. Grass arbeitet an diesem Teil.

Besonderer Dank geht an die folgenden Personen für ihr Feedback und ihre Hilfe bei diesem Artikel: Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng, JW Wang.