Die AI-Blockchain-Kollaborationsmatrix wird ein wichtiges Werkzeug zur Bewertung von Projekten werden, das Entscheidungsträgern effektiv hilft, echte, einflussreiche Innovationen von bedeutungslosem Lärm zu unterscheiden.

Autor: Swayam

Übersetzung: Deep Tide TechFlow

Die schnelle Entwicklung der künstlichen Intelligenz (AI) hat dazu geführt, dass einige große Technologieunternehmen über beispiellose Rechenleistung, Datenressourcen und algorithmische Technologien verfügen. Doch mit der zunehmenden Integration von AI-Systemen in unsere Gesellschaft sind Fragen zu Zugänglichkeit, Transparenz und Kontrolle zu zentralen Themen in technologischen und politischen Diskussionen geworden. In diesem Kontext bietet die Kombination von Blockchain-Technologie und AI einen alternativen Weg, der es wert ist, erkundet zu werden – eine Möglichkeit, die Entwicklung, Implementierung, Skalierung und Governance von AI-Systemen neu zu definieren.

Wir beabsichtigen nicht, die bestehende AI-Infrastruktur vollständig zu revolutionieren, sondern wollen durch Analysen erkunden, welche einzigartigen Vorteile dezentrale Ansätze in bestimmten Anwendungsfällen bieten können. Gleichzeitig erkennen wir an, dass in bestimmten Kontexten traditionelle zentrale Systeme möglicherweise die praktischere Wahl bleiben.

Die folgenden Schlüsselfragen leiteten unsere Forschung:

  • Können die Kernmerkmale dezentraler Systeme (wie Transparenz, Zensurresistenz) mit den Anforderungen moderner AI-Systeme (wie Effizienz, Skalierbarkeit) in Einklang gebracht werden, oder entstehen Konflikte?

  • In welchen Bereichen kann Blockchain-Technologie in den verschiedenen Phasen der AI-Entwicklung – von der Datensammlung über das Modelltraining bis hin zur Inferenz – substanzielle Verbesserungen bieten?

  • Welche technischen und wirtschaftlichen Kompromisse müssen in der Gestaltung dezentraler AI-Systeme in verschiedenen Phasen berücksichtigt werden?

Aktuelle Einschränkungen im AI-Technologie-Stack

Das Epoch AI-Team hat einen wichtigen Beitrag zur Analyse der aktuellen Einschränkungen des AI-Technologie-Stacks geleistet. Ihre Forschung beschreibt detailliert die Hauptengpässe, die der Erweiterung der AI-Trainingsberechnungen bis 2030 entgegenstehen könnten, und verwendet die Anzahl der Fließkommaoperationen pro Sekunde (FLoPs) als Kernmaß für die Berechnungsleistung.

Studien zeigen, dass die Skalierung der AI-Trainingsberechnungen durch verschiedene Faktoren eingeschränkt sein kann, darunter unzureichende Energieversorgung, Engpässe in der Chipfertigung, Datenknappheit und Netzwerkverzögerungen. Diese Faktoren setzen jeweils unterschiedliche Obergrenzen für die erreichbare Rechenkapazität, wobei die Verzögerungsproblematik als die schwerste theoretische Hürde betrachtet wird.

Dieses Diagramm betont die Notwendigkeit von Fortschritten in Hardware, Energieeffizienz, der Entsperrung der auf Edge-Geräten erfassten Daten und im Netzwerkbereich, um das Wachstum der zukünftigen künstlichen Intelligenz zu unterstützen.

  • Energieeinschränkungen (Leistung):

    • Machbarkeit der Erweiterung der Strominfrastruktur (Prognose für 2030): Es wird erwartet, dass die Kapazität der Rechenzentrumsparks bis 2030 auf 1 bis 5 Gigawatt (GW) ansteigt. Dieses Wachstum erfordert jedoch massive Investitionen in die Strominfrastruktur und muss gleichzeitig logistische und regulatorische Hürden überwinden.

    • Eingeschränkt durch die Energieversorgung und die Strominfrastruktur wird die weltweite Erweiterungskapazität voraussichtlich ein Limit von bis zu 10.000-fachen des aktuellen Niveaus erreichen.

  • Chipherstellungsfähigkeit (Überprüfbarkeit):

    • Aktuell ist die Produktion von Chips, die fortgeschrittene Berechnungen unterstützen (wie NVIDIA H100, Google TPU v5), durch Verpackungstechnologien (wie TSMCs CoWoS-Technologie) eingeschränkt. Diese Einschränkung wirkt sich direkt auf die Verfügbarkeit und Skalierbarkeit von überprüfbaren Berechnungen aus.

    • Die Engpässe in der Chipproduktion und der Lieferkette sind die Hauptbarrieren, dennoch könnte eine Steigerung der Rechenkapazität von bis zu 50.000-fachen Zuwächsen erreichbar sein.

    • Darüber hinaus ist es entscheidend, dass fortschrittliche Chips sichere isolierte Bereiche oder vertrauenswürdige Ausführungsumgebungen (TEEs) auf Edge-Geräten aktivieren. Diese Technologien können nicht nur die Berechnungsergebnisse überprüfen, sondern auch während des Berechnungsprozesses die Privatsphäre sensibler Daten schützen.

  • Datenknappheit (Privatsphäre):

  • Latenzbarriere (Leistung):

    • Die inhärente Verzögerung im Modelltraining: Mit zunehmender Größe des AI-Modells nimmt die benötigte Zeit für eine einzelne Vorwärts- und Rückwärtsausbreitung erheblich zu, aufgrund der sequenziellen Natur des Berechnungsprozesses. Diese Verzögerung stellt eine grundlegende Einschränkung im Modelltraining dar, die die Trainingsgeschwindigkeit direkt beeinflusst.

    • Herausforderungen bei der Erweiterung der Batchgröße: Um die Verzögerungsprobleme zu mildern, ist eine gängige Methode, die Batchgröße zu erhöhen, um mehr Daten parallel zu verarbeiten. Jedoch gibt es praktische Grenzen für die Erweiterung der Batchgröße, wie unzureichende Speicherkapazitäten, sowie eine abnehmende Grenznutzenwirkung der Modellkonvergenz mit zunehmender Batchgröße. Diese Faktoren erschweren es, Verzögerungen durch Erhöhung der Batchgröße auszugleichen.

Basis

Dezentralisierungs-AI-Dreieck

Die verschiedenen Einschränkungen, mit denen AI konfrontiert ist (wie Datenknappheit, Engpässe in der Rechenleistung, Verzögerungsprobleme und Produktionskapazitäten der Chips), bilden zusammen das "Dezentralisierte AI-Dreieck". Dieses Rahmenwerk versucht, ein Gleichgewicht zwischen Privatsphäre, Überprüfbarkeit und Leistung herzustellen. Diese drei Attribute sind entscheidend für die Effektivität, Vertrauenswürdigkeit und Skalierbarkeit dezentraler AI-Systeme.

Die folgende Tabelle analysiert detailliert die wichtigen Kompromisse zwischen Privatsphäre, Überprüfbarkeit und Leistung und untersucht deren Definitionen, Implementierungstechnologien und die Herausforderungen, denen sie gegenüberstehen:

Privatsphäre: Der Schutz sensibler Daten ist während der Training- und Inferenzphase der KI von entscheidender Bedeutung. Zu diesem Zweck werden verschiedene Schlüsseltechnologien eingesetzt, darunter vertrauenswürdige Ausführungsumgebungen (TEEs), Mehrparteienberechnung (MPC), föderiertes Lernen, vollhomomorphe Verschlüsselung (FHE) und differenzielle Privatsphäre. Diese Technologien sind zwar effektiv, bringen jedoch Herausforderungen wie Leistungsüberhead, Transparenzprobleme, die die Überprüfbarkeit beeinträchtigen, und eingeschränkte Skalierbarkeit mit sich.

Überprüfbarkeit: Um die Richtigkeit und Integrität der Berechnungen sicherzustellen, werden Technologien wie Zero-Knowledge-Proofs (ZKPs), kryptografische Nachweise und überprüfbare Berechnungen eingesetzt. Doch die Balance zwischen Privatsphäre und Leistung und Überprüfbarkeit zu finden, erfordert oft zusätzliche Ressourcen und Zeit, was zu Berechnungsverzögerungen führen kann.

Leistung: Eine effiziente Ausführung von AI-Berechnungen und die Realisierung großer Anwendungen hängen von einer verteilten Recheninfrastruktur, Hardwarebeschleunigung und einer effizienten Netzwerkverbindung ab. Der Einsatz von datenschutzfreundlichen Technologien kann jedoch die Geschwindigkeit der Berechnungen verlangsamen, während überprüfbare Berechnungen zusätzliche Kosten verursachen.

Blockchain-Trilemma:

Die zentralen Herausforderungen im Blockchain-Bereich sind das Trilemma, bei dem jedes Blockchain-System einen Kompromiss zwischen den folgenden drei Aspekten eingehen muss:

  • Dezentralisierung: Verhindert die Kontrolle eines einzelnen Entitäts über das System, indem das Netzwerk auf mehrere unabhängige Knoten verteilt wird.

  • Sicherheit: Gewährleistet, dass das Netzwerk vor Angriffen geschützt ist und die Datenintegrität gewahrt bleibt, was in der Regel mehr Validierungs- und Konsensprozesse erfordert.

  • Skalierbarkeit: Schnelles und kostengünstiges Verarbeiten großer Transaktionsmengen, aber dies bedeutet oft, Kompromisse bei Dezentralisierung (Reduzierung der Knotenzahl) oder Sicherheit (Verringerung der Validierungsstärke) einzugehen.

Zum Beispiel priorisiert Ethereum Dezentralisierung und Sicherheit, was zu einer relativ langsamen Transaktionsverarbeitung führt. Ein tieferes Verständnis dieser Kompromisse in der Blockchain-Architektur kann in der einschlägigen Literatur nachgelesen werden.

AI-Blockchain-Kollaborationsanalyse-Matrix (3x3)

Die Kombination von AI und Blockchain ist ein komplexer Prozess von Kompromissen und Chancen. Diese Matrix zeigt auf, wo diese beiden Technologien möglicherweise Reibung erzeugen, harmonische Übereinstimmungen finden und manchmal die Schwächen des anderen verstärken.

Funktionsweise der Kollaborationsmatrix

Die Kollaborationsintensität spiegelt die Kompatibilität und den Einfluss der Blockchain- und AI-Attribute in bestimmten Bereichen wider. Konkret hängt sie davon ab, wie gut die beiden Technologien zusammenarbeiten, um Herausforderungen zu bewältigen und sich gegenseitig zu stärken. Beispielsweise könnte die Unveränderlichkeit der Blockchain in Bezug auf Datenschutz mit der Datenverarbeitungsfähigkeit von AI neue Lösungen bieten.

Funktionsweise der Kollaborationsmatrix

Beispiel 1: Leistung + Dezentralisierung (schwache Zusammenarbeit)

In dezentralen Netzwerken, wie Bitcoin oder Ethereum, wird die Leistung oft durch verschiedene Faktoren eingeschränkt. Zu diesen Einschränkungen gehören die Volatilität der Knotenressourcen, hohe Kommunikationslatenzen, Transaktionsverarbeitungskosten und die Komplexität der Konsensmechanismen. Für AI-Anwendungen, die niedrige Latenz und hohen Durchsatz erfordern (zum Beispiel Echtzeit-AI-Inferenz oder groß angelegte Modelltraining), ist es schwierig, ausreichende Geschwindigkeit und Rechenzuverlässigkeit von diesen Netzwerken zu erwarten, um die Anforderungen an hohe Leistung zu erfüllen.

Beispiel 2: Privatsphäre + Dezentralisierung (starke Zusammenarbeit)

Datenschutzfreundliche AI-Technologien (wie föderiertes Lernen) können die dezentralen Eigenschaften der Blockchain voll ausschöpfen, um eine effiziente Zusammenarbeit zu ermöglichen, während sie Benutzerdaten schützen. Beispielsweise bietet SoraChain AI eine Lösung, die durch blockchain-unterstütztes föderiertes Lernen sicherstellt, dass die Datenhoheit nicht entzogen wird. Dateninhaber können hochwertige Daten zur Modelltraining beitragen, während ihre Privatsphäre gewahrt bleibt, was zu einem Win-Win für Datenschutz und Zusammenarbeit führt.

Das Ziel dieser Matrix ist es, der Branche ein klares Verständnis der Schnittstelle von AI und Blockchain zu vermitteln, Innovatoren und Investoren zu leiten, um sich auf praktikable Richtungen zu konzentrieren, vielversprechende Bereiche zu erkunden und gleichzeitig in spekulativen Projekten stecken zu bleiben.

AI-Blockchain-Kollaborationsmatrix

Die beiden Achsen der Kollaborationsmatrix repräsentieren unterschiedliche Attribute: Eine Achse sind die drei Hauptmerkmale dezentraler AI-Systeme – Überprüfbarkeit, Privatsphäre und Leistung; die andere Achse ist das Trilemma der Blockchain – Sicherheit, Skalierbarkeit und Dezentralisierung. Wenn sich diese Attribute überschneiden, entstehen eine Reihe von Synergieeffekten, von hoher Übereinstimmung bis hin zu potenziellen Konflikten.

Wenn zum Beispiel Überprüfbarkeit und Sicherheit (hohe Zusammenarbeit) kombiniert werden, können leistungsstarke Systeme zur Überprüfung der Richtigkeit und Vollständigkeit von AI-Berechnungen aufgebaut werden. Doch wenn Leistungsanforderungen mit Dezentralisierung in Konflikt geraten (niedrige Zusammenarbeit), beeinträchtigt der hohe Overhead verteilter Systeme erheblich die Effizienz. Darüber hinaus befinden sich einige Kombinationen (wie Privatsphäre und Skalierbarkeit) im mittleren Bereich, mit sowohl Potenzial als auch komplexen technischen Herausforderungen.

Warum ist das wichtig?

  • Strategischer Kompass: Diese Matrix bietet Entscheidungsträgern, Forschern und Entwicklern klare Richtungen und hilft ihnen, sich auf stark kollaborative Bereiche zu konzentrieren, wie die Sicherstellung von Datenschutz durch föderiertes Lernen oder die Umsetzung skalierbarer AI-Trainings durch dezentrale Berechnungen.

  • Fokus auf einflussreiche Innovationen und Ressourcenallokation: Das Verständnis der Verteilung der Kollaborationsintensität (z.B. Sicherheit + Überprüfbarkeit, Privatsphäre + Dezentralisierung) hilft den Stakeholdern, Ressourcen auf wertvolle Bereiche zu konzentrieren und Verschwendung in schwacher Zusammenarbeit oder unrealistischen Integrationen zu vermeiden.

  • Leitfaden für die Entwicklung des Ökosystems: Mit der kontinuierlichen Entwicklung von AI- und Blockchain-Technologien kann diese Matrix als dynamisches Werkzeug zur Bewertung neuer Projekte dienen und sicherstellen, dass sie den tatsächlichen Bedürfnissen entsprechen, anstatt die Überbewertungstendenzen zu fördern.

Die folgende Tabelle fasst diese Attributkombinationen nach Kollaborationsintensität (von stark bis schwach) zusammen und erklärt, wie sie in dezentralen AI-Systemen tatsächlich funktionieren. Gleichzeitig bietet die Tabelle einige Fallstudien innovativer Projekte, die diese Kombinationen in der Realität demonstrieren. Durch diese Tabelle können die Leser die Schnittstelle zwischen Blockchain und AI-Technologien anschaulicher verstehen, echte einflussreiche Bereiche erkennen und gleichzeitig überbewertete oder technologisch unpraktikable Richtungen vermeiden.

AI-Blockchain-Kollaborationsmatrix: Klassifizierung der Schlüsselintersections von AI- und Blockchain-Technologien nach Kollaborationsintensität

Fazit

Die Kombination von Blockchain und AI birgt enormes Transformationspotenzial, doch die zukünftige Entwicklung benötigt eine klare Richtung und konzentrierte Anstrengungen. Projekte, die Innovationen vorantreiben, gestalten die Zukunft der dezentralen Intelligenz, indem sie wichtige Herausforderungen wie Datenschutz, Skalierbarkeit und Vertrauen angehen. Beispielsweise ermöglicht föderiertes Lernen (Privatsphäre + Dezentralisierung) eine Zusammenarbeit durch den Schutz von Benutzerdaten, während verteiltes Rechnen und Training (Leistung + Skalierbarkeit) die Effizienz von AI-Systemen steigern, und zkML (Zero-Knowledge Machine Learning, Überprüfbarkeit + Sicherheit) sorgt für die Vertrauenswürdigkeit von AI-Berechnungen.

Gleichzeitig müssen wir die Entwicklungen in diesem Bereich mit einer kritischen Einstellung betrachten. Viele sogenannten AI-Agenten sind in Wirklichkeit nur einfache Verpackungen bestehender Modelle, mit begrenzten Funktionen und einer oberflächlichen Integration mit Blockchain. Echte Durchbrüche werden von Projekten kommen, die die jeweiligen Vorteile von Blockchain und AI voll ausschöpfen und sich auf die Lösung praktischer Probleme konzentrieren, anstatt nur Markttrends zu verfolgen.

Blick in die Zukunft: Das AI-Blockchain-Kollaborationsmatrix wird ein wichtiges Werkzeug zur Bewertung von Projekten werden, das Entscheidungsträgern effektiv hilft, echte, einflussreiche Innovationen von bedeutungslosem Lärm zu unterscheiden.

In den nächsten zehn Jahren werden die Projekte dominieren, die in der Lage sind, die hohe Zuverlässigkeit von Blockchain mit der Transformationskraft von AI zu kombinieren, um praktische Probleme zu lösen. Beispielsweise wird energieeffizientes Modelltraining den Energieverbrauch von AI-Systemen erheblich reduzieren; datenschutzfreundliche Kooperationen bieten eine sicherere Umgebung für den Datenaustausch; und skalierbare AI-Governance wird die Umsetzung größerer, effizienterer intelligenter Systeme vorantreiben. Die Branche muss sich auf diese Schlüsselbereiche konzentrieren, um die Zukunft der dezentralen Intelligenz wirklich zu gestalten.