Autor: Mahesh Ramakrishnan, Vinayak Kurup, CoinDesk; Compiler: Tao Zhu, Golden Finance
Ende Juli verfasste Mark Zuckerberg einen Brief, in dem er erklärte, warum „Open Source für eine positive KI-Zukunft unerlässlich ist“, in dem er die Notwendigkeit einer Open-Source-KI-Entwicklung lobte. Aus dem einst nerdigen Teenager-Gründer ist nun „Zuckerberg“ geworden, der Wasserski fährt, Goldketten trägt und Ju-Jitsu macht und als Retter der Open-Source-Modellentwicklung gilt.
Bisher haben er und das Meta-Team jedoch nicht detailliert beschrieben, wie diese Modelle eingesetzt werden. Erliegen wir angesichts der steigenden Rechenanforderungen einer Modellkomplexität einer ähnlichen Form der Zentralisierung, wenn die Modellbereitstellung von einer kleinen Anzahl von Akteuren kontrolliert wird? Die dezentrale KI verspricht, diese Herausforderung zu lösen, doch die Technologie erfordert Fortschritte in der branchenführenden Kryptographie und einzigartige Hybridlösungen.
Im Gegensatz zu zentralisierten Cloud-Anbietern verteilt die dezentrale KI (DAI) die Rechenprozesse der KI-Inferenz und des KI-Trainings auf mehrere Systeme, Netzwerke und Standorte. Bei richtiger Implementierung bringen diese Netzwerke – ein dezentrales physisches Infrastrukturnetzwerk (DePIN) – Vorteile in Bezug auf Zensurresistenz, Rechenzugriff und Kosten.
DAI steht vor Herausforderungen in zwei Hauptbereichen: der KI-Umgebung und der dezentralen Infrastruktur selbst. Im Vergleich zu zentralisierten Systemen erfordert DAI zusätzliche Sicherheitsmaßnahmen, um den unbefugten Zugriff auf Modelldetails oder den Diebstahl und das Kopieren geschützter Informationen zu verhindern. Daher besteht eine ungenutzte Chance für Teams, die sich auf Open-Source-Modelle konzentrieren, aber die potenziellen Leistungsnachteile von Open-Source-Modellen im Vergleich zu Closed-Source-Modellen erkennen.
Dezentrale Systeme sind insbesondere mit Hindernissen im Zusammenhang mit der Netzwerkintegrität und dem Ressourcenaufwand konfrontiert. Durch die Verteilung von Clientdaten auf verschiedene Knoten werden beispielsweise mehr Angriffsvektoren offengelegt. Ein Angreifer kann einen Knoten hochfahren und seine Berechnungen analysieren, versuchen, Datenübertragungen zwischen Knoten abzufangen oder sogar Vorurteile einführen, die die Systemleistung beeinträchtigen. Selbst in sicheren dezentralen Inferenzmodellen müssen Mechanismen zur Prüfung des Berechnungsprozesses vorhanden sein. Knoten sparen Ressourcenkosten, indem sie unvollständige Berechnungen durchführen, und die Überprüfung wird durch das Fehlen eines vertrauenswürdigen zentralen Teilnehmers erschwert.
Null Wissensbeweis
Zero-Knowledge-Proofs (ZKPs) sind zwar derzeit rechnerisch unerschwinglich, stellen aber eine mögliche Lösung für einige der DAI-Herausforderungen dar. ZKP ist ein kryptografischer Mechanismus, der es einer Partei (dem Prüfer) ermöglicht, eine andere Partei (den Verifizierer) von der Wahrheit einer Aussage zu überzeugen, ohne irgendwelche Details über die Aussage selbst preiszugeben, mit Ausnahme ihrer Gültigkeit. Dieser Beweis kann von anderen Knoten schnell überprüft werden und bietet jedem Knoten die Möglichkeit zu beweisen, dass er gemäß dem Protokoll gehandelt hat. Für Investoren in diesem Bereich ist es wichtig, die technischen Unterschiede zwischen dem System und seiner Implementierung aufzuzeigen (dazu später mehr).
Zentralisiertes Computing beschränkt das Modelltraining auf einige wenige gut positionierte und ressourcenreiche Teilnehmer. ZKP könnte Teil der Freischaltung von Leerlauf-Computing auf Consumer-Hardware sein; ein MacBook könnte beispielsweise seine zusätzliche Rechenbandbreite nutzen, um beim Trainieren großer Sprachmodelle zu helfen und gleichzeitig Token für Benutzer zu verdienen.
Die Bereitstellung dezentraler Schulungen oder Inferenz mithilfe von Verbraucherhardware ist ein Schwerpunkt von Teams wie Gensyn und Inference Labs. Im Gegensatz zu dezentralen Computernetzwerken wie Akash oder Render erhöht Compute Sharding die Komplexität, nämlich Gleitkommaprobleme. Die Nutzung ungenutzter verteilter Rechenressourcen eröffnet kleinen Entwicklern die Möglichkeit, ihre eigenen Netzwerke zu testen und zu trainieren – sofern sie Zugriff auf Tools haben, die die relevanten Herausforderungen lösen.
Derzeit scheinen ZKP-Systeme vier bis sechs Größenordnungen teurer zu sein als die lokale Ausführung von Berechnungen, was die Verwendung von ZKP für Aufgaben, die einen hohen Rechenaufwand (z. B. Modelltraining) oder eine geringe Latenz (z. B. Modellinferenz) erfordern, sehr langsam macht. Im Vergleich dazu bedeutet ein Rückgang um sechs Größenordnungen, dass hochmoderne Systeme (wie der Jolt des a16z), die auf einem M3 Max-Chip laufen, Programme zeigen, die 150-mal langsamer sind als die Ausführung auf einem TI-84-Grafikrechner.
Die Fähigkeit der KI, große Datenmengen zu verarbeiten, macht sie mit Zero-Knowledge-Proofs (ZKPs) kompatibel, es sind jedoch weitere Fortschritte in der Kryptographie erforderlich, bevor ZKPs in großem Umfang eingesetzt werden können. Die laufende Arbeit von Teams wie Irreducible (der das Binius-Beweissystem und Commitment-Schema entworfen hat), Gensyn, TensorOpera, Hellas und Inference Labs wird ein wichtiger Schritt zur Verwirklichung dieser Vision sein. Allerdings ist der Zeitplan immer noch zu optimistisch, da echte Innovationen Zeit und mathematische Fortschritte erfordern.
Gleichzeitig sind weitere Möglichkeiten und Hybridlösungen erwähnenswert. HellasAI und andere Unternehmen entwickeln neue Methoden zur Darstellung von Modellen und Berechnungen, die optimistische Herausforderungsspiele ermöglichen und nur die Teilmenge der Berechnungen ermöglichen, die wissensfrei verarbeitet werden müssen. Optimistische Beweise funktionieren nur, wenn eine glaubwürdige Bedrohung durch das Abstecken besteht, die Möglichkeit besteht, Fehlverhalten nachzuweisen und andere Knoten im System die Berechnung überprüfen. Eine andere von Inference Labs entwickelte Methode validiert eine Teilmenge von Abfragen, bei der sich ein Knoten verpflichtet, einen ZKP mit einer Anzahlung zu erstellen, aber nur dann einen Beweis liefert, wenn der Client ihn zuerst anzweifelt.
Zusammenfassen
Dezentrales KI-Training und -Inferenz wird als Schutz gegen die Machtkonsolidierung einiger großer Akteure dienen und gleichzeitig die Erschließung zuvor unzugänglicher Computersysteme ermöglichen. ZKP wird bei der Verwirklichung dieser Vision eine entscheidende Rolle spielen. Ihr Computer kann Ihnen echtes Geld einbringen, ohne es zu merken, indem er die zusätzliche Rechenleistung im Hintergrund nutzt. Ein präziser Nachweis, dass die Berechnungen korrekt durchgeführt wurden, würde das von den größten Cloud-Anbietern ausgenutzte Vertrauen überflüssig machen und es Computernetzwerken mit kleineren Anbietern ermöglichen, Unternehmenskunden anzuziehen.
Während Zero-Knowledge-Beweise diese Zukunft ermöglichen und zu einem wichtigen Bestandteil von mehr als nur Computernetzwerken werden (wie Ethereums Vision der Single-Slot-Finalität), bleibt ihr Rechenaufwand ein Hindernis. Eine Hybridlösung, die die spieltheoretischen Mechanismen optimistischer Spiele mit der selektiven Verwendung wissensfreier Beweise kombiniert, ist eine bessere Lösung und wird wahrscheinlich zum allgegenwärtigen Brückenpunkt werden, bis ZKP schneller wird.
Sowohl für einheimische als auch für nicht-native Kryptowährungsinvestoren ist das Verständnis des Werts und der Herausforderungen dezentraler KI-Systeme von entscheidender Bedeutung für den effektiven Kapitaleinsatz. Das Team sollte Antworten auf Fragen zu Knotenberechnungsnachweisen und Netzwerkredundanz haben. Wie wir außerdem bei vielen DePIN-Projekten beobachtet haben, erfolgt die Dezentralisierung im Laufe der Zeit, und es ist entscheidend, dass das Team einen klaren Plan zur Verwirklichung dieser Vision hat. Die Bewältigung der mit dem DePIN-Computing verbundenen Herausforderungen ist von entscheidender Bedeutung, um die Kontrolle an Einzelpersonen und kleine Entwickler zurückzugeben – ein wesentlicher Bestandteil, um unsere Systeme offen, frei und zensurresistent zu halten.