Autor: David & Goliath
Übersetzung: Shenchao TechFlow
Derzeit wird der Rechen- und Trainingsbereich der KI-Industrie hauptsächlich von zentralisierten Web2-Riesen dominiert. Diese Unternehmen haben durch starke Kapitalressourcen, hochmoderne Hardware und große Datenressourcen eine dominierende Stellung. Obwohl diese Situation beim Entwickeln der leistungsstärksten allgemeinen maschinellen Lernmodelle (ML) weiterhin bestehen bleiben könnte, könnte das Web3-Netzwerk allmählich eine wirtschaftlichere und leichter zugängliche Quelle für Rechenressourcen für Mid-Range- oder maßgeschneiderte Modelle werden.
Ebenso könnten einige Verbraucher, wenn die Inferenzanforderungen die Kapazitäten persönlicher Edge-Geräte übersteigen, das Web3-Netzwerk wählen, um weniger zensierte und vielfältigere Ausgaben zu erhalten. Anstatt zu versuchen, den gesamten KI-Technologiestack vollständig zu revolutionieren, sollten sich die Teilnehmer von Web3 vielmehr auf diese Nischenszenarien konzentrieren und ihre einzigartigen Vorteile in Bezug auf Zensurresistenz, Transparenz und soziale Überprüfbarkeit voll ausschöpfen.
Die für das Training der nächsten Generation von Grundmodellen (wie GPT oder BERT) erforderlichen Hardware-Ressourcen sind knapp und teuer, und die Nachfrage nach den leistungsstärksten Chips wird weiterhin das Angebot übersteigen. Diese Ressourcenknappheit führt dazu, dass Hardware in den Händen einer kleinen Anzahl von gut finanzierten Spitzenunternehmen konzentriert ist, die diese Hardware verwenden, um die leistungsstärksten und komplexesten Grundmodelle zu trainieren und zu kommerzialisieren.
Die Hardware wechselt jedoch sehr schnell. Wie wird also mit veralteter Mid-Range- oder Low-Performance-Hardware umgegangen?
Diese Hardware wird wahrscheinlich für das Training einfacher oder zielgerichteterer Modelle verwendet. Durch die Zuordnung unterschiedlicher Modellkategorien zu Hardware mit unterschiedlicher Leistungsfähigkeit kann eine optimale Ressourcenzuteilung erreicht werden. In diesem Fall kann das Web3-Protokoll eine Schlüsselrolle spielen, indem es den Zugang zu vielfältigen, kostengünstigen Rechenressourcen koordiniert. Zum Beispiel können Verbraucher einfache Mid-Range-Modelle verwenden, die auf persönlichen Datensätzen trainiert wurden, und nur bei der Bearbeitung komplexerer Aufgaben auf High-End-Modelle zugreifen, die von zentralisierten Unternehmen trainiert und gehostet werden, während sichergestellt wird, dass die Benutzeridentität verborgen und die Eingabedaten verschlüsselt sind.
Neben Effizienzfragen wächst auch die Besorgnis über Vorurteile und potenzielle Zensur in zentralisierten Modellen. Die Web3-Umgebung ist bekannt für ihre Transparenz und Überprüfbarkeit und kann Training für Modelle bieten, die von Web2 ignoriert oder als zu sensibel erachtet werden. Diese Modelle mögen in Bezug auf Leistung und Innovation nicht wettbewerbsfähig sein, haben jedoch für bestimmte gesellschaftliche Gruppen immer noch einen wichtigen Wert. Daher kann das Web3-Protokoll durch die Bereitstellung offener, vertrauenswürdiger und zensurresistenter Modelltrainingsdienste in diesem Bereich einen einzigartigen Markt erschließen.
Anfänglich können zentrale und dezentrale Ansätze koexistieren, die jeweils unterschiedlichen Anwendungsfällen dienen. Mit den kontinuierlichen Verbesserungen von Web3 in der Entwicklererfahrung und der Plattformkompatibilität sowie den zunehmend sichtbaren Netzwerk-Effekten von Open-Source-AI könnte Web3 schließlich im Kerngeschäft zentralisierter Unternehmen konkurrieren. Besonders wenn Verbraucher sich zunehmend der Grenzen zentralisierter Modelle bewusst werden, werden die Vorteile von Web3 deutlicher.
Neben dem Training von Mid-Range- oder spezialisierten Modellen haben die Teilnehmer von Web3 auch die Vorteile, transparentere und flexiblere Inferenzlösungen anzubieten. Dezentrale Inferenzdienste können verschiedene Vorteile bringen, wie z.B. null Ausfallzeiten, modulare Kombinationen von Modellen, öffentliche Leistungsbewertungen von Modellen und vielfältigere, zensurfreie Ausgaben. Diese Dienste können auch effektiv verhindern, dass Verbraucher aufgrund der Abhängigkeit von einer Handvoll zentralisierter Anbieter mit dem Problem der "Vendor Lock-In" konfrontiert werden. Ähnlich wie beim Modelltraining liegt der Wettbewerbsvorteil der dezentralen Inferenzebene nicht in der Rechenleistung selbst, sondern darin, dass einige langfrist bestehende Probleme gelöst werden, wie z.B. die Transparenz von proprietären Feinabstimmungsparametern, mangelnde Überprüfbarkeit und hohe Kosten.
Dan Olshansky hat eine vielversprechende Vision vorgeschlagen, durch das AI Inference Routing Network von POKT mehr Möglichkeiten für KI-Forscher und -Ingenieure zu schaffen, damit sie ihre Forschungsergebnisse in die Praxis umsetzen können und durch maßgeschneiderte maschinelle Lern- (ML) oder künstliche Intelligenz- (AI) Modelle zusätzliches Einkommen erzielen. Noch wichtiger ist, dass dieses Netzwerk durch die Integration von Inferenzresultaten aus verschiedenen Quellen (einschließlich dezentraler und zentralisierter Anbieter) einen faireren Wettbewerb auf dem Markt für Inferenzdienste fördern kann.
Obwohl optimistische Prognosen besagen, dass der gesamte KI-Technologiestack in Zukunft vollständig auf die Blockchain migrieren könnte, steht dieses Ziel derzeit vor erheblichen Herausforderungen durch die Zentralisierung von Daten und Rechenressourcen, da diese Ressourcen den bestehenden Riesen einen erheblichen Wettbewerbsvorteil verschaffen. Dennoch zeigt ein dezentrales Koordinations- und Rechennetzwerk einzigartigen Wert bei der Bereitstellung von personalisierten, wirtschaftlicheren und offeneren, zensurresistenten KI-Diensten. Durch die Fokussierung auf diese besonders kritischen Nischenmärkte kann Web3 eigene Wettbewerbsvorteile aufbauen und sicherstellen, dass die einflussreichsten Technologien dieser Ära in verschiedenen Richtungen gemeinsam weiterentwickelt werden, um eine breitere Gruppe von Interessengruppen zu begünstigen, anstatt von einer Handvoll traditioneller Riesen monopolisiert zu werden.
Abschließend möchte ich besonders dem gesamten Team von Placeholder Investment danken, sowie Kyle Samani von Multicoin Capital, Anand Iyer von Canonical VC, Keccak Wong von Nectar AI, Alpin Yukseloglu von Osmosis Labs und Cameron Dennis von der NEAR Foundation, die während des Schreibens dieses Artikels wertvolle Rückmeldungen und Anmerkungen gegeben haben.