POKT Network hat sein AI Litepaper veröffentlicht, in dem die Bereitstellung von Large Language Models (LLMs) auf seinem Protokoll untersucht wird, um robuste und skalierbare KI-Inferenzdienste bereitzustellen. Seit dem Start des Mainnets im Jahr 2020 hat POKT Network über 750 Milliarden Anfragen über ein Netzwerk von etwa 15.000 Knoten in 22 Ländern bearbeitet. Diese umfangreiche Infrastruktur ermöglicht es POKT Network, die Zugänglichkeit und Finanzialisierung von KI-Modellen innerhalb seines Ökosystems zu verbessern.

Das AI Litepaper hebt die Ausrichtung der Anreize zwischen Modellforschern (Quellen), Hardwarebetreibern (Lieferanten), API-Anbietern (Gateways) und Benutzern (Anwendungen) durch den Relay Mining-Algorithmus hervor. Dieser Algorithmus schafft einen transparenten Marktplatz, auf dem Kosten und Erträge auf kryptografisch verifizierter Nutzung basieren. Die Servicequalität des Protokolls konkurriert mit zentralisierten Einheiten und macht es zu einem ausgereiften, erlaubnisfreien Netzwerk für Inferenz auf Anwendungsebene.

Wir stellen vor: Das AI Litepaper von POKT NetworkDas Dokument untersucht das Potenzial, große Sprachmodelle im Netzwerk einzusetzen, um eine robuste und skalierbare KI-Inferenz bereitzustellen. Lesen Sie es hier 👇https://t.co/HCLuII1ZHE

— POKT Network (@POKTnetwork) 19. Juni 2024

Die Integration von LLMs in das POKT-Netzwerk ermöglicht skalierbare KI-Inferenzdienste ohne Ausfallzeiten und nutzt das vorhandene dezentrale Framework. KI-Forscher und -Akademiker können ihre Modelle monetarisieren, indem sie sie im Netzwerk bereitstellen und nutzungsbasierte Einnahmen erzielen, ohne die Zugangsinfrastruktur verwalten oder Nachfrage generieren zu müssen. Der Relay-Mining-Algorithmus sorgt für einen transparenten Marktplatz und motiviert Lieferanten, eine hohe Servicequalität aufrechtzuerhalten.

Erlaubnisfreie LLM-Inferenz

Das AI Litepaper mit dem Titel „Dezentrale KI: Erlaubnisfreie LLM-Inferenz im POKT-Netzwerk“ wurde von Daniel Olshansky, Ramiro Rodríguez Colmeiro und Bowen Li verfasst. Ihr Fachwissen umfasst Augmented Reality, Interaktionsanalyse für autonome Fahrzeuge, medizinische Bildanalyse und Entwicklung von KI/ML-Infrastrukturen und trägt zu den umfassenden Erkenntnissen des Papiers bei.

Daniel Olshansky bringt Erfahrung aus der Augmented Reality-Cloud von Magic Leap und der autonomen Fahrzeugplanung von Waymo mit. Ramiro Rodríguez Colmeiro, ein Doktor der Signalanalyse und Systemoptimierung, konzentriert sich auf maschinelles Lernen und medizinische Bildanalyse. Bowen Li, früher Engineering Manager bei Apple AI/ML, leitete die Entwicklung der ersten LLM-Inferenzplattform von Apple.

Das AI Litepaper von POKT Network unterstreicht dessen Potenzial, Innovation, Akzeptanz und Finanzialisierung von Open-Source-Modellen voranzutreiben, und positioniert das Netzwerk als Schlüsselspieler bei der erlaubnisfreien LLM-Inferenz. Für detailliertere Einblicke ist das vollständige AI Litepaper online verfügbar.