Deep Trend TechFlow-Nachrichten: Laut offiziellen Nachrichten hat das AO-Ökosystem den „AI on AO“-Plan gestartet und On-Chain-Open-Source-Large-Language-Modelle (LLMs) eingeführt, mit dem Ziel, jedes KI-Modell (nicht nur LLMs) in die Kette zu bringen. Basierend auf dem Apus-Netzwerk wird der permanente On-Chain-Speicher von Arweave zum Aufbau eines dezentralen, vertrauenswürdigen GPU-Netzwerks verwendet, das der Bereitstellung zuverlässiger, effizienter und kostengünstiger Rechenfunktionen für KI-Training und -Inferenz dient. KI-Daten zu AO können über ArDrive in die Modelle von Arweave hochgeladen werden.
Original ansehen
AO veröffentlicht den „AI on AO“-Plan und führt ein Open-Source-Modell für große Sprachen in der Kette ein
![](https://public.bnbstatic.com/image/pgc/202305/5e767408d707da5e4c1d04e8fd9b2cf6.jpg)
--・59 views
Haftungsausschluss: Enthält Meinungen Dritter. Die hier bereitgestellten Informationen stellen keine Finanzberatung dar. Kann gesponserte Inhalte enthalten. Siehe AGB.
0