Deep Trend TechFlow-Nachrichten: Laut offiziellen Nachrichten hat das AO-Ökosystem den „AI on AO“-Plan gestartet und On-Chain-Open-Source-Large-Language-Modelle (LLMs) eingeführt, mit dem Ziel, jedes KI-Modell (nicht nur LLMs) in die Kette zu bringen. Basierend auf dem Apus-Netzwerk wird der permanente On-Chain-Speicher von Arweave zum Aufbau eines dezentralen, vertrauenswürdigen GPU-Netzwerks verwendet, das der Bereitstellung zuverlässiger, effizienter und kostengünstiger Rechenfunktionen für KI-Training und -Inferenz dient. KI-Daten zu AO können über ArDrive in die Modelle von Arweave hochgeladen werden.