ChainCatcher-Nachrichten: Offiziellen Nachrichten zufolge hat das AO-Ökosystem den „AI on AO“-Plan gestartet und On-Chain-Open-Source-Large-Language-Modelle (LLMs) eingeführt, mit dem Ziel, jedes KI-Modell (nicht nur LLMs) in die Kette zu bringen. Basierend auf Apus Network wird der permanente On-Chain-Speicher von Arweave zum Aufbau eines dezentralen, vertrauenswürdigen GPU-Netzwerks verwendet, das sich der Bereitstellung zuverlässiger, effizienter und kostengünstiger Rechenfunktionen für KI-Training und -Inferenz widmet. KI-Daten zu AO können über ArDrive in die Modelle von Arweave hochgeladen werden.