Według BlockBeats 21 czerwca ekosystem AO uruchomił plan „AI na AO”, mający na celu wprowadzenie do łańcucha dowolnego modelu AI (nie tylko LLM). W ramach planu zostaną uruchomione duże modele językowe typu open source (LLM) w ramach łańcucha. W oparciu o sieć Apus i wykorzystując stałą pamięć masową Arweave w łańcuchu, ekosystem AO zbudował zdecentralizowaną, pozbawioną zaufania sieć GPU, której celem jest zapewnienie niezawodnych, wydajnych i tanich możliwości obliczeniowych na potrzeby szkolenia i wnioskowania AI. Dane AI na AO można przesłać do modelu Arweave za pośrednictwem ArDrive.