Segundo BlockBeats, no dia 21 de junho, o ecossistema AO lançou o plano “AI on AO”, com o objetivo de trazer qualquer modelo de IA (não apenas LLMs) para a cadeia. O plano lançará modelos de linguagem grande (LLMs) de código aberto na rede. Com base na Rede Apus e aproveitando o armazenamento permanente em cadeia da Arweave, o ecossistema AO construiu uma rede GPU descentralizada e confiável, dedicada a fornecer recursos de computação confiáveis, eficientes e de baixo custo para treinamento e inferência de IA. Os dados de IA no AO podem ser carregados no modelo da Arweave através do ArDrive.