De acordo com BlockBeats, o Ecossistema AO anunciou seu plano 'AI on AO' em 21 de junho. A iniciativa visa lançar Large Language Models (LLMs) de código aberto on-chain, com o objetivo de trazer qualquer modelo de IA, não apenas LLMs, na cadeia. O plano é baseado na Rede Apus e utiliza o armazenamento permanente em cadeia da Arweave para construir uma rede GPU descentralizada e confiável. Esta rede é dedicada a fornecer poder computacional confiável, eficiente e de baixo custo para treinamento e inferência em IA.

Os dados de IA no AO podem ser carregados no modelo da Arweave via ArDrive. Esta mudança é um passo significativo para descentralizar a IA e torná-la mais acessível e eficiente. Ao trazer modelos de IA para a cadeia, o Ecossistema AO está abrindo caminho para uma nova era de desenvolvimento e uso de IA. O uso do armazenamento permanente em cadeia da Arweave garante ainda mais a durabilidade e longevidade desses modelos de IA, tornando-os um recurso confiável para futuros treinamentos e inferências de IA.

O plano 'AI on AO' é uma prova do compromisso do Ecossistema AO com o avanço da tecnologia de IA e suas aplicações. Ao fornecer uma rede GPU descentralizada e sem confiança, o ecossistema não só aumenta a eficiência do treinamento e inferência de IA, mas também promove a transparência e a confiança na tecnologia de IA. Espera-se que esta iniciativa tenha um impacto significativo na indústria da IA, revolucionando potencialmente a forma como os modelos de IA são desenvolvidos e utilizados.