Según BlockBeats, el ecosistema AO anunció su plan 'AI en AO' el 21 de junio. La iniciativa tiene como objetivo lanzar modelos de lenguaje grande (LLM) de código abierto en cadena, con el objetivo de llevar cualquier modelo de IA, no solo los LLM, en cadena. El plan se basa en Apus Network y utiliza el almacenamiento permanente en cadena de Arweave para construir una red GPU descentralizada y sin confianza. Esta red se dedica a proporcionar potencia informática confiable, eficiente y de bajo costo para el entrenamiento y la inferencia de IA.

Los datos de IA sobre AO se pueden cargar en el modelo de Arweave a través de ArDrive. Este movimiento es un paso importante hacia la descentralización de la IA y hacerla más accesible y eficiente. Al incorporar modelos de IA a la cadena, el ecosistema AO está allanando el camino para una nueva era de desarrollo y uso de la IA. El uso del almacenamiento permanente en cadena de Arweave garantiza aún más la durabilidad y longevidad de estos modelos de IA, lo que los convierte en un recurso confiable para futuros entrenamientos e inferencias de IA.

El plan 'AI on AO' es un testimonio del compromiso del ecosistema AO con el avance de la tecnología de IA y sus aplicaciones. Al proporcionar una red GPU descentralizada y sin confianza, el ecosistema no solo mejora la eficiencia del entrenamiento y la inferencia de la IA, sino que también promueve la transparencia y la confianza en la tecnología de la IA. Se espera que esta iniciativa tenga un impacto significativo en la industria de la IA, revolucionando potencialmente la forma en que se desarrollan y utilizan los modelos de IA.