Secondo BlockBeats, l'ecosistema AO ha annunciato il 21 giugno il suo piano "AI on AO". L'iniziativa mira a lanciare Large Language Models (LLM) on-chain e open source, con l'obiettivo di portare qualsiasi modello di intelligenza artificiale, non solo LLM, sulla catena. Il piano si basa sulla rete Apus e utilizza lo storage on-chain permanente di Arweave per costruire una rete GPU decentralizzata e trustless. Questa rete è dedicata a fornire potenza di calcolo affidabile, efficiente e a basso costo per l'addestramento e l'inferenza dell'intelligenza artificiale.

I dati AI su AO possono essere caricati sul modello di Arweave tramite ArDrive. Questa mossa rappresenta un passo significativo verso la decentralizzazione dell’IA e renderla più accessibile ed efficiente. Portando i modelli di intelligenza artificiale on-chain, l’ecosistema AO sta aprendo la strada a una nuova era di sviluppo e utilizzo dell’intelligenza artificiale. L'uso dello storage on-chain permanente di Arweave garantisce ulteriormente la durabilità e la longevità di questi modelli di IA, rendendoli una risorsa affidabile per la futura formazione e inferenza dell'IA.

Il piano “AI on AO” testimonia l’impegno dell’ecosistema AO nel far progredire la tecnologia AI e le sue applicazioni. Fornendo una rete GPU decentralizzata e affidabile, l’ecosistema non solo migliora l’efficienza dell’addestramento e dell’inferenza dell’IA, ma promuove anche la trasparenza e la fiducia nella tecnologia AI. Si prevede che questa iniziativa avrà un impatto significativo sul settore dell’intelligenza artificiale, rivoluzionando potenzialmente il modo in cui i modelli di intelligenza artificiale vengono sviluppati e utilizzati.