Według BlockBeats ekosystem AO ogłosił 21 czerwca swój plan „Sztuczna inteligencja na AO”. Inicjatywa ma na celu uruchomienie w łańcuchu modeli dużych języków (LLM) o otwartym kodzie źródłowym, mając na celu udostępnienie dowolnego modelu sztucznej inteligencji, a nie tylko LLM, na łańcuchu. Plan opiera się na sieci Apus i wykorzystuje stałą pamięć masową Arweave w łańcuchu do zbudowania zdecentralizowanej, pozbawionej zaufania sieci GPU. Sieć ta ma zapewniać niezawodną, ​​wydajną i tanią moc obliczeniową na potrzeby szkolenia i wnioskowania w zakresie sztucznej inteligencji.

Dane AI na AO można przesłać do modelu Arweave za pośrednictwem ArDrive. Posunięcie to stanowi znaczący krok w kierunku decentralizacji sztucznej inteligencji oraz uczynienia jej bardziej dostępną i wydajną. Wprowadzając modele sztucznej inteligencji do łańcucha, ekosystem AO toruje drogę nowej erze rozwoju i wykorzystania sztucznej inteligencji. Korzystanie ze stałego magazynu Arweave w łańcuchu dodatkowo zapewnia trwałość i długowieczność tych modeli sztucznej inteligencji, czyniąc je niezawodnym źródłem przyszłego szkolenia i wnioskowania dotyczącego sztucznej inteligencji.

Plan „AI na AO” jest świadectwem zaangażowania ekosystemu AO w rozwój technologii sztucznej inteligencji i jej zastosowań. Zapewniając zdecentralizowaną, pozbawioną zaufania sieć GPU, ekosystem nie tylko zwiększa efektywność uczenia i wnioskowania AI, ale także promuje przejrzystość i zaufanie do technologii AI. Oczekuje się, że inicjatywa ta będzie miała znaczący wpływ na branżę sztucznej inteligencji, potencjalnie rewolucjonizując sposób opracowywania i wykorzystywania modeli sztucznej inteligencji.