Potrivit BlockBeats, Ecosistemul AO și-a anunțat planul „AI on AO” pe 21 iunie. Inițiativa își propune să lanseze modele de limbă mari (LLM) cu sursă deschisă în lanț, cu scopul de a aduce orice model AI, nu doar LLM-uri, în lanț. Planul se bazează pe rețeaua Apus și utilizează stocarea permanentă în lanț a Arweave pentru a construi o rețea GPU descentralizată, fără încredere. Această rețea este dedicată furnizării unei puteri de calcul fiabile, eficiente și cu costuri reduse pentru instruirea și inferența AI.

Datele AI despre AO pot fi încărcate pe modelul Arweave prin ArDrive. Această mișcare este un pas semnificativ către descentralizarea AI și pentru ao face mai accesibilă și mai eficientă. Prin introducerea modelelor AI în lanț, ecosistemul AO deschide calea către o nouă eră a dezvoltării și utilizării AI. Utilizarea stocării permanente pe lanț a Arweave asigură în continuare durabilitatea și longevitatea acestor modele AI, făcându-le o resursă de încredere pentru formarea și inferența viitoare AI.

Planul „AI pe AO” este o dovadă a angajamentului Ecosistemului AO de a avansa tehnologia AI și aplicațiile acesteia. Prin furnizarea unei rețele GPU descentralizate, fără încredere, ecosistemul nu numai că îmbunătățește eficiența instruirii și a inferenței AI, ci și promovează transparența și încrederea în tehnologia AI. Se așteaptă că această inițiativă va avea un impact semnificativ asupra industriei AI, revoluționând potențial modul în care sunt dezvoltate și utilizate modelele AI.