Știri ChainCatcher, conform știrilor oficiale, ecosistemul AO a lansat planul „AI on AO” și a lansat modele de limbă mari (LLM-uri) cu sursă deschisă în lanț, cu scopul de a aduce în lanț orice model AI (nu doar LLM-uri). Bazat pe Rețeaua Apus, stocarea permanentă în lanț a Arweave este utilizată pentru a construi o rețea GPU descentralizată, fără încredere, dedicată furnizării de capabilități de calcul fiabile, eficiente și cu costuri reduse pentru instruirea și inferența AI. Datele AI despre AO pot fi încărcate pe modelele Arweave prin ArDrive.