За даними BlockBeats, екосистема AO оголосила про свій план «ШІ на АО» 21 червня. Ініціатива спрямована на запуск у ланцюжку великих мовних моделей (LLM) з відкритим кодом з метою запровадження будь-якої моделі ШІ, а не лише LLM, по ланцюгу. План базується на мережі Apus і використовує постійне мережеве сховище Arweave для побудови децентралізованої мережі графічного процесора, яка не довіряє. Ця мережа призначена для забезпечення надійної, ефективної та недорогої обчислювальної потужності для навчання ШІ та висновків.

Дані ШІ про AO можна завантажити в модель Arweave через ArDrive. Цей крок є значним кроком у напрямку децентралізації ШІ та підвищення його доступності та ефективності. Впроваджуючи моделі штучного інтелекту в мережу, екосистема AO прокладає шлях до нової ери розвитку та використання штучного інтелекту. Використання постійного мережевого сховища Arweave додатково забезпечує міцність і довговічність цих моделей штучного інтелекту, що робить їх надійним ресурсом для майбутнього навчання ШІ та висновків.

План «AI on AO» є свідченням відданості екосистеми AO вдосконаленню технології штучного інтелекту та її застосувань. Забезпечуючи децентралізовану безнадійну мережу графічного процесора, екосистема не тільки підвищує ефективність навчання ШІ та висновків, але й сприяє прозорості та довірі до технології ШІ. Очікується, що ця ініціатива матиме значний вплив на індустрію штучного інтелекту, потенційно змінивши спосіб розробки та використання моделей штучного інтелекту.