Theo BlockBeats, Hệ sinh thái AO đã công bố kế hoạch 'AI trên AO' vào ngày 21 tháng 6. Sáng kiến ​​này nhằm mục đích khởi động các Mô hình ngôn ngữ lớn (LLM) mã nguồn mở trên chuỗi, với mục tiêu đưa bất kỳ mô hình AI nào, không chỉ LLM, trên chuỗi. Kế hoạch này dựa trên Mạng Apus và sử dụng bộ lưu trữ trên chuỗi vĩnh viễn của Arweave để xây dựng mạng GPU phi tập trung, không cần tin cậy. Mạng này được dành riêng để cung cấp sức mạnh tính toán đáng tin cậy, hiệu quả và chi phí thấp cho việc đào tạo và suy luận AI.

Dữ liệu AI trên AO có thể được tải lên mô hình của Arweave thông qua ArDrive. Động thái này là một bước quan trọng hướng tới việc phân cấp AI và làm cho nó dễ tiếp cận và hiệu quả hơn. Bằng cách đưa các mô hình AI vào chuỗi, Hệ sinh thái AO đang mở đường cho một kỷ nguyên mới về phát triển và sử dụng AI. Việc sử dụng bộ lưu trữ vĩnh viễn trên chuỗi của Arweave đảm bảo hơn nữa độ bền và tuổi thọ của các mô hình AI này, khiến chúng trở thành nguồn tài nguyên đáng tin cậy cho việc đào tạo và suy luận AI trong tương lai.

Kế hoạch 'AI trên AO' là minh chứng cho cam kết của Hệ sinh thái AO trong việc thúc đẩy công nghệ AI và các ứng dụng của nó. Bằng cách cung cấp mạng GPU phi tập trung, không cần tin cậy, hệ sinh thái không chỉ nâng cao hiệu quả đào tạo và suy luận AI mà còn thúc đẩy tính minh bạch và tin cậy vào công nghệ AI. Sáng kiến ​​này dự kiến ​​sẽ có tác động đáng kể đến ngành công nghiệp AI, có khả năng cách mạng hóa cách thức phát triển và sử dụng các mô hình AI.