据 BlockBeats 报道,AO 生态于 6 月 21 日宣布了“AI on AO”计划,旨在推出链上开源大型语言模型(LLM),目标是将任何 AI 模型(而不仅仅是 LLM)都上链。该计划基于 Apus Network,利用 Arweave 的永久链上存储构建一个去中心化、无需信任的 GPU 网络,致力于为 AI 训练和推理提供可靠、高效、低成本的算力。

AO 上的 AI 数据可以通过 ArDrive 上传到 Arweave 的模型中。这一举措是朝着 AI 去中心化、使其更易于访问和高效迈出的重要一步。通过将 AI 模型引入链上,AO 生态系统正在为 AI 开发和使用的新时代铺平道路。使用 Arweave 的永久链上存储进一步确保了这些 AI 模型的耐用性和寿命,使它们成为未来 AI 训练和推理的可靠资源。

“AI on AO”计划体现了 AO 生态系统致力于推动 AI 技术及其应用的承诺。通过提供去中心化、无需信任的 GPU 网络,该生态系统不仅提高了 AI 训练和推理的效率,还提高了 AI 技术的透明度和信任度。这一举措预计将对 AI 行业产生重大影响,有可能彻底改变 AI 模型的开发和使用方式。