ChainCatcher 消息,据官方消息,AO 生态系统发布“AI on AO”计划,推出链上开源大语言模型(LLMs),旨在将任何 AI 模型(不仅仅是 LLMs)带到链上。基于 Apus Network,利用 Arweave 的永久链上存储,构建一个去中心化、无信任的 GPU 网络,致力于为 AI 训练和推理提供可靠、高效和低成本的计算能力。AO 上的 AI 数据可通过 ArDrive 上传到 Arweave 的模型。
ChainCatcher 消息,据官方消息,AO 生态系统发布“AI on AO”计划,推出链上开源大语言模型(LLMs),旨在将任何 AI 模型(不仅仅是 LLMs)带到链上。基于 Apus Network,利用 Arweave 的永久链上存储,构建一个去中心化、无信任的 GPU 网络,致力于为 AI 训练和推理提供可靠、高效和低成本的计算能力。AO 上的 AI 数据可通过 ArDrive 上传到 Arweave 的模型。