据 BlockBeats 报道,6月21日,AO生态系统发布了「AI on AO」计划,旨在将任何AI模型(不仅仅是LLMs)带到链上。该计划将推出链上开源大语言模型(LLMs)。基于Apus Network,利用Arweave的永久链上存储,AO生态系统构建了一个去中心化、无信任的GPU网络,致力于为AI训练和推理提供可靠、高效和低成本的计算能力。AO上的AI数据可通过ArDrive上传到Arweave的模型。
据 BlockBeats 报道,6月21日,AO生态系统发布了「AI on AO」计划,旨在将任何AI模型(不仅仅是LLMs)带到链上。该计划将推出链上开源大语言模型(LLMs)。基于Apus Network,利用Arweave的永久链上存储,AO生态系统构建了一个去中心化、无信任的GPU网络,致力于为AI训练和推理提供可靠、高效和低成本的计算能力。AO上的AI数据可通过ArDrive上传到Arweave的模型。