據 BlockBeats 報道,AO 生態於 6 月 21 日宣佈了“AI on AO”計劃,旨在推出鏈上開源大型語言模型(LLM),目標是將任何 AI 模型(而不僅僅是 LLM)都上鍊。該計劃基於 Apus Network,利用 Arweave 的永久鏈上存儲構建一個去中心化、無需信任的 GPU 網絡,致力於爲 AI 訓練和推理提供可靠、高效、低成本的算力。

AO 上的 AI 數據可以通過 ArDrive 上傳到 Arweave 的模型中。這一舉措是朝着 AI 去中心化、使其更易於訪問和高效邁出的重要一步。通過將 AI 模型引入鏈上,AO 生態系統正在爲 AI 開發和使用的新時代鋪平道路。使用 Arweave 的永久鏈上存儲進一步確保了這些 AI 模型的耐用性和壽命,使它們成爲未來 AI 訓練和推理的可靠資源。

“AI on AO”計劃體現了 AO 生態系統致力於推動 AI 技術及其應用的承諾。通過提供去中心化、無需信任的 GPU 網絡,該生態系統不僅提高了 AI 訓練和推理的效率,還提高了 AI 技術的透明度和信任度。這一舉措預計將對 AI 行業產生重大影響,有可能徹底改變 AI 模型的開發和使用方式。