训练人工智慧 (AI) 模型的成本正在飙升,预计未来几年将显著增加。人工智慧新创公司 Anthropic 的执行长 Dario Amodei 在最近一期的「In Good Company」播客中强调了这些不断上升的费用。

另请阅读:在日益激烈的人工智慧竞争中,三星工人举行罢工,要求提高薪资

目前先进的人工智慧模型,例如 ChatGPT-4,需要大约 1 亿美元来训练。但据 Amodei 称,未来三年这一数字可能会增至 100 亿至 1,000 亿美元。 

通用人工智能发展推高成本

这一急剧增长是由于从生成式人工智能(如 ChatGPT)转向通用人工智能 (AGI)。通用人工智能的发展旨在开发能够以类似于人类思维的方式理解、获取和利用知识的系统。

“我认为如果我们达到 100 亿美元或 1000 亿美元,我认为这将在 2025 年、2026 年或 2027 年实现……那么我认为到那时我们很有可能能够获得在大多数事情上比大多数人类都更好的模型。”

阿莫代伊

据 Tom’s Hardware 称,目前这些进步的现有框架非常庞大。例如,为了训练 ChatGPT,需要超过 30,000 个 GPU,每个 Nvidia B200 AI 芯片的成本在 30,000 至 40,000 美元之间。这项硬件投资是可能导致费用增加的因素之一。

计算资源推高人工智能训练成本

人工智能训练成本上升的原因有很多。主要原因是所需的计算资源量巨大。随着深度学习模型的进步,需要强大的 GPU 和其他专门设计的硬件。2023 年,超过 380 万个 GPU 被运往数据中心,这表明所需的基础设施规模。

另请阅读:人工智能将影响广泛的公共服务

另一个重要因素是能耗。去年售出的所有 GPU 的耗电量足以为 130 万户家庭供电。如此高的能耗不仅导致企业开支高昂,还引发了对环境和保护的影响问题。根据谷歌最近的一份报告,该公司的排放量在四年内增长了近 50%,主要是因为人工智能学习需要能源。

科技巨头大力投资人工智能基础设施

此外,领先的科技公司正在为人工智能的发展投入大量资金。例如,埃隆·马斯克希望购买 30 万块 Nvidia 最先进的 AI 芯片。同样,据说微软和 OpenAI 正在合作建设一个价值 1000 亿美元的数据中心,以推动人工智能的发展。

另请阅读:温网利用人工智能打击网络暴力

尽管成本不断上升,但仍有人试图优化人工智能训练的成本。谷歌的 DeepMind 最近提出了一项名为联合示例选择 (JEST) 的技术,声称可以将迭代次数减少 13 倍,将所需的计算资源减少 10 倍。这有助于减少所需的资源和时间。

然而,即使取得了这些进步,由于 AGI 的进步,总体方向还是朝着更高的成本发展。从生成式人工智能到 AGI,模型都需要解释大型数据集、从中学习、预测不同的情况并解决需要批判性思维的问题。

Brenda Kanana 撰写的 Cryptopolitan 报道