芯片制造商安培计算宣布与高通合作开发新一代人工智能服务器,采用安培的CPU和高通的AI Cloud AI 100 Ultra推理芯片,有望实现高性能和节能。
在明年的发展路线图中,专门为数据中心服务器制造ARM芯片的AmpereComputing公司出人意料地宣布与以移动芯片闻名的高通公司建立合作伙伴关系。
此次合并旨在利用双方的优势,打造全新的人工智慧推理伺服器系列,采用Ampere的CPU和高通的Cloud AI 100 Ultra晶片。该解决方案旨在以高效、节能的方式运行大规模人工智慧模型,特别是大型语言模型(LLM)和生成式人工智慧应用。
Arm 技术长 Jeff Wittich 表示:「我们与高通合作创建了伺服器级解决方案,有效地将 Ampere CPU 与其高效能卡结合。这不仅仅是一个共同的发展,而且是我们处理人工智慧方式的一场革命。
测试结果表明,Meta 的 Llama 3 语言模型在 Oracle Cloud 的 Ampere CPU 上运行,实现了与 Nvidia A100 GPU 相同的效能,但功耗更低。 Ampere 和高通相信,对于寻求强大且节能的人工智慧解决方案的企业来说,新伺服器将是一个有吸引力的选择。
此外,Ampere还推出了全新AmpereOne晶片,拥有256个核心,采用先进的3nm制程制造,支援12通道DDR5 RAM,让资料中心客户根据需要灵活调整记忆体存取。
不仅如此,Ampere还与NETINT合作建构了将其CPU与NETINT视讯处理晶片结合的解决方案。新伺服器能够并行编码 360 个即时视讯通道,并使用 OpenAI 的 Whisper 文字转语音模型为 40 个视讯串流产生字幕。
这些合作表明 Ampere 致力于将市场扩展到传统资料中心领域之外,朝向媒体、娱乐、零售和制造领域的人工智慧应用迈进。