芯片製造商安培計算宣佈與高通合作開發新一代人工智能服務器,採用安培的CPU和高通的AI Cloud AI 100 Ultra推理芯片,有望實現高性能和節能。
在明年的發展路線圖中,專門爲數據中心服務器製造ARM芯片的AmpereComputing公司出人意料地宣佈與以移動芯片聞名的高通公司建立合作伙伴關係。
此次合併旨在利用雙方的優勢,打造全新的人工智慧推理伺服器系列,採用Ampere的CPU和高通的Cloud AI 100 Ultra晶片。該解決方案旨在以高效、節能的方式運行大規模人工智慧模型,特別是大型語言模型(LLM)和生成式人工智慧應用。
Arm 技術長 Jeff Wittich 表示:「我們與高通合作創建了伺服器級解決方案,有效地將 Ampere CPU 與其高效能卡結合。這不僅僅是一個共同的發展,而且是我們處理人工智慧方式的一場革命。
測試結果表明,Meta 的 Llama 3 語言模型在 Oracle Cloud 的 Ampere CPU 上運行,實現了與 Nvidia A100 GPU 相同的效能,但功耗更低。 Ampere 和高通相信,對於尋求強大且節能的人工智慧解決方案的企業來說,新伺服器將是一個有吸引力的選擇。
此外,Ampere還推出了全新AmpereOne晶片,擁有256個核心,採用先進的3nm製程製造,支援12通道DDR5 RAM,讓資料中心客戶根據需要靈活調整記憶體存取。
不僅如此,Ampere還與NETINT合作建構了將其CPU與NETINT視訊處理晶片結合的解決方案。新伺服器能夠並行編碼 360 個即時視訊通道,並使用 OpenAI 的 Whisper 文字轉語音模型為 40 個視訊串流產生字幕。
這些合作表明 Ampere 致力於將市場擴展到傳統資料中心領域之外,朝向媒體、娛樂、零售和製造領域的人工智慧應用邁進。