亚马逊一直在开发自己的 AI 芯片以降低成本,这也有助于提高亚马逊网络服务 (AWS) 的盈利能力。然而,这家电子商务巨头正在努力开发能够与 Nvidia 标准芯片相媲美的 AI 芯片。

项目迁移问题、兼容性差距和低使用率是阻碍亚马逊 AI 芯片普及的一些问题。这种情况还使亚马逊从其云业务中获得的巨额收入面临风险。据《商业内幕》报道,亚马逊面临的挑战是通过机密文件和熟悉此事的消息人士确定的。

亚马逊内部人工智慧晶片的采用受到抑制

Trainium 和 Inferentia 是亚马逊设计的顶级晶片,于去年年底推出。该出版物报导称,去年,与 Nvidia 图形处理单元相比,Trainium 在 AWS 客户中的采用率仅为 0.5%。

另请阅读:AWS 的生成式 AI 创造奇迹,亚马逊利润超出华尔街预期

报告称,亚马逊于 2024 年 4 月透过其 AWS 服务进行了评估,以衡量不同人工智慧晶片的使用百分比。同时,Inferentia 的采用率略高,为 2.7%。 Inferentia是一款专为推理而设计的特殊晶片,推理是一种人工智慧任务,通常指最终消费者使用人工智慧模型的计算过程。该报告提到了一份内部文件称;

“客户的早期尝试暴露了摩擦点并阻碍了采用。”

上述说法指的是大型云端客户在过渡到亚马逊客制化晶片时所面临的挑战。 Nvidia 的 CUDA 平台被认为对客户更具吸引力,报告认为这是一个关键原因。

亚马逊的客制化人工智慧晶片开发正在接受内部审查

全球最大的云端服务供应商AWS目前正在开发自研电脑晶片以方便运作。亚马逊有时会炫耀其人工智慧晶片的努力。然而,文件中显示的图片与该公司的计划有所不同。

新加坡通讯和资讯部长 Tan Kiat How 与 AWS 高层和合作伙伴。资料来源:AWS。

内部文件称,该公司正因采用率缓慢而苦苦挣扎,但亚马逊执行长却有不同的看法。亚马逊执行长安迪贾西 (Andy Jassy) 在第一季财报电话会议上表示,对 AWS 晶片的需求很高。

“我们拥有最广泛的 NVIDIA 计算实例选择,但鉴于其相对于可用替代方案具有有利的性价比优势,对我们的定制晶片、训练和推理的需求相当高。”

安迪·贾西

Jassy 在投资者信中还提到了 AWS 晶片的早期采用者,他表示“我们已经有几个客户在使用我们的 AI 晶片,包括 Anthropic、Airbnb、Hugging Face、Qualtrics、Ricoh 和 Snap。”同时,Anthropic 的情况则完全不同,因为亚马逊是这家新创公司最大的支持者。这家云端巨头已向 Anthropic 投资 40 亿美元,投资协议规定必须使用 AWS 设计的晶片。

AWS 的一个主要元件利用 Nvidia GPU

Amazon Web Services 提供各种处理器,从 Nvidia 的 Grass Hopper 晶片到 AMD 和 Intel。它的大部分盈利能力来自于设计自己的资料中心晶片,这有助于它透过避免从 Nvidia 购买 GPU 来节省成本。

另请阅读:在人工智慧和 GPU 需求不断增长的情况下,Nvidia 经历了显著的成长

亚马逊于 2018 年推出了首款人工智慧晶片 Inferntia,但英伟达在提供更广泛地被不同行业采用的解决方案方面仍然处于领先地位。 AWS、微软和谷歌是 Nvidia 的一些最大客户。所有这些巨头都透过他们的云端服务租用 GPU。 

今年 3 月,AWS 执行长 Adam Selipsku 出席了 Nvidia GTC 2023。 

“我们两个组织之间的深度合作可以追溯到 13 年前,当时我们共同在 AWS 上推出了世界上第一个 GPU 云端实例,如今我们为客户提供最广泛的 NVIDIA GPU 解决方案。”

塞利普斯卡

Nvidia 的平台称为 Cuda,通常受到开发人员的青睐。由于英伟达花费了多年的时间和精力来创建它,并且业界已经采用它,这使得他们处理事情变得更容易。另一方面,亚马逊仍然需要透过反复试验来解决这个难题。

阿米尔谢赫 (Aamir Sheikh) 的《加密城》报道