Amazon đang phát triển chip AI của riêng mình để cắt giảm chi phí, điều này cũng giúp tăng lợi nhuận của Amazon Web Services (AWS). Tuy nhiên, gã khổng lồ thương mại điện tử đang nỗ lực phát triển chip AI có thể cạnh tranh với chip tiêu chuẩn của Nvidia.

Các vấn đề về di chuyển dự án, lỗ hổng tương thích và mức sử dụng thấp là một số mối lo ngại làm chậm việc áp dụng chip AI của Amazon. Tình hình này cũng khiến doanh thu lớn mà Amazon tạo ra từ hoạt động kinh doanh trên nền tảng đám mây của mình bị đe dọa. Theo báo cáo của Business Insider, những thách thức mà Amazon phải đối mặt đã được xác định thông qua các tài liệu bí mật và các nguồn quen thuộc với vấn đề này.

Chip AI nội bộ của Amazon gặp phải sự chấp nhận hạn chế

Trainium và Inferentia là những con chip hàng đầu do Amazon thiết kế, ra mắt vào gần cuối năm ngoái. Ấn phẩm này đưa tin rằng năm ngoái, tỷ lệ chấp nhận Trainium trong số các khách hàng của AWS chỉ là 0,5% so với các đơn vị xử lý đồ họa của Nvidia.

Cũng đọc: Lợi nhuận của Amazon vượt quá mong đợi của Phố Wall khi AI sáng tạo của AWS hoạt động kỳ diệu

Theo báo cáo, Amazon đã thực hiện đánh giá để đo lường tỷ lệ sử dụng các chip AI khác nhau thông qua các dịch vụ AWS của mình vào tháng 4 năm 2024. Đồng thời, tỷ lệ chấp nhận Inferentia cao hơn một chút, với 2,7%. Inferentia là một con chip đặc biệt được thiết kế để suy luận, một nhiệm vụ AI thường đề cập đến quá trình tính toán để người tiêu dùng cuối sử dụng mô hình AI. Báo cáo đề cập đến một tài liệu nội bộ nói rằng;

“Những nỗ lực ban đầu của khách hàng đã bộc lộ những điểm bất đồng và việc áp dụng bị cản trở.”

Tuyên bố trên đề cập đến những thách thức mà khách hàng đám mây lớn phải đối mặt khi chuyển sang sử dụng chip tùy chỉnh của Amazon. Nền tảng CUDA của Nvidia được coi là hấp dẫn hơn đối với khách hàng và báo cáo xác định đây là lý do chính.

Quá trình phát triển chip AI tùy chỉnh của Amazon đang được đánh giá nội bộ

AWS, nhà cung cấp dịch vụ đám mây lớn nhất thế giới, hiện đang phát triển chip máy tính tự sản xuất tại nhà để hỗ trợ hoạt động. Đôi khi, Amazon phô trương những nỗ lực về chip AI của mình. Tuy nhiên, hình ảnh thể hiện trong tài liệu khác với những gì công ty dự án.

Bộ trưởng Thông tin và Truyền thông Singapore, Tan Kiat How, cùng các giám đốc điều hành và đối tác của AWS. Nguồn: AWS.

Các tài liệu nội bộ cho biết công ty đang gặp khó khăn với tỷ lệ chấp nhận chậm, nhưng CEO của Amazon lại có quan điểm khác. Tại cuộc họp báo cáo thu nhập quý đầu tiên, Giám đốc điều hành Amazon Andy Jassy cho biết nhu cầu về chip AWS rất cao.

“Chúng tôi có nhiều lựa chọn phiên bản điện toán NVIDIA nhất, nhưng nhu cầu về silicon, đào tạo và suy luận tùy chỉnh của chúng tôi khá cao, do những lợi ích thuận lợi về giá-hiệu suất so với các lựa chọn thay thế có sẵn.”

Andy Jassy

Jassy cũng đề cập đến những người sớm áp dụng chip silicon AWS trong thư gửi nhà đầu tư của mình, nói rằng “chúng tôi đã có một số khách hàng sử dụng chip AI của mình, bao gồm Anthropic, Airbnb, Hugging Face, Qualtrics, Ricoh và Snap”. Đồng thời, Anthropic lại là một trường hợp khác vì Amazon là người ủng hộ mạnh mẽ nhất cho công ty khởi nghiệp. Gã khổng lồ đám mây đã đầu tư 4 tỷ USD vào Anthropic và thỏa thuận đầu tư ràng buộc công ty này phải sử dụng silicon do AWS thiết kế.

Thành phần AWS chính tận dụng GPU Nvidia

Amazon Web Services cung cấp nhiều bộ xử lý khác nhau, từ chip Grass Hopper của Nvidia cho đến AMD và Intel. Phần lớn lợi nhuận của hãng đến từ việc thiết kế chip trung tâm dữ liệu của riêng mình, giúp hãng tiết kiệm chi phí bằng cách tránh mua GPU từ Nvidia.

Cũng đọc: Nvidia trải qua sự tăng trưởng đáng chú ý trong bối cảnh nhu cầu về AI và GPU ngày càng tăng

Amazon đã ra mắt chip AI đầu tiên, Inferntia, vào năm 2018, nhưng Nvidia vẫn dẫn đầu trong việc cung cấp các giải pháp được các ngành khác nhau áp dụng rộng rãi hơn. AWS, Microsoft và Google là một số khách hàng lớn nhất của Nvidia. Tất cả những gã khổng lồ này đều thuê GPU thông qua dịch vụ đám mây của họ. 

Vào tháng 3, Adam Selipsku, Giám đốc điều hành của AWS, đã tham dự Nvidia GTC 2023. Cả hai công ty đều đưa ra thông báo chung tập trung vào sự hợp tác chiến lược của họ nhằm thúc đẩy AI có tính sáng tạo. 

“Sự hợp tác sâu sắc giữa hai tổ chức của chúng tôi đã có từ hơn 13 năm trước, khi chúng tôi cùng nhau ra mắt phiên bản đám mây GPU đầu tiên trên thế giới trên AWS và hôm nay chúng tôi cung cấp nhiều giải pháp GPU NVIDIA nhất cho khách hàng.”

Selipska

Nền tảng của Nvidia, được gọi là Cuda, thường được các nhà phát triển ưa thích. Vì Nvidia đã dành nhiều năm và công sức để tạo ra nó và ngành công nghiệp đã áp dụng nó, điều này giúp họ xử lý mọi việc dễ dàng hơn. Mặt khác, Amazon vẫn phải giải bài toán này bằng phương pháp thử và sai.

Báo cáo về tiền điện tử của Aamir Sheikh