Amazon și-a dezvoltat propriile cipuri AI pentru a reduce costurile, ceea ce a contribuit, de asemenea, la creșterea profitabilității Amazon Web Services (AWS). Cu toate acestea, gigantul comerțului electronic se luptă să dezvolte cipuri AI care pot rivaliza cu cipurile standard ale Nvidia.

Problemele de migrare a proiectelor, decalajele de compatibilitate și utilizarea scăzută sunt unele dintre preocupările care încetinesc adoptarea cipului AI al Amazon. Situația a pus în joc și veniturile mari pe care Amazon le generează din afacerea sa în cloud. Provocările cu care se confruntă Amazon au fost identificate prin documente confidențiale și surse familiare cu problema, după cum a raportat Business Insider.

Cipurile AI interne ale Amazon se confruntă cu o adopție înăbușită

Trainium și Inferentia sunt cipurile de vârf concepute de Amazon, care au debutat aproape de sfârșitul anului trecut. Publicația a raportat că anul trecut, rata de adoptare a Trainium în rândul clienților AWS a fost de doar 0,5% în comparație cu cea a unităților de procesare grafică ale Nvidia.

Citește și: Amazon Profit depășește așteptările de pe Wall Street, deoarece IA generativă a AWS face minuni

Potrivit raportului, Amazon a făcut evaluarea pentru a măsura procentul de utilizare a diferitelor cipuri AI prin serviciile sale AWS în aprilie 2024. În același timp, rata de adopție pentru Inferentia a fost ușor mai mare, cu 2,7%. Inferentia este un cip special conceput pentru inferență, o sarcină AI care se referă de obicei la procesul de calcul pentru utilizarea modelului AI de către consumatorii finali. Raportul menționa un document intern care spunea că;

„Primele încercări din partea clienților au scos la iveală puncte de frecare și au înăbușit adoptarea.”

Declarația de mai sus se referă la provocările cu care s-au confruntat marii clienți din cloud atunci când au trecut la cipurile personalizate Amazon. Platforma CUDA a Nvidia este considerată mai atrăgătoare pentru clienți, iar raportul o identifică ca fiind un motiv cheie.

Dezvoltare personalizată de cip AI de la Amazon în curs de revizuire internă

AWS, cel mai mare furnizor de servicii cloud din lume, își dezvoltă acum cipurile de computer produse acasă pentru a facilita operațiunile. Amazon, uneori, își etalează eforturile de cip AI. Cu toate acestea, imaginea prezentată în documente este diferită de ceea ce proiectează compania.

Ministrul Comunicațiilor și Informației din Singapore, Tan Kiat How, cu directori și parteneri AWS. Sursa: AWS.

Documentele interne arată că compania se luptă cu o rată lentă de adoptare, dar CEO-ul Amazon are opinii diferite. La apelul privind veniturile din primul trimestru, CEO-ul Amazon Andy Jassy a declarat că cererea pentru cipuri AWS este mare.

„Avem cea mai largă selecție de instanțe de calcul NVIDIA din jur, dar cererea pentru siliciul nostru personalizat, instruire și inferență este destul de mare, având în vedere avantajele avantajoase preț-performanță față de alternativele disponibile.”

Andy Jassy

Jassy a menționat, de asemenea, primii care adoptă cipurile de siliciu AWS în scrisoarea sa pentru investitori, spunând că „avem deja câțiva clienți care folosesc cipurile noastre AI, inclusiv Anthropic, Airbnb, Hugging Face, Qualtrics, Ricoh și Snap”. În același timp, Anthropic este un caz complet diferit, deoarece Amazon este cel mai puternic susținător al startup-ului. Gigantul cloud a investit 4 miliarde de dolari în Anthropic, iar acordul de investiții îl obligă să folosească siliciu proiectat de AWS.

O componentă majoră AWS folosește GPU-urile Nvidia

Amazon Web Services oferă o varietate de procesoare, de la cipurile Grass Hopper de la Nvidia la AMD și Intel. Cea mai mare parte a profitabilității sale provine din proiectarea propriilor cipuri pentru centrele de date, ceea ce îl ajută să economisească costurile evitând cumpărarea de GPU-uri de la Nvidia.

Citește și: Nvidia înregistrează o creștere remarcabilă pe fondul creșterii cererii de AI și GPU

Amazon a debutat primul său cip AI, Inferntia, în 2018, dar Nvidia este încă lider în oferirea de soluții care sunt mai larg adoptate de diferite industrii. AWS, Microsoft și Google sunt unii dintre cei mai mari clienți ai Nvidia. Toți acești giganți închiriază GPU-uri prin serviciile lor cloud. 

În martie, Adam Selipsku, CEO al AWS, a participat la Nvidia GTC 2023. Ambele companii au făcut un anunț comun concentrat pe colaborarea lor strategică pentru a promova AI generativă. 

„Colaborarea profundă dintre cele două organizații datează de mai bine de 13 ani, când împreună am lansat prima instanță cloud GPU din lume pe AWS, iar astăzi oferim clienților cea mai largă gamă de soluții GPU NVIDIA.”

Selipska

Platforma Nvidia, numită Cuda, este de obicei preferată de dezvoltatori. Deoarece Nvidia a petrecut mulți ani de timp și efort în crearea acestuia, iar industria l-a adoptat, ceea ce le face mai ușor să gestioneze lucrurile. Pe de altă parte, Amazon încă trebuie să rezolve acest puzzle prin încercare și eroare.

Reportaj criptopolitan de Aamir Sheikh