Investiția ROCm open-source a AMD este valorificată pentru a revendica terenul pe care Nvidia a luptat să îl controleze cu sistemul său CUDA.

În ultimul timp, se pare că este lumea Nvidia și toată lumea - și cu siguranță oricine din tehnologia și industria explozivă AI - trăiește în ea. 

Între intrarea sa în timp util pe piață, cercetarea hardware de vârf și un ecosistem software robust, adaptat pentru GPU-urile sale, compania domină dezvoltarea AI și piața de valori. Cel mai recent raport al câștigurilor a arătat că vânzările trimestriale s-au triplat, crescând și mai mult prețul acțiunilor sale.

Cu toate acestea, producătorul de cipuri AMD, rival de lungă durată, face încă eforturi pentru a stabili un punct de sprijin în AI, spunând constructorilor din spatele tehnologiilor cheie din spațiul în curs de dezvoltare că își pot face munca și pe hardware-ul AMD.

„Voiam doar să reamintesc tuturor că, dacă utilizați PyTorch, TensorFlow sau JAX, vă puteți folosi notebook-urile sau scripturile, acestea vor rula doar pe AMD”, a declarat directorul senior AMD, Ian Ferreira, la conferința Microsoft Build 2024 mai devreme. Miercuri.

„La fel și cu motoarele de inferență. BLLM și Onyx funcționează, de asemenea, de la cutie.”

Compania și-a folosit timpul pe scenă pentru a arăta exemple despre modul în care GPU-urile AMD pot rula nativ modele AI puternice, cum ar fi Stable Diffusion și Microsoft Phi, efectuând eficient sarcini de antrenament intensive din punct de vedere computațional, fără a depinde de tehnologia sau hardware-ul Nvidia.

Gazda conferinței Microsoft a susținut mesajul anunțând disponibilitatea mașinilor virtuale bazate pe AMD pe platforma sa de cloud computing Azure, folosind GPU-urile accelerate MI300X ale companiei. 

Cipurile au fost anunțate în iunie anul trecut, au început să fie livrate în noul an și au fost implementate recent în serviciul OpenAI al Microsoft Azure și în infrastructura Hugging Face.

Tehnologia proprietară CUDA a Nvidia, care include un model complet de programare și API concepute special pentru GPU-urile Nvidia, a devenit standardul industrial pentru dezvoltarea AI. Prin urmare, mesajul principal al AMD a fost că soluțiile sale s-ar putea integra direct în aceleași fluxuri de lucru.

Compatibilitatea perfectă cu sistemele AI existente ar putea schimba jocul, deoarece dezvoltatorii pot acum să folosească hardware-ul mai puțin costisitor al AMD fără a-și revizui baza de cod.

„Desigur, înțelegem că aveți nevoie de mai mult decât cadre, aveți nevoie de o mulțime de lucruri în amonte, aveți nevoie de o grămadă de lucruri de experimentare, de instruire distribuită – toate acestea sunt activate și funcționează pe AMD”, a asigurat Ferreira.

Apoi a demonstrat modul în care AMD gestionează diferite sarcini, de la rularea modelelor mici precum ResNet 50 și Phi-3 până la reglarea fină și antrenarea GPT-2 - toate folosind același cod pe care îl rulează plăcile Nvidia.

Unul dintre avantajele cheie pe care AMD le-a prezentat este capacitatea de a gestiona eficient modelele mari de limbaj.

„Puteți încărca până la 70 de miliarde de parametri pe un GPU, cu opt dintre aceștia în această instanță”, a explicat el. „Puteți încărca opt llama 70B diferite sau luați un model mare precum Llama-3 400Bn și implementați-l într-o singură instanță.”

Contestarea dominației Nvidia nu este o sarcină ușoară, deoarece compania cu sediul în Santa Clara, California, și-a protejat cu înverșunare teritoriul. Nvidia a luat deja acțiuni legale împotriva proiectelor care încearcă să ofere straturi de compatibilitate CUDA pentru GPU-uri terțe precum AMD, argumentând că încalcă termenii și condițiile CUDA. 

Acest lucru a limitat dezvoltarea de soluții open-source și a făcut mai dificil pentru dezvoltatori să adopte alternative.

Strategia AMD de a ocoli blocarea Nvidia este de a-și valorifica cadrul ROCm open-source, care concurează direct cu CUDA. 

Compania a făcut progrese semnificative în acest sens, în parteneriat cu Hugging Face, cel mai mare depozit de modele AI open-source din lume, pentru a oferi suport pentru rularea codului pe hardware-ul AMD.

Acest parteneriat a dat deja rezultate promițătoare, AMD oferind suport nativ și instrumente suplimentare de accelerare, cum ar fi execuția modelelor ONNX pe GPU-uri alimentate cu ROCm, Optimum-Benchmark, DeepSpeed ​​pentru GPU-uri alimentate cu ROCm folosind Transformers, GPTQ, TGI și multe altele.

Ferreira a mai subliniat că această integrare este nativă, eliminând nevoia de soluții terțe sau de intermediari care ar putea face procesele mai puțin eficiente.

„Îți poți lua notebook-urile existente, scripturile existente și le poți rula pe AMD, iar asta este important, deoarece multe dintre celelalte acceleratoare necesită transcodare și tot felul de scripturi de pre-compilare”, a spus el. „Lucrurile noastre pur și simplu funcționează din cutie – și sunt foarte, foarte rapide.”

Deși mișcarea AMD este, fără îndoială, îndrăzneață, detronarea Nvidia va fi o provocare considerabilă. Nvidia nu se odihnește pe lauri, inovând continuu și făcând dificilă migrarea dezvoltatorilor către o nouă infrastructură de la standardul de facto CUDA.

Cu toate acestea, cu abordarea sa open-source, parteneriatele strategice și accent pe compatibilitatea nativă, AMD se poziționează ca o alternativă viabilă pentru dezvoltatorii care caută mai multe opțiuni pe piața hardware AI.

Disclaimer: informațiile furnizate nu reprezintă sfaturi comerciale. Bitcoinworld.co.in nu își asumă nicio responsabilitate pentru investițiile făcute pe baza informațiilor furnizate pe această pagină. Recomandăm cu tărie cercetare independentă și/sau consultare cu un profesionist calificat înainte de a lua orice decizie de investiție.

#Binance #WRITE2EARN

Postarea Cipsele AMD pot acum să facă munca AI pe care o face Nvidia Tech a apărut prima dată pe BitcoinWorld.