Autor: Ian King, Bloomberg Kompilator: Bai Shui, Golden Finance

Kiedy nowy produkt podpala świat technologii, jest to zwykle produkt konsumencki, taki jak smartfon lub konsola do gier. W tym roku obserwatorzy technologii rzucają światło na mało znaną część komputera, której większość ludzi nawet nie widzi. Procesor H100 umożliwia nową generację narzędzi sztucznej inteligencji, które mają przekształcić całe branże i sprawić, że jego twórca, Nvidia Corp., stanie się jedną z najcenniejszych firm na świecie. Pokazuje inwestorom, że szum wokół generatywnej sztucznej inteligencji przekłada się na realne przychody, przynajmniej dla Nvidii i jej najważniejszych dostawców. Popyt na H100 był tak duży, że niektórzy klienci musieli czekać na niego nawet sześć miesięcy.

1. Co to jest układ Nvidia H100?

Nazwany na cześć pionierki informatyki Grace Hopper, H100 to udoskonalona wersja procesora graficznego powszechnie instalowanego w komputerach PC, aby pomóc graczom wideo uzyskać najbardziej realistyczne wrażenia wizualne. Obejmuje technologię, która zamienia klastry chipów Nvidia w pojedyncze jednostki, które mogą przetwarzać duże ilości danych i wykonywać obliczenia z dużą szybkością. Dzięki temu idealnie nadaje się do energochłonnego szkolenia sieci neuronowych, na których opiera się generatywna sztuczna inteligencja. Firma, założona w 1993 roku, była pionierem na rynku, inwestując prawie dwie dekady temu, kiedy założyła się, że zdolność do pracy równoległej pewnego dnia sprawi, że jej chipy będą cenne w zastosowaniach wykraczających poza gry.

Nvidia H100 Fotograf: Marlena Sloss/Bloomberg

2. Co sprawia, że ​​H100 jest tak wyjątkowy?

Platformy generatywnej sztucznej inteligencji uczą się wykonywać zadania, takie jak tłumaczenie tekstu, podsumowywanie raportów i synteza obrazów, przyswajając ogromne ilości istniejącego materiału. Im więcej widzą, tym lepiej radzą sobie z rozpoznawaniem ludzkiej mowy lub pisaniem listu motywacyjnego. Rozwijają się metodą prób i błędów, podejmując miliardy prób osiągnięcia biegłości i zużywając przy tym ogromne ilości mocy obliczeniowej. Nvidia twierdzi, że H100 jest cztery razy szybszy niż poprzednik chipa, A100, w szkoleniu tak zwanych modeli dużych języków (LLM) i 30 razy szybszy w reagowaniu na podpowiedzi użytkownika. Od czasu premiery H100 w 2023 roku Nvidia ogłosiła rzekomo szybsze wersje - H200 oraz Blackwell B100 i B200. Rosnąca przewaga w zakresie wydajności ma kluczowe znaczenie dla firm chcących szkolić menedżerów LLM w zakresie wykonywania nowych zadań. Wiele chipów Nvidii jest postrzeganych jako kluczowe dla rozwoju sztucznej inteligencji, dlatego rząd USA ograniczył sprzedaż do Chin H200 i kilku słabszych modeli.

3. Jak Nvidia stała się liderem w dziedzinie sztucznej inteligencji?

Firma z siedzibą w Santa Clara w Kalifornii jest światowym liderem w dziedzinie układów graficznych, czyli części komputera generującej obrazy na ekranie. Najpotężniejsze z tych układów składają się z tysięcy rdzeni przetwarzających, które mogą jednocześnie wykonywać wiele wątków obliczeniowych w celu modelowania złożonych renderingów 3D, takich jak cienie i odbicia. Inżynierowie Nvidii zdali sobie sprawę na początku XXI wieku, że mogą wykorzystać te akceleratory graficzne do innych zastosowań, dzieląc zadania na mniejsze części i przetwarzając je jednocześnie. Badacze sztucznej inteligencji odkryli, że dzięki zastosowaniu tego typu chipów ich praca może wreszcie stać się praktyczna.

4. Czy Nvidia ma realną konkurencję?

Według firmy badawczej IDC, Nvidia kontroluje obecnie około 92% rynku procesorów graficznych dla centrów danych. Dominujący dostawcy usług przetwarzania w chmurze, tacy jak AWS należący do Amazon.com Inc., Google Cloud należący do Alphabet Inc. i Azure należący do Microsoft Corp., próbują opracować własne chipy, podobnie jak rywale z Nvidii, Advanced Micro Devices Inc. i Intel Corp. Jak dotąd wysiłki te nie przyniosły większych postępów na rynku akceleratorów AI, a rosnąca dominacja Nvidii stała się niepokojem dla branżowych organów regulacyjnych.

5. W jaki sposób Nvidia wyprzedza konkurencję?

Nvidia aktualizuje swoje produkty, w tym oprogramowanie obsługujące sprzęt, szybciej niż jakakolwiek inna firma. Firma projektuje również różnorodne systemy klastrowe, aby pomóc swoim klientom w hurtowym zakupie H100 i ich szybkim wdrażaniu. Chipy takie jak procesory Intel Xeon są w stanie przetwarzać bardziej złożone dane, ale mają mniej rdzeni i znacznie wolniej przetwarzają ogromne ilości informacji zwykle używanych do uczenia oprogramowania AI.

6. Jak AMD i Intel wypadają w porównaniu z Nvidią w chipach AI?

AMD, drugi co do wielkości producent komputerowych układów graficznych, wypuścił na rynek w zeszłym roku wersję swojej serii Instinct, próbując wejść na rynek zdominowany przez produkty Nvidii. Na początku czerwca podczas Międzynarodowych Targów Komputerowych w Tajpej na Tajwanie dyrektor generalna AMD Lisa Su ogłosiła, że ​​ulepszona wersja procesora MI300 AI będzie dostępna w czwartym kwartale oraz że w latach 2025 i 2026 wprowadzone zostaną kolejne produkty. To pokazuje, że że firma jest zaangażowana w ten obszar działalności. Intel projektuje obecnie chipy przeznaczone do obciążeń AI, ale przyznaje, że popyt na chipy graficzne do centrów danych rośnie szybciej niż na procesory serwerowe, które tradycyjnie były jego mocną stroną. Siła Nvidii nie leży tylko w wydajności jej sprzętu. Firma wynalazła język o nazwie CUDA dla swoich układów graficznych, który pozwala na zaprogramowanie ich do wykonywania zadań, które obsługują programy AI.

7. Jaki będzie kolejny produkt, który Nvidia planuje wypuścić?

Najbardziej oczekiwanym produktem jest Blackwell, a Nvidia twierdzi, że spodziewa się w tym roku „znacznych” przychodów z nowej linii produktów. Jednak firma napotkała przeszkody w procesie rozwoju, które spowolnią wypuszczanie niektórych produktów.

Tymczasem popyt na sprzęt z serii H stale rośnie. Dyrektor naczelny Jensen Huang był ambasadorem tej technologii i próbował nakłonić rządy i firmy prywatne do wcześniejszego zakupu, w przeciwnym razie ryzykują, że zostaną w tyle przez tych, którzy stawiają na sztuczną inteligencję. Nvidia wie również, że gdy klienci wybiorą jej technologię do swoich projektów generatywnej sztucznej inteligencji, będzie jej łatwiej sprzedawać im aktualizacje niż konkurenci chcący przyciągnąć użytkowników.