Wraz z falą sztucznej inteligencji wywołaną przez ChatGPT, "większe modele AI są lepsze" stało się powszechnym przekonaniem w branży, co doprowadziło do rywalizacji technologicznych gigantów, takich jak Microsoft (MSFT.O), Google (GOOGL.O), Amazon (AMZN.O) i Meta Platforms (META.O), w zakresie zakupu chipów. Nvidia (NVDA.O) stała się największym beneficjentem dzięki swoim doskonałym GPU w treningu AI. Jednak ta rywalizacja może się wkrótce zmienić, gdyż branża staje przed wieloma przeszkodami w dążeniu do większych modeli AI.
Pozycja lidera Nvidii i wyzwania związane z wąskimi gardłami
GPU Nvidii dominują w treningu modeli AI dzięki ich zdolności do efektywnego obliczania równoległego. Obecnie głównym wskaźnikiem możliwości AI jest liczba parametrów modelu, a więcej parametrów oznacza potrzebę większej liczby GPU. Jednak w branży pojawiły się wątpliwości dotyczące korzyści z rozszerzania skali modeli. Współzałożyciel firmy Writer, Waseem Alshikh, zauważył: "Po przekroczeniu jednego biliona parametrów korzyści stają się minimalne." CEO Microsoftu, Satya Nadella, również stwierdził na ostatniej konferencji Ignite, że wątpliwości związane z rozszerzeniem modeli AI mogą pobudzić więcej innowacji.
Mimo to, liderzy branży AI, tacy jak dyrektor generalny OpenAI Sam Altman i dyrektor generalny Anthropic Dario Amodei, stanowczo sprzeciwiają się tym wątpliwościom, twierdząc, że potencjał rozwoju AI jeszcze nie osiągnął granic.
Wąskie gardła danych a przyszłość AI
Thomas Wolf, dyrektor naukowy firmy Hugging Face, zauważył, że brak wysokiej jakości danych treningowych może być największym wyzwaniem dla rozwoju AI. "Wyczerpaliśmy zasoby internetu jako dane treningowe kilka miesięcy temu." To ograniczenie może skłonić do przyszłego przejścia na modele o małej skali oparte na danych firmowych lub osobistych, a nie na dużych modelach dominowanych przez chmurowe giganty.
Yann LeCun, główny oficer AI w Meta, podkreślił, że kluczem do osiągnięcia prawdziwej ogólnej sztucznej inteligencji (AGI) jest rozwój modeli zdolnych do pamiętania, planowania i wnioskowania, a nie poleganie jedynie na większych chipach.
Wzrost wnioskowania a możliwości nowych konkurentów
Skupienie AI stopniowo przesuwa się z treningu na wnioskowanie (proces generowania odpowiedzi lub wyników), co wprowadza nowe dynamiki na rynku chipów. Obliczenia wnioskowania mogą nie być tak zależne od GPU Nvidii, ponieważ AMD (AMD.O), Intel (INTC.O), chipy dostosowane przez Amazon i startupy mogą również zyskać w tym obszarze. Eric Boyd z Microsoftu uważa, że poza skalą modeli, poprawa technologii w procesie wnioskowania jest równie istotna.
Nvidia zauważyła potencjał wnioskowania, wspominając w ostatnim raporcie finansowym, że działalność związana z wnioskowaniem stanowi 40% przychodów z centrów danych i szybko rośnie. Jej nowo wprowadzony system serwerowy NVL72 osiągnął 30-krotny wzrost wydajności w wnioskowaniu, pokazując silną konkurencyjność w tej dziedzinie.
Nowa faza zróżnicowanych zwycięzców
Rywalizacja AI przesuwa się z treningu na wnioskowanie, co oznacza, że możliwości w branży będą bardziej rozproszone. Chociaż Nvidia nadal jest zwycięzcą w krótkim okresie, wraz ze wzrostem znaczenia wnioskowania, AMD, Intel i inni konkurenci mogą stopniowo podważać udział Nvidii w rynku. Dla inwestorów kluczowym punktem obecnej fazy nie jest już tylko wspieranie szkolenia większych modeli, ale przygotowanie się na pojawienie się nowej grupy zwycięzców przy korzystaniu z modeli.
Artykuł opublikowany przez: Jin Shi Data