Mit dem KI-Boom, der durch ChatGPT ausgelöst wurde, wurde "größere KI-Modelle sind besser" zum Konsens in der Branche, was den Wettbewerb um den Chipbeschaffung bei Technologieriesen wie Microsoft (MSFT.O), Google (GOOGL.O), Amazon (AMZN.O) und Meta Platforms (META.O) angeheizt hat, wobei Nvidia (NVDA.O) als größter Nutznießer aufgrund seiner hervorragenden Leistung in der KI-Trainings-GPU gilt. Dieser Wettbewerb könnte sich jedoch bald ändern, da die Branche mit mehreren Hindernissen konfrontiert ist, die beim Streben nach größeren KI-Modellen auftreten.

Die Führungsposition von Nvidia und die Herausforderungen der Engpässe

Nvidias GPUs dominieren das Training von KI-Modellen, da sie effizient parallel rechnen können. Der Hauptmaßstab für die aktuelle KI-Fähigkeit ist die Anzahl der Modellparameter, und mehr Parameter bedeuten, dass mehr GPUs benötigt werden. Dennoch gibt es in der Branche Zweifel an den Vorteilen einer Skalierung der Modellgröße. Waseem Alshikh, Mitgründer der Firma Writer, merkt an: „Nach über einer Billion Parametern tendieren die Erträge gegen Null.“ Microsoft-CEO Satya Nadella äußerte kürzlich auf der Ignite-Konferenz, dass die Zweifel an der Skalierung von KI-Modellen möglicherweise mehr Innovation anregen könnten.

Dennoch sprechen sich führende Persönlichkeiten der KI-Branche wie Sam Altman, CEO von OpenAI, und Dario Amodei, CEO von Anthropic, entschieden gegen diese Bedenken aus und glauben, dass das Potenzial der KI noch nicht ausgeschöpft ist.

Datenengpässe und der zukünftige Weg der KI

Thomas Wolf, Chief Scientist von Hugging Face, weist darauf hin, dass der Mangel an hochwertigen Trainingsdaten möglicherweise die größte Herausforderung für die Entwicklung von KI darstellt. „Wir haben vor einigen Monaten die Ressourcen des Internets als Trainingsdaten erschöpft.“ Diese Einschränkung könnte in Zukunft zu einer Hinwendung zu kleineren Modellen auf der Basis von Unternehmens- oder persönlichen Daten führen, anstatt zu den derzeit von großen Cloud-Unternehmen dominierten großen Modellen.

Yann LeCun, Chief AI Officer von Meta, betont, dass die Entwicklung von Modellen mit Gedächtnis-, Planungs- und Schlussfolgerungsfähigkeiten der Schlüssel zur Erreichung einer echten allgemeinen künstlichen Intelligenz (AGI) ist und nicht einfach auf größere Chips gesetzt werden sollte.

Der Aufstieg des Schlussfolgerns und die Chancen neuer Wettbewerber

Der Fokus der KI verlagert sich allmählich vom Training zur Schlussfolgerung (dem Prozess des Generierens von Antworten oder Ergebnissen), was dem Chipmarkt neue Dynamik verleiht. Schlussfolgerungsberechnungen könnten nicht mehr so stark auf Nvidias GPUs angewiesen sein, auch AMD (AMD.O), Intel (INTC.O), Amazon's maßgeschneiderte Chips und Start-ups könnten in diesem Bereich ein Stück vom Kuchen abbekommen. Eric Boyd von Microsoft betont, dass neben der Modellgröße auch technologische Verbesserungen im Schlussfolgerungsprozess entscheidend sind.

Nvidia hat das Potenzial des Schlussfolgerns erkannt und erwähnt in ihrem jüngsten Finanzbericht, dass das Schlussfolgerungsgeschäft 40 % des Umsatzes im Rechenzentrum ausmacht und schnell wächst. Ihr neu eingeführtes NVL72-Server-System hat die Leistung im Schlussfolgern um das 30-Fache gesteigert und zeigt starke Wettbewerbsfähigkeit in diesem Bereich.

Vielfältige Gewinner in einer neuen Phase

Der Wettbewerb in der KI wechselt vom Training zur Schlussfolgerung, was bedeutet, dass sich die Chancen in der Branche weiter diversifizieren werden. Obwohl Nvidia kurzfristig der Gewinner bleibt, könnten AMD, Intel und andere Wettbewerber allmählich Nvidias Marktanteil erodieren, während die Bedeutung des Schlussfolgerns zunimmt. Für Investoren liegt der Schwerpunkt in dieser Phase nicht mehr nur darauf, das Training größerer Modelle zu unterstützen, sondern sich darauf vorzubereiten, eine Reihe neuer Gewinner zu begrüßen, die beim Einsatz von Modellen entstehen könnten.

Der Artikel wurde weitergeleitet von: Jin Shijun Daten