Con il boom dell'intelligenza artificiale scatenato da ChatGPT, il consenso dell'industria è diventato "modelli AI di dimensioni maggiori sono migliori", spingendo giganti della tecnologia come Microsoft (MSFT.O), Google (GOOGL.O), Amazon (AMZN.O) e Meta Platforms (META.O) a competere nell'acquisto di chip, con NVIDIA (NVDA.O) che diventa il principale beneficiario grazie alle sue GPU che eccellono nell'addestramento dell'AI. Tuttavia, questa competizione potrebbe presto cambiare, poiché l'industria affronta molteplici ostacoli nella ricerca di modelli AI più grandi.

La posizione di leadership di NVIDIA e le sfide del collo di bottiglia

Le GPU di NVIDIA dominano l'addestramento dei modelli AI grazie alla loro capacità di calcolo parallelo efficiente. L'attuale misura principale delle capacità dell'AI è il numero di parametri del modello, e più parametri significano bisogno di più GPU. Tuttavia, ci sono state delle obiezioni ai benefici dell'espansione della dimensione del modello. Waseem Alshikh, co-fondatore di Writer, ha osservato: "Dopo oltre mille miliardi di parametri, i ritorni tendono a diminuire." Anche Satya Nadella, CEO di Microsoft, ha affermato alla recente conferenza Ignite che i dubbi sull'espansione dei modelli AI potrebbero stimolare ulteriori innovazioni.

Tuttavia, leader del settore AI come Sam Altman, CEO di OpenAI, e Dario Amodei, CEO di Anthropic, si oppongono fermamente a queste obiezioni, ritenendo che il potenziale di espansione dell'AI non sia ancora raggiunto al limite.

Collo di bottiglia dei dati e percorso futuro dell'AI

Thomas Wolf, Chief Scientist di Hugging Face, ha sottolineato che la mancanza di dati di addestramento di alta qualità potrebbe essere la sfida più grande per lo sviluppo dell'AI. "Abbiamo esaurito le risorse di Internet come dati di addestramento alcuni mesi fa." Questa limitazione potrebbe spingere in futuro verso modelli più piccoli basati su dati aziendali o personali, piuttosto che sui grandi modelli dominati dalle grandi aziende del cloud attuali.

Yann LeCun, Chief AI Scientist di Meta, sottolinea che lo sviluppo di modelli con capacità di memoria, pianificazione e ragionamento è la chiave per raggiungere una vera intelligenza artificiale generale (AGI), piuttosto che fare affidamento semplicemente su chip di dimensioni maggiori.

L'ascesa dell'inferenza e le opportunità per nuovi concorrenti

L'attenzione dell'AI si sta gradualmente spostando dall'addestramento all'inferenza (il processo di generazione di risposte o risultati), portando nuove dinamiche al mercato dei chip. Il calcolo dell'inferenza potrebbe non dipendere dalle GPU di NVIDIA come l'addestramento, con AMD (AMD.O), Intel (INTC.O), chip personalizzati di Amazon e startup che potrebbero ottenere una fetta di questo mercato. Eric Boyd di Microsoft ritiene che, oltre alla dimensione del modello, i miglioramenti tecnologici nel processo di inferenza siano ugualmente cruciali.

NVIDIA ha notato il potenziale dell'inferenza, menzionando nel recente rapporto finanziario che il business dell'inferenza rappresenta il 40% delle entrate del data center e sta crescendo rapidamente. Il suo nuovo sistema server NVL72 ha mostrato un aumento delle prestazioni di 30 volte nell'inferenza, dimostrando una forte competitività in questo campo.

Nuovi vincitori diversificati nella nuova fase

La competizione nell'AI si sposta dall'addestramento all'inferenza, il che significa che le opportunità nel settore diventeranno più disperse. Sebbene NVIDIA rimanga il vincitore a breve termine, con l'aumento dell'importanza dell'inferenza, AMD, Intel e altri concorrenti potrebbero gradualmente erodere la quota di mercato di NVIDIA. Per gli investitori, il focus attuale non è più solo supportare l'addestramento di modelli di dimensioni maggiori, ma prepararsi a una serie di nuovi vincitori che potrebbero emergere nell'uso dei modelli.

Articolo ripubblicato da: Jinshi Data