Com a onda de inteligência artificial provocada pelo ChatGPT, a crença de que "modelos de IA de maior escala são melhores" se tornou um consenso na indústria, impulsionando uma corrida entre gigantes da tecnologia como Microsoft (MSFT.O), Google (GOOGL.O), Amazon (AMZN.O) e Meta Platforms (META.O) na aquisição de chips, com a Nvidia (NVDA.O) se tornando a maior beneficiária devido ao seu desempenho excepcional em treinamento de IA. No entanto, essa corrida pode estar prestes a mudar, com a indústria enfrentando múltiplos obstáculos na busca por modelos de IA maiores.
A posição de liderança da Nvidia e os desafios de gargalo
As GPUs da Nvidia dominam o treinamento de modelos de IA devido à sua capacidade de realizar cálculos paralelos de forma eficiente. O principal indicador de capacidade de IA atualmente é o número de parâmetros do modelo, e mais parâmetros significam a necessidade de mais GPUs. No entanto, surgiram dúvidas sobre os benefícios da escalabilidade do modelo. Waseem Alshikh, cofundador da Writer, apontou que "após um trilhão de parâmetros, os retornos tendem a ser mínimos." O CEO da Microsoft, Satya Nadella, também afirmou na recente conferência Ignite que as dúvidas em torno da escalabilidade dos modelos de IA podem estimular mais inovações.
No entanto, líderes da indústria de IA, como Sam Altman, CEO da OpenAI, e Dario Amodei, CEO da Anthropic, ainda se opõem fortemente a essas dúvidas, acreditando que o potencial de expansão da IA ainda não atingiu seu limite.
Gargalo de dados e o caminho futuro da IA
Thomas Wolf, chefe de ciência da Hugging Face, apontou que a falta de dados de treinamento de alta qualidade pode ser o maior desafio que o desenvolvimento da IA enfrenta. "Esgotamos os recursos da internet como dados de treinamento há meses." Essa limitação pode levar a um futuro voltado para modelos menores baseados em dados corporativos ou pessoais, em vez dos grandes modelos atualmente dominados por grandes empresas de nuvem.
Yann LeCun, chefe de IA da Meta, enfatizou que desenvolver modelos com memória, planejamento e capacidade de raciocínio é a chave para alcançar a verdadeira inteligência artificial geral (AGI), e não apenas depender de chips de maior escala.
A ascensão da inferência e as oportunidades para novos concorrentes
O foco da IA está gradualmente se movendo do treinamento para a inferência (o processo de gerar respostas ou resultados), trazendo novas dinâmicas para o mercado de chips. A computação de inferência pode não depender tanto das GPUs da Nvidia quanto o treinamento, a AMD (AMD.O), Intel (INTC.O), chips personalizados da Amazon e startups podem obter sua parte nesse campo. Eric Boyd, da Microsoft, acredita que, além do tamanho do modelo, as melhorias técnicas durante o processo de inferência também são cruciais.
A Nvidia já percebeu o potencial da inferência, mencionando em seu relatório financeiro mais recente que os negócios de inferência representam 40% da receita do centro de dados e estão crescendo rapidamente. Seu novo sistema de servidores NVL72 apresenta um aumento de 30 vezes no desempenho em inferência, demonstrando forte competitividade nesse campo.
Vencedores diversos na nova fase
A corrida da IA está se movendo do treinamento para a inferência, o que significa que as oportunidades na indústria se tornarão mais descentralizadas. Embora a Nvidia ainda seja a vencedora a curto prazo, à medida que a importância da inferência aumenta, a AMD, Intel e outros concorrentes podem gradualmente erodir a participação de mercado da Nvidia. Para os investidores, o foco nesta fase atual não é mais apenas apoiar o treinamento de modelos de maior escala, mas estar preparados para receber uma série de novos vencedores que podem surgir ao usar esses modelos.
Artigo compartilhado de: Jinshi Data