O investimento ROCm de código aberto da AMD está sendo aproveitado para reivindicar território que a Nvidia tem lutado para controlar com seu sistema CUDA.

Ultimamente, parece que este é o mundo da Nvidia, e todos – e certamente qualquer pessoa da área de tecnologia e da explosiva indústria de IA – estão vivendo nele. 

Entre a sua entrada oportuna no mercado, a investigação de hardware de ponta e um ecossistema de software robusto adaptado às suas GPUs, a empresa domina o desenvolvimento de IA e o mercado de ações. O seu último relatório de lucros revelou que as vendas trimestrais triplicaram, aumentando ainda mais o preço das suas ações.

No entanto, a fabricante de chips rival de longa data, AMD, ainda está se esforçando para estabelecer uma posição segura na IA, dizendo aos construtores por trás das principais tecnologias no espaço emergente que eles também podem fazer seu trabalho em hardware AMD.

“Eu só queria lembrar a todos que se você estiver usando PyTorch, TensorFlow ou JAX, você pode usar seus notebooks ou scripts, eles simplesmente rodarão em AMD”, declarou o diretor sênior da AMD, Ian Ferreira, na conferência Microsoft Build 2024 anteriormente. Quarta-feira.

“O mesmo acontece com os mecanismos de inferência. BLLM e Onyx também funcionam imediatamente.”

A empresa aproveitou seu tempo no palco para mostrar exemplos de como as GPUs AMD podem executar nativamente poderosos modelos de IA, como Stable Diffusion e Microsoft Phi, executando com eficiência tarefas de treinamento com uso intensivo de computação, sem depender da tecnologia ou hardware da Nvidia.

A anfitriã da conferência, a Microsoft, reforçou a mensagem ao anunciar a disponibilidade de máquinas virtuais baseadas em AMD em sua plataforma de computação em nuvem Azure, usando as GPUs MI300X aceleradas da empresa. 

Os chips foram anunciados em junho passado, começaram a ser comercializados no ano novo e foram recentemente implementados no serviço OpenAI do Microsoft Azure e na infraestrutura do Hugging Face.

A tecnologia CUDA proprietária da Nvidia, que inclui um modelo de programação completo e API projetada especificamente para GPUs Nvidia, tornou-se o padrão da indústria para o desenvolvimento de IA. A principal mensagem da AMD, portanto, foi que suas soluções poderiam se encaixar perfeitamente nos mesmos fluxos de trabalho.

A compatibilidade perfeita com os sistemas de IA existentes pode ser uma virada de jogo, já que os desenvolvedores agora podem aproveitar o hardware mais barato da AMD sem revisar sua base de código.

“Claro, entendemos que você precisa de mais do que apenas frameworks, você precisa de um monte de coisas upstream, você precisa de um monte de coisas de experimentação, treinamento distribuído – tudo isso está habilitado e funciona na AMD”, garantiu Ferreira.

Ele então demonstrou como a AMD lida com diferentes tarefas, desde a execução de modelos pequenos como ResNet 50 e Phi-3 até ajuste fino e treinamento de GPT-2 – tudo usando o mesmo código que as placas Nvidia executam.

Uma das principais vantagens que a AMD apregoou é a capacidade de lidar com grandes modelos de linguagem com eficiência.

“Você pode carregar até 70 bilhões de parâmetros em uma GPU, com oito deles nesta instância”, explicou ele. “Você pode ter oito lhamas 70B diferentes carregados ou pegar um modelo grande como o Llama-3 400Bn e implantá-lo em uma única instância.”

Desafiar o domínio da Nvidia não é tarefa fácil, já que a empresa com sede em Santa Clara, Califórnia, protegeu ferozmente o seu território. A Nvidia já tomou medidas legais contra projetos que tentam fornecer camadas de compatibilidade CUDA para GPUs de terceiros como a AMD, argumentando que isso viola os termos de serviço do CUDA. 

Isto limitou o desenvolvimento de soluções de código aberto e tornou mais difícil para os desenvolvedores adotarem alternativas.

A estratégia da AMD para contornar o bloqueio da Nvidia é aproveitar sua estrutura ROCm de código aberto, que compete diretamente com CUDA. 

A empresa tem feito avanços significativos nesse sentido, em parceria com o Hugging Face, o maior repositório mundial de modelos de IA de código aberto, para fornecer suporte para execução de código em hardware AMD.

Esta parceria já produziu resultados promissores, com a AMD oferecendo suporte nativo e ferramentas de aceleração adicionais, como execução de modelos ONNX em GPUs com tecnologia ROCm, Optimum-Benchmark, DeepSpeed ​​para GPUs com tecnologia ROCm usando Transformers, GPTQ, TGI e muito mais.

Ferreira destacou ainda que essa integração é nativa, eliminando a necessidade de soluções de terceiros ou intermediários que poderiam tornar os processos menos eficientes.

“Você pode pegar seus notebooks existentes, seus scripts existentes e executá-los na AMD, e isso é importante, porque muitos outros aceleradores exigem transcodificação e todos os tipos de scripts de pré-compilação”, disse ele. “Nosso material funciona imediatamente – e é muito, muito rápido.”

Embora a decisão da AMD seja sem dúvida ousada, destronar a Nvidia será um desafio considerável. A Nvidia não está descansando sobre os louros, inovando continuamente e dificultando a migração dos desenvolvedores para uma nova infraestrutura a partir do padrão CUDA de fato.

No entanto, com a sua abordagem de código aberto, parcerias estratégicas e foco na compatibilidade nativa, a AMD está se posicionando como uma alternativa viável para desenvolvedores que buscam mais opções no mercado de hardware de IA.

Isenção de responsabilidade: as informações fornecidas não constituem conselhos comerciais. Bitcoinworld.co.in não se responsabiliza por quaisquer investimentos feitos com base nas informações fornecidas nesta página. Recomendamos fortemente uma pesquisa independente e/ou consulta com um profissional qualificado antes de tomar qualquer decisão de investimento.

#Binance #WRITE2EARN

A postagem Os chips AMD agora podem fazer o trabalho de IA que a Nvidia Tech faz apareceu pela primeira vez no BitcoinWorld.