La inversión de AMD en ROCm de código abierto se está aprovechando para reclamar territorio que Nvidia ha luchado por controlar con su sistema CUDA.

Últimamente, parece que es el mundo de Nvidia, y todos (y ciertamente cualquiera en la tecnología y la explosiva industria de la inteligencia artificial) viven en él. 

Gracias a su oportuna entrada al mercado, su investigación de hardware de vanguardia y un sólido ecosistema de software adaptado a sus GPU, la empresa domina el desarrollo de la IA y el mercado de valores. Su último informe de ganancias reveló que las ventas trimestrales se triplicaron, lo que elevó aún más el precio de sus acciones.

No obstante, AMD, el fabricante de chips rival desde hace mucho tiempo, sigue presionando con fuerza para establecer un punto de apoyo en la IA, diciéndoles a los constructores detrás de las tecnologías clave en el espacio naciente que también pueden hacer su trabajo en hardware AMD.

"Solo quería recordarles a todos que si están usando PyTorch, TensorFlow o JAX, pueden usar sus computadoras portátiles o scripts, simplemente se ejecutarán en AMD", declaró anteriormente el director senior de AMD, Ian Ferreira, en la conferencia Microsoft Build 2024. Miércoles.

“Lo mismo ocurre con los motores de inferencia. BLLM y Onyx también funcionan de inmediato”.

La compañía aprovechó su tiempo en el escenario para mostrar ejemplos de cómo las GPU de AMD pueden ejecutar de forma nativa potentes modelos de IA como Stable Diffusion y Microsoft Phi, realizando de manera eficiente tareas de capacitación computacionalmente intensivas sin depender de la tecnología o el hardware de Nvidia.

El anfitrión de la conferencia, Microsoft, reforzó el mensaje al anunciar la disponibilidad de máquinas virtuales basadas en AMD en su plataforma de computación en la nube Azure, utilizando las GPU MI300X aceleradas de la compañía. 

Los chips se anunciaron en junio pasado, comenzaron a enviarse en el nuevo año y recientemente se implementaron en el servicio OpenAI de Microsoft Azure y en la infraestructura de Hugging Face.

La tecnología CUDA patentada de Nvidia, que incluye un modelo de programación completo y una API diseñada específicamente para las GPU de Nvidia, se ha convertido en el estándar de la industria para el desarrollo de IA. Por lo tanto, el mensaje principal de AMD fue que sus soluciones podrían integrarse directamente en los mismos flujos de trabajo.

La perfecta compatibilidad con los sistemas de IA existentes podría cambiar las reglas del juego, ya que los desarrolladores ahora pueden aprovechar el hardware menos costoso de AMD sin necesidad de revisar su código base.

"Por supuesto, entendemos que se necesita algo más que marcos, se necesita un montón de cosas ascendentes, se necesita un montón de cosas de experimentación, capacitación distribuida; todo eso está habilitado y funciona en AMD", aseguró Ferreira.

Luego demostró cómo AMD maneja diferentes tareas, desde ejecutar modelos pequeños como ResNet 50 y Phi-3 hasta ajustar y entrenar GPT-2, todo usando el mismo código que ejecutan las tarjetas Nvidia.

Una de las ventajas clave que AMD promociona es la capacidad de manejar grandes modelos de lenguaje de manera eficiente.

"Puedes cargar hasta 70 mil millones de parámetros en una GPU, ocho de ellos en esta instancia", explicó. "Puedes tener ocho llama 70B diferentes cargados, o tomar un modelo grande como Llama-3 400Bn e implementarlo en una sola instancia".

Desafiar el dominio de Nvidia no es tarea fácil, ya que la empresa con sede en Santa Clara, California, ha protegido ferozmente su territorio. Nvidia ya ha emprendido acciones legales contra proyectos que intentan proporcionar capas de compatibilidad CUDA para GPU de terceros como la de AMD, argumentando que viola los términos de servicio de CUDA. 

Esto ha limitado el desarrollo de soluciones de código abierto y ha dificultado que los desarrolladores adopten alternativas.

La estrategia de AMD para eludir el bloqueo de Nvidia es aprovechar su marco ROCm de código abierto, que compite directamente con CUDA. 

La compañía ha logrado avances significativos en este sentido, asociándose con Hugging Face, el repositorio de modelos de inteligencia artificial de código abierto más grande del mundo, para brindar soporte para ejecutar código en hardware AMD.

Esta asociación ya ha arrojado resultados prometedores, con AMD ofreciendo soporte nativo y herramientas de aceleración adicionales como la ejecución de modelos ONNX en GPU con tecnología ROCm, Optimum-Benchmark, DeepSpeed ​​para GPU con tecnología ROCm que utilizan Transformers, GPTQ, TGI y más.

Ferreira también señaló que esta integración es nativa, eliminando la necesidad de soluciones de terceros o intermediarios que podrían hacer que los procesos sean menos eficientes.

"Puedes tomar tus portátiles existentes, tus scripts existentes y ejecutarlos en AMD, y eso es importante, porque muchos de los otros aceleradores requieren transcodificación y todo tipo de scripts precompilados", dijo. "Nuestro material funciona desde el primer momento y es muy, muy rápido".

Si bien la medida de AMD es indudablemente audaz, destronar a Nvidia será un desafío considerable. Nvidia no se duerme en los laureles, innova continuamente y dificulta que los desarrolladores migren a una nueva infraestructura desde el estándar CUDA de facto.

Sin embargo, con su enfoque de código abierto, asociaciones estratégicas y un enfoque en la compatibilidad nativa, AMD se está posicionando como una alternativa viable para los desarrolladores que buscan más opciones en el mercado de hardware de IA.

Descargo de responsabilidad: la información proporcionada no es un consejo comercial. Bitcoinworld.co.in no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos encarecidamente una investigación independiente y/o consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

#Binance #ESCRIBIR2EARN

La publicación Los chips AMD ahora pueden hacer el trabajo de IA que hace Nvidia Tech apareció por primera vez en BitcoinWorld.