Gigantes tecnológicos como Intel, Google, Microsoft y Meta están colaborando para crear un estándar industrial para conectar chips de IA en centros de datos, con el objetivo de reducir la dependencia de Nvidia.

El 15 de mayo, se lanzó oficialmente UALink Promoter Group (UALink) con la participación de AMD, Hewlett Packard Enterprise, Broadcom, Cisco y muchos otros nombres famosos (excepto Arm y Nvidia). Su objetivo es desarrollar un estándar abierto para conectar chips aceleradores de IA en centros de datos, para romper con la dependencia de la tecnología patentada de Nvidia.

La primera versión, UALink 1.0, conectará hasta 1.024 GPU (el tipo más popular de chip acelerador de IA) en un “pod” de computadora (definido como uno o más bastidores de servidores). Basado en estándares abiertos como Infinity Fabric de AMD, UALink 1.0 permite la transferencia directa de datos entre la memoria de los chips aceleradores de IA, aumentando así la velocidad de procesamiento y reduciendo la latencia de la transferencia de datos en comparación con otros estándares de conexión existentes.

Se espera que en el tercer trimestre de 2023, el grupo establezca el Consorcio UALink para supervisar el desarrollo del estándar UALink. La versión UALink 1.0 estará disponible para las empresas participantes al mismo tiempo, mientras que se espera que se lance una versión mejorada con mayor ancho de banda, UALink 1.1, en el cuarto trimestre de 2024.

La ausencia más notable del grupo es la de Nvidia, el mayor fabricante de chips de IA del mundo con una cuota de mercado estimada del 80 al 95%. Es comprensible que Nvidia no esté interesada en UALink. La empresa tiene su propia tecnología de conexión para GPU y se encuentra en una posición dominante en el mercado, con un crecimiento interanual de más del 400% en los ingresos del centro de datos (incluidos los chips de IA).

Además de AMD e Intel, los mayores beneficiarios de UALink son probablemente Microsoft, Meta y Google, empresas que han gastado miles de millones de dólares en GPU de Nvidia para operar servicios en la nube y entrenar modelos de IA. Los tres están tratando de encontrar alternativas a Nvidia, un socio que se está fortaleciendo y corre el riesgo de convertirse en un monopolio en el segmento de hardware de inteligencia artificial.

Según Gartner, el valor de mercado de los chips de aceleración de IA en servidores alcanzará este año los 21 mil millones de dólares y se espera que aumente a 33 mil millones de dólares para 2028. También se prevé que los ingresos por chips de IA alcancen los 33,4 mil millones de dólares este año 2025.

Google está desarrollando sus propios chips TPU y Axion con el fin de entrenar y operar modelos de IA. Amazon también posee varias líneas de chips de IA. El año pasado, Microsoft se unió a la carrera con Maia y Cobalt. Meta tampoco está fuera del juego con sus propias líneas de chips de aceleración.

Recientemente, se dijo que Microsoft y OpenAI habían planeado gastar al menos 100 mil millones de dólares en supercomputadoras de entrenamiento de IA, utilizando versiones futuras de chips Cobalt y Maia. Estos chips necesitarán una solución de conectividad y UALink podría ser la respuesta.

El nacimiento de UALink marca una feroz competencia en el mercado de chips de IA. Que UALink tenga éxito en desafiar a Nvidia depende de su capacidad para atraer más miembros, la velocidad del desarrollo de estándares y la aceptación del mercado.