Amazon ha estado desarrollando sus propios chips de inteligencia artificial para reducir costos, lo que también ha ayudado a aumentar la rentabilidad de Amazon Web Services (AWS). Sin embargo, el gigante del comercio electrónico está luchando por desarrollar chips de inteligencia artificial que puedan rivalizar con los chips estándar de Nvidia.

Los problemas de migración de proyectos, las brechas de compatibilidad y el bajo uso son algunas de las preocupaciones que frenan la adopción del chip de inteligencia artificial de Amazon. La situación también ha puesto en juego los fuertes ingresos que Amazon genera a partir de su negocio en la nube. Los desafíos que enfrenta Amazon fueron identificados a través de documentos confidenciales y fuentes familiarizadas con el asunto, según informó Business Insider.

Los chips de inteligencia artificial internos de Amazon enfrentan una adopción sofocada

Trainium e Inferentia son los chips de primera línea diseñados por Amazon que debutaron a finales del año pasado. La publicación informó que el año pasado, la tasa de adopción de Trainium entre los clientes de AWS fue apenas del 0,5% en comparación con la de las unidades de procesamiento gráfico de Nvidia.

Lea también: Las ganancias de Amazon superan las expectativas de Wall Street mientras la IA generativa de AWS hace maravillas

Amazon realizó la evaluación para medir el porcentaje de uso de diferentes chips de IA a través de sus servicios AWS en abril de 2024, según el informe. Al mismo tiempo, la tasa de adopción de Inferentia fue ligeramente superior, con un 2,7%. Inferentia es un chip especial diseñado para la inferencia, una tarea de IA que generalmente se refiere al proceso informático para el uso del modelo de IA por parte de los consumidores finales. El informe menciona un documento interno que dice eso;

"Los primeros intentos de los clientes expusieron puntos de fricción y sofocaron la adopción".

La declaración anterior se refiere a los desafíos que los grandes clientes de la nube han enfrentado al realizar la transición a los chips personalizados de Amazon. La plataforma CUDA de Nvidia se considera más atractiva para los clientes y el informe la identifica como una razón clave.

Desarrollo de chips de IA personalizados de Amazon bajo revisión interna

AWS, el proveedor de servicios en la nube más grande del mundo, ahora está desarrollando sus chips informáticos de fabricación casera para facilitar las operaciones. Amazon, en ocasiones, hace alarde de sus esfuerzos en chips de IA. Sin embargo, la imagen que se muestra en los documentos es diferente a la que proyecta la empresa.

El Ministro de Comunicaciones e Información de Singapur, Tan Kiat How, con ejecutivos y socios de AWS. Fuente: AWS.

Los documentos internos afirman que la empresa está luchando con una tasa de adopción lenta, pero el director ejecutivo de Amazon tiene puntos de vista diferentes. En su conferencia telefónica sobre resultados del primer trimestre, el director ejecutivo de Amazon, Andy Jassy, ​​dijo que la demanda de chips AWS era alta.

"Tenemos la selección más amplia de instancias informáticas de NVIDIA, pero la demanda de nuestro silicio personalizado, capacitación e inferencia es bastante alta, dadas sus favorables ventajas de precio-rendimiento en relación con las alternativas disponibles".

Andy Jassy

Jassy también mencionó a los primeros en adoptar los chips de silicio de AWS en su carta a los inversores, diciendo que "ya tenemos varios clientes que utilizan nuestros chips de IA, incluidos Anthropic, Airbnb, Hugging Face, Qualtrics, Ricoh y Snap". Al mismo tiempo, Anthropic es un caso completamente diferente porque Amazon es el mayor patrocinador de la startup. El gigante de la nube ha invertido 4 mil millones de dólares en Anthropic y el acuerdo de inversión lo obliga a utilizar silicio diseñado por AWS.

Un componente importante de AWS aprovecha las GPU de Nvidia

Amazon Web Services ofrece una variedad de procesadores, desde los chips Grass Hopper de Nvidia hasta AMD e Intel. La mayor parte de su rentabilidad proviene del diseño de sus propios chips para centros de datos, lo que le ayuda a ahorrar costos al evitar comprar GPU de Nvidia.

Lea también: Nvidia experimenta un crecimiento notable en medio de la creciente demanda de IA y GPU

Amazon presentó su primer chip de inteligencia artificial, Inferntia, en 2018, pero Nvidia aún lidera la oferta de soluciones que son adoptadas más ampliamente por diferentes industrias. AWS, Microsoft y Google son algunos de los mayores clientes de Nvidia. Todos estos gigantes alquilan GPU a través de sus servicios en la nube. 

En marzo, Adam Selipsku, director ejecutivo de AWS, asistió a Nvidia GTC 2023. Ambas empresas hicieron un anuncio conjunto centrado en su colaboración estratégica para avanzar en la IA generativa. 

"La profunda colaboración entre nuestras dos organizaciones se remonta a más de 13 años, cuando juntos lanzamos la primera instancia de GPU en la nube del mundo en AWS, y hoy ofrecemos la gama más amplia de soluciones de GPU NVIDIA para los clientes".

Selipska

Los desarrolladores suelen preferir la plataforma de Nvidia, llamada Cuda. Como Nvidia dedicó muchos años de tiempo y esfuerzo a crearlo, y la industria lo ha adoptado, lo que les facilita el manejo de las cosas. Por otro lado, Amazon todavía tiene que resolver este enigma mediante prueba y error.

Informe criptopolitano de Aamir Sheikh