Amazon разрабатывает собственные чипы искусственного интеллекта, чтобы сократить расходы, что также помогло повысить прибыльность Amazon Web Services (AWS). Однако гигант электронной коммерции изо всех сил пытается разработать чипы искусственного интеллекта, которые могли бы конкурировать со стандартными чипами Nvidia.

Проблемы миграции проектов, пробелы в совместимости и низкий уровень использования — вот некоторые из проблем, замедляющих внедрение AI-чипа Amazon. Ситуация также поставила под угрозу большие доходы, которые Amazon получает от своего облачного бизнеса. Как сообщает Business Insider, проблемы, с которыми сталкивается Amazon, были выявлены благодаря конфиденциальным документам и источникам, знакомым с этим вопросом.

Собственные чипы искусственного интеллекта Amazon препятствуют распространению

Trainium и Inferentia — это топовые чипы, разработанные Amazon, которые дебютировали в конце прошлого года. В публикации сообщается, что в прошлом году уровень внедрения Trainium среди клиентов AWS составил всего 0,5% по сравнению с показателем графических процессоров Nvidia.

Читайте также: Прибыль Amazon превысила ожидания Уолл-стрит, поскольку генеративный искусственный интеллект AWS творит чудеса

Согласно отчету, Amazon провела оценку для измерения процента использования различных чипов искусственного интеллекта через свои сервисы AWS в апреле 2024 года. В то же время уровень внедрения Inferentia был немного выше — 2,7%. Inferentia — это специальный чип, предназначенный для вывода, задачи ИИ, которая обычно относится к вычислительному процессу для использования модели ИИ конечными потребителями. В отчете упоминается внутренний документ, в котором говорится об этом;

«Ранние попытки клиентов выявили разногласия и помешали внедрению».

Вышеприведенное заявление относится к проблемам, с которыми столкнулись крупные облачные клиенты при переходе на специальные чипы Amazon. Платформа CUDA от Nvidia считается более привлекательной для клиентов, и в отчете это названо основной причиной.

Разработка пользовательских чипов искусственного интеллекта Amazon находится на внутренней проверке

AWS, крупнейший в мире поставщик облачных услуг, в настоящее время разрабатывает собственные компьютерные чипы для облегчения операций. Amazon время от времени выставляет напоказ свои усилия по созданию чипов искусственного интеллекта. Однако картина, показанная в документах, отличается от того, что проектирует компания.

Министр связи и информации Сингапура Тан Киат Хоу с руководителями и партнерами AWS. Источник: АВС.

Во внутренних документах говорится, что компания борется с медленными темпами внедрения, но у генерального директора Amazon другое мнение. На своем отчете о прибылях и убытках за первый квартал генеральный директор Amazon Энди Ясси заявил, что спрос на чипы AWS высок.

«У нас самый широкий выбор вычислительных экземпляров NVIDIA, но спрос на наши специализированные микросхемы, обучение и логические выводы довольно высок, учитывая их выгодные преимущества по цене и производительности по сравнению с доступными альтернативами».

Энди Джасси

Ясси также упомянул первых пользователей кремниевых чипов AWS в своем письме инвесторам, заявив, что «у нас уже есть несколько клиентов, использующих наши AI-чипы, включая Anthropic, Airbnb, Hugging Face, Qualtrics, Ricoh и Snap». В то же время Anthropic — это совсем другой случай, поскольку Amazon является крупнейшим спонсором стартапа. Облачный гигант инвестировал в Anthropic 4 миллиарда долларов, и инвестиционное соглашение обязывает его использовать чипы, разработанные AWS.

Основной компонент AWS использует графические процессоры Nvidia

Amazon Web Services предлагает широкий выбор процессоров: от чипов Nvidia Grass Hopper до AMD и Intel. Большая часть прибыльности компании приходится на разработку собственных чипов для центров обработки данных, что помогает ей экономить средства, избегая покупки графических процессоров у Nvidia.

Читайте также: Nvidia демонстрирует значительный рост на фоне растущего спроса на искусственный интеллект и графические процессоры

Amazon представила свой первый чип искусственного интеллекта Inferntia в 2018 году, но Nvidia по-прежнему лидирует в предложении решений, которые более широко применяются в различных отраслях. AWS, Microsoft и Google — одни из крупнейших клиентов Nvidia. Все эти гиганты арендуют графические процессоры через свои облачные сервисы. 

В марте Адам Селипску, генеральный директор AWS, посетил Nvidia GTC 2023. Обе компании сделали совместное заявление, посвященное их стратегическому сотрудничеству в целях развития генеративного искусственного интеллекта. 

«Тесное сотрудничество между нашими двумя организациями насчитывает более 13 лет, когда вместе мы запустили первый в мире облачный экземпляр графического процессора на AWS, и сегодня мы предлагаем клиентам самый широкий спектр решений NVIDIA для графических процессоров».

Селипска

Разработчики обычно предпочитают платформу Nvidia, называемую Cuda. Поскольку Nvidia потратила много лет и усилий на его создание, индустрия приняла его, что облегчило им задачу. С другой стороны, Amazon еще предстоит решить эту головоломку методом проб и ошибок.

Криптополитический репортаж Аамира Шейха