微软正在开发一种名为 MAI-1 的新型大型语言模型,与 OpenAI、谷歌和 Anthropic 展开竞争。据 The Information 报道,该项目由微软 AI 首席执行官 Mustafa Suleyman 负责。新 LLM 模型的用途尚不清楚,但它将比微软之前发布的开源 LLM 模型更大。

MAI-1、GPT4 还是 Grok?

MAI-1 是微软首个如此规模的内部法学硕士。它将拥有 5000 亿个参数,是微软开发的最大的语言模型之一。MAI-1 超越了这家科技巨头开发的所有开源模型,包括最近发布的 Phi-3 mini。

据传,GPT4 按照运行速度有 1.74 万亿个参数,而马斯克的 Grok-1 有 3140 亿个参数,被认为是最大的开源 LLM,而 DeepMind 和 Claude 3 均未透露其 AI 模型参数数量。

为什么要建设MAI-1?

目前尚不清楚微软为何在向 OpenAI 投资 100 亿美元的同时开发新的 LLM 模型。据 The Information 报道,MAI-1 的用途将取决于其性能。这家科技巨头将使用各种数据源训练该模型,并使用 Nvidia GPU 构建服务器集群。

微软首席技术官凯文·斯科特 (Kevin Scott) 在 LinkedIn 上表示,他不确定这为什么是新闻;不过,他证实了 MAI-1 的开发。

来源:LinkedIn

微软在人工智能竞赛中处于领先地位,并已将 OpenAI 的技术融入其产品中,包括 Copilot 和 Dynamics 365 AI。The Information 报道称,微软最早可能在今年晚些时候的 Build 开发者大会上预览 MAI-1。预览该模型取决于未来几周的进展。

微软全力进军人工智能

微软深度涉足人工智能和大型语言模型领域。上个月,它推出了一款名为 Phi-3 mini 的轻量级 AI 模型。据微软 GenAI 研究副总裁 Sébastien Bubeck 介绍,Phi-3 mini 的价格要便宜得多,与其他具有类似功能的型号相比,它的性价比高出十倍。

今天,微软宣布在威斯康星州建立一个新的 AI 数据中心。总统乔·拜登与这家科技巨头一同宣布了这一消息。微软正在不断扩大其在 AI 领域的合作伙伴关系。两个月前,微软与法国公司 Mistral AI 合作。它还与沃达丰合作了十年,将生成式 AI 融入这家电信公司。