Según se informa, Microsoft está desarrollando un nuevo modelo de IA interno, y es la primera vez desde que invirtió mucho en OpenAI con más de 10 mil millones de dólares para utilizar los modelos de IA de la startup en sus propios productos y mantenerse a la vanguardia hasta que los competidores se pongan al día.

MAI-1 es un proyecto interno de Microsoft

Se dice que el nuevo modelo es lo suficientemente grande como para competir con los de Alphabet, que es la empresa matriz de Google, y OpenAI.

El nuevo modelo se llama internamente MAI-1 en Microsoft, y Mustafa Suleyman, recientemente contratado, lidera el proyecto, según un informe de The Information. Es el mismo que cofundó DeepMind, que luego fue comprada por Google, y muy recientemente fue director ejecutivo de otra startup llamada Inflection.

Pero en el informe se afirma que no es el modelo de IA de Inflection, sino que la compañía puede utilizar los conjuntos de datos de entrenamiento y otras tecnologías relacionadas de la startup para este modelo de Microsoft, que es completamente independiente de los que Inflection ya ha lanzado.

Lo que hay que recordar aquí es que Microsoft, antes de contratar a Suleyman, desembolsó 650 millones de dólares para comprar todos los derechos de Inflection y también contrató a la mayoría de su personal.

Se dice que MAI-1 será un animal completamente diferente y mucho más grande que los modelos más pequeños de Microsoft que entrenó antes y que son de código gratuito. Según personas familiarizadas con el tema, el modelo necesitará más recursos informáticos y datos de entrenamiento, por lo que definitivamente será más caro de desarrollar.

Una empresa mucho más grande

A modo de comparación, los modelos más pequeños entrenados por las empresas Mistral y Meta tienen 70 mil millones de parámetros, lo que se puede llamar aproximadamente una escala para medir el tamaño de un modelo de IA, y se dice que el GPT4 de OpenAI tiene más de 1 billón de parámetros. Y MAI-1 tendrá alrededor de 500 mil millones de parámetros.

Pero los parámetros por sí solos no son una característica confiable para medir un modelo de IA, ya que se dice que algunas series recientes de modelos Phi de código abierto de Microsoft funcionan a la par con modelos 10 veces su tamaño.

El Phi-3 Mini, que Microsoft lanzó el mes pasado, es una de las series de menor tamaño y la compañía apunta a apuntar a una base de clientes más amplia con sus opciones más económicas.

También se informa que Microsoft ha estado adquiriendo una gran cantidad de servidores, o más bien grupos de servidores que tienen procesadores gráficos Nvidia integrados junto con cantidades masivas de conjuntos de datos para entrenar el modelo.

Aunque cuando Microsoft anunció que estaba incorporando el chatbot ChatGPT de OpenAI en su búsqueda de Bing, muchos analistas lo llamaron un “momento iPhone” y fueron demasiado optimistas sobre su impacto, inicialmente solo le dio uno o dos por ciento de participación de búsqueda adicional a Bing frente a Google.

Sin embargo, el informe más reciente de Search Engine Journal de abril muestra que, por primera vez, la cuota de búsqueda de Google cayó más del 4% en un solo mes a medida que los competidores Bing y Yahoo ganaron cuota específicamente en el mercado estadounidense.

Pero parece que ha empezado a tener sentido que Microsoft invierta miles de millones en OpenAI y ahora, con el éxito de sus propios modelos Phi, si está invirtiendo en un modelo más grande, eso también tiene sentido.