👀 ¡Mucho por delante! Musk abre el código fuente del modelo Grok-1 y los archivos de peso

Temprano esta mañana, xAI, una gran compañía de modelos propiedad de Musk, anunció el código abierto oficial del modelo experto híbrido (MoE) de 314 mil millones de parámetros "Grok-1", así como los pesos y la arquitectura de red del modelo, que es bueno para ¡el sector de la IA!

Esto también convierte a Grok-1 en el modelo de lenguaje grande de código abierto con la mayor cantidad de parámetros. Actualmente se puede descargar en Github. El tamaño del archivo es 318,24 GB. Estoy listo para jugar con él la próxima vez.

Anteriormente, Musk criticó públicamente en Twitter que el modelo grande de OpenAI no era de código abierto, y se dio la vuelta e hizo que su Grok fuera de código abierto. Debes saber que Grok es una de las funciones de la versión paga de Twitter. Ahora que es de código abierto, Puede abrirlo en su propia computadora e implementar su propio modelo grande localmente.

🔶 Me gusta y sigue. Si tienes alguna necesidad, haré un tutorial más adelante para enseñarte cómo implementar tu propio asistente Grok.

#热门话题 #grok $FET $AGIX $WLD