👀 Beaucoup d'avance ! Musk ouvre le code source du modèle Grok-1 et les fichiers de poids

Tôt ce matin, xAI, une grande société de modélisation appartenant à Musk, a annoncé qu'elle avait officiellement ouvert le modèle expert hybride (MoE) de 314 milliards de paramètres "Grok-1", ainsi que les poids et l'architecture réseau du modèle, ce qui est bien. pour le secteur de l'IA !

Cela fait également de Grok-1 le grand modèle de langage open source avec le plus grand nombre de paramètres. Il peut actuellement être téléchargé sur Github. La taille du fichier est de 318,24 Go. Je suis prêt à jouer avec lui la prochaine fois.

Auparavant, Musk avait publiquement dénoncé sur Twitter que le grand modèle d'OpenAI n'était pas open source, et il s'est retourné et a rendu son Grok open source. Vous devez savoir que Grok est l'une des fonctions de la version payante de Twitter. Maintenant qu'il est open source, vous pouvez l'ouvrir sur votre propre ordinateur. Déployez votre propre grand modèle localement.

🔶 Aimez et suivez. Si vous avez des besoins, je ferai un tutoriel plus tard pour vous apprendre à déployer votre propre assistant Grok.

#热门话题 #grok $FET $AGIX $WLD