👀 Weit voraus! Musk öffnet den Quellcode und die Gewichtsdateien des Grok-1-Modells

Heute früh gab xAI, ein großes Modellunternehmen im Besitz von Musk, bekannt, dass es das 314-Milliarden-Parameter-Hybrid-Expertenmodell (MoE) „Grok-1“ sowie die Gewichte und die Netzwerkarchitektur des Modells offiziell als Open Source bereitgestellt hat, was gut ist für den KI-Bereich!

Dies macht Grok-1 auch zum Open-Source-Modell für große Sprachen mit der größten Anzahl an Parametern. Es kann derzeit auf Github heruntergeladen werden. Die Dateigröße beträgt 318,24 GB. Ich bin bereit, das nächste Mal damit zu spielen.

Zuvor hatte Musk auf Twitter öffentlich geäußert, dass das große Modell von OpenAI kein Open Source sei, und er drehte sich um und machte seinen Grok zu Open Source. Sie müssen wissen, dass Grok eine der kostenpflichtigen Versionsfunktionen von Twitter ist. Jetzt, da es Open Source ist, wissen Sie Sie können es auf Ihrem eigenen Computer öffnen. Stellen Sie Ihr eigenes großes Modell lokal bereit.

🔶 Like und folge. Wenn du Bedarf hast, werde ich später ein Tutorial erstellen, um dir beizubringen, wie du deinen eigenen Grok-Assistenten einsetzt.

#热门话题 #grok $FET $AGIX $WLD