👀 遙遙領先!馬斯克開源 Grok-1 模型代碼與權重文件

今天凌晨,馬斯克旗下大模型公司 xAI 宣佈正式開源 3140 億參數的混合專家(MoE)模型「Grok-1」,以及該模型的權重和網絡架構,利好AI板塊!

這也使得Grok-1成爲當前參數量最大的開源大語言模型,目前就可以在Github上下載,文件體積爲 318.24GB,泵泵準備下一個倒騰玩玩。

此前,馬斯克還在推特公開diss OpenAI的大模型不開源,轉頭就把自己的Grok開源了,要知道Grok是推特付費版功能之一,現在開源之後,你可以在自己的電腦上本地部署自己的大模型了。

🔶 點贊關注,如果大家有需求的話,後續做個教程,手把手教大家部署你自己的 Grok 小助手。

#熱門話題 #grok $FET $AGIX $WLD