👀 まだまだ先です! Musk はソースの Grok-1 モデル コードと重みファイルを開く

今朝早く、マスク氏が所有する大手モデル会社である xAI は、3,140 億パラメータのハイブリッド エキスパート (MoE) モデル「Grok-1」と、モデルの重みとネットワーク アーキテクチャを正式にオープンソース化したと発表しました。 AI分野に向けて!

これにより、Grok-1 は最も多くのパラメーターを備えたオープン ソースの大規模言語モデルにもなります。現在 Github でダウンロードできます。ファイル サイズは 318.24 GB です。次回はこれを使って遊ぶ準備ができています。

以前、マスク氏は OpenAI の大規模モデルはオープンソースではないと Twitter で公に否定しましたが、一転して Grok をオープンソースにしました。Grok は Twitter の有料版機能の 1 つであることを知っておく必要があります。オープンソースになった今、あなたは、自分のコンピューター上で開くこともでき、独自の大規模モデルをローカルに展開することもできます。

🔶 いいねとフォロー ご要望があれば、後で独自の Grok アシスタントをデプロイする方法を説明するチュートリアルを作成します。

#热门话题 #grok $FET $AGIX $WLD