👀 Molto avanti! Musk apre il codice sorgente del modello Grok-1 e i file di peso
Questa mattina presto, xAI, una grande società di modellismo di proprietà di Musk, ha annunciato di aver reso ufficialmente open source il modello "Grok-1" di esperto ibrido (MoE) da 314 miliardi di parametri, nonché i pesi del modello e l'architettura di rete, il che è positivo per il settore AI!
Ciò rende Grok-1 anche il modello linguistico di grandi dimensioni open source con il maggior numero di parametri. Attualmente può essere scaricato su Github. La dimensione del file è 318,24 GB. Sono pronto a giocarci la prossima volta.
In precedenza, Musk aveva pubblicamente criticato su Twitter il fatto che il grande modello di OpenAI non fosse open source, quindi ha fatto marcia indietro e ha reso il suo Grok open source. Devi sapere che Grok è una delle funzioni della versione a pagamento di Twitter. Ora che è open source, puoi puoi aprirlo sul tuo computer e distribuire localmente il tuo modello di grandi dimensioni.
🔶 Metti "Mi piace" e segui. Se hai qualche necessità, più tardi farò un tutorial per insegnarti come utilizzare il tuo assistente Grok.