Scritto da: Ed Roman, socio amministratore, Hack VC

Compilato: 1912212.eth, Foresight News

AI+ Crypto è una delle aree di frontiera che ha recentemente attirato molta attenzione nel mercato delle criptovalute, come la formazione AI decentralizzata, i DePIN GPU e i modelli AI resistenti alla censura.

Dietro questi sorprendenti progressi non possiamo fare a meno di chiederci: si tratta di una vera svolta tecnologica o semplicemente di un argomento scottante? Questo articolo chiarirà la nebbia per te, analizzerà la visione della crittografia x AI e discuterà le sfide e le opportunità reali e rivelerà quali sono promesse vuote e quali sono effettivamente fattibili?

Visione n. 1: formazione IA decentralizzata

Il problema con l’addestramento dell’IA on-chain è che richiede comunicazione e coordinamento ad alta velocità tra le GPU perché le reti neurali richiedono la backpropagation durante l’addestramento. Nvidia ha due innovazioni per questo (NVLink e InfiniBand). Queste tecnologie rendono la comunicazione GPU estremamente veloce, ma sono tecnologie solo locali che funzionano solo su cluster GPU (velocità 50+ gigabit) situati all'interno di un singolo data center.

Se viene introdotta una rete decentralizzata, la velocità rallenterà improvvisamente di diversi ordini di grandezza a causa dell’aumento della latenza della rete e della larghezza di banda. Rispetto al throughput che puoi ottenere dall'interconnessione ad alta velocità di Nvidia all'interno del data center, questa velocità semplicemente non è possibile per i casi d'uso della formazione AI.

Tieni presente che di seguito sono riportate anche le innovazioni che potrebbero offrire speranza per il futuro:

  • La formazione distribuita su InfiniBand avviene su vasta scala, poiché NVIDIA stessa supporta la formazione distribuita non nativa su InfiniBand attraverso la NVIDIA Collective Communications Library. Tuttavia, è ancora nella sua fase nascente, quindi i parametri di adozione devono ancora essere determinati. Il collo di bottiglia delle leggi fisiche a distanza esiste ancora, quindi la formazione locale su InfiniBand è ancora molto più veloce.

  • Sono state pubblicate alcune nuove ricerche sulla formazione decentralizzata che richiede meno tempo di sincronizzazione della comunicazione, il che potrebbe rendere la formazione decentralizzata più pratica in futuro.

  • Lo sharding intelligente e la pianificazione dell'addestramento del modello contribuiscono a migliorare le prestazioni. Allo stesso modo, nuove architetture di modelli potrebbero essere progettate specificamente per le future infrastrutture distribuite (Gensyn sta conducendo ricerche in queste aree).

Anche la parte relativa ai dati della formazione è impegnativa. Qualsiasi processo di formazione sull’intelligenza artificiale comporta l’elaborazione di grandi quantità di dati. In genere, i modelli vengono addestrati su sistemi di archiviazione dati sicuri e centralizzati con elevata scalabilità e prestazioni. Ciò richiede il trasferimento e l'elaborazione di terabyte di dati e non si tratta di un ciclo una tantum. I dati sono spesso rumorosi e contengono errori, quindi devono essere puliti e convertiti in un formato utilizzabile prima di addestrare un modello. Questa fase prevede attività ripetitive di standardizzazione, filtraggio e gestione dei valori mancanti. Tutti questi devono affrontare sfide serie in un ambiente decentralizzato.

Anche la parte dei dati di training è iterativa, il che non è compatibile con Web3. OpenAI ha attraversato migliaia di iterazioni per raggiungere i suoi risultati. Gli scenari di attività più elementari per un data scientist in un team di intelligenza artificiale includono la definizione di obiettivi, la preparazione dei dati, l'analisi e la cura dei dati per estrarre informazioni importanti e renderli adatti alla modellazione. Quindi, sviluppa un modello di machine learning per risolvere il problema definito e convalidarne le prestazioni utilizzando un set di dati di test. Il processo è iterativo: se il modello attuale non funziona come previsto, gli esperti ritornano alle fasi di raccolta dati o di formazione del modello per migliorare i risultati. Immaginate che se questo processo fosse portato avanti in un ambiente decentralizzato, non sarebbe facile adattare i framework e gli strumenti più avanzati esistenti al Web3.

Un altro problema con l’addestramento dei modelli di intelligenza artificiale on-chain è che questo mercato è molto meno interessante dell’inferenza. Attualmente, l’addestramento di modelli linguistici di intelligenza artificiale su larga scala richiede una grande quantità di risorse di elaborazione GPU. A lungo termine, l’inferenza diventerà il caso d’uso principale per le GPU. Immagina quanti grandi modelli linguistici di intelligenza artificiale devono essere addestrati per soddisfare la domanda globale. Qual è di più rispetto al numero di clienti che utilizzano questi modelli?

Presupposto n. 2: utilizzare calcoli di inferenza AI eccessivamente ridondanti per raggiungere il consenso

Un’altra sfida riguardante la crittografia e l’intelligenza artificiale è verificare l’accuratezza dell’inferenza dell’intelligenza artificiale, perché non è possibile fidarsi completamente di un singolo soggetto centralizzato per eseguire operazioni di inferenza e esiste il rischio potenziale che i nodi possano comportarsi in modo inappropriato. Questa sfida non esiste in Web2 AI perché non esiste un sistema di consenso decentralizzato.

La soluzione è l’elaborazione ridondante, che consente a più nodi di ripetere le stesse operazioni di inferenza dell’intelligenza artificiale, che possono essere eseguite in un ambiente trustless ed evitare singoli punti di errore.

Il problema con questo approccio, tuttavia, è che c’è un’estrema carenza di chip AI di fascia alta. I tempi di attesa di un anno per i chip NVIDIA di fascia alta fanno aumentare i prezzi. Se è necessario che l'inferenza AI venga rieseguita più volte su più nodi, diventa esponenzialmente più costoso, rendendolo irrealizzabile per molti progetti.

Presupposto n. 3: casi d'uso dell'intelligenza artificiale specifici di Web3 a breve termine

È stato suggerito che Web3 dovrebbe avere i propri casi d'uso dell'intelligenza artificiale specifici mirati specificamente ai clienti Web3. Potrebbe trattarsi (ad esempio) di un protocollo Web3 che utilizza l'intelligenza artificiale per rischiare i pool DeFi, un portafoglio Web3 che suggerisce nuovi protocolli agli utenti in base alla cronologia del portafoglio o un gioco Web3 che utilizza l'intelligenza artificiale per controllare i personaggi non giocanti (NPC).

Per ora, si tratta di un mercato nascente (a breve termine) in cui i casi d’uso sono ancora in fase di studio. Alcune sfide includono:

  • Poiché la domanda del mercato è ancora agli inizi, ci sono meno potenziali accordi di intelligenza artificiale richiesti per i casi d’uso nativi Web3.

  • Ci sono meno clienti, ordini di grandezza in meno di clienti Web3 rispetto ai clienti Web2, quindi il mercato è meno decentralizzato.

  • I clienti stessi sono meno stabili perché sono startup con meno finanziamenti e alcune startup potrebbero estinguersi nel tempo. E i fornitori di servizi Web3 AI che si rivolgono ai clienti Web3 potrebbero dover riconquistare parte della loro base di clienti per sostituire quelli che sono scomparsi, rendendo estremamente difficile il ridimensionamento della loro attività.

A lungo termine, siamo molto ottimisti sui casi d’uso dell’IA nativa per Web3, soprattutto perché gli agenti AI diventano sempre più diffusi. Immaginiamo che in futuro ogni utente Web3 avrà un gran numero di agenti AI per aiutarlo a completare le proprie attività.

Visione n. 4: DePIN GPU consumer

Esistono molte reti di elaborazione IA decentralizzate che si basano su GPU consumer anziché su data center. Le GPU consumer sono ideali per attività di inferenza AI di fascia bassa o casi d'uso consumer in cui latenza, throughput e affidabilità sono flessibili. Ma per i casi d’uso aziendali seri (che è la maggior parte del mercato che conta), i clienti hanno bisogno di reti di affidabilità più elevate rispetto alle macchine domestiche e spesso di GPU di fascia alta se hanno attività di inferenza più complesse. I data center sono più adatti a questi casi d'uso più preziosi da parte dei clienti.

Tieni presente che consideriamo le GPU di livello consumer adatte per le demo, nonché per individui e startup che possono tollerare un'affidabilità inferiore. Ma questi clienti hanno meno valore, quindi riteniamo che i DePIN, personalizzati appositamente per le aziende Web2, avranno più valore nel lungo periodo. Di conseguenza, il progetto GPU DePIN si è evoluto dall'utilizzo primario di hardware di livello consumer all'avere A100/H100 e disponibilità a livello di cluster.

Realtà: casi pratici di utilizzo della criptovaluta x AI

Ora discutiamo dei casi d'uso che offrono vantaggi reali. Queste sono le vere vittorie e Crypto x AI può aggiungere un chiaro valore.

Vero vantaggio n. 1: servire i clienti Web2

McKinsey stima che, nei 63 casi d’uso analizzati, l’intelligenza artificiale generativa potrebbe aggiungere l’equivalente di 2,6 trilioni di dollari a 4,4 trilioni di dollari di entrate ogni anno, rispetto al PIL totale del Regno Unito nel 2021 pari a 3,1 trilioni di dollari. Ciò aumenterebbe l’impatto dell’intelligenza artificiale dal 15% al ​​40%. Se prendiamo in considerazione l’impatto dell’intelligenza artificiale generativa incorporata nel software attualmente utilizzato per attività diverse dai casi d’uso, si stima che l’impatto raddoppierà circa.

Se si fanno i conti sulla base delle stime di cui sopra, ciò significa che il valore totale del mercato globale dell’intelligenza artificiale (oltre all’intelligenza artificiale generativa) potrebbe essere dell’ordine di decine di trilioni di dollari. In confronto, il valore totale di tutte le criptovalute (inclusi Bitcoin e tutte le altcoin) oggi è solo di circa 2,7 trilioni di dollari. Quindi diciamocelo: la stragrande maggioranza dei clienti che avranno bisogno di AI nel breve periodo saranno clienti Web2, perché i clienti Web3 che avranno davvero bisogno di AI saranno solo una piccola parte di questi 2,7 trilioni di dollari (considerando che BTC è il mercato, Bitcoin stesso non richiede/utilizza l'intelligenza artificiale).

I casi d'uso dell'intelligenza artificiale Web3 sono appena iniziati e non è chiaro quanto sarà grande il mercato. Ma una cosa è certa: nel prossimo futuro rappresenterà solo una piccola parte del mercato Web2. Riteniamo che Web3 AI abbia ancora un futuro brillante, ma ciò significa semplicemente che l'applicazione più potente di Web3 AI in questo momento è al servizio dei clienti Web2.

Esempi ipotetici di clienti Web2 che potrebbero trarre vantaggio dall'intelligenza artificiale Web3 includono:

  • Costruire da zero un'azienda di software incentrata sull'intelligenza artificiale e specifica per il settore verticale (ad esempio Cedar.ai o Observe.ai)

  • Grandi imprese che perfezionano i modelli per i propri scopi (ad esempio Netflix)

  • Fornitori di IA in rapida crescita (ad esempio Anthropic)

  • Società di software che integrano l'intelligenza artificiale nei prodotti esistenti (ad esempio Canva)

Si tratta di un ruolo del cliente relativamente stabile perché i clienti sono generalmente grandi e preziosi. È improbabile che cessino l’attività a breve e rappresentano enormi potenziali clienti per i servizi di intelligenza artificiale. I servizi Web3 AI al servizio dei clienti Web2 trarranno vantaggio da questa base di clienti stabile.

Ma perché i clienti Web2 dovrebbero voler utilizzare uno stack Web3? Il resto di questo articolo spiega questa situazione.

Vero vantaggio n. 2: riduzione dei costi di utilizzo della GPU con GPU DePIN

GPU DePIN aggrega la potenza di calcolo della GPU sottoutilizzata, la più affidabile delle quali proviene dai data center, e la rende disponibile per l'inferenza dell'intelligenza artificiale. Una semplice analogia a questo problema è "Airbnb nelle GPU".

Il motivo per cui siamo entusiasti di GPU DePIN è che, come accennato in precedenza, c'è una carenza di chip NVIDIA e attualmente ci sono cicli GPU sprecati che potrebbero essere utilizzati per l'inferenza dell'intelligenza artificiale. Questi proprietari di hardware hanno costi irrecuperabili e attrezzature attualmente sottoutilizzate, quindi queste GPU parziali possono essere rese disponibili a un costo molto inferiore rispetto allo status quo perché questo effettivamente "trova i soldi" per il proprietario dell'hardware.

Esempi inclusi:

  • Macchina AWS. Se dovessi noleggiare un H100 da AWS oggi, dovresti impegnarti per un leasing di 1 anno perché l'offerta sul mercato è limitata. Ciò crea sprechi perché probabilmente non utilizzerai la GPU 7 giorni su 7, 365 giorni all'anno.

  • Hardware per l'estrazione di filecoin. Filecoin ha un’ampia offerta sovvenzionata ma non una grande domanda reale. Filecoin non ha mai trovato un vero adattamento al mercato del prodotto, quindi i minatori di Filecoin correvano il rischio di fallire. Queste macchine sono dotate di GPU che possono essere riproposte per attività di inferenza AI di fascia bassa.

  • Hardware per il mining di ETH. Quando Ethereum passa da PoW a PoS, si libera rapidamente molto hardware che può essere riutilizzato per l'inferenza dell'intelligenza artificiale.

Tieni presente che non tutto l'hardware GPU è adatto all'inferenza AI. Una ragione ovvia è che le GPU più vecchie non hanno la quantità di memoria GPU richiesta per i LLM, sebbene esistano già alcune innovazioni interessanti che possono aiutare in questo senso. Ad esempio, la tecnologia di Exabits può caricare neuroni attivi nella memoria della GPU e neuroni inattivi nella memoria della CPU. Prevedono quali neuroni devono essere attivi/inattivi. Ciò consente alle GPU di fascia bassa di gestire carichi di lavoro AI, anche con memoria GPU limitata. Ciò rende effettivamente le GPU di fascia bassa più utili per l'inferenza dell'intelligenza artificiale.

Web3 AI DePIN dovrà evolvere il proprio prodotto nel tempo e fornire servizi di livello aziendale come single sign-on, conformità SOC 2, accordi sul livello di servizio (SLA) e altro ancora. Questo è simile a ciò che gli attuali fornitori di servizi cloud offrono ai clienti Web2.

Vero vantaggio n. 3: modelli resistenti alla censura per evitare l'autocensura di OpenAI

Si discute molto sulla censura dell’IA. La Turchia, ad esempio, ha temporaneamente vietato OpenAI (successivamente ha cambiato il suo approccio quando OpenAI ha migliorato la conformità). Riteniamo che la censura a livello nazionale non sia interessante perché i paesi devono adottare l’intelligenza artificiale per rimanere competitivi.

OpenAI conduce anche l'autocensura. Ad esempio, OpenAI non gestirà i contenuti NSFW. OpenAI non prevederà nemmeno le prossime elezioni presidenziali. Riteniamo che i casi d'uso dell'IA non siano solo interessanti, ma che esista un mercato enorme, ma che OpenAI non toccherà per motivi politici.

L'open source è un'ottima soluzione perché i repository Github non sono influenzati dagli azionisti o dal consiglio di amministrazione. Un esempio è Venice.ai, che promette privacy e opera in modo resistente alla censura. Web3 AI può effettivamente portarlo al livello successivo alimentando questi modelli di software open source (OSS) su cluster GPU a basso costo per eseguire l'inferenza. È per questi motivi che crediamo che OSS + Web3 sia la combinazione ideale per aprire la strada a un’intelligenza artificiale resistente alla censura.

Vero vantaggio n. 4: evita di inviare informazioni di identificazione personale a OpenAI

Le grandi imprese hanno preoccupazioni sulla privacy dei propri dati interni. Per questi clienti, affidare a una terza parte OpenAI la proprietà di questi dati può essere difficile.

Nel Web3 può sembrare ancora più preoccupante (in apparenza) per queste aziende che i loro dati interni appaiano improvvisamente sul web decentralizzato. Tuttavia, ci sono innovazioni nelle tecnologie di miglioramento della privacy per l’intelligenza artificiale:

Trusted Execution Environment (TEE) come Super Protocol

Crittografia completamente omomorfica (FHE) come Fhenix.io (una società di portafoglio di un fondo gestito da Hack VC) o Inco Network (entrambi forniti da Zama.ai), nonché PPML di Bagel

Queste tecnologie sono ancora in evoluzione e le prestazioni continuano a migliorare con i prossimi ASIC Zero Knowledge (ZK) e FHE. Ma l’obiettivo a lungo termine è proteggere i dati aziendali perfezionando al tempo stesso il modello. Con l’emergere di questi protocolli, Web3 potrebbe diventare un luogo ancora più attraente per l’informatica basata sull’intelligenza artificiale che preserva la privacy.

Vero vantaggio n. 5: sfruttare le ultime innovazioni nel modello open source

Negli ultimi decenni il software open source ha intaccato la quota di mercato del software proprietario. Consideriamo LLM come una forma di software proprietario in grado di interrompere l'OSS. Esempi notevoli di sfidanti includono Llama, RWKV e Mistral.ai. Questo elenco crescerà senza dubbio nel tempo (un elenco più completo può essere trovato su Openrouter.ai). Sfruttando l'intelligenza artificiale Web3 (basata sui modelli OSS), le persone possono innovare con queste nuove innovazioni.

Riteniamo che, nel tempo, la forza lavoro di sviluppo globale dell’open source combinata con gli incentivi legati alla criptovaluta possano guidare una rapida innovazione nei modelli open source e negli agenti e nei framework costruiti su di essi. Un esempio di protocollo di un agente AI è Theoriq. Theoriq sfrutta i modelli OSS per creare una rete interconnessa di agenti IA componibili che possono essere assemblati per creare soluzioni IA di livello superiore.

Il motivo per cui siamo fiduciosi su questo è che in passato, la maggior parte delle innovazioni del "software per sviluppatori" sono state lentamente superate dall'OSS nel tempo. Microsoft una volta era una società di software proprietario e ora è la società numero 1 che contribuisce a Github. C'è una ragione per questo, se guardi come Databricks, PostGresSQL, MongoDB e altri stanno sconvolgendo i database proprietari, questo è un esempio di OSS che sconvolge un intero settore, quindi il precedente qui è piuttosto convincente.

Tuttavia, c'è un problema. Una cosa complicata dei modelli linguistici di grandi dimensioni open source (OSS LLM) è che OpenAI ha iniziato a stipulare accordi di licenza per i dati a pagamento con alcune organizzazioni, come Reddit e il New York Times. Se questa tendenza continua, i modelli linguistici di grandi dimensioni open source potrebbero diventare più difficili da competere a causa delle barriere finanziarie all’acquisizione dei dati. Nvidia potrebbe aumentare ulteriormente i propri investimenti nell'informatica riservata come aiuto per proteggere la condivisione dei dati. Il tempo rivelerà come si svolgerà tutto ciò.

Vero vantaggio n. 6: consenso tramite campionamento casuale che riduce i costi o prove ZK

Una delle sfide dell'inferenza AI Web3 è la verifica. Si presuppone che i validatori abbiano l’opportunità di ingannare i propri risultati per guadagnare commissioni, quindi la convalida delle inferenze è una misura importante. Si noti che questo imbroglio in realtà non è ancora avvenuto, poiché l’inferenza dell’intelligenza artificiale è agli inizi, ma è inevitabile a meno che non vengano prese misure per frenare questo comportamento.

L'approccio standard di Web3 prevede che più validatori ripetano la stessa operazione e confrontino i risultati. Come accennato in precedenza, la sfida evidente in questo problema è che l’inferenza dell’intelligenza artificiale è molto costosa a causa dell’attuale carenza di chip Nvidia di fascia alta. Dato che Web3 può fornire inferenza a basso costo tramite GPU DePIN sottoutilizzata, il calcolo ridondante indebolirà gravemente la proposta di valore di Web3.

Una soluzione più promettente è eseguire prove ZK per calcoli di inferenza AI fuori catena. In questo caso, è possibile verificare una dimostrazione ZK concisa per determinare se il modello è stato addestrato correttamente o se l'inferenza è stata eseguita correttamente (chiamata zkML). Gli esempi includono Modulus Labs e ZKonduit. Poiché le operazioni ZK richiedono un elevato utilizzo di calcolo, le prestazioni di queste soluzioni sono ancora agli inizi. Tuttavia, ci aspettiamo che la situazione migliori con il rilascio degli ASIC hardware ZK nel prossimo futuro.

Più promettente è l’idea di un metodo di ragionamento AI basato sul campionamento un po’ “ottimistico”. In questo modello, solo una piccola parte dei risultati prodotti dal validatore viene verificata, ma il costo economico dello slash è fissato abbastanza alto in modo che, se scoperto, vi sia un forte disincentivo economico per i validatori a imbrogliare. In questo modo risparmi calcoli ridondanti.

Un'altra idea promettente sono le soluzioni di watermarking e impronte digitali, come quella proposta da Bagel Network. Questo è simile al meccanismo con cui Amazon Alexa fornisce la garanzia della qualità del modello AI interno al dispositivo su milioni di dispositivi.

Vero vantaggio n. 7: risparmio con OSS (profitti di OpenAI)

La prossima opportunità che Web3 offre all’intelligenza artificiale è la democratizzazione dei costi. Finora abbiamo discusso del risparmio sui costi della GPU con DePIN. Ma Web3 offre anche l’opportunità di risparmiare margini sui servizi centralizzati di intelligenza artificiale Web2 (come OpenAI, che al momento della stesura di questo articolo ha oltre 1 miliardo di dollari di entrate annuali). Questi risparmi sui costi derivano dal fatto che l’utilizzo di modelli OSS anziché di modelli proprietari consente di ottenere ulteriori risparmi perché i creatori del modello non stanno cercando di realizzare un profitto.

Molti modelli OSS rimarranno completamente gratuiti, garantendo la migliore economia per i clienti. Ma potrebbero esserci anche alcuni modelli OSS che stanno provando questi metodi di monetizzazione. Considera che solo il 4% di tutti i modelli su Hugging Face sono stati formati da aziende con il budget per contribuire a sovvenzionare i modelli. Il restante 96% dei modelli viene formato dalla comunità. Questo gruppo (96% di Hugging Face) ha costi reali di base (inclusi costi di elaborazione e costi dei dati). Pertanto, questi modelli dovranno essere monetizzati in qualche modo.

Esistono diverse proposte per monetizzare il modello del software open source. Uno dei più interessanti è il concetto di “emissione iniziale del modello”, che consiste nel tokenizzare il modello stesso, trattenere una parte dei token per il team e incanalare alcune entrate future dal modello ai possessori di token, anche se c’è sicuramente qualche Barriere legali e normative.

Altri modelli OSS tenteranno di monetizzare l'utilizzo. Tieni presente che se ciò diventasse realtà, il modello OSS potrebbe iniziare ad assomigliare sempre di più al modello di monetizzazione Web2. Ma in realtà il mercato sarà diviso in due parti, con alcuni modelli che rimarranno completamente liberi.

Vero vantaggio n. 8: origini dati decentralizzate

Una delle maggiori sfide che l’intelligenza artificiale deve affrontare è trovare i dati giusti per addestrare un modello. Abbiamo accennato in precedenza che la formazione decentralizzata sull’intelligenza artificiale presenta le sue sfide. Ma che ne dici di utilizzare una rete decentralizzata per ottenere i dati (che possono poi essere utilizzati per la formazione altrove, anche nelle tradizionali sedi Web2)?

Questo è esattamente ciò che stanno facendo startup come Grass. Grass è una rete decentralizzata di "data scraper" che contribuiscono con la potenza di elaborazione inattiva delle loro macchine alle fonti di dati per fornire informazioni per l'addestramento dei modelli di intelligenza artificiale. Ipoteticamente, su larga scala, questa fonte di dati potrebbe sovraperformare gli sforzi delle fonti di dati interne di qualsiasi azienda grazie alla potenza di un'ampia rete di nodi incentivati. Ciò include non solo ottenere più dati, ma anche ottenerli più frequentemente per renderli più pertinenti e aggiornati. In effetti, è anche impossibile fermare le orde di dati decentralizzati che raschiano perché sono intrinsecamente decentralizzati e non risiedono all’interno di un singolo indirizzo IP. Hanno anche una rete che pulisce e normalizza i dati, quindi sono utili una volta cancellati.

Una volta in possesso dei dati, è necessaria anche una posizione in cui archiviarli sulla catena e gli LLM generati utilizzando tali dati.

Tieni presente che il ruolo dei dati in Web3 AI potrebbe cambiare in futuro. Lo stato attuale degli LLM oggi è quello di pre-addestrare il modello utilizzando i dati e perfezionarlo nel tempo con più dati. Tuttavia, poiché i dati su Internet cambiano in tempo reale, questi modelli sono sempre un po’ obsoleti. Pertanto, le risposte dedotte da LLM sono leggermente imprecise.

La direzione futura potrebbe essere un nuovo paradigma: dati "in tempo reale". Il concetto è che quando a un modello linguistico di grandi dimensioni (LLM) viene posta una domanda di inferenza, il LLM può passare attraverso suggerimenti e inserire dati che vengono raccolti nuovamente da Internet in tempo reale. In questo modo, LLM può utilizzare i dati più recenti. Grass sta lavorando su questa parte.

Un ringraziamento speciale alle seguenti persone per il loro feedback e il loro aiuto con questo articolo: Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng, JW Wang.