Attualmente, il settore dell'AI è dominato principalmente da giganti centralizzati del Web2 nei processi di calcolo e formazione. Queste aziende occupano una posizione dominante grazie alla loro potente forza di capitale, hardware all'avanguardia e vaste risorse dati. Anche se questa situazione potrebbe persistere nello sviluppo dei modelli di machine learning (ML) generali più potenti, le reti Web3 potrebbero gradualmente diventare una fonte di risorse di calcolo più economica e accessibile per modelli di fascia media o personalizzati.
Allo stesso modo, quando la domanda di inferenza supera le capacità dei dispositivi edge personali, alcuni consumatori potrebbero scegliere le reti Web3 per ottenere output meno soggetti a censura e più diversificati. Invece di cercare di sovvertire completamente l'intero stack tecnologico dell'AI, i partecipanti al Web3 dovrebbero concentrarsi su questi scenari di nicchia e sfruttare appieno i loro vantaggi unici in termini di resistenza alla censura, trasparenza e verificabilità sociale.
Le risorse hardware necessarie per addestrare i modelli di base di nuova generazione (come GPT o BERT) sono scarse e costose, e la domanda di chip ad alte prestazioni continuerà a superare l'offerta. Questa scarsità di risorse porta a una concentrazione dell'hardware nelle mani di poche aziende leader con fondi adeguati, che utilizzano tali hardware per addestrare e commercializzare i modelli di base con le migliori prestazioni e la massima complessità.
Tuttavia, il ritmo di aggiornamento dell'hardware è molto rapido. Quindi, come verrà utilizzato l'hardware obsoleto di fascia media o a bassa prestazione?
Questo hardware sarà probabilmente utilizzato per addestrare modelli più semplici o più specifici. Abbinando diverse categorie di modelli a hardware di diverse prestazioni, è possibile ottenere una configurazione ottimale delle risorse. In questo contesto, i protocolli Web3 possono svolgere un ruolo chiave coordinando l'accesso a risorse di calcolo diversificate e a basso costo. Ad esempio, i consumatori possono utilizzare modelli semplici di fascia media addestrati su set di dati personali e scegliere solo modelli di alta gamma addestrati e ospitati da aziende centralizzate quando si tratta di compiti più complessi, assicurando nel contempo che l'identità dell'utente rimanga nascosta e i dati delle richieste siano crittografati.
Oltre ai problemi di efficienza, le preoccupazioni riguardo ai pregiudizi e alla potenziale censura nei modelli centralizzati stanno crescendo. L'ambiente Web3 è noto per la sua trasparenza e verificabilità, e può fornire supporto per l'addestramento di modelli che sono stati trascurati o considerati troppo sensibili dal Web2. Anche se questi modelli potrebbero non essere competitivi in termini di prestazioni e innovazione, hanno comunque un valore significativo per alcuni gruppi della società. Pertanto, i protocolli Web3 possono creare un mercato unico in questo ambito offrendo servizi di addestramento di modelli più aperti, affidabili e resistenti alla censura.
Inizialmente, i due approcci, centralizzato e decentralizzato, possono coesistere, servendo ciascuno casi d'uso diversi. Tuttavia, con il costante miglioramento dell'esperienza degli sviluppatori e della compatibilità delle piattaforme nel Web3, così come l'emergere degli effetti di rete dell'AI open source, il Web3 potrebbe alla fine competere nei settori chiave delle aziende centralizzate. Soprattutto quando i consumatori diventano sempre più consapevoli delle limitazioni dei modelli centralizzati, i vantaggi del Web3 diventeranno ancora più evidenti.
Oltre all'addestramento di modelli di fascia media o specifici, i partecipanti al Web3 hanno anche il vantaggio di offrire soluzioni di inferenza più trasparenti e flessibili. I servizi di inferenza decentralizzati possono portare a diversi benefici, come zero tempi di inattività, composizione modulare dei modelli, valutazioni pubbliche delle prestazioni dei modelli e output più diversificati e senza censura. Questi servizi possono anche evitare efficacemente il problema del “lock-in” dei fornitori che i consumatori affrontano a causa della dipendenza da pochi fornitori centralizzati. Simile all'addestramento dei modelli, il vantaggio competitivo dello strato di inferenza decentralizzato non risiede nella potenza di calcolo stessa, ma nel risolvere alcuni problemi esistenti da lungo tempo, come la trasparenza dei parametri di fine tuning closed-source, la mancanza di verificabilità e i costi elevati.
Dan Olshansky ha proposto una visione molto promettente, cioè creare più opportunità per i ricercatori e ingegneri AI attraverso la rete di routing di inferenza AI di POKT, consentendo loro di mettere in pratica i propri risultati di ricerca e ottenere entrate aggiuntive tramite modelli di machine learning (ML) o intelligenza artificiale (AI) personalizzati. Più importante, questa rete è in grado di promuovere una concorrenza più equa nel mercato dei servizi di inferenza integrando risultati di inferenza provenienti da diverse fonti (inclusi fornitori decentralizzati e centralizzati).
Anche se le previsioni ottimistiche suggeriscono che l'intero stack tecnologico dell'AI potrebbe migrare completamente on-chain in futuro, attualmente questo obiettivo affronta enormi sfide legate alla concentrazione di dati e risorse di calcolo, poiché queste risorse forniscono un vantaggio competitivo significativo agli attuali giganti. Tuttavia, le reti di coordinamento e calcolo decentralizzate mostrano un valore unico nel fornire servizi AI più personalizzati, economici, più aperti alla competizione e resistenti alla censura. Concentrandosi su questi segmenti di mercato dove questi valori sono più critici, il Web3 può costruire le proprie barriere competitive, assicurando che le tecnologie più influenti di questa era possano evolversi insieme in molte direzioni, beneficiando un pubblico più ampio di stakeholder, piuttosto che essere monopolizzate da pochi tradizionali giganti.
Infine, vorrei ringraziare in particolare tutti i membri del team di Placeholder Investment, così come Kyle Samani di Multicoin Capital, Anand Iyer di Canonical VC, Keccak Wong di Nectar AI, Alpin Yukseloglu di Osmosis Labs e Cameron Dennis della NEAR Foundation, che hanno fornito revisioni e feedback preziosi durante la scrittura di questo documento.