Di Alex Xu, partner di ricerca presso Mint Ventures
introduzione
Questo ciclo del mercato rialzista delle criptovalute è stato il meno entusiasmante in termini di innovazione commerciale. A differenza del precedente mercato rialzista, che ha visto tendenze fenomenali come DeFi, NFT e GameFi, in questo ciclo mancano importanti punti caldi del settore. Di conseguenza, si è verificata una crescita lenta della base utenti, degli investimenti del settore e dell’attività degli sviluppatori.
Questa tendenza è evidente anche nel prezzo delle criptovalute. Durante l'intero ciclo, la maggior parte delle altcoin, incluso ETH, hanno costantemente perso valore rispetto a BTC. La valutazione delle piattaforme di contratto intelligente è in gran parte guidata dalla prosperità delle loro applicazioni. Quando l’innovazione nello sviluppo delle applicazioni ristagna, diventa difficile aumentare la valutazione delle catene pubbliche.
Tuttavia, l'intelligenza artificiale (IA), in quanto settore relativamente nuovo nel panorama del business delle criptovalute, potrebbe trarre vantaggio dalla crescita esplosiva e dagli hotspot in corso nel più ampio mondo commerciale. Ciò offre ai progetti di IA all'interno dello spazio delle criptovalute il potenziale per attrarre un'attenzione incrementale significativa.
Nel report IO.NET pubblicato da Mint Ventures ad aprile, la necessità di integrare l'IA con la crittografia è stata analizzata approfonditamente. I vantaggi delle soluzioni criptoeconomiche, come il determinismo, l'allocazione efficiente delle risorse e l'assenza di fiducia, potrebbero potenzialmente affrontare le tre principali sfide dell'IA: casualità, intensità delle risorse e difficoltà nel distinguere tra uomo e macchina.
Nel settore dell'intelligenza artificiale dell'economia crittografica, in questo articolo voglio discutere ed esplorare diverse questioni critiche, tra cui:
Nel settore dell'intelligenza artificiale crittografica esistono narrazioni emergenti o potenzialmente esplosive.
I percorsi catalizzatori e le strutture logiche di queste narrazioni.
Progetti di crittografia e intelligenza artificiale.
I rischi e le incertezze connessi allo sviluppo del settore criptovalute e intelligenza artificiale.
Si prega di notare che questo articolo riflette il mio pensiero attuale e potrebbe evolversi. Le opinioni qui sono soggettive e potrebbero esserci errori nei fatti, nei dati e nel ragionamento logico. Questo non è un consiglio finanziario, ma feedback e discussioni sono benvenuti.
La prossima ondata di narrazioni nel settore dell'intelligenza artificiale crittografica
Prima di immergerci nelle tendenze emergenti nel settore della crypto AI, esaminiamo prima le principali narrazioni attuali. In base alla capitalizzazione di mercato, quelle con una valutazione superiore a 1 miliardo di $ includono:
Potenza di calcolo
Render Network ($RNDR): con una capitalizzazione di mercato circolante di 3,85 miliardi di dollari,
Akash: con una capitalizzazione di mercato circolante di 1,2 miliardi di dollari
IO.NET: recentemente valutata 1 miliardo di dollari nel suo ultimo round di finanziamento.
Reti di algoritmi
Bittensor ($TAO): vanta una capitalizzazione di mercato circolante di 2,97 miliardi di dollari.
Agenti dell'intelligenza artificiale
Fetch.ai ($FET): raggiunge una capitalizzazione di mercato circolante pre-fusione di 2,1 miliardi di dollari
*Data di aggiornamento dei dati: 24 maggio 2024.
Oltre ai settori sopra menzionati, quale settore dell'intelligenza artificiale produrrà il prossimo progetto con una capitalizzazione di mercato superiore a 1 miliardo di dollari?
Credo che questo possa essere ipotizzato da due prospettive: la narrazione del “lato dell’offerta industriale” e la narrazione del “momento GPT”.
Esaminare le opportunità nel campo dell'energia e dei dati dal punto di vista dell'offerta industriale
Dal punto di vista dell'offerta industriale, le quattro principali forze trainanti alla base dello sviluppo dell'intelligenza artificiale sono:
Algoritmi: gli algoritmi di alta qualità possono eseguire attività di addestramento e inferenza in modo più efficiente.
Potenza di calcolo: sia l'addestramento del modello che l'inferenza richiedono una potenza di calcolo sostanziale fornita dall'hardware GPU. Questo requisito rappresenta un importante collo di bottiglia industriale, con l'attuale carenza di chip che fa aumentare i prezzi per i chip di fascia medio-alta.
Energia: i data center AI richiedono un consumo energetico significativo. Oltre all'elettricità necessaria alle GPU per eseguire attività di calcolo, è necessaria anche una notevole quantità di energia per il raffreddamento delle GPU. Nei grandi data center, i soli sistemi di raffreddamento rappresentano circa il 40% del consumo energetico totale.
Dati: per migliorare le prestazioni dei modelli di grandi dimensioni è necessario espandere i parametri di addestramento, il che comporta una domanda massiccia di dati di alta qualità.
Per quanto riguarda le quattro forze trainanti industriali menzionate sopra, i settori degli algoritmi e della potenza di calcolo hanno già progetti crittografici con una capitalizzazione di mercato circolante superiore a 1 miliardo di $. Tuttavia, i settori dell'energia e dei dati devono ancora vedere progetti raggiungere capitalizzazioni di mercato simili.
In realtà, potrebbero presto emergere carenze nella fornitura di energia e dati, trasformandosi potenzialmente nei prossimi focolai del settore e stimolando l'ondata di progetti correlati nel settore delle criptovalute.
Cominciamo con la parte energetica.
Il 29 febbraio 2024, Elon Musk ha osservato alla conferenza Bosch ConnectedWorld 2024: "Ho previsto la carenza di chip più di un anno fa e la prossima carenza sarà quella di elettricità. Penso che l'anno prossimo vedrete che non riusciranno a trovare abbastanza elettricità per far funzionare tutti i chip".
Secondo dati specifici, lo Stanford University Institute for Human-Centered Artificial Intelligence, guidato da Fei-Fei Li, pubblica annualmente l'"AI Index Report". Nel loro rapporto del 2022 sul settore dell'IA per il 2021, il gruppo di ricerca ha stimato che il consumo energetico dell'IA quell'anno rappresentava solo lo 0,9% della domanda globale di elettricità, esercitando una pressione limitata sull'energia e sull'ambiente. Tuttavia, nel 2023, l'Agenzia internazionale per l'energia (IEA) ha riassunto il 2022 affermando che i data center globali hanno consumato circa 460 terawattora (TWh) di elettricità, pari al 2% della domanda globale di elettricità. Hanno anche previsto che entro il 2026 il consumo energetico globale dei data center sarà di almeno 620 TWh, raggiungendo potenzialmente fino a 1050 TWh.
In realtà, le stime dell’Agenzia Internazionale per l’Energia rimangono prudenti, poiché numerosi progetti di intelligenza artificiale pronti per il lancio richiederanno molta più energia di quanto previsto nel 2023.
Ad esempio, Microsoft e OpenAI stanno pianificando il progetto Stargate. Questa ambiziosa iniziativa dovrebbe iniziare nel 2028 e concludersi intorno al 2030. Il progetto mira a costruire un supercomputer dotato di milioni di chip AI dedicati, fornendo a OpenAI una potenza di calcolo senza precedenti per far progredire la sua ricerca nell'intelligenza artificiale, in particolare nei grandi modelli linguistici. Il costo stimato di questo progetto supera i 100 miliardi di dollari, ovvero 100 volte il costo degli attuali grandi data center.
Si prevede che il consumo energetico del solo progetto Stargate raggiungerà i 50 TWh.
Di conseguenza, il fondatore di OpenAI Sam Altman ha dichiarato al Forum di Davos questo gennaio: “La futura intelligenza artificiale richiederà innovazioni energetiche, poiché l’elettricità consumata dall’IA supererà di gran lunga le aspettative”.
Dopo la potenza di calcolo e l'energia, la prossima grande carenza nel settore dell'intelligenza artificiale in rapida crescita sarà probabilmente quella dei dati.
Di fatto, la carenza di dati di alta qualità necessari per l'intelligenza artificiale è già diventata una realtà.
Attraverso l'evoluzione continua di GPT, abbiamo ampiamente compreso il modello di potenziamento delle capacità di grandi modelli linguistici: espandendo i parametri del modello e i dati di training, le capacità di questi modelli possono essere aumentate esponenzialmente. Questo processo non mostra alcun collo di bottiglia tecnico immediato.
Tuttavia, è probabile che in futuro i dati di alta qualità e disponibili al pubblico diventino sempre più scarsi. I prodotti AI potrebbero trovarsi ad affrontare conflitti tra domanda e offerta simili a quelli sperimentati con i chip e l'energia.
In primo luogo, aumentano le controversie sulla proprietà dei dati.
Il 27 dicembre 2023, il New York Times ha intentato una causa contro OpenAI e Microsoft presso la Corte distrettuale degli Stati Uniti, sostenendo che hanno utilizzato milioni dei suoi articoli senza autorizzazione per addestrare il modello GPT. Il New York Times chiede miliardi di dollari di danni legali e effettivi per la "copia e l'uso illegali di opere di valore unico" e chiede la distruzione di tutti i modelli e dati di addestramento che includono i suoi materiali protetti da copyright.
Alla fine di marzo 2024, il New York Times ha rilasciato una nuova dichiarazione, estendendo le sue accuse oltre OpenAI per includere Google e Meta. La dichiarazione sosteneva che OpenAI aveva utilizzato uno strumento di riconoscimento vocale chiamato Whisper per trascrivere un gran numero di video di YouTube in testo, che è stato poi utilizzato per addestrare GPT-4. Il New York Times ha sostenuto che è diventata una pratica comune per le grandi aziende impiegare tattiche subdole nell'addestramento dei loro modelli di intelligenza artificiale. Hanno anche sottolineato che Google è impegnata in pratiche simili, convertendo i contenuti video di YouTube in testo per l'addestramento del loro modello, violando essenzialmente i diritti dei creatori di contenuti video.
La causa tra il New York Times e OpenAI, soprannominata il primo "caso di copyright AI", difficilmente verrà risolta in tempi rapidi a causa della sua complessità e del profondo impatto che potrebbe avere sul futuro dei contenuti e del settore AI. Un possibile risultato è un accordo extragiudiziale, con Microsoft e OpenAI con le tasche piene che pagheranno una cifra significativa di risarcimento. Tuttavia, le future controversie sul copyright dei dati faranno inevitabilmente aumentare il costo complessivo dei dati di alta qualità.
Inoltre, si dice che Google, in quanto motore di ricerca più grande al mondo, stia valutando la possibilità di far pagare delle tariffe per i suoi servizi di ricerca, non al grande pubblico, ma alle aziende di intelligenza artificiale.
Fonte: Reuters
I server del motore di ricerca di Google contengono enormi quantità di contenuti, essenzialmente tutti i contenuti apparsi sulle pagine web dal 21° secolo. I prodotti di ricerca basati sull'intelligenza artificiale, come Perplexity e Kimi e Meta Sota sviluppati da aziende cinesi, elaborano i dati recuperati da queste ricerche tramite l'intelligenza artificiale e poi li consegnano agli utenti. L'introduzione di tariffe per le aziende di intelligenza artificiale per accedere ai dati del motore di ricerca aumenterà senza dubbio il costo per ottenere i dati.
Inoltre, i giganti dell'intelligenza artificiale non si concentrano solo sui dati pubblici, ma prendono di mira anche i dati interni non pubblici.
Photobucket, un sito Web di hosting di immagini e video di lunga data, un tempo vantava 70 milioni di utenti e quasi la metà della quota di mercato delle foto online degli Stati Uniti nei primi anni 2000. Tuttavia, con l'ascesa dei social media, la base di utenti di Photobucket si è notevolmente ridotta, attestandosi ora a soli 2 milioni di utenti attivi, ciascuno dei quali paga una tariffa annuale elevata di $ 399. Secondo il suo contratto utente e la sua politica sulla privacy, gli account inattivi per più di un anno vengono recuperati, concedendo a Photobucket il diritto di utilizzare le immagini e i video caricati. Il CEO di Photobucket, Ted Leonard, ha rivelato che i suoi 1,3 miliardi di foto e video sono estremamente preziosi per l'addestramento di modelli di intelligenza artificiale generativa. Attualmente sta negoziando con diverse aziende tecnologiche per vendere questi dati, con prezzi che vanno da 5 centesimi a 1 dollaro per foto e oltre 1 dollaro per video. Leonard stima che i dati di Photobucket potrebbero valere oltre 1 miliardo di dollari.
Il team di ricerca EPOCH, specializzato nelle tendenze di sviluppo dell'intelligenza artificiale, ha pubblicato un rapporto intitolato "Esauriremo i dati? Un'analisi dei limiti del ridimensionamento dei set di dati nell'apprendimento automatico". Questo rapporto, basato sull'utilizzo dei dati nel 2022 nell'apprendimento automatico e sulla generazione di nuovi dati, considerando anche la crescita delle risorse di elaborazione, ha concluso che i dati di testo di alta qualità potrebbero esaurirsi tra febbraio 2023 e 2026 e i dati di immagine potrebbero esaurirsi tra il 2030 e il 2060. Senza miglioramenti significativi nell'efficienza di utilizzo dei dati o l'emergere di nuove fonti di dati, l'attuale tendenza dei grandi modelli di apprendimento automatico che dipendono da enormi set di dati potrebbe rallentare.
Considerando l’attuale tendenza dei giganti dell’intelligenza artificiale ad acquistare dati a prezzi elevati, sembra che i dati di testo gratuiti e di alta qualità siano effettivamente esauriti, convalidando la previsione di EPOCH di due anni fa.
Contemporaneamente, stanno emergendo soluzioni alla “carenza di dati AI”, in particolare i dati AI come servizio.
Defined.ai è una di queste aziende che offre dati reali personalizzati e di alta qualità per le aziende di intelligenza artificiale.
Esempi di tipi di dati su Defined.ai
Il modello di business di Defined.ai funziona come segue: le aziende di intelligenza artificiale specificano i requisiti dei dati, ad esempio la necessità di immagini con una certa qualità di risoluzione, prive di sfocature e sovraesposizioni e con contenuti autentici. Le aziende possono anche richiedere temi specifici in base alle loro attività di formazione, come foto notturne di coni stradali, parcheggi e cartelli stradali per migliorare il riconoscimento delle scene notturne da parte dell'intelligenza artificiale. Il pubblico può accettare queste attività, caricare le proprie foto, che vengono poi esaminate da Defined.ai. Le immagini approvate vengono pagate, in genere $ 1-2 per immagine di alta qualità, $ 5-7 per breve videoclip e $ 100-300 per un video di alta qualità di oltre 10 minuti. Il testo viene compensato a $ 1 per mille parole, con chi completa l'attività che guadagna circa il 20% delle commissioni. Questo approccio alla fornitura di dati potrebbe diventare un nuovo business di crowdsourcing simile a "etichettatura dei dati".
La distribuzione globale dei compiti, gli incentivi economici, la determinazione del prezzo delle risorse dati, la circolazione e la tutela della privacy, con la possibilità per tutti di partecipare, sembrano molto simili a un modello di business adatto al paradigma Web3.
Analisi dei progetti Crypto + AI dal punto di vista dell'offerta industriale
L'attenzione generata dalla carenza di chip si è estesa al settore delle criptovalute, posizionando la potenza di calcolo decentralizzata come il settore dell'intelligenza artificiale più popolare e di maggior valore fino ad oggi.
Se i conflitti tra domanda e offerta nel settore dell'intelligenza artificiale per energia e dati dovessero aggravarsi nei prossimi 1-2 anni, quali progetti narrativi sono attualmente presenti nel settore delle criptovalute?
Cominciamo con i progetti di concetto energetico.
Attualmente, i progetti energetici quotati sulle principali borse centralizzate (CEX) sono molto rari; Power Ledger e il suo token nativo $POWR ne sono l'unico esempio.
Power Ledger è stata fondata nel 2017 come piattaforma energetica completa basata su blockchain, volta a decentralizzare il trading energetico. Promuove il trading diretto di elettricità tra individui e comunità, supporta l'adozione diffusa di energia rinnovabile e garantisce trasparenza ed efficienza delle transazioni tramite contratti intelligenti. Inizialmente, Power Ledger operava su una catena di consorzi adattata da Ethereum. Nella seconda metà del 2023, Power Ledger ha aggiornato il suo whitepaper e ha lanciato la sua catena pubblica completa, basata sul framework tecnico di Solana, per gestire microtransazioni ad alta frequenza nel mercato dell'energia distribuita. Le principali aree di business di Power Ledger includono attualmente:
Trading di energia: consentire agli utenti di acquistare e vendere energia elettrica direttamente, in modalità peer-to-peer, in particolare da fonti rinnovabili.
Commercio di prodotti ambientali: agevolazione del commercio di crediti di carbonio e certificati di energia rinnovabile, nonché finanziamenti basati su prodotti ambientali.
Operazioni sulla catena pubblica: attrarre sviluppatori di applicazioni per lavorare sulla blockchain di Power Ledger, con commissioni di transazione pagate in token $POWR.
L'attuale capitalizzazione di mercato circolante di Power Ledger è di 170 milioni di dollari, con una capitalizzazione di mercato completamente diluita di 320 milioni di dollari.
Rispetto ai progetti crittografici basati sul concetto energetico, nel settore dei dati esiste una più ampia varietà di obiettivi.
Di seguito sono elencati i progetti del settore dati che sto seguendo attualmente, che sono stati quotati su almeno uno dei principali CEX, come Binance, OKX o Coinbase, ordinati in base alla valutazione completamente diluita (FDV) dal più basso al più alto:
1. Streamer ($DATA)
La proposta di valore di Streamr è quella di costruire una rete di dati decentralizzata in tempo reale in cui gli utenti possono liberamente scambiare e condividere dati mantenendo il pieno controllo sulle proprie informazioni. Attraverso il suo mercato di dati, Streamr mira a consentire ai produttori di dati di vendere flussi di dati direttamente ai consumatori interessati, eliminando la necessità di intermediari, riducendo così i costi e aumentando l'efficienza.
Fonte: https://streamr.network/hub/projects
Nelle applicazioni del mondo reale, Streamr ha collaborato con un altro progetto hardware per veicoli Web3, DIMO, per raccogliere dati quali temperatura e pressione atmosferica tramite sensori hardware DIMO installati nei veicoli. Questi dati vengono poi trasmessi come flussi di dati meteo alle organizzazioni che ne hanno bisogno.
A differenza di altri progetti di dati, Streamr si concentra maggiormente sui dati IoT e dei sensori hardware. Oltre ai dati dei veicoli DIMO, altri progetti degni di nota includono flussi di dati sul traffico in tempo reale a Helsinki. Di conseguenza, il token di Streamr, $DATA, ha registrato un'impennata significativa, raddoppiando il suo valore in un solo giorno durante il picco del concetto Depin lo scorso dicembre.
Attualmente, la capitalizzazione di mercato circolante di Streamr è di 44 milioni di dollari, con una capitalizzazione di mercato completamente diluita di 58 milioni di dollari.
2. Covalente ($CQT)
A differenza di altri progetti di dati, Covalent si concentra sulla fornitura di dati blockchain. La rete Covalent legge i dati dai nodi blockchain tramite RPC, li elabora e li organizza e crea un database di query efficiente. Ciò consente agli utenti Covalent di recuperare rapidamente le informazioni di cui hanno bisogno senza eseguire query complesse direttamente sui nodi blockchain. Tali servizi sono denominati "indicizzazione dei dati blockchain".
Covalent serve principalmente clienti aziendali, tra cui vari protocolli DeFi e molte società di criptovalute centralizzate come Consensys (la società madre di MetaMask), CoinGecko (un noto sito di tracciamento di asset crittografici), Rotki (uno strumento fiscale) e Rainbow (un portafoglio crittografico). Inoltre, anche giganti tradizionali del settore finanziario come Fidelity ed Ernst & Young sono tra i clienti di Covalent. Secondo le dichiarazioni ufficiali di Covalent, i ricavi del progetto dai servizi dati hanno già superato quelli del progetto leader nello stesso campo, The Graph.
Il settore Web3, con i suoi dati on-chain integrati, trasparenti, autentici e in tempo reale, è pronto a diventare una fonte di dati di alta qualità per scenari di intelligenza artificiale specializzati e specifici "piccoli modelli di intelligenza artificiale". Covalent, in qualità di fornitore di dati, ha già iniziato a offrire dati per vari scenari di intelligenza artificiale e ha introdotto dati strutturati verificabili su misura per le applicazioni di intelligenza artificiale.
Fonte: Soluzioni su Covalente
Ad esempio, Covalent fornisce dati per la piattaforma di trading intelligente on-chain SmartWhales, che utilizza l'intelligenza artificiale per identificare modelli e indirizzi di trading redditizi. Entendre Finance sfrutta i dati strutturati di Covalent, elaborati dalla tecnologia AI per informazioni in tempo reale, rilevamento di anomalie e analisi predittive.
Attualmente, i principali scenari applicativi per i servizi di dati on-chain di Covalent sono prevalentemente nel campo finanziario. Tuttavia, poiché i prodotti Web3 e i tipi di dati continuano a diversificarsi, si prevede che i casi d'uso per i dati on-chain si espanderanno ulteriormente.
La capitalizzazione di mercato circolante di Covalent è di 150 milioni di dollari, con una capitalizzazione di mercato completamente diluita di 235 milioni di dollari, offrendo un notevole vantaggio di valutazione rispetto a The Graph, un progetto leader nel settore dell'indicizzazione dei dati blockchain.
3. Hivemapper ($Miele)
Tra tutti i tipi di dati, i dati video solitamente hanno il prezzo più alto. Hivemapper può fornire alle aziende di intelligenza artificiale sia informazioni video che cartografiche. Hivemapper è un progetto di mappatura globale decentralizzato che mira a creare un sistema di mappe dettagliato, dinamico e accessibile tramite tecnologia blockchain e contributi della comunità. I partecipanti catturano i dati delle mappe utilizzando le dashcam e li aggiungono alla rete dati open source Hivemapper, guadagnando token $HONEY come ricompensa per i loro contributi. Per migliorare gli effetti di rete e ridurre i costi di interazione, Hivemapper è basato su Solana.
Hivemapper è stata fondata nel 2015 con la visione originale di creare mappe usando i droni. Tuttavia, questo approccio si è rivelato difficile da scalare, portando l'azienda a spostarsi verso l'uso di dashcam e smartphone per catturare dati geografici, riducendo così il costo della creazione di mappe globali.
Rispetto ai software di Street View e di mappatura come Google Maps, Hivemapper sfrutta una rete di incentivi e un modello di crowdsourcing per espandere in modo più efficiente la copertura della mappa, mantenere aggiornati i dati delle mappe del mondo reale e migliorare la qualità video.
Prima dell'impennata della domanda di dati da parte dell'IA, i principali clienti di Hivemapper includevano i dipartimenti di guida autonoma di aziende automobilistiche, fornitori di servizi di navigazione, governi, compagnie assicurative e società immobiliari. Oggi, Hivemapper può fornire dati stradali e ambientali estesi all'IA e a modelli di grandi dimensioni tramite API. Aggiornando costantemente i flussi di dati di immagini e caratteristiche stradali, i modelli di IA e ML saranno meglio equipaggiati per tradurre questi dati in capacità avanzate, consentendo loro di eseguire attività relative alla posizione geografica e al giudizio visivo in modo più efficace.
Fonte: Blog Hivemapper
Attualmente, la capitalizzazione di mercato circolante di $Honey, il token nativo di Hivemapper, è di 120 milioni di dollari, con una capitalizzazione di mercato completamente diluita di 496 milioni di dollari.
Oltre ai progetti sopra menzionati, altri progetti degni di nota nel settore dei dati includono:
1. The Graph ($GRT): con una capitalizzazione di mercato circolante di 3,2 miliardi di dollari e una valutazione completamente diluita (FDV) di 3,7 miliardi di dollari, The Graph fornisce servizi di indicizzazione dei dati blockchain simili a Covalent.
2. Ocean Protocol ($OCEAN): Ocean Protocol ha una capitalizzazione di mercato circolante di 670 milioni di $ e un FDV di 1,45 miliardi di $. Il progetto mira a facilitare lo scambio e la monetizzazione di dati e servizi correlati ai dati tramite il suo protocollo open source. Ocean Protocol collega i consumatori di dati con i fornitori di dati, garantendo fiducia, trasparenza e tracciabilità nella condivisione dei dati. Il progetto è destinato a fondersi con Fetch.ai e SingularityNET, con il token che si converte in $ASI.
La ricomparsa del momento GPT e l'avvento dell'intelligenza artificiale generale
A mio avviso, il "settore AI" nell'industria delle criptovalute è davvero iniziato nel 2023, l'anno giusto in cui ChatGPT ha scioccato il mondo. La rapida ondata di progetti AI sulle criptovalute è stata in gran parte guidata dall'"ondata di entusiasmo" seguita alla crescita esplosiva dell'industria AI.
Nonostante i continui aggiornamenti delle capacità con modelli come GPT-4 e GPT-turbo e le impressionanti capacità di creazione video dimostrate da Sora, nonché il rapido sviluppo di grandi modelli linguistici oltre OpenAI, è innegabile che i progressi tecnologici nell'IA stanno causando uno shock cognitivo decrescente al pubblico. Le persone stanno gradualmente adottando strumenti di IA e le sostituzioni di posti di lavoro su larga scala devono ancora materializzarsi.
Assisteremo in futuro a un altro “momento GPT”, un balzo in avanti nello sviluppo che sconvolgerà il pubblico e gli farà capire che le sue vite e il suo lavoro saranno radicalmente cambiati?
Questo momento potrebbe segnare l'avvento dell'intelligenza artificiale generale (AGI).
AGI, o intelligenza artificiale generale, si riferisce a macchine che possiedono capacità cognitive generali simili a quelle umane, capaci di risolvere un'ampia gamma di problemi complessi, piuttosto che essere limitate a compiti specifici. I sistemi AGI hanno alti livelli di pensiero astratto, ampia conoscenza di base, ragionamento completo basato sul buon senso, comprensione causale e capacità di apprendimento di trasferimento interdisciplinare. AGI si comporta al livello dei migliori esseri umani in vari campi e, in termini di capacità complessiva, supera completamente anche i gruppi umani più eccezionali.
In effetti, che sia rappresentato in romanzi di fantascienza, giochi, film o attraverso le aspettative del pubblico in seguito alla rapida ascesa di GPT, la società ha da tempo previsto l'emergere di AGI che supera i livelli cognitivi umani. In altre parole, GPT stesso è un precursore di AGI, un precursore di intelligenza artificiale generale.
Il motivo per cui GPT ha un impatto industriale e uno shock psicologico così profondi è che la sua distribuzione e le sue prestazioni hanno di gran lunga superato le aspettative del pubblico. La gente non si aspettava che un sistema di intelligenza artificiale in grado di superare il test di Turing sarebbe arrivato così rapidamente e con capacità così impressionanti.
In effetti, l'intelligenza artificiale generale (AGI) potrebbe creare di nuovo un "momento GPT" entro i prossimi 1-2 anni: proprio mentre le persone si stanno abituando a usare GPT come assistente, potrebbero presto scoprire che l'IA si è evoluta oltre il semplice ruolo di assistente. Potrebbe affrontare in modo indipendente compiti altamente creativi e impegnativi, tra cui risolvere problemi che hanno messo in difficoltà i migliori scienziati umani per decenni.
L'8 aprile di quest'anno, Elon Musk è stato intervistato da Nicolai Tangen, Chief Investment Officer del fondo sovrano norvegese, e ha discusso la tempistica per l'emergere di AGI.
Musk ha affermato: "Se definiamo l'AGI come qualcosa di più intelligente degli esseri umani più intelligenti, penso che sia molto probabile che appaia entro il 2025".
Secondo la previsione di Elon Musk, ci vorrebbe al massimo un altro anno e mezzo prima che AGI arrivi. Tuttavia, ha aggiunto una condizione: "a patto che elettricità e hardware possano tenere il passo".
I vantaggi dell’arrivo di AGI sono evidenti.
Ciò significa che la produttività umana farà un significativo balzo in avanti e molti problemi scientifici che ci hanno lasciato perplessi per decenni saranno risolti. Se definiamo "gli esseri umani più intelligenti" i vincitori del premio Nobel, significa che, a patto che abbiamo abbastanza energia, potenza di calcolo e dati, potremmo avere innumerevoli instancabili "premi Nobel" che lavorano 24 ore su 24 per affrontare i problemi scientifici più impegnativi.
Tuttavia, i vincitori del premio Nobel non sono così rari come uno su centinaia di milioni. Le loro capacità e il loro intelletto sono spesso al livello dei migliori professori universitari. Tuttavia, per probabilità e fortuna, hanno scelto la giusta direzione, hanno perseverato e ottenuto risultati. Molti dei loro pari altrettanto capaci avrebbero potuto vincere premi Nobel in un universo parallelo di ricerca scientifica. Sfortunatamente, non ci sono ancora abbastanza professori universitari di alto livello coinvolti in scoperte scientifiche, quindi la velocità di "esplorazione di tutte le direzioni corrette nella ricerca scientifica" rimane molto lenta.
Con l'AGI, e con sufficiente energia e potenza di calcolo, potremmo avere un numero illimitato di AGI "di livello premio Nobel" che conducono esplorazioni approfondite in qualsiasi direzione potenziale per le scoperte scientifiche. La velocità del progresso tecnologico aumenterebbe esponenzialmente. Questa accelerazione porterebbe a un aumento di cento volte delle risorse che attualmente consideriamo costose e scarse nei prossimi 10-20 anni, come la produzione alimentare, nuovi materiali, medicinali e istruzione di alta qualità. Il costo di acquisizione di queste risorse diminuirebbe drasticamente. Saremmo in grado di sostenere una popolazione più numerosa con meno risorse e la ricchezza pro capite aumenterebbe rapidamente.
Tendenza del PIL globale fatta dalla Banca Mondiale
Questo potrebbe sembrare un po' sensazionale, quindi prendiamo in considerazione due esempi. Questi esempi sono stati utilizzati anche nel mio precedente rapporto di ricerca su IO.NET:
Nel 2018, il premio Nobel per la chimica, Frances Arnold, ha affermato durante la cerimonia di premiazione: "Oggi possiamo leggere, scrivere e modificare qualsiasi sequenza di DNA, ma non possiamo comporla". Facciamo un salto di cinque anni fino al 2023, un team di ricercatori della Stanford University e di Salesforce Research, una startup focalizzata sull'intelligenza artificiale, ha pubblicato un articolo su "Nature Biotechnology". Utilizzando un ampio modello linguistico rifinito da GPT-3, hanno generato un catalogo completamente nuovo di 1 milione di proteine. Tra queste, hanno scoperto due proteine con strutture distinte, entrambe dotate di funzione antibatterica, aprendo potenzialmente la strada a nuove strategie di resistenza batterica oltre agli antibiotici tradizionali. Ciò rappresenta un balzo monumentale nel superare gli ostacoli della creazione di proteine con l'assistenza dell'intelligenza artificiale.
In precedenza, l'algoritmo di intelligenza artificiale AlphaFold aveva previsto le strutture di quasi tutti i 2,14 miliardi di tipi di proteine presenti sulla Terra in 18 mesi, un traguardo che amplifica di gran lunga i risultati conseguiti dai biologi strutturali nel corso della storia.
La trasformazione è in atto e l'arrivo di AGI accelererà ulteriormente questo processo.
Tuttavia, l'arrivo dell'AGI presenta anche enormi sfide.
L’AGI non sostituirà solo un gran numero di lavoratori della conoscenza, ma anche quelli nei settori dei servizi fisici, che sono attualmente considerati “meno impattati dall’IA”. Con la maturazione della tecnologia robotica e la riduzione dei costi di produzione da parte di nuovi materiali, la percentuale di posti di lavoro sostituiti da macchine e software aumenterà rapidamente.
Quando ciò accadrà, due questioni che un tempo sembravano molto distanti emergeranno rapidamente:
Le sfide occupazionali e di reddito di una vasta popolazione disoccupata
Come distinguere l'intelligenza artificiale dagli esseri umani in un mondo in cui l'intelligenza artificiale è onnipresente
Worldcoin e Worldchain stanno cercando di fornire soluzioni implementando un sistema di reddito di base universale (UBI) per garantire un reddito di base alla popolazione e utilizzando la biometria basata sull'iride per distinguere tra esseri umani e intelligenza artificiale.
In effetti, l'UBI non è solo un concetto teorico; è stato testato nella pratica del mondo reale. Paesi come la Finlandia e l'Inghilterra hanno condotto esperimenti UBI, mentre i partiti politici in Canada, Spagna e India stanno attivamente proponendo e promuovendo iniziative simili.
Il vantaggio di utilizzare un modello di identificazione biometrica e blockchain per la distribuzione UBI risiede nella sua portata globale, che fornisce una copertura più ampia della popolazione. Inoltre, la rete di utenti ampliata tramite la distribuzione del reddito può supportare altri modelli di business, come servizi finanziari (DeFi), social networking e task crowdsourcing, creando sinergie all'interno dell'ecosistema commerciale della rete.
Uno dei progetti più importanti che affronta l'impatto dell'arrivo di AGI è Worldcoin ($WLD), con una capitalizzazione di mercato circolante di 1,03 miliardi di dollari e una capitalizzazione di mercato completamente diluita di 47,2 miliardi di dollari.
Rischi e incertezze sulle narrazioni dell'intelligenza artificiale crittografica
A differenza di molti report di ricerca pubblicati in precedenza da Mint Ventures, questo articolo contiene un grado significativo di soggettività nelle sue previsioni e predizioni narrative. I lettori dovrebbero considerare il contenuto di questo articolo come una discussione speculativa piuttosto che una previsione del futuro. Le previsioni narrative menzionate sopra affrontano numerose incertezze che potrebbero portare a ipotesi errate. Questi rischi o fattori influenti includono, ma non sono limitati a:
Rischio energetico: rapida diminuzione del consumo energetico a causa degli aggiornamenti GPU
Nonostante la crescente domanda di energia per l'intelligenza artificiale, i produttori di chip come NVIDIA stanno continuamente aggiornando il loro hardware per offrire una maggiore potenza di calcolo con un consumo energetico inferiore. Ad esempio, a marzo 2024, NVIDIA ha rilasciato la nuova generazione di scheda di elaborazione AI GB200, che integra due GPU B200 e una CPU Grace. Le sue prestazioni di training sono quattro volte superiori a quelle della precedente GPU AI mainstream H100 e le sue prestazioni di inferenza sono sette volte superiori a quelle dell'H100, mentre richiedono solo un quarto del consumo energetico dell'H100. Tuttavia, l'appetito per la potenza guidata dall'intelligenza artificiale continua a crescere. Con la diminuzione del consumo energetico unitario e l'ulteriore espansione degli scenari e della domanda di applicazioni AI, il consumo energetico totale potrebbe effettivamente aumentare.
Rischio dei dati: Progetto Q* e “Dati autogenerati”
Si vocifera di un progetto all'interno di OpenAI noto come "Q*", menzionato nelle comunicazioni interne ai dipendenti. Secondo Reuters, che cita addetti ai lavori di OpenAI, questo potrebbe rappresentare una svolta significativa nel percorso di OpenAI verso il raggiungimento della superintelligenza o intelligenza artificiale generale (AGI). Si vocifera che Q* risolva problemi matematici mai visti prima attraverso l'astrazione e generi i propri dati per l'addestramento di modelli di grandi dimensioni, senza bisogno di input di dati del mondo reale. Se questa voce fosse vera, il collo di bottiglia dell'addestramento di modelli di intelligenza artificiale di grandi dimensioni, limitato dalla mancanza di dati di alta qualità, verrebbe eliminato.
Arrivo AGI: le preoccupazioni di OpenAI
Se l'AGI arriverà davvero entro il 2025, come prevede Musk, resta incerto, ma è solo questione di tempo. Worldcoin, in quanto beneficiario diretto della narrazione dell'AGI, affronta la sua preoccupazione più grande da OpenAI, dato che è ampiamente considerato come il "token ombra di OpenAI".
Nelle prime ore del 14 maggio, OpenAI ha presentato le ultime prestazioni di GPT-4o e di altre 19 versioni di grandi modelli linguistici in punteggi di attività completi al loro lancio di nuovi prodotti primaverili. Secondo la tabella, GPT-4o ha ottenuto un punteggio di 1310, che visivamente appare significativamente più alto degli altri. Tuttavia, in termini di punteggio totale, è solo del 4,5% più alto del secondo posto GPT-4 turbo, del 4,9% più alto del Gemini 1.5 Pro di Google al quarto posto e del 5,1% più alto del Claude3 Opus di Anthropic al quinto posto.
Da quando GPT-3.5 ha stupito il mondo per la prima volta, è passato solo poco più di un anno e i concorrenti di OpenAI hanno già colmato significativamente il divario (nonostante GPT-5 non sia ancora stato rilasciato, cosa che dovrebbe accadere quest'anno). La questione se OpenAI possa mantenere la sua posizione di leader del settore in futuro sta diventando sempre più incerta. Se il vantaggio e il dominio di OpenAI vengono diluiti o addirittura superati, allora anche il valore narrativo di Worldcoin come token ombra di OpenAI diminuirà.
Oltre alla soluzione di autenticazione dell'iride di Worldcoin, sempre più concorrenti stanno entrando nel mercato. Ad esempio, il progetto di identificazione tramite scansione palmare Humanity Protocol ha recentemente completato un nuovo round di finanziamenti, raccogliendo 30 milioni di $ a una valutazione di 1 miliardo di $. LayerZero Labs ha anche annunciato che opererà su Humanity e si unirà alla sua rete di nodi di convalida, utilizzando le prove ZK per autenticare le credenziali.
Conclusione
In conclusione, mentre ho estrapolato potenziali narrazioni future per il settore crypto AI, è importante riconoscere che differisce dai settori crypto nativi come DeFi. È in gran parte un prodotto dell'hype dell'AI che si riversa nel mondo crypto. Molti dei progetti attuali non hanno ancora dimostrato i loro modelli di business e molti progetti sono più simili a meme a tema AI (ad esempio, $RNDR assomiglia a un meme NVIDIA, Worldcoin assomiglia a un meme OpenAI). I lettori dovrebbero avvicinarsi a questo con cautela.