introduzione

Finora, questo ciclo del mercato rialzista delle criptovalute è il più noioso in termini di innovazione aziendale. Manca dei percorsi di mania a livello di fenomeni come DeFi, NFT e Gamefi nel precedente mercato rialzista, con conseguente mancanza di punti caldi del settore. il mercato complessivo, gli utenti, gli investimenti del settore e la crescita degli sviluppatori sono relativamente deboli.

Ciò si riflette anche negli attuali prezzi degli asset. Osservando l’intero ciclo, la maggior parte delle monete Alt continua a perdere sangue rispetto al tasso di cambio di BTC, incluso ETH. Dopotutto, la valutazione della piattaforma di contratto intelligente è determinata dalla prosperità dell'applicazione. Quando lo sviluppo e l'innovazione dell'applicazione sono scarsi, sarà difficile aumentare la valutazione della catena pubblica.

L'intelligenza artificiale, in quanto categoria di business delle criptovalute più recente in questo round, beneficia della velocità di sviluppo esplosiva e dei continui punti caldi nel mondo degli affari esterni, ed è ancora possibile portare un buon aumento dell'attenzione sui progetti di tracciamento dell'intelligenza artificiale nel settore delle criptovalute. mondo.

Nel rapporto IO.NET pubblicato dall'autore in aprile, l'autore ha chiarito la necessità di combinare AI e Crypto, ovvero i vantaggi delle soluzioni criptoeconomiche in termini di certezza, mobilitazione delle risorse di allocazione e assenza di fiducia, che possono risolvere la casualità e natura ad alta intensità di risorse dell’intelligenza artificiale. Una delle soluzioni alle tre sfide legate all’indistinguibilità tra esseri umani e macchine.

Nel percorso AI nel campo della criptoeconomia, l’autore tenta di discutere e dedurre alcune questioni importanti attraverso un altro articolo, tra cui:

  • Quali altre narrazioni stanno nascendo sul percorso dell’intelligenza artificiale crittografica che potrebbe esplodere in futuro?

  • I percorsi catalitici e la logica di queste narrazioni

  • Obiettivi del progetto legati alla narrativa

  • Rischi e incertezze nella deduzione narrativa

Questo articolo rappresenta il pensiero messo in scena dall'autore al momento della pubblicazione. Potrebbe cambiare in futuro e le opinioni sono altamente soggettive. Potrebbero esserci anche errori nei fatti, nei dati e nel ragionamento. Si prega di non utilizzarlo come riferimento per gli investimenti Commenti e discussioni da parte dei colleghi sono benvenuti.

Quello che segue è il testo principale.

La prossima ondata di narrazioni nel percorso dell'intelligenza artificiale crittografica

Prima di fare ufficialmente il punto sulla prossima ondata di narrazioni sul percorso della criptoIA, diamo prima un'occhiata alle principali narrazioni dell'attuale criptoIA. Dal punto di vista del valore di mercato, quelle con più di 1 miliardo di dollari USA sono:

  • Potenza di calcolo: Render (RNDR, valore di mercato circolante 3,85 miliardi), Akash (valore di mercato circolante 1,2 miliardi), IO.NET (ciclo più recente di valutazione del finanziamento primario 1 miliardo)

  • Rete di algoritmi: Bittensor (BAT, valore di mercato della diffusione 2,97 miliardi)

  • Agente AI: Fetchai (FET, valore di mercato circolante pre-fusione 2,1 miliardi)

*Ora dei dati: 24.5.2024, le unità monetarie sono i dollari statunitensi.

Oltre ai campi di cui sopra, quale sarà il prossimo percorso di intelligenza artificiale con un valore di mercato di un singolo progetto superiore a 1 miliardo?

L'autore ritiene che ciò possa essere ipotizzato da due prospettive: la narrazione del "lato dell'offerta industriale" e la narrazione del "momento GPT".

La prima prospettiva della narrativa sull’intelligenza artificiale: dal lato dell’offerta industriale, esaminare le opportunità di tracciamento di energia e dati dietro l’intelligenza artificiale

Dal punto di vista dell’offerta del settore, le quattro forze trainanti per lo sviluppo dell’IA sono:

  • Algoritmi: algoritmi di alta qualità possono eseguire attività di addestramento e inferenza in modo più efficiente

  • Potenza di calcolo: che si tratti di addestramento del modello o di ragionamento del modello, l'hardware GPU è necessario per fornire potenza di calcolo. Questo è anche il principale collo di bottiglia del settore al momento. La carenza di risorse del settore ha portato a prezzi elevati per i chip di fascia medio-alta .

  • Energia: il centro dati richiesto per l'intelligenza artificiale genererà una grande quantità di energia. Oltre alla potenza richiesta dalla GPU stessa per eseguire le attività di elaborazione, anche l'elaborazione della dissipazione del calore della GPU richiede molta energia da parte di un grande sistema di raffreddamento del data center rappresenta l'energia totale Circa il 40% del consumo

  • Dati: il miglioramento delle prestazioni di modelli di grandi dimensioni richiede l'espansione dei parametri di addestramento, il che significa la necessità di enormi quantità di dati di alta qualità

Considerando la forza trainante dei quattro settori sopra menzionati, sia il tracciato degli algoritmi che quello della potenza di calcolo hanno progetti di crittografia con un valore di mercato circolante di oltre 1 miliardo di dollari USA, mentre i tracciati dell’energia e dei dati non hanno ancora visto progetti con lo stesso mercato valore.

In effetti, la carenza di energia e dati potrebbe presto manifestarsi e trasformarsi in una nuova ondata di hotspot industriali, determinando così un’impennata di progetti correlati nel campo della crittografia.

Parliamo prima di energia.

Il 29 febbraio 2024, Musk ha dichiarato alla conferenza Bosch Internet World 2024: "Ho previsto una carenza di chip più di un anno fa, e la prossima carenza sarà quella di elettricità. Penso che l'anno prossimo non ci sarà abbastanza elettricità per far funzionare tutto il patatine fritte."

A giudicare da dati specifici, l'Istituto di intelligenza artificiale dell'Università di Stanford (Intelligenza artificiale centrata sull'uomo) guidato da Li Feifei pubblica ogni anno il "Rapporto sull'indice AI" Nel rapporto pubblicato dal team nel 2022 per il settore dell'intelligenza artificiale da 21 anni, il gruppo di ricerca La valutazione ritiene che il consumo energetico dell’intelligenza artificiale abbia rappresentato solo lo 0,9% della domanda globale di elettricità quell’anno e che la pressione sull’energia e sull’ambiente fosse limitata. Nel 2023, l'Agenzia internazionale per l'energia (IEA) ha concluso che i data center globali consumavano circa 460 terawattora (TWh) di elettricità, pari al 2% della domanda globale di elettricità, e ha previsto che entro il 2026 i data center globali ridurranno il consumo di energia da un minimo di 620 terawattora ad un massimo di 1050 terawattora.

In effetti, la stima dell’Agenzia internazionale per l’energia è ancora prudente, perché ci sono già un gran numero di progetti sull’intelligenza artificiale che stanno per essere lanciati e la corrispondente scala della domanda di energia è ben oltre la sua immaginazione nel 2023.

Ad esempio, il progetto Stargate pianificato da Microsoft e OpenAI. Questo piano dovrebbe essere lanciato nel 2028 e completato intorno al 2030. Il progetto prevede di costruire un supercomputer con milioni di chip AI dedicati per fornire a OpenAI una potenza di calcolo senza precedenti e supportarne l'uso nell'intelligenza artificiale, in particolare nei modelli di ricerca e sviluppo linguistici di grandi dimensioni . Si prevede che il piano costerà più di 100 miliardi di dollari, 100 volte di più del costo dei grandi data center di oggi.

Il consumo energetico del solo progetto Stargate ammonta a 50 terawattora.

È proprio per questo motivo che il fondatore di OpenAI Sam Altman ha dichiarato al Forum di Davos nel gennaio di quest'anno: "La futura intelligenza artificiale richiede scoperte energetiche, perché l'intelligenza artificiale consumerà molta più energia di quanto la gente si aspetta".

Dopo la potenza di calcolo e l’energia, la prossima area di carenza nel settore dell’intelligenza artificiale in rapida crescita sarà probabilmente quella dei dati.

In altre parole, la carenza di dati di alta qualità richiesti dall’intelligenza artificiale è diventata una realtà.

Allo stato attuale, dall'evoluzione di GPT, gli esseri umani hanno sostanzialmente capito le regole per la crescita delle capacità del modello linguistico di grandi dimensioni - ovvero, espandendo i parametri del modello e i dati di addestramento, le capacità del modello possono essere migliorate in modo esponenziale - e questo processo non può essere visto nel breve termine.

Ma il problema è che i dati aperti e di alta qualità potrebbero diventare sempre più scarsi in futuro, e i prodotti di intelligenza artificiale potrebbero trovarsi ad affrontare le stesse contraddizioni tra domanda e offerta di dati dei chip e dell’energia.

Il primo è l’aumento delle controversie sulla proprietà dei dati.

Il 27 dicembre 2023, il New York Times ha citato formalmente OpenAI e Microsoft presso il tribunale distrettuale federale degli Stati Uniti, accusandoli di utilizzare milioni dei loro stessi articoli per addestrare modelli GPT senza autorizzazione, richiedendo loro di "copiare illegalmente e utilizzare oggetti unici dal valore miliardario". di dollari in danni legali ed effettivi” e la distruzione di tutti i modelli e i dati di formazione contenenti materiale protetto da copyright del New York Times.

Alla fine di marzo, il New York Times ha pubblicato una nuova dichiarazione, prendendo di mira non solo OpenAI, ma anche Google e Meta. La dichiarazione del New York Times afferma che OpenAI ha utilizzato uno strumento di riconoscimento vocale chiamato Whisper per trascrivere le parti del discorso di un gran numero di video di YouTube e quindi ha generato testo come testo per addestrare GPT-4. Il New York Times ha affermato che ormai è molto comune per le grandi aziende ricorrere a piccoli furti durante l'addestramento dei modelli di intelligenza artificiale e ha affermato che anche Google sta facendo lo stesso. Converte anche i contenuti video di YouTube in testo per l'addestramento dei propri modelli di grandi dimensioni. sostanzialmente violando i diritti dei creatori di contenuti video.

Il New York Times e OpenAI sono il “primo caso di copyright sull’intelligenza artificiale”. Considerando la complessità del caso e il suo impatto di vasta portata sul futuro dei contenuti e sull’industria dell’intelligenza artificiale, un risultato potrebbe non essere disponibile presto. Uno dei possibili risultati finali è un accordo extragiudiziale tra le due parti, con il pagamento di un grosso compenso da parte dei ricchi Microsoft e OpenAI. Tuttavia, in futuro maggiori attriti sul copyright dei dati aumenteranno inevitabilmente il costo complessivo dei dati di alta qualità.

Inoltre, in quanto motore di ricerca più grande del mondo, Google ha anche rivelato che sta valutando la possibilità di far pagare la sua funzione di ricerca, ma l'obiettivo della tariffazione non è il pubblico in generale, ma le aziende di intelligenza artificiale.

Fonte: Reuters

I server dei motori di ricerca di Google memorizzano una grande quantità di contenuti e si può anche dire che Google memorizza tutto il contenuto apparso su tutte le pagine Internet dal 21° secolo. Gli attuali prodotti di ricerca basati sull'intelligenza artificiale, come quelli esteri come Perplexity, e quelli nazionali come Kimi e Secret Tower, elaborano tutti i dati cercati tramite l'intelligenza artificiale e quindi li trasmettono agli utenti. Le tariffe dei motori di ricerca per l’intelligenza artificiale aumenteranno inevitabilmente il costo dell’acquisizione dei dati.

Infatti, oltre ai dati pubblici, i giganti dell’intelligenza artificiale stanno tenendo d’occhio anche i dati interni non pubblici.

Photobucket è un affermato sito Web di hosting di immagini e video che contava 70 milioni di utenti e quasi la metà del mercato fotografico online degli Stati Uniti all'inizio degli anni 2000. Con l'avvento dei social media, il numero di utenti di Photobucket è diminuito in modo significativo. Attualmente ci sono solo 2 milioni di utenti attivi (devono pagare una tariffa elevata di 399 dollari all'anno secondo l'accordo e la politica sulla privacy firmata dagli utenti). al momento della registrazione, non sono stati utilizzati per più di un anno, l'account verrà riciclato e supporta anche il diritto di Photobucket di utilizzare le immagini e i dati video caricati dagli utenti. Il CEO di Photobucket, Ted Leonard, ha rivelato che i suoi 1,3 miliardi di dati fotografici e video sono estremamente preziosi per l'addestramento di modelli di intelligenza artificiale generativa. È in trattative con diverse società tecnologiche per vendere i dati, con offerte che vanno da 5 centesimi a $ 1 per foto e più di $ 1 per video, stimando che i dati che Photobucket può fornire valgano più di 1 miliardo di dollari.

EPOCH, un gruppo di ricerca focalizzato sul trend di sviluppo dell'intelligenza artificiale, ha pubblicato una volta un rapporto sui dati richiesti per l'apprendimento automatico basato sull'uso dei dati e sulla generazione di nuovi dati mediante l'apprendimento automatico nel 2022, e considerando la crescita delle risorse informatiche . Resteremo a corto di dati? Un'analisi dei limiti della scalabilità dei set di dati nel Machine Learning", il rapporto conclude che i dati di testo di alta qualità saranno esauriti tra febbraio 2023 e 2026, mentre i dati di immagine saranno esauriti nel 2030. Esauriti tra il 2060 e 2060. Se l’efficienza dell’utilizzo dei dati non può essere migliorata in modo significativo o emergono nuove fonti di dati, l’attuale tendenza di grandi modelli di machine learning che si basano su enormi set di dati potrebbe rallentare.

A giudicare dalla situazione attuale in cui i giganti dell’intelligenza artificiale acquistano dati a prezzi elevati, i dati testuali gratuiti di alta qualità sono stati sostanzialmente esauriti. La previsione di EPOCH di 2 anni fa era relativamente accurata.

Allo stesso tempo stanno emergendo anche soluzioni alla domanda di “carenza di dati AI”, vale a dire: servizi di fornitura di dati AI.

Defined.ai è un'azienda che fornisce dati personalizzati, reali e di alta qualità per le aziende di intelligenza artificiale.

Esempi di tipi di dati che Defined.ai può fornire: https://www.fined.ai/datasets

Il suo modello di business è: le aziende di intelligenza artificiale forniscono a Defined.ai le proprie esigenze di dati, ad esempio, in termini di qualità, quanta alta risoluzione è richiesta per evitare sfocatura, sovraesposizione e contenuti autentici. In termini di contenuti, le aziende di intelligenza artificiale possono personalizzare temi specifici in base ai propri compiti di formazione, come foto notturne, coni notturni, parcheggi e segnali, per migliorare il tasso di riconoscimento dell’IA nelle scene notturne. Il pubblico può accettare l'incarico e l'azienda esaminerà le foto e le caricherà, quindi le parti che soddisfano i requisiti verranno stabilite in base al numero di immagini. Il prezzo è di circa 1-2 dollari per un'immagine di alta qualità , 5-7 dollari per un cortometraggio di più di dieci secondi e il prezzo è di circa 1-2 dollari. Un video di alta qualità di più di 10 minuti costa 100-300 dollari e il testo costa 1 dollaro per mille parole. La persona che riceve l'incarico di subappalto può ottenere circa il 20% del compenso. La fornitura di dati potrebbe diventare un'altra attività di crowdsourcing dopo l'"etichettatura dei dati".

Il crowdsourcing globale di compiti, incentivi economici, prezzi dei dati, circolazione e protezione della privacy, tutti possono partecipare, sembra una categoria di business particolarmente adatta al paradigma Web3.

Obiettivi narrativi dell’intelligenza artificiale dal punto di vista dell’offerta del settore

La preoccupazione causata dalla carenza di chip è penetrata nel settore della crittografia, rendendo la potenza di calcolo distribuita la categoria di tracciamento AI più popolare con il più alto valore di mercato finora.

Quindi, se nei prossimi 1-2 anni scoppiasse la contraddizione tra domanda e offerta nel settore dell’intelligenza artificiale in materia di energia e dati, quali progetti narrativi ci sono attualmente nel settore della crittografia?

Diamo prima un’occhiata agli obiettivi energetici.

Sono pochissimi i progetti energetici che hanno lanciato il principale CEX e esiste un solo Power Ledger (Token Powr).

Fondata nel 2017, Power Ledger è una piattaforma energetica completa basata sulla tecnologia blockchain che mira a decentralizzare le transazioni energetiche, promuovere lo scambio diretto di elettricità da parte di individui e comunità, supportare l'applicazione diffusa di energia rinnovabile e garantire la sicurezza dell'energia attraverso. contratti intelligenti. Trasparenza ed efficienza delle transazioni. Inizialmente, Power Ledger operava sulla base della catena del consorzio modificata da Ethereum. Nella seconda metà del 2023, Power Ledger ha aggiornato il suo libro bianco e ha lanciato la propria catena pubblica completa, che è stata modificata sulla base del quadro tecnico di Solana per facilitare l'elaborazione delle microtransazioni ad alta frequenza nel mercato dell'energia distribuita. Attualmente le principali attività di Power Ledger includono:

  • Trading di energia: consente agli utenti di acquistare e vendere direttamente energia elettrica, soprattutto da fonti energetiche rinnovabili, peer-to-peer.

  • Scambio di prodotti ambientali: come lo scambio di crediti di carbonio e certificati di energia rinnovabile e finanziamenti basati su prodotti ambientali.

  • Operazione della catena pubblica: attira gli sviluppatori di applicazioni per creare applicazioni sulla blockchain Powerledger e le commissioni di transazione della catena pubblica vengono pagate in token Powr.

L’attuale valore di mercato della circolazione del progetto Power Ledger è di 170 milioni di dollari, mentre il valore di mercato della circolazione totale è di 320 milioni di dollari.

Rispetto agli obiettivi di crittografia energetica, il numero di obiettivi di crittografia nella traccia dei dati è più abbondante.

L'autore elenca solo i progetti di tracciamento dati a cui sto attualmente prestando attenzione e che hanno lanciato almeno uno dei CEX di Binance, OKX e Coinbase, e sono ordinati dal basso all'alto secondo FDV:

1.Streamr – DATI

La proposta di valore di Streamr è quella di costruire una rete di dati decentralizzata in tempo reale che consenta agli utenti di scambiare e condividere liberamente i dati mantenendo il pieno controllo sui propri dati. Attraverso il suo mercato dei dati, Streamr spera di consentire ai produttori di dati di vendere flussi di dati direttamente ai consumatori interessati senza la necessità di intermediari, riducendo così i costi e aumentando l’efficienza.

Fonte: https://streamr.network/hub/projects

In un caso di cooperazione reale, Streamr collabora con un altro progetto hardware per veicoli Web3 DIMO per raccogliere temperatura, pressione atmosferica e altri dati tramite sensori hardware DIMO montati sul veicolo per formare un flusso di dati meteorologici e trasmetterlo alle istituzioni che ne hanno bisogno.

Rispetto ad altri progetti di dati, Streamr si concentra maggiormente sui dati provenienti dall'Internet delle cose e dai sensori hardware Oltre ai dati sui veicoli DIMO sopra menzionati, altri progetti includono il flusso di dati sul traffico in tempo reale di Helsinki. Pertanto, il token del progetto DATA di Streamr ha raddoppiato la sua crescita in un solo giorno nel dicembre dello scorso anno, quando il concetto di Depin era al suo apice.

L’attuale valore di mercato circolante del progetto Streamr è di 44 milioni di dollari e il valore di mercato circolante completo è di 58 milioni di dollari.

2.Covalente – CQT

A differenza di altri progetti di dati, Covalent fornisce dati blockchain. La rete Covalent legge i dati dai nodi blockchain tramite RPC, quindi elabora e organizza i dati per creare un database di query efficiente. In questo modo, gli utenti di Covalent possono recuperare rapidamente le informazioni di cui hanno bisogno senza dover eseguire query complesse direttamente dal nodo blockchain. Questo tipo di servizio è anche chiamato "indicizzazione dei dati blockchain".

I clienti di Covalent sono principalmente business, inclusi progetti Dapp, come vari Defi, e molte società di crittografia centralizzata, come Consensys (la società madre di Metamask), CoinGecko (una nota stazione di mercato di criptovalute), Rotki (strumento fiscale ) ), Rainbow (portafoglio crittografato), ecc. Inoltre, anche Fidelity, un gigante del settore finanziario tradizionale, e Ernst & Young, le quattro principali società di contabilità, sono clienti di Covalent. Secondo i dati ufficialmente divulgati da Covalent, le entrate del progetto derivanti dai servizi dati hanno superato quelle di The Graph, il progetto leader nello stesso campo.

Grazie all’integrità, all’apertura, all’autenticità e alla natura in tempo reale dei dati sulla catena, si prevede che il settore Web3 diventerà una fonte di dati di alta qualità per scenari di intelligenza artificiale segmentati e specifici “piccoli modelli di intelligenza artificiale”. In qualità di fornitore di dati, Covalent ha iniziato a fornire dati per vari scenari di intelligenza artificiale e ha lanciato dati strutturati verificabili specifici per l’intelligenza artificiale.

Fonte: https://www.covalenthq.com/solutions/decentralized-ai/

Ad esempio, fornisce dati alla piattaforma di trading intelligente on-chain SmartWhales e utilizza l'intelligenza artificiale per identificare modelli e indirizzi di transazioni redditizi; Entender Finance utilizza i dati strutturati e l'elaborazione dell'intelligenza artificiale di Covalent per approfondimenti in tempo reale, rilevamento di anomalie e analisi predittive.

Al momento, gli scenari principali per i servizi dati on-chain forniti da Covalent sono ancora finanziari. Tuttavia, con la generalizzazione dei prodotti e dei tipi di dati Web3, anche gli scenari di utilizzo dei dati on-chain verranno ulteriormente ampliati.

L'attuale valore di mercato della circolazione del progetto Covalent è di 150 milioni di dollari e il valore di mercato della circolazione totale è di 235 milioni di dollari. Rispetto al progetto di indice dei dati blockchain The Graph nello stesso percorso, presenta un chiaro vantaggio di valutazione.

3.Hivemapper – Tesoro

Tra tutti i materiali dati, i dati video hanno spesso il prezzo unitario più alto. Hivemapper può fornire dati, comprese informazioni su video e mappe, alle società di intelligenza artificiale. Lo stesso Hivemapper è un progetto di mappa globale decentralizzato che mira a creare un sistema di mappe dettagliato, dinamico e accessibile attraverso la tecnologia blockchain e i contributi della comunità. I partecipanti possono acquisire i dati della mappa tramite una dashcam e aggiungerli alla rete dati Hivemapper open source e ricevere premi in base ai loro contributi nel token del progetto HONEY. Al fine di migliorare gli effetti di rete e ridurre i costi di interazione, Hivemapper è basato su Solana.

Hivemapper è stata fondata nel 2015. L'idea originale era quella di utilizzare i droni per creare mappe, ma in seguito si è scoperto che questo modello era difficile da scalare, quindi si è passati all'utilizzo di registratori di guida e smartphone per acquisire dati geografici, riducendo i costi di produzione delle mappe globali. .

Rispetto ai software di visualizzazione stradale e di mappatura come Google Maps, Hivemapper può espandere in modo più efficiente la copertura della mappa, mantenere la freschezza delle scene della mappa reale e migliorare la qualità del video stimolando la rete e i modelli di crowdsourcing.

Prima che la domanda di dati dell'intelligenza artificiale esplodesse, i principali clienti di Hivemapper includevano il settore della guida autonoma dell'industria automobilistica, società di servizi di navigazione, governi, compagnie assicurative e immobiliari, ecc. Ora Hivemapper può fornire all'intelligenza artificiale e ai modelli di grandi dimensioni un'ampia gamma di dati stradali e ambientali tramite API. Attraverso l'immissione di flussi di dati di immagini e caratteristiche stradali costantemente aggiornati, i modelli di intelligenza artificiale e ML saranno in grado di trasformare meglio i dati in capacità e attività di esecuzione migliorate. legati alla posizione geografica e al giudizio visivo.

Fonte dati: https://hivemapper.com/blog/diversify-ai-computer-vision-models-with-global-road-imagery-map-data/

L’attuale valore di mercato circolante del progetto Hivemapper-Honey è di 120 milioni di dollari, mentre il valore di mercato circolante totale è di 496 milioni di dollari.

Oltre ai tre progetti sopra menzionati, i progetti sulla traccia dei dati includono The Graph – GRT (valore di mercato della circolazione $ 3,2 miliardi, FDV $ 3,7 miliardi), la cui attività è simile a Covalent e fornisce anche servizi di indicizzazione dei dati blockchain e Ocean Protocol – OCEAN; (valore di mercato di circolazione 670 milioni di $, FDV 1,45 miliardi di $, questo progetto sarà presto fuso con Fetch.ai e SingularityNET, il token sarà convertito in ASI), un protocollo open source pensato per favorire lo scambio e la monetizzazione di dati e dati servizi correlati, che collegano i consumatori di dati con i fornitori di dati per condividere i dati garantendo al tempo stesso fiducia, trasparenza e tracciabilità.

La seconda prospettiva della narrativa dell’IA: GPT riappare in pochi istanti e arriva l’intelligenza artificiale generale

Secondo l'autore, il primo anno del "percorso AI" nel settore della crittografia è il 2023, quando GPT ha scioccato il mondo. L'ondata di progetti di crittografia AI è più una "calda conseguenza" causata dallo sviluppo esplosivo dell'IA industria.

Sebbene le capacità di GPT 4, turbo, ecc. siano state continuamente aggiornate dopo GPT 3.5, così come la straordinaria dimostrazione di capacità di creazione video di Sora, incluso il rapido sviluppo di ampi modelli linguistici diversi da OpenAI, è innegabile che il progresso tecnologico di L’intelligenza artificiale ha fatto conoscere al pubblico L’impatto cognitivo si sta indebolendo, le persone stanno gradualmente utilizzando gli strumenti dell’intelligenza artificiale e la sostituzione del lavoro su larga scala non sembra essere ancora avvenuta.

Quindi, il “momento GPT” riapparirà nel campo dell’intelligenza artificiale in futuro, con un balzo in avanti nello sviluppo dell’intelligenza artificiale che sconvolgerà il pubblico, facendo capire alle persone che di conseguenza le loro vite e il loro lavoro saranno cambiati?

Questo momento potrebbe essere l’arrivo dell’intelligenza generale artificiale (AGI).

L’AGI si riferisce al fatto che le macchine hanno capacità cognitive complete simili a quelle umane e possono risolvere una varietà di problemi complessi, non solo compiti specifici. Il sistema AGI ha un alto grado di pensiero astratto, una vasta conoscenza di base, ragionamento basato sul buon senso e comprensione causale in tutti i campi e capacità di apprendimento di trasferimento interprofessionale. Le prestazioni dell'AGI non sono diverse da quelle dei migliori esseri umani in vari campi e, in termini di capacità globali, superano completamente i migliori gruppi umani.

In effetti, indipendentemente dalla presentazione in romanzi di fantascienza, giochi, opere cinematografiche e televisive o dalle aspettative del pubblico dopo la rapida popolarità di GPT, il pubblico si aspetta da tempo l'emergere di un'AGI che superi il livello della cognizione umana. In altre parole, lo stesso GPT è il prodotto di punta dell’AGI e la versione profetica dell’intelligenza artificiale generale.

Il motivo per cui GPT ha una così grande energia industriale e impatto psicologico è che la velocità e le prestazioni della sua implementazione hanno superato le aspettative del pubblico: le persone non si aspettavano che un sistema di intelligenza artificiale in grado di completare il test di Turing fosse davvero arrivato, ed è così veloce .

In effetti, l’intelligenza artificiale (AGI) potrebbe vivere ancora una volta l’improvvisa “momento GPT” tra 1-2 anni: le persone si sono appena adattate all’assistenza di GPT e scoprono che l’IA non è più solo un assistente, ma può completare anche compiti estremi in modo indipendente, i lavori più creativi e impegnativi, compresi quei problemi che hanno intrappolato i migliori scienziati dell'umanità per decenni.

L’8 aprile di quest’anno, Musk ha accettato un’intervista con Nicolai Tangen, chief investment officer del Norwegian Sovereign Wealth Fund, e ha parlato del periodo in cui è apparsa l’AGI.

Ha detto: "Se l'AGI è definita come più intelligente della parte più intelligente della razza umana, penso che probabilmente apparirà nel 2025".

Ciò significa che, secondo la sua deduzione, ci vorrà al massimo un anno e mezzo prima che arrivi l'AGI. Naturalmente, ha aggiunto un prerequisito, ovvero "se la potenza e l'hardware riescono a tenere il passo".

I benefici dell'avvento dell'AGI sono evidenti.

Ciò significa che la produttività umana farà un grande passo avanti e un gran numero di problemi di ricerca scientifica che ci hanno intrappolato per decenni saranno risolti. Se definiamo la “parte più intelligente dell’umanità” come il livello dei vincitori del Premio Nobel, significa che finché ci saranno abbastanza energia, potenza di calcolo e dati, potremo avere innumerevoli instancabili “vincitori del Premio Nobel” che lavorano 24 ore su 24 su i problemi più importanti.

In effetti, i vincitori del Premio Nobel non sono così rari come uno su poche centinaia di milioni. La maggior parte di loro sono al livello dei migliori professori universitari in termini di abilità e intelligenza. Tuttavia, a causa della probabilità e della fortuna, hanno scelto la giusta direzione. ha continuato a lavorare e ha ottenuto risultati. Persone al suo stesso livello, suoi colleghi altrettanto eccezionali, potrebbero anche aver vinto il Premio Nobel nell'universo parallelo della ricerca scientifica. Ma sfortunatamente, non ci sono ancora abbastanza persone con professori universitari di alto livello e partecipanti a scoperte scientifiche, quindi la velocità con cui si attraversano tutte le giuste direzioni della ricerca scientifica è ancora molto lenta.

Con l’AGI, quando l’energia e la potenza di calcolo saranno completamente fornite, potremo avere un numero illimitato di AGI “vincitori del Premio Nobel” per condurre esplorazioni approfondite in ogni possibile direzione rivoluzionaria della ricerca scientifica, e la velocità di miglioramento della tecnologia sarà decine di volte più veloce. Il miglioramento della tecnologia farà sì che le risorse che ora consideriamo piuttosto costose e scarse aumenteranno centinaia di volte in 10-20 anni, come la produzione alimentare, nuovi materiali, nuovi farmaci, istruzione di alto livello, ecc., e il costo Anche il numero di tali risorse diminuirà in modo esponenziale. Siamo stati in grado di nutrire una popolazione più numerosa con meno risorse e la ricchezza pro capite è aumentata rapidamente.

Grafico dell'andamento totale del PIL globale, fonte dati: Banca Mondiale

Questo può sembrare un po’ sensazionale. Diamo un’occhiata a due esempi. Questi due esempi sono stati utilizzati dall’autore in precedenti rapporti di ricerca su IO.NET:

  • Nel 2018, il premio Nobel per la chimica Francis Arnold ha dichiarato alla cerimonia di premiazione: "Oggi possiamo leggere, scrivere e modificare qualsiasi sequenza di DNA in applicazioni pratiche, ma non possiamo ancora comporla, cinque anni dopo il suo discorso, nel 2023". della Stanford University e Salesforce Research, startup AI della Silicon Valley, hanno pubblicato un articolo su "Nature-Biotechnology". Hanno utilizzato un ampio modello linguistico ottimizzato sulla base di GPT da 3 a 0, hanno creato 1 milione di nuove proteine ​​e hanno trovato 2 proteine ​​con strutture completamente diverse. , ma entrambi hanno capacità battericide e si prevede che diventeranno una soluzione per combattere i batteri oltre agli antibiotici. In altre parole: con l’aiuto dell’intelligenza artificiale è stato superato il collo di bottiglia della “creazione” delle proteine.

  • In precedenza, l’algoritmo di intelligenza artificiale AlphaFold aveva previsto la struttura di quasi tutti i 214 milioni di proteine ​​sulla terra entro 18 mesi. Questo risultato è stato centinaia di volte il lavoro di tutti i biologi strutturali umani del passato.

Il cambiamento è già in atto e l’arrivo dell’AGI accelererà ulteriormente questo processo.

D’altro canto, anche le sfide portate dall’avvento dell’AGI sono enormi.

L'AGI non solo sostituirà un gran numero di lavoratori mentali, ma anche i fornitori di servizi manuali, ora considerati "meno colpiti dall'intelligenza artificiale", saranno colpiti dalla riduzione dei costi di produzione determinata dalla maturità della tecnologia robotica e dallo sviluppo di nuovi materiali , e sarà influenzato dalle macchine. La percentuale di posti di lavoro sostituiti dal software aumenterà rapidamente.

In quel momento emergeranno presto due problemi che una volta sembravano molto lontani:

  • Problemi occupazionali e di reddito per il gran numero di disoccupati

  • In un mondo in cui l’intelligenza artificiale è ovunque, come distinguere tra intelligenza artificiale e esseri umani?

Worldcoin\Worldchain sta cercando di fornire una soluzione, ovvero utilizzando il sistema UBI (Universal Basic Income) per fornire un reddito di base al pubblico e utilizzando la biometria basata sull'iride per distinguere le persone dall'intelligenza artificiale.

In effetti, il reddito di base universale che distribuisce denaro a tutte le persone non è un castello in aria senza una pratica pratica. Paesi come Finlandia e Inghilterra hanno implementato il reddito di base universale e i partiti politici in Canada, Spagna, India e altri paesi si propongono attivamente di promuoverlo. esperimenti correlati.

Il vantaggio della distribuzione UBI basata sul modello di identificazione biometrica + blockchain è che il sistema è globale e ha una copertura più ampia della popolazione. Inoltre, si possono costruire altri modelli di business basati sulla rete di utenti ampliata attraverso la distribuzione del reddito, ad esempio servizi (Defi), social networking, task crowdsourcing, ecc. formano una collaborazione commerciale all'interno della rete.

Uno degli obiettivi corrispondenti per l'impatto determinato dall'avvento dell'AGI è Worldcoin-WLD, con un valore di mercato circolante di 1,03 miliardi di dollari e un valore di mercato circolante completo di 47,2 miliardi di dollari.

Rischi e incertezze nella deduzione narrativa

Questo articolo è diverso dai numerosi rapporti di ricerca e progetti precedentemente pubblicati da Mint Ventures. La deduzione e la previsione della narrazione sono altamente soggettive. I lettori sono tenuti a considerare il contenuto di questo articolo solo come una discussione divergente piuttosto che come una previsione futuro. La suddetta deduzione narrativa dell'autore affronta molte incertezze, che portano a congetture errate. Questi rischi o fattori influenzanti includono ma non sono limitati a:

  • Energia: rapido calo del consumo energetico causato dalla sostituzione della GPU

Sebbene la domanda di energia relativa all'intelligenza artificiale sia aumentata vertiginosamente, i produttori di chip rappresentati da NVIDIA stanno fornendo una maggiore potenza di calcolo con un consumo energetico inferiore attraverso continui aggiornamenti hardware. Ad esempio, nel marzo di quest'anno, NVIDIA ha rilasciato un chip che integra due schede di elaborazione AI di nuova generazione GB 200 ha 200 GPU e una CPU Grace. Le sue prestazioni di allenamento sono 4 volte quelle della GPU AI principale H 100 della generazione precedente, le sue prestazioni di inferenza sono 7 volte quelle di H 100 e il consumo energetico richiesto è solo di H 100 1/4. . Naturalmente, nonostante ciò, il desiderio delle persone di ottenere energia dall’intelligenza artificiale è lungi dall’essere esaurito. Con il calo del consumo energetico unitario e con l’ulteriore espansione degli scenari e delle esigenze applicative dell’intelligenza artificiale, il consumo energetico totale potrebbe effettivamente aumentare.

  • In termini di dati: Q* prevede di realizzare “dati autoprodotti”

Si è sempre parlato di un progetto "Q*" all'interno di OpenAI, menzionato in un messaggio interno inviato ai dipendenti da OpenAI. Secondo Reuters, citando addetti ai lavori di OpenAI, questa potrebbe rappresentare una svolta per OpenAI nella sua ricerca di superintelligenza/intelligenza artificiale generale (AGI). Q* non solo può utilizzare le sue capacità di astrazione per risolvere problemi matematici mai visti prima, ma può anche creare autonomamente i dati utilizzati per addestrare modelli di grandi dimensioni senza la necessità di dati del mondo reale. Se questa voce fosse vera, il collo di bottiglia derivante dall’insufficienza di dati di alta qualità nell’addestramento di grandi modelli di intelligenza artificiale verrà risolto.

  • L'AGI sta arrivando: le preoccupazioni nascoste di OpenAI

Non è ancora noto se l’AGI arriverà nel 2025 come ha detto Musk, ma è solo questione di tempo. Tuttavia, in quanto beneficiario diretto dell'avvento della narrativa AGI, la più grande preoccupazione di Worldcoin potrebbe derivare da OpenAI. Dopotutto, è riconosciuto come un "token ombra OpenAI".

Nella prima mattinata del 14 maggio, OpenAI ha mostrato le prestazioni dell'ultimo GPT-4o e di altre 19 diverse versioni di modelli linguistici di grandi dimensioni nei punteggi completi delle attività in occasione della conferenza di lancio del nuovo prodotto di primavera. Solo dalla tabella, GPT-4o ha ottenuto 1310, visivamente sembra essere molto più alto dei seguenti, ma dal punteggio totale è solo del 4,5% più alto del secondo posto GPT 4 turbo, e del 4,9% più alto del quarto posto del Google Gemini 1.5 Pro 5,1% in più rispetto al quinto posto Claude 3 Opus di Anthropic.

È passato poco più di un anno da quando GPT 3.5 ha scioccato il mondo al suo debutto. I concorrenti di OpenAI hanno già raggiunto una posizione molto vicina (sebbene GPT 5 non sia ancora stato rilasciato e dovrebbe essere rilasciato quest'anno). performance in futuro? La propria posizione di leader del settore, la risposta sembra essere sempre più confusa. Se il vantaggio e il dominio di OpenAI venissero diluiti o addirittura superati, anche il valore narrativo di Worldcoin come token ombra di OpenAI diminuirebbe.

Inoltre, oltre alla soluzione di autenticazione dell'iride di Worldcoin, sempre più concorrenti stanno iniziando ad entrare in questo mercato. Ad esempio, il progetto di scansione dell'identità del palmo Humanity Protocol ha appena annunciato il completamento di un nuovo round di finanziamento di 30 milioni di dollari con una valutazione. di 1 miliardo di dollari e LayerZero Labs È stato inoltre annunciato che verrà eseguito su Humanity e si unirà alla sua rete di nodi di convalida, utilizzando prove ZK per autenticare le credenziali.

Conclusione

Infine, sebbene l'autore abbia dedotto la narrazione successiva della traccia AI, la traccia AI è diversa dalle tracce cripto-native come DeFi. È più un prodotto della fuoriuscita della mania dell'IA al circolo valutario. Molti progetti attualmente hanno modelli di business. Molti progetti sono più simili a meme a tema AI (ad esempio, Rndr è simile al meme di NVIDIA e Worldcoin è simile al meme di OpenAI Readers). dovrebbe trattarlo con cautela.