Alex Xu - Mint Ventures

Orario di pubblicazione originale: 08-04-2024 10:23

Link originale: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analysis-of-upcoming-tokenlaunch-io-net /

introduzione

Nel mio ultimo articolo, ho menzionato che, rispetto ai due cicli precedenti, questo ciclo di mercato rialzista delle criptovalute manca di nuovi business sufficientemente influenti e di nuove narrazioni sugli asset. L'intelligenza artificiale è una delle poche nuove narrazioni in questo settore del Web3. L'autore di questo articolo cercherà di chiarire i miei pensieri sulle seguenti due questioni basate sul progetto AI di quest'anno IO.NET:

  • La necessità commerciale di AI+Web3

  • La necessità e le sfide dei servizi informatici distribuiti

In secondo luogo, l'autore selezionerà le informazioni chiave del progetto IO.NET, un progetto rappresentativo della potenza di calcolo distribuita dell'intelligenza artificiale, inclusa la logica del prodotto, i prodotti competitivi e il background del progetto, e dedurrà la valutazione del progetto.

Parte delle riflessioni di questo articolo sulla combinazione di AI e Web3 sono state ispirate da "The Real Merge" scritto dal ricercatore di Delphi Digital Michael Rinko. Alcune delle opinioni contenute in questo articolo sono state sintetizzate e citate dall'articolo. Si consiglia ai lettori di leggere l'articolo originale.

Questo articolo rappresenta il pensiero messo in scena dall'autore al momento della pubblicazione. Potrebbe cambiare in futuro e le opinioni sono altamente soggettive. Potrebbero esserci anche errori nei fatti, nei dati e nel ragionamento. Si prega di non utilizzarlo come riferimento per gli investimenti Commenti e discussioni da parte dei colleghi sono benvenuti.

Quello che segue è il testo principale.

1. Logica di business: il connubio tra AI e Web3

1.1 2023: il nuovo “anno miracoloso” creato dall’intelligenza artificiale

Guardando indietro alla storia dello sviluppo umano, una volta che la tecnologia raggiungerà una svolta, seguiranno cambiamenti sconvolgenti nella vita quotidiana individuale, nelle varie strutture industriali e nell’intera civiltà umana.

Ci sono due anni importanti nella storia umana, vale a dire il 1666 e il 1905. Oggi sono conosciuti come i due "anni miracolosi" nella storia della scienza e della tecnologia.

Il 1666 è considerato l'anno dei miracoli perché i risultati scientifici di Newton emersero in modo concentrato quell'anno. In quest'anno aprì il ramo fisico dell'ottica, fondò il ramo matematico del calcolo infinitesimale e derivò la formula della gravità, la legge fondamentale della moderna scienza naturale. Ciascuno di questi costituirà un contributo fondamentale allo sviluppo della scienza umana nei prossimi cento anni, accelerando notevolmente lo sviluppo della scienza nel suo complesso.

Il secondo anno miracoloso fu il 1905. A quel tempo Einstein, che aveva solo 26 anni, pubblicò quattro articoli consecutivi negli "Annali della fisica", riguardanti l'effetto fotoelettrico (gettando le basi della meccanica quantistica) e il moto browniano (divenendo un metodo per l'analisi dei processi casuali Riferimenti importanti), la relatività speciale e l'equazione massa-energia (ovvero la famosa formula E=MC^2). Nella valutazione delle generazioni successive, ciascuno di questi quattro articoli superò il livello medio del Premio Nobel per la fisica (lo stesso Einstein vinse anche il Premio Nobel per il suo articolo sull'effetto fotoelettrico), e il processo storico della civiltà umana fu ancora una volta grandemente influenzato. avanzato. Diversi passaggi.

L'anno 2023 appena trascorso sarà molto probabilmente definito un altro "anno miracoloso" a causa di ChatGPT.

Consideriamo il 2023 un “anno miracoloso” nella storia della scienza e della tecnologia umana, non solo per gli enormi progressi di GPT nella comprensione e generazione del linguaggio naturale, ma anche perché gli esseri umani hanno capito la crescita di grandi capacità di modelli linguistici dall’evoluzione di GPT La regola, ovvero espandendo i parametri del modello e i dati di addestramento, le capacità del modello possono essere migliorate in modo esponenziale, e non vi è alcun collo di bottiglia in questo processo a breve termine (purché la potenza di calcolo sia sufficiente).

Questa capacità è lontana dalla comprensione del linguaggio e dalla generazione di dialogo e può essere ampiamente utilizzata anche in vari campi scientifici e tecnologici. Prendiamo come esempio l'applicazione di grandi modelli linguistici in campo biologico:

  • Nel 2018, il premio Nobel per la chimica Francis Arnold ha dichiarato alla cerimonia di premiazione: "Oggi possiamo leggere, scrivere e modificare qualsiasi sequenza di DNA in applicazioni pratiche, ma non possiamo ancora comporla, cinque anni dopo il suo discorso, nel 2023". della Stanford University e della startup AI della Silicon Valley, Salesforce Research, hanno pubblicato un articolo su "Nature-Biotechnology". Hanno utilizzato un ampio modello linguistico messo a punto sulla base di GPT3 per passare da 0 a Un milione di nuove proteine ​​e sono state create due proteine ​​completamente diverse. Sono state trovate strutture, ma entrambe con capacità battericida. Si prevede che diventeranno una soluzione per combattere i batteri oltre agli antibiotici. In altre parole: con l’aiuto dell’intelligenza artificiale è stato superato il collo di bottiglia della “creazione” delle proteine.

  • In precedenza, l’algoritmo di intelligenza artificiale AlphaFold aveva previsto la struttura di quasi tutti i 214 milioni di proteine ​​sulla terra entro 18 mesi. Questo risultato è stato centinaia di volte il lavoro di tutti i biologi strutturali umani del passato.

Con vari modelli basati sull’intelligenza artificiale, tutto, dalle tecnologie hard come la biotecnologia, la scienza dei materiali e la ricerca e sviluppo sui farmaci, ai campi umanistici come il diritto e l’arte, introdurrà cambiamenti sconvolgenti, e il 2023 è il primo anno di tutto questo.

Sappiamo tutti che la capacità del genere umano di creare ricchezza è cresciuta in modo esponenziale nel secolo scorso e la rapida maturità della tecnologia dell’intelligenza artificiale inevitabilmente accelererà ulteriormente questo processo.

Grafico dell'andamento del PIL globale, fonte dati: Banca Mondiale

1.2 La combinazione di AI e Crypto

Per comprendere in sostanza la necessità di coniugare AI e Crypto, possiamo partire dalle caratteristiche complementari delle due.

Funzionalità complementari di AI e Crypto

L'intelligenza artificiale ha tre attributi:

  • Casualità: l’intelligenza artificiale è casuale dietro il suo meccanismo di produzione di contenuti c’è una scatola nera difficile da riprodurre e rilevare, quindi anche i risultati sono casuali.

  • Ad alta intensità di risorse: l’intelligenza artificiale è un settore ad alta intensità di risorse che richiede molta energia, chip e potenza di calcolo.

  • Intelligenza di tipo umano: l’intelligenza artificiale sarà (presto) in grado di superare il test di Turing e, da quel momento in poi, gli esseri umani saranno indistinguibili dalle macchine*

※Il 30 ottobre 2023, il gruppo di ricerca dell'Università della California, San Diego, ha pubblicato i risultati del test di Turing (rapporto di test) su GPT-3.5 e GPT-4.0. Il punteggio GPT4.0 è del 41%, che è solo il 9% distante dalla soglia del 50%. Il punteggio del test umano dello stesso progetto è del 63%. Il significato di questo test di Turing è la percentuale di persone che pensano che la persona con cui stanno chattando sia una persona reale. Se supera il 50%, significa che almeno la metà delle persone nella folla pensa che l'interlocutore sia un essere umano e non una macchina, il che viene considerato come superamento del test di Turing.

Sebbene l’intelligenza artificiale crei un nuovo balzo in avanti in termini di produttività per l’umanità, i suoi tre attributi comportano anche enormi sfide per la società umana, vale a dire:

  • Come verificare e controllare la casualità dell'IA affinché la casualità diventi un vantaggio anziché un difetto

  • Come colmare l’enorme gap energetico e di potenza di calcolo richiesto dall’AI

  • Come distinguere tra esseri umani e macchine

Le caratteristiche delle criptovalute e dell'economia blockchain possono essere la medicina giusta per risolvere le sfide portate dall'intelligenza artificiale. L'economia crittografica ha le seguenti tre caratteristiche:

  • Determinismo: il business si basa su blockchain, codice e contratti intelligenti. Le regole e i confini sono chiari. Ciò che viene fornito si tradurrà in un elevato grado di certezza.

  • Allocazione efficiente delle risorse: la criptoeconomia ha costruito un enorme mercato libero globale. La determinazione dei prezzi, la raccolta e la circolazione delle risorse sono molto veloci e, grazie all’esistenza dei token, gli incentivi possono essere utilizzati per accelerare l’incontro tra domanda e offerta di mercato e accelerare raggiungendo il punto critico.

  • Trust-free: il registro è aperto, il codice è open source e tutti possono verificarlo facilmente, introducendo un sistema "trustless", mentre la tecnologia ZK evita l'esposizione alla privacy contemporaneamente alla verifica.

Successivamente, verranno utilizzati tre esempi per illustrare la complementarità dell’intelligenza artificiale e della criptoeconomia.

Esempio A: risoluzione della casualità, agente AI basato sulla criptoeconomia

AI Agent è un programma di intelligenza artificiale responsabile dell'esecuzione di lavori per gli esseri umani in base alla volontà umana (i progetti rappresentativi includono Fetch.AI). Supponiamo di volere che il nostro agente AI elabori una transazione finanziaria, come "Acquista $ 1.000 in BTC". Gli agenti IA possono trovarsi di fronte a due situazioni:

Scenario 1: vuole connettersi con istituzioni finanziarie tradizionali (come BlackRock) e acquistare ETF BTC. Si trova ad affrontare un gran numero di problemi di adattamento tra gli agenti AI e le istituzioni centralizzate, come KYC, revisione delle informazioni, accesso, verifica dell'identità, ecc. Al momento è ancora molto problematico.

Nel secondo caso, funziona in base all'economia della crittografia nativa e la situazione diventerà molto più semplice. Utilizzerà direttamente il tuo account per firmare ed effettuare un ordine per completare la transazione tramite Uniswap o una piattaforma di trading aggregata e ricevere WBTC (o). altro incapsulamento) formato BTC), l'intero processo è semplice e veloce. In effetti, questo è ciò che stanno facendo vari BOT di trading. In realtà hanno svolto il ruolo di un agente AI junior, ma il loro lavoro è focalizzato sul trading. In futuro, con l’integrazione e l’evoluzione dell’intelligenza artificiale, vari tipi di BOT di trading saranno inevitabilmente in grado di eseguire intenzioni di trading più complesse. Ad esempio: traccia 100 indirizzi smart money sulla catena, analizza le loro strategie di trading e le percentuali di successo, utilizza il 10% dei fondi nel mio indirizzo per eseguire transazioni simili entro una settimana e fermati quando i risultati non sono buoni e riepiloga le possibilità del motivo del fallimento.

L’intelligenza artificiale funzionerà meglio in un sistema blockchain, essenzialmente grazie alla chiarezza delle regole criptoeconomiche e all’accesso senza autorizzazione al sistema. Eseguendo compiti secondo regole limitate, anche i rischi potenziali derivanti dalla casualità dell’IA saranno minori. Ad esempio, le prestazioni dell’intelligenza artificiale nelle competizioni di scacchi e di carte e nei videogiochi hanno superato quelle umane perché gli scacchi e i giochi di carte sono recinti chiusi con regole chiare. Il progresso dell’intelligenza artificiale nella guida autonoma sarà relativamente lento, perché le sfide dell’ambiente esterno aperto sono maggiori ed è più difficile per noi tollerare la casualità dei problemi di elaborazione dell’intelligenza artificiale.

Esempio B: modellare le risorse e raccogliere risorse attraverso incentivi simbolici

L’attuale potenza di calcolo totale della rete globale di potenza di calcolo dietro BTC (Hashrate: 576,70 EH/s) supera la potenza di calcolo complessiva dei supercomputer di qualsiasi paese. La sua motivazione allo sviluppo deriva da incentivi di rete semplici ed equi.

Andamento della potenza di calcolo della rete BTC, fonte: https://www.coinwarz.com/

Inoltre, i progetti DePIN, incluso Mobile, stanno anche cercando di utilizzare incentivi simbolici per modellare un mercato a due lati su entrambi i lati della domanda e dell’offerta per ottenere effetti di rete. IO.NET, su cui si concentrerà in seguito questo articolo, è una piattaforma progettata per raccogliere la potenza di calcolo dell'intelligenza artificiale. Si spera che attraverso il modello token venga stimolato un maggiore potenziale di potenza di calcolo dell'intelligenza artificiale.

Esempio C: codice open source, che introduce ZK, distinguendo esseri umani e macchine tutelando la privacy

Come progetto Web3 a cui ha partecipato il fondatore di OpenAI Sam Altman, Worldcoin utilizza il dispositivo hardware Orb per generare valori hash esclusivi e anonimi basati sulla biometria dell'iride umana e sulla tecnologia ZK per verificare l'identità e distinguere tra esseri umani e macchine. All'inizio di marzo di quest'anno, il progetto artistico Web3 Drip ha iniziato a utilizzare gli ID Worldcoin per verificare gli utenti reali ed emettere premi.

Inoltre, Worldcoin ha recentemente reso open source il codice del programma del suo hardware Orb iris per fornire garanzie per la sicurezza e la privacy dei dati biometrici degli utenti.

In generale, a causa della certezza del codice e della crittografia, dei vantaggi della circolazione delle risorse e della raccolta fondi apportati dal meccanismo di autorizzazione e token e degli attributi trustless basati su codice open source e registri pubblici, la criptoeconomia è diventata una delle principali sfide dell’IA per società umana: un’importante soluzione potenziale.

E tra questi, la sfida più urgente con la domanda commerciale più forte è l’estrema fame di prodotti di intelligenza artificiale nelle risorse informatiche, che circonda l’enorme domanda di chip e potenza di calcolo.

Questo è anche il motivo principale per cui la crescita dei progetti di potenza di calcolo distribuita supera il percorso complessivo dell’intelligenza artificiale in questo ciclo di mercato rialzista.


La necessità aziendale del calcolo decentralizzato

L’intelligenza artificiale richiede enormi risorse informatiche, sia per l’addestramento dei modelli che per l’esecuzione dell’inferenza.

Nella pratica di formazione di modelli linguistici di grandi dimensioni, un fatto è stato confermato: finché la scala dei parametri dei dati sarà sufficientemente ampia, emergeranno modelli linguistici di grandi dimensioni con alcune capacità che prima non erano disponibili. Il salto esponenziale nelle capacità di ciascuna generazione di GPT rispetto alla generazione precedente è dovuto all'aumento esponenziale della quantità di calcoli richiesti per l'addestramento del modello.

La ricerca di DeepMind e dell'Università di Stanford mostra che quando diversi modelli linguistici di grandi dimensioni affrontano compiti diversi (operazioni, risposta a domande persiane, comprensione del linguaggio naturale, ecc.), devono solo aumentare la dimensione dei parametri del modello durante l'addestramento del modello (di conseguenza, l'addestramento del modello). (anche la quantità di calcolo è aumentata), finché la quantità di addestramento non raggiunge 10^22 FLOP (FLOP si riferisce alle operazioni in virgola mobile al secondo, utilizzate per misurare le prestazioni di calcolo), la prestazione di qualsiasi attività è quasi la stessa di dare risposte casuali. ; E una volta che la scala del parametro supera il valore critico di quella scala, le prestazioni dell'attività migliorano notevolmente, indipendentemente dal modello linguistico.

Titolo: Abilità emergenti di modelli linguistici di grandi dimensioni

Titolo: Abilità emergenti di modelli linguistici di grandi dimensioni

È anche la verifica della legge e della pratica dei “grandi miracoli” nella potenza di calcolo che ha portato il fondatore di OpenAI Sam Altman a proporre di raccogliere 7 trilioni di dollari per costruire una fabbrica di chip avanzata che è 10 volte più grande delle dimensioni attuali di TSMC (questa parte Si prevede che costerà 1,5 trilioni) e utilizzerà i fondi rimanenti per la produzione di chip e la formazione dei modelli.

Oltre alla potenza di calcolo richiesta per l'addestramento dei modelli IA, anche il processo di inferenza del modello stesso richiede molta potenza di calcolo (sebbene la quantità di calcoli sia inferiore a quella dell'addestramento), quindi la fame di chip e potenza di calcolo è diventato un fattore importante nella partecipazione al percorso dell’IA lo stato normale della persona.

Rispetto ai fornitori di potenza di calcolo IA centralizzati come Amazon Web Services, Google Cloud Platform, Microsoft Azure, ecc., le principali proposte di valore del calcolo IA distribuito includono:

  • Accessibilità: ottenere l'accesso ai chip di elaborazione utilizzando servizi cloud come AWS, GCP o Azure richiede spesso settimane e i modelli GPU più diffusi sono spesso esauriti. Inoltre, per ottenere potenza di calcolo, i consumatori spesso devono firmare contratti a lungo termine e inflessibili con queste grandi aziende. La piattaforma informatica distribuita può fornire una selezione hardware flessibile e una maggiore accessibilità.

  • Prezzi bassi: a causa dell’uso di chip inattivi, insieme ai sussidi simbolici del partito del protocollo di rete per chip e fornitori di potenza di calcolo, la rete di potenza di calcolo distribuita potrebbe essere in grado di fornire una potenza di calcolo più economica.

  • Resistenza alla censura: attualmente, i chip e le forniture di potenza di calcolo all’avanguardia sono monopolizzati da grandi aziende tecnologiche e il governo rappresentato dagli Stati Uniti sta aumentando il controllo sui servizi di potenza di calcolo dell’intelligenza artificiale che possono essere distribuiti, in modo flessibile e gratuito ottenuta, diventando gradualmente una richiesta esplicita, questa è anche la proposta di valore fondamentale della piattaforma di servizi di potenza di calcolo basata su web3.

Se l’energia fossile è il sangue dell’era industriale, allora la potenza di calcolo potrebbe essere il sangue della nuova era digitale inaugurata dall’intelligenza artificiale, e la fornitura di potenza di calcolo diventerà l’infrastruttura dell’era dell’intelligenza artificiale. Proprio come le stablecoin sono diventate un fiorente ramo secondario della valuta legale nell’era Web3, il mercato della potenza di calcolo distribuita diventerà un ramo secondario del mercato della potenza di calcolo dell’intelligenza artificiale in rapida crescita?

Dato che questo è ancora un mercato abbastanza precoce, tutto resta da vedere. Tuttavia, i seguenti fattori possono stimolare la narrativa o l’adozione da parte del mercato della potenza di calcolo distribuita:

  • La domanda e l’offerta di GPU continuano ad essere limitate. La continua scarsità di GPU potrebbe spingere alcuni sviluppatori a provare piattaforme di calcolo distribuite.

  • Espansione normativa. Se desideri ottenere servizi di potenza di calcolo AI da una grande piattaforma di potenza di cloud computing, devi passare attraverso KYC e livelli di revisioni. Ciò potrebbe invece promuovere l’adozione di piattaforme informatiche distribuite, soprattutto in aree soggette a restrizioni e sanzioni.

  • Stimolazione dei prezzi simbolici. L'aumento dei prezzi dei token durante il ciclo del mercato rialzista aumenterà il valore del sussidio della piattaforma dal lato dell'offerta di GPU, attirando così più fornitori ad entrare nel mercato, aumentando le dimensioni del mercato e riducendo il prezzo di acquisto effettivo dei consumatori.

Ma allo stesso tempo, anche le sfide delle piattaforme informatiche distribuite sono abbastanza ovvie:

  • Sfide tecniche e ingegneristiche

    • Problema di verifica del lavoro: a causa della struttura gerarchica del calcolo del modello di deep learning, l'output di ciascun livello viene utilizzato come input del livello successivo. Pertanto, la verifica della validità del calcolo richiede l'esecuzione di tutto il lavoro precedente, che non è possibile verificarlo facilmente ed efficacemente. Per risolvere questo problema, le piattaforme di calcolo distribuito devono sviluppare nuovi algoritmi o utilizzare tecniche di verifica approssimata in grado di fornire garanzie probabilistiche della correttezza dei risultati piuttosto che certezza assoluta.

    • Problema di parallelizzazione: la piattaforma di potenza di calcolo distribuita raccoglie una fornitura di chip a coda lunga, il che significa che la potenza di calcolo fornita da un singolo dispositivo è relativamente limitata. Un singolo fornitore di chip può quasi completare i compiti di formazione o di ragionamento del modello di intelligenza artificiale in modo indipendente in breve tempo. Pertanto, la parallelizzazione deve essere utilizzata per smantellare e distribuire le attività per ridurre il tempo totale di completamento. La parallelizzazione dovrà inevitabilmente affrontare una serie di problemi, ad esempio come scomporre le attività (in particolare le attività complesse di deep learning), dipendenze dai dati e costi di comunicazione aggiuntivi tra i dispositivi.

    • Problema di tutela della privacy: come garantire che i dati e i modelli dell’acquirente non siano esposti al destinatario dell’incarico?

  • Sfide di conformità normativa

    • La piattaforma informatica distribuita può essere utilizzata come punto di vendita per attirare alcuni clienti a causa della sua natura senza autorizzazione del mercato bilaterale di fornitura e approvvigionamento. D’altra parte, man mano che gli standard normativi sull’IA vengono migliorati, potrebbe diventare l’obiettivo di una rettifica da parte del governo. Inoltre, alcuni fornitori di GPU si preoccupano anche del fatto che le risorse informatiche noleggiate vengano fornite ad aziende o individui sanzionati.

In generale, la maggior parte dei consumatori di piattaforme informatiche distribuite sono sviluppatori professionisti o istituzioni di piccole e medie dimensioni, a differenza degli investitori di criptovalute che acquistano criptovalute e NFT, questi utenti hanno una comprensione limitata dei servizi che il protocollo può fornire e sostenibilità, e il prezzo potrebbe non essere la motivazione principale del loro processo decisionale. Al momento, le piattaforme informatiche distribuite hanno ancora molta strada da fare per ottenere il riconoscimento di tali utenti.

Successivamente, abbiamo selezionato e analizzato le informazioni sul progetto di IO.NET, un nuovo progetto di potenza di calcolo distribuita in questo ciclo, e sulla base degli attuali progetti di intelligenza artificiale e di calcolo distribuito nello stesso percorso sul mercato, abbiamo calcolato il suo possibile potenziale di mercato dopo il suo lancio.

2. Piattaforma di potenza di calcolo IA distribuita: IO.NET

2.1 Posizionamento del progetto

IO.NET è una rete informatica decentralizzata che costruisce un mercato a due lati attorno ai chip. Il lato dell'offerta è la potenza di calcolo dei chip distribuiti in tutto il mondo (principalmente GPU, ma anche CPU e iGPU di Apple, ecc.) e il lato della domanda. spera di completare gli ingegneri dell'intelligenza artificiale per l'addestramento dei modelli di intelligenza artificiale o le attività di inferenza.

Sul sito ufficiale di IO.NET si scrive:

La nostra missione

Mettere insieme un milione di GPU in una DePIN: rete di infrastruttura fisica decentralizzata.

La sua missione è integrare milioni di GPU nella sua rete DePIN.

Rispetto ai fornitori di servizi di potenza di calcolo AI cloud esistenti, i principali punti di vendita enfatizzati sono:

  • Combinazione flessibile: gli ingegneri dell'intelligenza artificiale possono selezionare e combinare liberamente i chip di cui hanno bisogno per formare un "cluster" per completare le proprie attività informatiche.

  • Distribuzione rapida: non sono necessarie settimane di approvazione e attesa (attualmente la situazione con fornitori centralizzati come AWS), la distribuzione può essere completata e le attività possono essere avviate entro decine di secondi

  • Servizi a basso prezzo: il costo dei servizi è inferiore del 90% rispetto a quello dei produttori tradizionali

Inoltre, IO.NET prevede anche di lanciare in futuro un negozio di modelli AI e altri servizi.

2.2 Meccanismo di prodotto e dati aziendali

Meccanismo del prodotto ed esperienza di distribuzione

Come Amazon Cloud, Google Cloud e Alibaba Cloud, il servizio informatico fornito da IO.NET si chiama IO Cloud. IO Cloud è una rete di chip distribuita e decentralizzata in grado di eseguire codice di machine learning basato su Python ed eseguire programmi di machine learning e intelligenza artificiale.

Il modulo aziendale di base di IO Cloud si chiama Clusters. I cluster sono un gruppo di GPU che possono auto-coordinarsi per completare le attività di elaborazione. Gli ingegneri dell'intelligenza artificiale possono personalizzare il cluster desiderato in base alle proprie esigenze.

L'interfaccia del prodotto IO.NET è molto intuitiva. Se desideri distribuire il tuo cluster di chip per completare le attività di elaborazione AI, dopo essere entrato nella pagina del prodotto Clusters, puoi iniziare a configurare ciò che desideri secondo necessità.

Informazioni sulla pagina: https://cloud.io.net/cloud/clusters/create-cluster, la stessa di seguito

Per prima cosa devi scegliere il tuo scenario di missione. Attualmente ci sono tre tipi tra cui scegliere:

  1. Generale: fornisce un ambiente più generale, adatto alle fasi iniziali del progetto in cui i requisiti specifici delle risorse sono incerti.

  2. Train: un cluster progettato per il training e il perfezionamento dei modelli di machine learning. Questa opzione può fornire più risorse GPU, maggiore capacità di memoria e/o connessioni di rete più veloci per gestire queste attività di elaborazione intensive.

  3. Inferenza: un cluster progettato per inferenza a bassa latenza e carichi di lavoro pesanti. Nel contesto dell'apprendimento automatico, l'inferenza si riferisce all'utilizzo di un modello addestrato per fare previsioni o analizzare nuovi dati e fornire feedback. Pertanto, questa opzione si concentrerà sull'ottimizzazione della latenza e della velocità effettiva per supportare le esigenze di elaborazione dei dati in tempo reale o quasi in tempo reale.

Quindi, è necessario scegliere il fornitore del cluster di chip. Attualmente IO.NET ha raggiunto una collaborazione con Render Network e la rete di minatori di Filecoin, quindi gli utenti possono scegliere IO.NET o chip dalle altre due reti come fornitore del proprio cluster di calcolo. Equivale a IO.NET che svolge il ruolo di aggregatore (ma al momento della stesura di questo articolo, il servizio Filecon è temporaneamente offline). Vale la pena ricordare che, secondo la pagina, il numero di GPU disponibili per IO.NET è attualmente oltre 200.000, mentre il numero di GPU disponibili per Render Network è oltre 3.700.

Successivamente, entriamo nel processo di selezione dell'hardware del chip cluster. Attualmente, gli unici tipi di hardware elencati da IO.NET per la selezione sono le GPU, escluse le CPU o le iGPU di Apple (M1, M2, ecc.) e le GPU sono principalmente prodotti NVIDIA.

Tra le opzioni hardware GPU ufficialmente elencate e disponibili, secondo i dati testati dall'autore in giornata, il numero di GPU disponibili sulla rete IO.NET è 206.001. Tra questi, la GeForce RTX 4090 (45.250 foto) ha il maggior numero di dati disponibili, seguita dalla GeForce RTX 3090 Ti (30.779 foto).

Inoltre, il chip A100-SXM4-80GB (prezzo di mercato oltre 15.000 dollari), che è più efficiente nell'elaborazione di attività di elaborazione AI come l'apprendimento automatico, l'apprendimento profondo e il calcolo scientifico, ha 7.965 foto online.

La scheda grafica Nvidia H100 HBM3 da 80 GB (prezzo di mercato oltre 40.000 $), progettata specificamente per l'intelligenza artificiale fin dall'inizio della progettazione dell'hardware, ha prestazioni di training 3,3 volte superiori a quelle dell'A100 e prestazioni di inferenza 4,5 volte superiori a quelle dell'A100. Il numero effettivo di immagini online è 86.

Dopo aver selezionato il tipo di hardware del cluster, l'utente deve anche selezionare la regione del cluster, la velocità di comunicazione, il numero e il tempo delle GPU noleggiate e altri parametri.

Infine, IO.NET ti fornirà una fattura basata su selezioni complete. Prendi come esempio la configurazione del cluster dell'autore:

  • Scenario generale delle attività

  • 16 chip A100-SXM4-80GB

  • Velocità massima di connessione (Ultra High Speed)

  • Posizione Stati Uniti

  • Il periodo di noleggio è di 1 settimana

Il prezzo totale della fattura è di 3311,6 $ e il prezzo di noleggio orario di una singola carta è di 1,232 $

I prezzi di noleggio orario della singola scheda A100-SXM4-80GB su Amazon Cloud, Google Cloud e Microsoft Azure sono rispettivamente di 5,12$, 5,07$ e 3,67$ (fonte dati: https://cloud-gpus.com/, il prezzo effettivo sarà basato sui dettagli del contratto e sulla modifica dei termini).

Pertanto, solo in termini di prezzo, la potenza di calcolo dei chip di IO.NET è in effetti molto più economica di quella dei produttori tradizionali, e anche la combinazione di fornitura e approvvigionamento è molto flessibile, e anche l'operazione è facile da avviare.

Condizioni commerciali

Situazione dal lato dell’offerta

Al 4 aprile di quest'anno, secondo i dati ufficiali, la fornitura totale di GPU di IO.NET dal lato dell'offerta era di 371.027, mentre la fornitura di CPU era di 42.321. Inoltre Render Network è suo partner e alla rete sono collegate 9997 GPU e 776 CPU.

Fonte dati: https://cloud.io.net/explorer/home, la stessa di seguito

Quando l'autore ha scritto questo articolo, 214.387 del numero totale di GPU connesse a IO.NET erano online e la percentuale di online ha raggiunto il 57,8%. La tariffa online della GPU di Render Network è del 45,1%.

Cosa significano i dati dal lato dell’offerta di cui sopra?

Per fare un confronto, introduciamo Akash Network, un altro progetto di calcolo distribuito affermato che è online da più tempo.

Akash Network ha lanciato la sua mainnet già nel 2020, concentrandosi inizialmente su servizi distribuiti per CPU e storage. Nel giugno 2023 ha lanciato la rete di prova dei servizi GPU e nel settembre dello stesso anno ha lanciato la rete principale di potenza di calcolo distribuita tramite GPU.

Fonte dati: https://stats.akash.network/provider-graph/graphics-gpu

Secondo i dati ufficiali di Akash, nonostante il lato dell’offerta abbia continuato a crescere dal lancio della sua rete GPU, il numero totale di connessioni GPU finora è solo di 365.

A giudicare dalla fornitura di GPU, IO.NET è diversi ordini di grandezza superiore ad Akash Network ed è già la più grande rete di fornitura nel circuito di potenza di calcolo distribuita delle GPU.

Situazione dal lato della domanda

Tuttavia, dal lato della domanda, IO.NET è ancora nelle prime fasi di sviluppo del mercato. Attualmente, il numero totale di utenti effettivi che utilizzano IO.NET per eseguire attività informatiche non è elevato. Il carico di lavoro della maggior parte delle GPU online è dello 0% e solo quattro chip - A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S e H100 80GB HBM3 - stanno elaborando attività. E ad eccezione dell'A100 PCIe 80GB K8S, la capacità di carico degli altri tre chip è inferiore al 20%.

Il valore ufficiale della pressione di rete divulgato quel giorno era dello 0%, il che significa che la maggior parte della fornitura di chip è in stato di standby online.

In termini di costi di rete, IO.NET ha sostenuto commissioni di servizio pari a 586.029 $ e il costo nell'ultimo giorno è stato di 3.200 $.

Fonte dati: https://cloud.io.net/explorer/clusters

L'entità delle commissioni di regolamento della rete di cui sopra, sia in termini di importo totale che di volume delle transazioni giornaliere, è nello stesso ordine di grandezza di Akash. Tuttavia, la maggior parte delle entrate della rete di Akash proviene dalla parte CPU e la fornitura di CPU di Akash è superiore 20.000.

Fonte dati: https://stats.akash.network/

Inoltre, IO.NET ha anche divulgato i dati aziendali delle attività di ragionamento dell'intelligenza artificiale elaborate dalla rete. Finora ha elaborato e verificato più di 230.000 attività di ragionamento. Tuttavia, la maggior parte di questo volume di affari è generato dal progetto sponsorizzato da IO.NET BC8.AI.

Fonte dati: https://cloud.io.net/explorer/inferences

A giudicare dagli attuali dati aziendali, il lato dell'offerta di IO.NET si sta espandendo senza intoppi, stimolato dalle aspettative degli airdrop e dalle attività della comunità dal nome in codice "Ignition", ha rapidamente raccolto una grande quantità di potenza di calcolo dei chip AI. La sua espansione dal lato della domanda è ancora nelle fasi iniziali e la domanda biologica è attualmente insufficiente. Per quanto riguarda le attuali carenze dal lato della domanda, sia perché l’espansione del lato dei consumatori non è ancora iniziata, sia perché l’attuale esperienza di servizio non è ancora stabile e quindi manca un’adozione su larga scala, questo deve ancora essere valutato.

Tuttavia, considerando che il divario nella potenza di calcolo dell’IA è difficile da colmare a breve termine, ci sono un gran numero di ingegneri e progetti di intelligenza artificiale alla ricerca di alternative e potrebbero essere interessati a fornitori di servizi decentralizzati. Inoltre, IO.NET non lo fa lo sviluppo economico dal lato della domanda finora realizzato, con lo stimolo delle attività, il graduale miglioramento dell'esperienza del prodotto e il conseguente graduale incontro tra domanda e offerta, vale ancora la pena guardare avanti.

2.3 Background del team e situazione finanziaria

Situazione della squadra

Il team principale di IO.NET è stato fondato nel campo del trading quantitativo. Prima di giugno 2022, si era concentrato sullo sviluppo di sistemi di trading quantitativo a livello istituzionale per azioni e criptovalute. A causa della richiesta di potenza di calcolo nel backend del sistema, il team ha iniziato a esplorare la possibilità del calcolo decentralizzato e infine si è concentrato sulla questione specifica della riduzione del costo dei servizi di calcolo GPU.

Fondatore e CEO: Ahmad Shadid

Ahmad Shadid è stato impegnato in lavori legati all'ingegneria quantitativa e finanziaria prima di IO.NET ed è anche un volontario presso la Ethereum Foundation.

CMO e Direttore strategico: Garrison Yang

Garrison Yang è entrato ufficialmente in IO.NET nel marzo di quest'anno. In precedenza è stato vicepresidente della strategia e della crescita di Avalanche e si è laureato all'Università della California, a Santa Barbara.

COO: Tory Green

Tory Green è COO di io.net. In precedenza è stato COO di Hum Capital, Direttore dello sviluppo e della strategia aziendale presso Fox Mobile Group e si è laureato a Stanford.

A giudicare dalle informazioni Linkedin di IO.NET, il team ha sede a New York, negli Stati Uniti, con una filiale a San Francisco. La dimensione attuale del team è di oltre 50 persone.

Situazione finanziaria

Finora IO.NET ha reso noto solo un round di finanziamento, ovvero il finanziamento di serie A completato a marzo di quest'anno con una valutazione di 1 miliardo di dollari, raccogliendo un totale di 30 milioni di dollari, guidato da Hack VC e altri investitori partecipanti includono Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures e ArkStream Capital, tra gli altri.

Vale la pena ricordare che, forse a causa dell'investimento ricevuto dalla Fondazione Aptos, il progetto BC8.AI, originariamente utilizzato per il regolamento e la contabilità su Solana, è stato convertito nello stesso L1 Aptos ad alte prestazioni.

2.4 Calcolo della valutazione

Secondo il precedente fondatore e CEO Ahmad Shadid, IO.NET lancerà il token alla fine di aprile.

IO.NET ha due progetti target che possono essere utilizzati come riferimento per la valutazione: Render Network e Akash Network, entrambi progetti rappresentativi di calcolo distribuito.

Possiamo dedurre l'intervallo del valore di mercato di IO.NET in due modi: 1. Rapporto mercato-vendite, ovvero: rapporto valore di mercato/fatturato 2. Rapporto valore di mercato/numero di chip di rete;

Diamo prima un’occhiata alla detrazione dalla valutazione basata sul rapporto prezzo/vendita:

Dal punto di vista del rapporto prezzo/vendite, Akash può essere utilizzato come limite inferiore dell'intervallo di valutazione di IO.NET, mentre Render può essere utilizzato come riferimento per i prezzi di fascia alta, con un intervallo FDV compreso tra 1,67 miliardi di dollari e 5,93 dollari. miliardi.

Tuttavia, considerando che il progetto IO.NET è aggiornato, la narrazione è più calda, unita al minore valore di mercato della circolazione iniziale e all'attuale scala più ampia dal lato dell'offerta, la possibilità che il suo FDV superi Render non è piccola.

Diamo un'occhiata a un altro punto di vista per confrontare le valutazioni, vale a dire il "rapporto prezzo-core".

In un contesto di mercato in cui la domanda di potenza di calcolo AI supera l’offerta, l’elemento più importante di una rete di potenza di calcolo AI distribuita è la portata del lato dell’offerta di GPU. Pertanto, possiamo fare un confronto orizzontale con il “market-to-core”. ratio" e utilizzare il "valore di mercato totale del progetto e il numero di chip nella rete "Quantity Ratio" per dedurre il possibile intervallo di valutazione di IO.NET affinché i lettori possano utilizzarlo come riferimento del valore di mercato.

Se l'intervallo del valore di mercato di IO.NET viene calcolato in base al rapporto mercato-core, IO.NET utilizza il rapporto mercato-core di Render Network come limite superiore e Akash Network come limite inferiore per il suo intervallo FDV va da 20,6 miliardi di dollari a 197,5 miliardi di dollari.

Credo che non importa quanto i lettori siano ottimisti riguardo al progetto IO.NET, penseranno che si tratta di un calcolo del valore di mercato estremamente ottimistico.

E dobbiamo tenere conto del fatto che l'attuale enorme numero di chip online di IO.NET è stimolato dalle aspettative di airdrop e dalle attività di incentivi. Il numero effettivo di chip online dal lato dell'offerta dovrà ancora essere osservato dopo il lancio ufficiale del progetto .

Pertanto, in generale, i calcoli della valutazione dal punto di vista del rapporto prezzo/vendite possono essere più informativi.

Essendo un progetto con la tripla aura di ecologia AI+DePIN+Solana, IO.NET aspetterà e vedrà quale sarà la sua performance in termini di valore di mercato dopo il suo lancio.

3. Informazioni di riferimento

  • Delphi Digital: La vera fusione

  • Galaxy: Comprendere l'intersezione tra criptovaluta e intelligenza artificiale

Link originale: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analysis-of-upcoming-tokenlaunch-io-net /

Ristampato dalla comunità io.net Binance Square, il copyright originale e la responsabilità dei contenuti appartengono all'autore originale. La ristampa da parte di io.net e Binance Square non significa che certifica o supporta alcune o tutte le opinioni del contenuto ristampato.