Alex Xu - Mint Ventures

Ora publicării originale: 2024-04-08 10:23

Link original: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analysis-of-upcoming-tokenlaunch-io-net /

introducere

În ultimul meu articol, am menționat că, în comparație cu cele două cicluri anterioare, acestui ciclu de piață cripto bullă îi lipsesc noile narațiuni de afaceri și active suficient de influente. AI este una dintre puținele narațiuni noi din această rundă a domeniului Web3. Autorul acestui articol va încerca să-mi rezolve gândurile cu privire la următoarele două probleme bazate pe proiectul fierbinte AI din acest an IO.NET:

  • Necesitatea comercială a AI+Web3

  • Necesitatea și provocările serviciilor de calcul distribuite

În al doilea rând, autorul va sorta informațiile cheie ale proiectului IO.NET, un proiect reprezentativ al puterii de calcul distribuite AI, inclusiv logica produsului, situația competitivă a produsului și contextul proiectului și va deduce evaluarea proiectului.

O parte din gândurile acestui articol despre combinația dintre AI și Web3 au fost inspirate de „The Real Merge” scrisă de cercetătorul Delphi Digital Michael rinko. Unele dintre opiniile din acest articol sunt digerate și citate din articol. Se recomandă cititorilor să citească articolul original.

Acest articol este gândirea în scenă a autorului din momentul publicării. Se poate schimba în viitor, iar opiniile pot fi, de asemenea, erori în fapte, date și raționament Comentariile și discuțiile colegilor sunt binevenite.

Următorul este textul principal.

1. Logica de afaceri: combinația dintre AI și Web3

1.1 2023: Noul „an miracol” creat de AI

Privind înapoi la istoria dezvoltării umane, odată ce tehnologia realizează o descoperire, vor urma schimbări zguduitoare de la viața de zi cu zi individuală, la diferite structuri industriale și la întreaga civilizație umană.

Există doi ani importanți în istoria omenirii, și anume 1666 și 1905. Acum sunt cunoscuți ca cei doi „ani miracol” din istoria științei și tehnologiei.

1666 este considerat Anul Miracolelor, deoarece realizările științifice ale lui Newton au apărut într-o manieră concentrată în acel an. În acest an, el a deschis ramura fizică a opticii, a fondat ramura matematică a calculului și a derivat formula gravitației, legea de bază a științei naturale moderne. Fiecare dintre acestea va reprezenta o contribuție fundamentală la dezvoltarea științei umane în următoarea sută de ani, accelerând foarte mult dezvoltarea științei generale.

Al doilea an minune a fost 1905. La acea vreme, Einstein, care avea doar 26 de ani, a publicat patru lucrări consecutive în „Analele fizicii”, acoperind efectul fotoelectric (punând bazele mecanicii cuantice) și mișcarea browniană (devenind un metoda de analiză a proceselor aleatorii). Referințe importante), relativitatea specială și ecuația masă-energie (adică celebra formulă E=MC^2). În evaluarea generațiilor ulterioare, fiecare dintre aceste patru lucrări a depășit nivelul mediu al Premiului Nobel pentru fizică (Einstein însuși a câștigat și Premiul Nobel pentru lucrarea sa despre efectul fotoelectric), iar procesul istoric al civilizației umane a fost din nou foarte mare. avansată.

Anul 2023 care tocmai a trecut va fi numit, cel mai probabil, un alt „an miracol” din cauza ChatGPT.

Considerăm 2023 ca un „an miracol” în istoria științei și tehnologiei umane, nu numai datorită progresului uriaș al GPT în înțelegerea și generarea limbajului natural, ci și pentru că oamenii și-au dat seama de creșterea capacităților mari de model lingvistic din evoluția Regula GPT - adică prin extinderea parametrilor modelului și a datelor de antrenament, capabilitățile modelului pot fi îmbunătățite exponențial - și nu există blocaj în acest proces pe termen scurt (atâta timp cât puterea de calcul este suficientă).

Această abilitate este departe de a înțelege limbajul și de a genera dialog. Poate fi utilizată pe scară largă în diverse domenii științifice și tehnologice. Luați ca exemplu aplicarea unor modele de limbaj mari în domeniul biologic.

  • În 2018, laureatul Premiului Nobel pentru Chimie Francis Arnold a declarat la ceremonia de premiere: „Astăzi putem citi, scrie și edita orice secvență de ADN în aplicații practice, dar nu o putem compune încă la cinci ani după discursul său, în 2023, cercetătorii de la Universitatea Stanford și startup-ul de inteligență artificială din Silicon Valley, Salesforce Research, au publicat o lucrare în „Nature-Biotechnology”. Au folosit un model de limbaj mare ajustat pe baza GPT3 pentru a trece de la 0. S-au creat un milion de proteine ​​noi și două proteine ​​cu structuri complet diferite. , dar ambele cu capacitati bactericide, se asteapta sa devina o solutie pentru combaterea bacteriilor pe langa antibiotice. Cu alte cuvinte: cu ajutorul AI, blocajul „creării” proteinelor a fost depășit.

  • Anterior, algoritmul de inteligență artificială AlphaFold a prezis structura aproape a tuturor celor 214 milioane de proteine ​​​​de pe pământ în 18 luni. Acest rezultat a fost de sute de ori munca tuturor biologilor structurali umani din trecut.

Cu diverse modele bazate pe inteligență artificială, totul, de la tehnologii dure, cum ar fi biotehnologia, știința materialelor și cercetarea și dezvoltarea medicamentelor, până la domenii umaniste precum dreptul și arta, vor introduce schimbări zguduitoare, iar 2023 este primul an al tuturor acestor lucruri.

Știm cu toții că capacitatea omenirii de a crea bogăție a crescut exponențial în ultimul secol, iar maturitatea rapidă a tehnologiei AI va accelera inevitabil și mai mult acest proces.

Diagrama tendinței PIB global, sursa datelor: Banca Mondială

1.2 Combinația dintre AI și Crypto

Pentru a înțelege în esență necesitatea combinării AI și Crypto, putem pleca de la caracteristicile complementare ale celor două.

Caracteristici complementare ale AI și Crypto

AI are trei atribute:

  • Aleatorie: AI este aleatorie în spatele mecanismului său de producere a conținutului se află o cutie neagră care este dificil de reprodus și de detectat, deci rezultatele sunt, de asemenea, aleatorii.

  • Resurse intensive: AI este o industrie intensivă în resurse, care necesită multă energie, cipuri și putere de calcul.

  • Inteligență asemănătoare omului: AI va putea (în curând) să treacă testul Turing și, după aceea, oamenii vor fi imposibil de distins de mașini*

※La 30 octombrie 2023, echipa de cercetare de la Universitatea din California, San Diego, a lansat rezultatele testului Turing (raportul de testare) pentru GPT-3.5 și GPT-4.0. Scorul GPT4.0 este de 41%, care este la doar 9% distanță de linia de trecere de 50%. Scorul la testul uman al aceluiași proiect este de 63%. Sensul acestui test Turing este cât de multe procente dintre oameni cred că persoana cu care vorbesc este o persoană reală. Dacă depășește 50%, înseamnă că cel puțin jumătate dintre oamenii din mulțime cred că partenerul de conversație este o ființă umană, nu o mașină, care este considerată ca trecând testul Turing.

În timp ce AI creează un nou salt înainte de productivitate pentru omenire, cele trei atribute ale sale aduc, de asemenea, provocări uriașe societății umane, și anume:

  • Cum să verifici și să controlezi caracterul aleatoriu al IA, astfel încât aleatorietatea să devină mai degrabă un avantaj decât un defect

  • Cum să acoperiți decalajul imens de energie și putere de calcul cerut de AI

  • Cum să faci diferența dintre oameni și mașini

Caracteristicile Crypto și a economiei blockchain pot fi medicamentul potrivit pentru a rezolva provocările aduse de AI. Economia de criptare are următoarele trei caracteristici:

  • Determinism: afacerea se bazează pe blockchain, cod și contracte inteligente. Regulile și limitele sunt clare.

  • Alocarea eficientă a resurselor: criptoeconomia a construit o uriașă piață globală liberă. Prețurile, colectarea și circulația resurselor sunt foarte rapide și, datorită existenței token-urilor, stimulentele pot fi utilizate pentru a accelera corelarea ofertei și a cererii și accelerează atingerea punctelor critice.

  • Fără încredere: registrul este deschis, codul este open source și toată lumea îl poate verifica cu ușurință, aducând un sistem „fără încredere”, în timp ce tehnologia ZK evită expunerea confidențialității în același timp cu verificarea

În continuare, vor fi folosite trei exemple pentru a ilustra complementaritatea AI și a economiei cripto.

Exemplul A: Rezolvarea aleatoriei, agent AI bazat pe criptoeconomie

AI Agent este un program de inteligență artificială responsabil pentru efectuarea de lucrări pentru oameni bazate pe voința umană (proiectele reprezentative includ Fetch.AI). Să presupunem că vrem ca agentul nostru AI să proceseze o tranzacție financiară, cum ar fi „Cumpărați 1.000 USD în BTC”. Agenții AI se pot confrunta cu două situații:

Scenariul 1: Trebuie să se conecteze cu instituții financiare tradiționale (cum ar fi BlackRock) și să achiziționeze BTC ETF. Se confruntă cu un număr mare de probleme de adaptare între agenții AI și instituțiile centralizate, cum ar fi KYC, revizuirea informațiilor, autentificarea, verificarea identității etc. Încă este foarte supărător în acest moment.

Scenariul 2: Funcționează pe baza economiei native de criptare, iar situația va deveni mult mai simplă. Va folosi direct contul dvs. pentru a semna și a plasa o comandă pentru a finaliza tranzacția prin Uniswap sau o platformă de tranzacționare agregată și va primi WBTC (sau alte. încapsulare) format BTC), întregul proces este rapid și ușor. De fapt, asta fac diverși BOT-uri de tranzacționare. De fapt, au jucat rolul unui agent AI junior, dar munca lor se concentrează pe tranzacționare. În viitor, odată cu integrarea și evoluția AI, diverse tipuri de BOT-uri de tranzacționare vor putea inevitabil să execute intenții de tranzacționare mai complexe. De exemplu: urmăriți 100 de adrese de bani inteligente de pe lanț, analizați strategiile lor de tranzacționare și ratele de succes, folosiți 10% din fondurile de la adresa mea pentru a efectua tranzacții similare într-o săptămână și opriți-vă când efectul nu este bun și rezumați posibilitatea a motivului eșecului.

AI va funcționa mai bine într-un sistem blockchain, în principal datorită clarității regulilor criptoeconomice și a accesului fără permisiune la sistem. Prin îndeplinirea sarcinilor în conformitate cu reguli limitate, riscurile potențiale aduse de aleatorietatea AI vor fi, de asemenea, mai mici. De exemplu, performanța AI în competițiile de șah și cărți și jocurile video a depășit oamenii, deoarece șahul și jocurile de cărți sunt nisipuri închise cu reguli clare. Progresul AI în conducerea autonomă va fi relativ lent, deoarece provocările mediului extern deschis sunt mai mari și ne este mai greu să tolerăm caracterul aleatoriu al problemelor de procesare AI.

Exemplul B: Formarea resurselor și colectarea resurselor prin stimulente simbol

Puterea totală actuală de calcul a rețelei globale de putere de calcul din spatele BTC (Hashrate: 576,70 EH/s) depășește puterea completă de calcul a supercalculatoarelor oricărei țări. Motivația sa de dezvoltare provine din stimulentele de rețea simple și corecte.

Tendința puterii de calcul a rețelei BTC, sursa: https://www.coinwarz.com/

În plus, proiectele DePIN, inclusiv Mobile, încearcă, de asemenea, să folosească stimulente simbolice pentru a modela o piață bilaterală pe ambele părți ale ofertei și cererii pentru a obține efecte de rețea. IO.NET, pe care se va concentra în continuare acest articol, este o platformă concepută pentru a aduna puterea de calcul AI.

Exemplul C: cod sursă deschis, introducerea ZK, diferențierea oamenilor și mașinilor, protejând în același timp confidențialitatea

Ca proiect Web3 la care a participat fondatorul OpenAI Sam Altman, Worldcoin folosește dispozitivul hardware Orb pentru a genera valori hash exclusive și anonime bazate pe biometria irisului uman și tehnologia ZK pentru a verifica identitatea și a face distincția între oameni și mașini. La începutul lunii martie a acestui an, proiectul de artă Web3 Drip a început să folosească ID-uri Worldcoin pentru a verifica utilizatorii reali și a emite recompense.

În plus, Worldcoin a deschis recent și codul de program al hardware-ului său iris Orb pentru a oferi garanții pentru securitatea și confidențialitatea datelor biometrice ale utilizatorilor.

În general, datorită siguranței codului și criptografiei, avantajelor circulației resurselor și strângerii de fonduri aduse de mecanismul fără permisiune și token și atributele fără încredere bazate pe codul sursă deschis și registrele publice, economia cripto a devenit o provocare majoră a AI pentru societate umană o soluție potențială importantă.

Și dintre acestea, cea mai urgentă provocare cu cea mai puternică cerere comercială este foamea extremă de produse AI în resursele de calcul, care înconjoară cererea uriașă de cipuri și putere de calcul.

Acesta este, de asemenea, motivul principal pentru care creșterea proiectelor de putere de calcul distribuită depășește traseul general de AI în acest ciclu de piață.


Necesitatea afacerilor de calcul descentralizat

AI necesită resurse de calcul masive, fie pentru antrenarea modelelor sau pentru efectuarea de inferențe.

În practica de formare a modelelor de limbaj mari, un fapt a fost confirmat: atâta timp cât scara parametrilor de date este suficient de mare, vor apărea modele de limbaj mari cu unele capacități care nu erau disponibile înainte. Saltul exponențial al capacităților fiecărei generații de GPT în comparație cu generația anterioară se datorează creșterii exponențiale a cantității de calcule necesare pentru antrenamentul modelului.

Cercetările efectuate de DeepMind și Universitatea Stanford arată că atunci când diferite modele de limbaj mari se confruntă cu sarcini diferite (operații, răspunsuri la întrebări persane, înțelegerea limbajului natural etc.), trebuie doar să mărească dimensiunea parametrilor modelului în timpul antrenamentului modelului (în mod corespunzător, antrenamentul The cantitatea de calcul a crescut, de asemenea), până când cantitatea de antrenament nu ajunge la 10^22 FLOP (FLOP-urile se referă la operațiuni cu virgulă mobilă pe secundă, utilizate pentru a măsura performanța de calcul), performanța oricărei sarcini este aproape aceeași cu a da răspunsuri aleatoriu. Și odată ce scara parametrilor depășește valoarea critică a acelei scale, performanța sarcinii se îmbunătățește brusc, indiferent de modelul de limbă.

来源:Abilități emergente ale modelelor de limbaj mari

来源:Abilități emergente ale modelelor de limbaj mari

De asemenea, verificarea legii și a practicii „marilor miracole” în puterea de calcul l-a determinat pe fondatorul OpenAI, Sam Altman, să propună strângerea de 7.000 de miliarde de dolari pentru a construi o fabrică de cipuri avansate care este de 10 ori mai mare decât dimensiunea actuală a TSMC (această parte). Este de așteptat să coste 1,5 trilioane) și să folosească fondurile rămase pentru producția de cipuri și formarea modelelor.

Pe lângă puterea de calcul necesară pentru a antrena modele AI, procesul de inferență al modelului în sine necesită, de asemenea, multă putere de calcul (deși cantitatea de calcule este mai mică decât cea a antrenamentului), astfel încât foamea de cipuri și putere de calcul a devenit un factor major în participarea la AI ​​​​starea normală a persoanei.

În comparație cu furnizorii centralizați de energie de calcul AI, cum ar fi Amazon Web Services, Google Cloud Platform, Microsoft Azure etc., principalele propuneri de valoare ale calculului AI distribuit includ:

  • Accesibilitate: obținerea accesului la cipuri de calcul folosind servicii cloud precum AWS, GCP sau Azure durează adesea săptămâni, iar modelele GPU populare sunt adesea epuizate. În plus, pentru a obține putere de calcul, consumatorii trebuie adesea să semneze contracte pe termen lung, inflexibile cu aceste companii mari. Platforma de calcul distribuită poate oferi o selecție flexibilă de hardware și o accesibilitate mai mare.

  • Prețuri scăzute: din cauza utilizării cipurilor inactive și a subvențiilor pentru token oferite de partea protocolului de rețea furnizorilor de cip și de energie de calcul, rețeaua de energie de calcul distribuită poate oferi o putere de calcul mai ieftină.

  • Rezistența la cenzură: în prezent, cipurile și consumabilele de ultimă oră sunt monopolizate de marile companii de tehnologie. În plus, guvernul reprezentat de Statele Unite își sporește revizuirea puterii de calcul AI, care poate fi distribuită în mod flexibil. și obținută gratuit, devenind treptat o cerere explicită, aceasta este și propunerea de valoare de bază a platformei de servicii de putere de calcul bazată pe web3.

Dacă energia fosilă este sângele erei industriale, atunci puterea de calcul poate fi sângele noii ere digitale deschise de AI, iar furnizarea de putere de calcul va deveni infrastructura erei AI. Așa cum monedele stabile au devenit o ramură secundară înfloritoare a monedei legale în era Web3, va deveni piața de putere de calcul distribuită o ramură secundară a pieței de putere de calcul AI în creștere rapidă?

Deoarece aceasta este încă o piață destul de timpurie, totul rămâne de văzut. Cu toate acestea, următorii factori pot stimula adoptarea narativă sau pe piață a puterii de calcul distribuite:

  • Oferta și cererea de GPU continuă să fie strânse. Oferta continuă de GPU-uri poate împinge unii dezvoltatori să încerce platforme de calcul distribuite.

  • Extinderea reglementărilor. Dacă doriți să obțineți servicii de putere de calcul AI de la o platformă mare de cloud computing, trebuie să treceți prin KYC și straturi de recenzii. Acest lucru poate promova, în schimb, adoptarea platformelor de calcul distribuite, în special în zonele supuse restricțiilor și sancțiunilor.

  • Stimularea prețului simbolului. Creșterea prețurilor token-urilor în timpul ciclului pieței taur va crește valoarea subvenției platformei pentru partea de aprovizionare cu GPU, atrăgând astfel mai mulți furnizori să intre pe piață, mărind dimensiunea pieței și reducând prețul real de achiziție al consumatorilor.

Dar, în același timp, provocările platformelor de calcul distribuite sunt, de asemenea, destul de evidente:

  • Provocări tehnice și de inginerie

    • Problema de verificare a muncii: Datorită structurii ierarhice a calculului modelului de învățare profundă, rezultatul fiecărui strat este utilizat ca intrare a stratului următor. Prin urmare, verificarea validității calculului necesită executarea tuturor lucrărilor anterioare nu poate fi verificată ușor și eficient. Pentru a rezolva această problemă, platformele de calcul distribuite trebuie să dezvolte noi algoritmi sau să utilizeze tehnici de verificare aproximative care pot oferi garanții probabilistice ale corectitudinii rezultatelor, mai degrabă decât certitudinea absolută.

    • Problemă de paralelizare: Platforma de putere de calcul distribuită adună o sursă lungă de cipuri, ceea ce înseamnă că puterea de calcul furnizată de un singur dispozitiv este relativ limitată independent într-un timp scurt. Prin urmare, paralelizarea trebuie utilizată pentru a demonta și a distribui sarcinile pentru a scurta timpul total de finalizare. Paralelizarea se va confrunta inevitabil cu o serie de probleme, cum ar fi modul de descompunere a sarcinilor (în special sarcinile complexe de deep learning), dependențe de date și costuri suplimentare de comunicare între dispozitive.

    • Problemă de protecție a confidențialității: Cum să vă asigurați că datele și modelele cumpărătorului nu sunt expuse destinatarului sarcinii?

  • Provocări de conformitate cu reglementările

    • Platforma de calcul distribuită poate fi folosită ca un punct de vânzare pentru a atrage unii clienți datorită naturii sale fără permisiunea pieței bilaterale de aprovizionare și achiziții. Pe de altă parte, pe măsură ce standardele de reglementare AI sunt îmbunătățite, aceasta poate deveni ținta rectificării guvernamentale. În plus, unii furnizori de GPU sunt, de asemenea, îngrijorați dacă resursele de calcul pe care le închiriază sunt furnizate întreprinderilor sau persoanelor sancționate.

În general, majoritatea consumatorilor de platforme de calcul distribuite sunt dezvoltatori profesioniști sau instituții mici și mijlocii Spre deosebire de investitorii cripto care achiziționează criptomonede și NFT, acești utilizatori au o înțelegere limitată a serviciilor pe care protocolul le poate oferi și sustenabilitatea, iar prețul poate să nu fie principala motivație pentru luarea deciziilor. În prezent, platformele de calcul distribuite mai au un drum lung de parcurs pentru a obține recunoașterea de la astfel de utilizatori.

Apoi, am sortat și analizat informațiile despre proiect ale IO.NET, un nou proiect de putere de calcul distribuită în acest ciclu, iar pe baza proiectelor actuale de IA și a proiectelor de calcul distribuite pe aceeași pistă de pe piață, am calculat potențialul său posibil după nivelul de evaluare.

2. Platformă de putere de calcul AI distribuită: IO.NET

2.1 Poziționarea proiectului

IO.NET este o rețea de calcul descentralizată care construiește o piață cu două fețe în jurul cipurilor. Latura ofertei este puterea de calcul a cipurilor distribuite în întreaga lume (în principal GPU-uri, dar și procesoare și iGPU-uri Apple etc.) și partea cererii. speră să finalizeze inginerii de inteligență artificială pentru instruirea modelului AI sau sarcinile de inferență.

Pe site-ul oficial al IO.NET scrie:

Misiunea noastră

Adunarea a un milion de GPU-uri într-o rețea DePIN – infrastructură fizică descentralizată.

Misiunea sa este de a integra milioane de GPU-uri în rețeaua DePIN.

În comparație cu furnizorii de servicii de putere de calcul cloud AI existenți, principalele sale puncte de vânzare subliniate sunt:

  • Combinație flexibilă: inginerii AI pot selecta și combina liber cipurile de care au nevoie pentru a forma un „cluster” pentru a-și îndeplini propriile sarcini de calcul.

  • Implementare rapidă: nu este nevoie de săptămâni de aprobare și așteptare (în prezent, situația cu furnizorii centralizați, cum ar fi AWS), implementarea poate fi finalizată și sarcinile pot fi începute în zeci de secunde

  • Servicii la preț scăzut: costul serviciilor este cu 90% mai mic decât cel al producătorilor de masă

În plus, IO.NET intenționează să lanseze magazinul de modele AI și alte servicii în viitor.

2.2 Mecanismul produsului și datele comerciale

Mecanismul produsului și experiența de implementare

La fel ca Amazon Cloud, Google Cloud și Alibaba Cloud, serviciul de calcul oferit de IO.NET se numește IO Cloud. IO Cloud este o rețea de cip distribuită, descentralizată, capabilă să execute cod de învățare automată bazat pe Python și să ruleze programe AI și de învățare automată.

Modulul de afaceri de bază al IO Cloud se numește Clusterele sunt un grup de GPU care se pot autocoordona pentru a finaliza sarcinile de calcul. Inginerii de inteligență artificială pot personaliza clusterul dorit.

Interfața produsului IO.NET este foarte ușor de utilizat Dacă doriți să implementați propriul cluster de cipuri pentru a finaliza sarcinile de calcul AI, după ce ați accesat pagina de produse Clusters, puteți începe să configurați ceea ce doriți.

Informații despre pagină: https://cloud.io.net/cloud/clusters/create-cluster, la fel mai jos

Mai întâi trebuie să-ți alegi propriul scenariu de misiune. În prezent, există trei tipuri din care să alegi:

  1. General: Oferă un mediu mai general, potrivit pentru etapele incipiente ale proiectului în care cerințele specifice de resurse sunt incerte.

  2. Train: un cluster conceput pentru antrenarea și reglarea fină a modelelor de învățare automată. Această opțiune poate oferi mai multe resurse GPU, capacitate de memorie mai mare și/sau conexiuni de rețea mai rapide pentru a gestiona aceste sarcini de calcul intensive.

  3. Inferență: un cluster conceput pentru inferență cu latență scăzută și sarcini de lucru grele. În contextul învățării automate, inferența se referă la utilizarea unui model antrenat pentru a face predicții sau a analiza date noi și a oferi feedback. Prin urmare, această opțiune se va concentra pe optimizarea latenței și a debitului pentru a susține nevoile de procesare a datelor în timp real sau aproape în timp real.

Apoi, trebuie să alegeți furnizorul clusterului de cipuri. În prezent, IO.NET a ajuns la o cooperare cu Render Network și rețeaua de mineri Filecoin, astfel încât utilizatorii să poată alege IO.NET sau cipuri din celelalte două rețele ca furnizor al propriului cluster de calcul. . Este echivalent cu IO.NET care joacă rolul unui agregator (dar la momentul scrierii acestui articol, serviciul Filecon este temporar offline). De menționat că, conform paginii, numărul de GPU-uri disponibile pentru IO.NET este în prezent de 200.000+, în timp ce numărul de GPU-uri disponibile pentru Render Network este de 3.700+.

Apoi, intrăm în procesul de selecție a hardware-ului cipului de cluster. În prezent, singurele tipuri de hardware listate de IO.NET pentru selecție sunt GPU-urile, excluzând CPU-urile sau iGPU-urile Apple (M1, M2 etc.), iar GPU-urile sunt în principal produse NVIDIA.

Printre opțiunile hardware GPU listate oficial și disponibile, conform datelor de testare ale autorului din ziua respectivă, numărul de GPU-uri disponibile în rețeaua IO.NET este de 206.001. Dintre acestea, GeForce RTX 4090 (45.250 de fotografii) are cele mai multe date disponibile, urmată de GeForce RTX 3090 Ti (30.779 de fotografii).

În plus, cipul A100-SXM4-80GB (preț de piață 15.000 USD+), care este mai eficient în procesarea sarcinilor de calcul AI, cum ar fi învățarea automată, învățarea profundă și calculul științific, are 7.965 de fotografii online.

Placa grafică NVIDIA H100 80GB HBM3 (preț de piață 40.000 USD+), care a fost concepută special pentru AI încă de la începutul designului hardware, are o performanță de antrenament de 3,3 ori mai mare decât cea a lui A100, o performanță de inferență care este de 4,5 ori mai mare decât cea a lui A100, iar numărul real de imagini online este de 86.

După selectarea tipului de hardware al clusterului, utilizatorul trebuie să selecteze și regiunea clusterului, viteza de comunicare, numărul și timpul GPU-urilor închiriate și alți parametri.

În cele din urmă, IO.NET vă va oferi o factură bazată pe selecții complete. Luați ca exemplu configurația clusterului autorului:

  • Scenariul sarcinii generale

  • 16 cipuri A100-SXM4-80GB

  • Viteza maximă de conectare (Ultra High Speed)

  • Locație Statele Unite ale Americii

  • Perioada de inchiriere este de 1 saptamana

Prețul total al facturii este de 3311,6 USD, iar prețul orar de închiriere a unui singur card este de 1,232 USD.

Prețurile orare de închiriere pentru un singur card pentru A100-SXM4-80GB pe Amazon Cloud, Google Cloud și Microsoft Azure sunt de 5,12 USD, 5,07 USD și, respectiv, 3,67 USD (sursa de date: https://cloud-gpus.com/, prețul real se va baza pe detaliile contractului și pe modificarea termenilor).

Prin urmare, numai în ceea ce privește prețul, puterea de calcul a cipului IO.NET este într-adevăr mult mai ieftină decât cea a producătorilor de masă, iar combinația de aprovizionare și achiziția sunt, de asemenea, foarte flexibile, iar operațiunea este, de asemenea, ușor de început.

Condiții de afaceri

Situația din partea ofertei

Începând cu data de 4 aprilie a acestui an, conform datelor oficiale, oferta totală de GPU a IO.NET pe partea de aprovizionare a fost de 371.027, iar oferta de procesoare a fost de 42.321. În plus, Render Network este partenerul său, iar la sursa de rețea sunt conectate 9997 de GPU și 776 de procesoare.

Sursa datelor: https://cloud.io.net/explorer/home, la fel mai jos

Când autorul a scris acest articol, 214.387 din numărul total de GPU-uri conectate la IO.NET erau online, iar rata online a ajuns la 57,8%. Rata online a GPU-ului de la Render Network este de 45,1%.

Ce înseamnă datele de mai sus din partea ofertei?

Pentru comparație, prezentăm un alt proiect de calcul distribuit Akash Network care a fost online de mai mult timp.

Akash Network și-a lansat rețeaua principală încă din 2020, concentrându-se inițial pe servicii distribuite pentru CPU și stocare. În iunie 2023, a lansat rețeaua de testare a serviciilor GPU și a lansat rețeaua principală de putere de calcul distribuită GPU în septembrie același an.

Sursa datelor: https://stats.akash.network/provider-graph/graphics-gpu

Potrivit datelor oficiale Akash, de la lansarea rețelei sale de GPU, deși oferta a continuat să crească, numărul total de conexiuni GPU până acum este de doar 365.

Judecând după furnizarea de GPU-uri, IO.NET este cu câteva ordine de mărime mai mare decât Rețeaua Akash și este deja cea mai mare rețea de alimentare din circuitul de putere de calcul GPU distribuit.

Situația pe partea cererii

Cu toate acestea, din partea cererii, IO.NET este încă în stadiile incipiente ale cultivării pieței. În prezent, numărul total de utilizatori reali care folosesc IO.NET pentru a efectua sarcini de calcul nu este mare. Sarcina de sarcini a majorității GPU-urilor online este de 0% și doar patru cipuri - A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S și H100 80GB HBM3 - sunt sarcini de procesare. Și cu excepția A100 PCIe 80GB K8S, capacitatea de încărcare a celorlalte trei cipuri este mai mică de 20%.

Valoarea oficială a presiunii rețelei dezvăluită în acea zi a fost de 0%, ceea ce înseamnă că cea mai mare parte a aprovizionării cu cip este în stare de așteptare online.

În ceea ce privește scala costurilor rețelei, IO.NET a suportat taxe de serviciu de 586.029 USD, iar costul în ultima zi a fost de 3.200 USD.

Sursa datelor: https://cloud.io.net/explorer/clusters

Amploarea taxelor de decontare a rețelei de mai sus, atât în ​​ceea ce privește valoarea totală, cât și volumul tranzacțiilor zilnice, este de același ordin de mărime ca și Akash. 20.000.

Sursa datelor: https://stats.akash.network/

În plus, IO.NET a dezvăluit și datele de afaceri ale sarcinilor de raționament AI procesate de rețea. Până în prezent, a procesat și verificat mai mult de 230.000 de sarcini de raționament BC8.AI.

Sursa datelor: https://cloud.io.net/explorer/inferences

Judecând după datele actuale de afaceri, partea de aprovizionare a IO.NET se extinde fără probleme. Stimulată de așteptările la airdrop și de activitățile comunității cu numele de cod „Ignition”, a adunat rapid o cantitate mare de putere de calcul a cipului AI. Extinderea sa pe partea cererii este încă în stadii incipiente, iar cererea organică este în prezent insuficientă. În ceea ce privește deficiențele actuale din partea cererii, fie că este vorba despre extinderea laturii consumatorilor încă nu a început, fie că experiența actuală a serviciilor nu este încă stabilă și, prin urmare, nu are o adopție pe scară largă, acest lucru trebuie încă evaluat.

Cu toate acestea, având în vedere că decalajul în puterea de calcul AI este dificil de completat pe termen scurt, există un număr mare de ingineri AI și proiecte care caută alternative și ar putea fi interesați de furnizorii de servicii descentralizați. În plus, IO.NET nu a făcut-o încă realizat pe partea cererii de dezvoltare economică Odată cu stimularea activităților, îmbunătățirea treptată a experienței de produs și potrivirea treptată a cererii și ofertei, este încă în valoare de așteptat.

2.3 Contextul echipei și situația de finanțare

Situația echipei

Echipa de bază a IO.NET a fost fondată în domeniul tranzacționării cantitative Înainte de iunie 2022, se concentrase pe dezvoltarea sistemelor de tranzacționare cantitativă la nivel instituțional pentru acțiuni și active cripto. Datorită cererii de putere de calcul în backend-ul sistemului, echipa a început să exploreze posibilitatea de calcul descentralizat și, în cele din urmă, sa concentrat pe problema specifică a reducerii costului serviciilor de calcul GPU.

Fondator și CEO: Ahmad Shadid

Ahmad Shadid a fost angajat în lucrări legate de inginerie cantitativă și financiară înainte de IO.NET și este, de asemenea, voluntar la Fundația Ethereum.

CMO și Chief Strategy Officer: Garrison Yang

Garrison Yang s-a alăturat oficial IO.NET în martie a acestui an. Anterior, a fost vicepreședintele strategiei și creștere la Avalanche și a absolvit Universitatea din California, Santa Barbara.

COO: Tory Green

Tory Green este COO al io.net. Anterior a fost COO al Hum Capital, Director de dezvoltare corporativă și strategie la Fox Mobile Group și a absolvit Stanford.

Judecând după informațiile Linkedin ale IO.NET, echipa are sediul în New York, SUA, cu o sucursală în San Francisco. Dimensiunea actuală a echipei este de peste 50 de persoane.

Situația de finanțare

IO.NET a dezvăluit până acum o singură rundă de finanțare, adică finanțarea din seria A finalizată în martie a acestui an, cu o evaluare de 1 miliard USD, strângând un total de 30 milioane USD, condus de Hack VC și alți investitori participanți. includ Multicoin Capital, Delphi Digital , Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures și ArkStream Capital, printre altele.

De menționat că, poate din cauza investiției primite de la Fundația Aptos, proiectul BC8.AI, care a fost folosit inițial pentru decontarea și contabilitatea pe Solana, a fost convertit în același Aptos L1 performant.

2.4 Calculul evaluării

Potrivit fondatorului și CEO-ului anterior, Ahmad Shadid, IO.NET va lansa jetonul la sfârșitul lunii aprilie.

IO.NET are două proiecte țintă care pot fi folosite ca referință pentru evaluare: Render Network și Akash Network, ambele fiind proiecte reprezentative de calcul distribuit.

Putem deduce intervalul valorii de piață a IO.NET în două moduri: 1. Raportul piață-vânzări, adică: raportul valoare de piață/venituri 2. Raportul valoare de piață/numărul de cipuri de rețea;

Să ne uităm mai întâi la deducerea din evaluare bazată pe raportul preț-vânzări:

Din perspectiva raportului preț-vânzări, Akash poate fi folosit ca limită inferioară a intervalului de evaluare a IO.NET, în timp ce Render poate fi folosit ca referință de preț de ultimă generație pentru evaluare, cu un interval FDV de 1,67 miliarde USD la 5,93 miliarde USD.

Cu toate acestea, având în vedere că proiectul IO.NET este actualizat, narațiunea este mai fierbinte, împreună cu valoarea de piață de circulație timpurie mai mică și scara actuală mai mare din partea ofertei, posibilitatea ca FDV să depășească Render nu este mică.

Să ne uităm la un alt unghi pentru a compara evaluările, și anume „raportul preț-la-core”.

Într-un context de piață în care cererea de putere de calcul AI depășește oferta, cel mai important element al unei rețele de putere de calcul AI distribuite este dimensiunea ofertei GPU. Prin urmare, putem face o comparație orizontală cu „piață-la-core raportul” și utilizați „valoarea totală de piață a proiectului și numărul de cipuri din rețea „Raportul cantității” pentru a deduce intervalul posibil de evaluare a IO.NET pentru ca cititorii să le folosească ca referință la valoarea de piață.

Dacă intervalul de valoare de piață al IO.NET este calculat pe baza raportului piață-core, IO.NET folosește raportul piață-core al Render Network ca limită superioară și Akash Network ca limită inferioară FDV este de 20,6 miliarde USD până la 197,5 miliarde USD.

Cred că, oricât de optimiști sunt cititorii cu privire la proiectul IO.NET, ei vor crede că acesta este un calcul al valorii de piață extrem de optimist.

Și trebuie să ținem cont de faptul că numărul actual al numărului imens de cipuri online ale IO.NET este stimulat de așteptările la airdrop și de activitățile de stimulare .

Prin urmare, în general, calculele de evaluare din perspectiva raportului preț-vânzări pot fi mai informative.

Ca proiect cu tripla aură a ecologiei AI+DePIN+Solana, IO.NET va aștepta și va vedea care va fi performanța sa în valoare de piață după lansare.

3. Informații de referință

  • Delphi Digital: Fuziunea reală

  • Galaxy: Înțelegerea intersecției dintre cripto și AI

Link original: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analysis-of-upcoming-tokenlaunch-io-net /

Retipărit de comunitatea io.net Binance Square, dreptul de autor original și responsabilitatea conținutului aparțin autorului original. Retipărirea de către io.net și Binance Square nu înseamnă că certifică sau susține unele sau toate punctele de vedere ale conținutului retipărit.