În ultimul an, narațiunea AI a fost în plină expansiune pe piața Crypto, VC-uri de vârf precum a16z, Sequoia, Lightspeed și Polychain pariând zeci de milioane de dolari cu o lovitură de stilou. Multe echipe de înaltă calitate cu studii științifice și studii școlare prestigioase au intrat, de asemenea, pe Web3 și se îndreaptă către IA descentralizată. În următoarele 12 luni, vom vedea că aceste proiecte de înaltă calitate se concretizează.

În luna octombrie a acestui an, OpenAI a strâns încă 6,6 miliarde de dolari, iar cursa înarmărilor pe pista AI a atins o înălțime fără precedent. Investitorii cu amănuntul au puține oportunități de a câștiga bani în afara investițiilor directe în Nvidia și hardware, iar acest entuziasm va continua să se răspândească în Crypto, în special cu valul recent de prinderi de câini condus de AI ​​Meme. Este previzibil că Crypto x AI, fie că este un token listat existent sau un nou proiect vedetă, va avea în continuare un impuls puternic.

Deoarece proiectul de conducere descentralizat AI Hyperbolic a primit recent o a doua investiție de la Polychain și Lightspeed, vom începe de la cele 6 proiecte care au primit recent finanțare la scară largă de la instituții de top, vom rezolva contextul de dezvoltare al proiectelor de infrastructură Crypto x AI și așteaptă cu nerăbdare descentralizarea Cum poate tehnologia să protejeze oamenii în viitorul AI.

  • Hyperbolic: A anunțat recent finalizarea unei finanțări din seria A de 12 milioane de dolari conduse în comun de Variant și Polychain. binecunoscută participare VC.

  • PIN AI: s-a finalizat o rundă de finanțare pre-seed de 10 milioane USD, cu investiții de la VC-uri binecunoscute, cum ar fi a16z CSX, Hack VC și Blockchain Builders Fund (Stanford Blockchain Accelerator).

  • Vana: A finalizat 18 milioane USD în finanțare din seria A și 5 milioane USD în finanțare strategică, cu investiții de la VC-uri cunoscute precum Paradigm, Polychain și Coinbase.

  • Sahara: Finanțare de 43 de milioane USD în seria A, cu investiții de la VC-uri binecunoscute, cum ar fi Binance Labs, Pantera Capital și Polychain.

  • Aethir: Finalizați o rundă de finanțare Pre-A de 9 milioane USD în 2023 la o evaluare de 150 milioane USD și finalizați vânzări de noduri de aproximativ 120 milioane USD în 2024.

  • IO.NET: Finanțare de 30 de milioane de dolari în seria A, cu investiții de la VC-uri cunoscute, cum ar fi Hack VC, Delphi Digital și Foresight Ventures.

Cele trei elemente ale AI: date, putere de calcul și algoritm

Marx ne-a spus în Capitalul că mijloacele de producție, productivitatea și relațiile de producție sunt elementele cheie în producția socială. Dacă facem o analogie, vom constata că există și trei elemente cheie în lumea inteligenței artificiale.

În era AI, puterea de calcul, datele și algoritmii sunt cheia.

În IA, datele sunt mijlocul de producție. De exemplu, tastați și discutați pe telefonul mobil în fiecare zi, faceți fotografii și le postați în Moments. Aceste texte și imagini sunt toate date.

Aceste date variază de la informații numerice structurate la imagini nestructurate, audio, video și text. Fără date, algoritmii AI nu pot învăța și optimiza. Calitatea, cantitatea, acoperirea și diversitatea datelor afectează direct performanța modelului AI și determină dacă acesta poate îndeplini sarcini specifice în mod eficient.

În AI, puterea de calcul este productivitate. Puterea de calcul este resursa de calcul de bază necesară pentru a executa algoritmi AI. Cu cât puterea de calcul este mai mare, cu atât viteza de procesare a datelor este mai rapidă și mai bună. Puterea puterii de calcul determină în mod direct eficiența și capacitățile sistemului AI.

Puterea de calcul puternică nu numai că poate scurta timpul de antrenament al modelului, dar poate sprijini și o arhitectură de model mai complexă, îmbunătățind astfel nivelul de inteligență al AI. Modelele de limbaj mari, cum ar fi ChatGPT de la OpenAI, durează luni pentru a se antrena pe clustere de calcul puternice.

În IA, algoritmii sunt relații de producție. Algoritmii sunt nucleul AI. Designul lor determină modul în care datele și puterea de calcul funcționează împreună și este cheia pentru transformarea datelor în decizii inteligente. Cu sprijinul unei puteri de calcul puternice, algoritmii pot învăța mai bine modelele în date și le pot aplica problemelor practice.

Din acest punct de vedere, datele sunt echivalente cu combustibilul AI, puterea de calcul este motorul AI, iar algoritmii sunt sufletul AI. AI = date + putere de calcul + algoritm Orice startup care dorește să iasă în evidență pe piața AI trebuie să aibă toate cele trei elemente sau să arate un avantaj unic în unul dintre ele.

Pe măsură ce AI evoluează către multimodalitate (modele bazate pe forme multiple de informații, capabile să proceseze simultan text, imagini, audio etc.), cererea de putere de calcul și de date va crește doar exponențial.

În era puterii de calcul limitate, Crypto dă putere AI

Apariția ChatGPT nu numai că a declanșat o revoluție în inteligența artificială, dar a împins, din neatenție, puterea de calcul și hardware-ul de calcul în prim-planul căutărilor de tehnologie.

După „Războiul cu o mie de modele” din 2023, în 2024, pe măsură ce înțelegerea de către piață a modelelor mari de inteligență artificială continuă să se aprofundeze, concurența globală în jurul modelelor mari este împărțită în două căi: „îmbunătățirea capacității” și „dezvoltarea scenariului”.

În ceea ce privește îmbunătățirea capacităților modelelor mari, cea mai mare așteptare a pieței este GPT-5, despre care se zvonește că va fi lansat de OpenAI în acest an. Se anticipează cu nerăbdare că modelul său mare va fi împins într-un stadiu cu adevărat multimodal.

În ceea ce privește dezvoltarea scenelor de modele mari, giganții AI promovează integrarea mai rapidă a modelelor mari în scenariile industriale pentru a genera valoare aplicației. De exemplu, încercările în AI Agent, căutarea AI și alte câmpuri aprofundează în mod constant îmbunătățirea experienței utilizatorilor existente prin utilizarea modelelor mari.

În spatele acestor două căi, există, fără îndoială, o cerere mai mare de putere de calcul. Îmbunătățirea capacităților modelelor mari se bazează în principal pe antrenament, care necesită utilizarea unei puteri de calcul uriașe de înaltă performanță într-un timp scurt, aplicarea scenariilor de modele mari se bazează în principal pe inferență, iar cerințele de performanță pentru puterea de calcul sunt relativ scăzute , dar se pune mai mult accent pe stabilitate și latență scăzută.

După cum a estimat OpenAI în 2018, puterea de calcul necesară pentru antrenarea modelelor mari s-a dublat la fiecare 3,5 luni din 2012, cerințele anuale de putere de calcul crescând de până la 10 ori. În același timp, pe măsură ce modelele și aplicațiile mari sunt implementate din ce în ce mai mult în scenariile de afaceri reale ale întreprinderilor, cererea de putere de calcul a inferenței este, de asemenea, în creștere.

Problema este că cererea pentru GPU-uri de înaltă performanță crește rapid în întreaga lume, iar oferta nu reușește să țină pasul. Luând ca exemplu cipul H100 de la NVIDIA, s-a confruntat cu o lipsă gravă de aprovizionare în 2023, cu un decalaj de aprovizionare de peste 430.000 de unități. Viitorul cip B100, care oferă o performanță de 2,5 ori mai bună și costă cu doar 25% mai mult, este probabil să fie din nou limitat. Acest dezechilibru între cerere și ofertă va face ca costul puterii de calcul să crească din nou, făcând dificil pentru multe întreprinderi mici și mijlocii să-și permită costuri mari de calcul, limitând astfel potențialul lor de dezvoltare în domeniul AI.

Companiile mari de tehnologie precum OpenAI, Google și Meta au capacități mai puternice de achiziție de resurse și au bani și resurse pentru a-și construi propria infrastructură de calcul. Dar cum rămâne cu startup-urile AI, să nu mai vorbim de cele care încă nu au strâns fonduri?

Într-adevăr, cumpărarea de GPU-uri second-hand pe eBay, Amazon și alte platforme este, de asemenea, o metodă fezabilă. În timp ce costurile sunt reduse, pot apărea probleme de performanță și costuri de reparații pe termen lung. În această eră a deficitului de GPU, construirea infrastructurii nu poate fi niciodată soluția optimă pentru startup-uri.

Chiar dacă există furnizori de GPU care pot fi închiriați la cerere, prețul ridicat este, de asemenea, o mare provocare pentru ei. De exemplu, prețul unui Nvidia A100 este de aproximativ 80 USD pe zi lună, Astăzi, costul numai în ceea ce privește puterea de calcul este de 80 x 50 x 25 = 100.000 de dolari SUA pe lună.

Acest lucru oferă rețelei de putere de calcul descentralizate bazate pe DePIN o oportunitate de a profita de situație și se poate spune că merge bine. După cum au făcut IO.NET, Aethir și Hyperbolic, acestea transferă costurile infrastructurii de calcul ale startup-urilor AI către rețea însăși. Și permite oricui din întreaga lume să conecteze un GPU neutilizat acasă la acesta, reducând semnificativ costurile de calcul.

Aethir: rețea globală de partajare a GPU, care face puterea de calcul universală

Aethir a finalizat o rundă de finanțare Pre-A de 9 milioane de dolari în septembrie 2023, la o evaluare de 150 de milioane de dolari, și a finalizat vânzările nodului Checker Node de aproximativ 120 de milioane de dolari din martie până în mai a acestui an. Aethir a realizat venituri de 60 de milioane de dolari vânzând Checker Node în doar 30 de minute, ceea ce arată recunoașterea pieței și așteptările față de proiect.

Nucleul Aethir este construirea unei rețele GPU descentralizate, astfel încât toată lumea să aibă posibilitatea de a contribui cu resursele GPU inactive și de a câștiga profit. Este ca și cum ai transforma computerul fiecăruia într-un mic supercomputer, în care toată lumea împarte puterea de calcul. Avantajul acestui lucru este că poate îmbunătăți considerabil utilizarea GPU-ului și poate reduce risipa de resurse. De asemenea, permite companiilor sau persoanelor care necesită multă putere de calcul să obțină resursele necesare la un cost mai mic.

Aethir creează o rețea DePIN descentralizată care acționează ca un grup de resurse, stimulând centrele de date, studiourile de jocuri, companiile de tehnologie și jucătorii din întreaga lume să conecteze GPU-urile inactive la aceasta. Acești furnizori de GPU-uri sunt liberi să-și introducă și să dezactiveze GPU-urile din rețea și, prin urmare, au o utilizare mai mare decât dacă ar fi inactiv. Acest lucru îi permite Aethir să ofere resurse GPU la nivel de consumator, la nivel profesional și la nivel de centru de date pentru cei care solicită putere de calcul, la un preț cu peste 80% mai mic decât cel al furnizorilor de cloud Web2.

Arhitectura DePIN a lui Aethir asigură calitatea și stabilitatea acestor puteri de calcul dispersate. Cele mai importante trei părți sunt:

Container este unitatea de calcul a Aethir, care acționează ca un server cloud și este responsabil pentru executarea și randarea aplicațiilor. Fiecare sarcină este încapsulată într-un container independent ca un mediu relativ izolat pentru a rula sarcinile clientului, evitând interferența reciprocă între sarcini.

Indexerul este utilizat în principal pentru a potrivi și a programa instantaneu resursele de calcul disponibile în funcție de cerințele sarcinii. În același timp, mecanismul de ajustare dinamică a resurselor poate aloca în mod dinamic resurse diferitelor sarcini pe baza sarcinii întregii rețele pentru a obține cea mai bună performanță generală.

Checker este responsabil pentru monitorizarea și evaluarea în timp real a performanței Containerului. Poate monitoriza și evalua în timp real starea întregii rețele și poate răspunde prompt la posibile probleme de securitate. Dacă trebuie să răspundeți la incidente de securitate, cum ar fi atacurile de rețea, după detectarea unui comportament anormal, puteți emite prompt avertismente și inițiați măsuri de protecție. În mod similar, atunci când apar blocaje de performanță a rețelei, Checker poate trimite, de asemenea, mementouri în timp util, astfel încât problema să poată fi rezolvată prompt, asigurând calitatea și securitatea serviciului.

Colaborarea eficientă dintre Container, Indexer și Checker oferă clienților o configurație personalizată a puterii de calcul, o experiență de serviciu cloud sigură, stabilă și la un preț relativ scăzut. Aethir este o soluție excelentă de calitate comercială pentru domenii precum AI și jocuri.

În general, Aethir remodelează alocarea și utilizarea resurselor GPU prin DePIN, făcând puterea de calcul mai populară și mai economică. A obținut unele rezultate bune în domeniul AI și al jocurilor și își extinde constant partenerii și liniile de afaceri. Potențialul de dezvoltare viitoare este nelimitat.

IO.NET: o rețea de supercomputing distribuită care elimină blocajul puterii de calcul

IO.NET a finalizat o rundă de finanțare seria A de 30 de milioane de dolari în luna martie a acestui an, cu investiții de la VC-uri cunoscute precum Hack VC, Delphi Digital și Foresight Ventures.

Similar cu Aethir, construiește o rețea de calcul descentralizată la nivel de întreprindere pentru a oferi start-up-urilor AI servicii de calcul la prețuri mai mici, mai ușor de obținut și mai flexibil adaptabile prin colectarea resurselor de calcul inactive (GPU, CPU) din întreaga lume.

Spre deosebire de Aethir, IO.NET folosește cadrul Ray (IO-SDK) pentru a converti mii de clustere GPU într-un întreg pentru a servi învățarea automată (cadru Ray este folosit și de OpenAI pentru a antrena GPT-3). Limitările memoriei CPU/GPU și fluxurile de lucru de procesare secvențială prezintă blocaje semnificative atunci când antrenați modele mari pe un singur dispozitiv. Cadrul Ray este utilizat pentru orchestrare și procesare în lot pentru a realiza paralelizarea sarcinilor de calcul.

Pentru a face acest lucru, IO.NET folosește o arhitectură cu mai multe straturi:

  • Stratul de interfață cu utilizatorul: Oferă utilizatorilor o interfață vizuală frontală, inclusiv site-ul web public, zona clienților și zona furnizorilor GPU, cu scopul de a oferi o experiență de utilizator intuitivă și prietenoasă.

  • Stratul de securitate: asigură integritatea și securitatea sistemului, integrând protecția rețelei, autentificarea utilizatorilor, înregistrarea activității și alte mecanisme.

  • Stratul API: Ca hub de comunicare pentru site-uri web, furnizori și management intern, facilitează schimbul de date și executarea diferitelor operațiuni.

  • Stratul back-end: formează nucleul sistemului și este responsabil pentru sarcini de operare, cum ar fi gestionarea clusterului/GPU, interacțiunea cu clienții și extinderea automată.

  • Stratul bazei de date: Responsabil cu stocarea și gestionarea datelor, stocarea principală este responsabilă pentru datele structurate, iar memoria cache este utilizată pentru prelucrarea temporară a datelor.

  • Stratul de sarcini: gestionează comunicarea asincronă și execuția sarcinilor pentru a asigura eficiența procesării și a circulației datelor.

  • Stratul de infrastructură: formează baza sistemului, inclusiv pool-urile de resurse GPU, instrumentele de orchestrare și sarcinile de execuție/ML, echipate cu soluții puternice de monitorizare.

Din punct de vedere tehnic, IO.NET a lansat o arhitectură stratificată a tehnologiei sale de bază IO-SDK pentru a rezolva dificultățile cu care se confruntă puterea de calcul distribuită, precum și tehnologia tunel invers și arhitectura VPN mesh pentru a rezolva conexiuni și date sigure. probleme de confidențialitate. Este popular în Web3 și se numește următorul Filecoin, cu un viitor strălucit.

În general, misiunea de bază a IO.NET este de a construi cea mai mare infrastructură DePIN din lume, de a pune în comun resursele GPU inactive din întreaga lume și de a oferi suport pentru domeniile AI și învățarea automată care necesită multă putere de calcul.

Hiperbolic: creați o „pădure tropicală AI” pentru a obține un ecosistem de infrastructură AI distribuită prosper și care se sprijină reciproc

Astăzi, Hyperbolic a anunțat încă o dată finalizarea unei runde de finanțare din seria A în valoare totală de peste 12 milioane de dolari, condusă împreună de Variant și Polychain Capital, aducând finanțarea totală la peste 20 de milioane de dolari. La investiție au participat Bankless Ventures, Chapter One, Lightspeed Faction, IOSG, Blockchain Builders Fund, Alumni Ventures, Samsung Next și alte instituții de capital de risc binecunoscute. Printre aceștia, principalul capital de risc din Silicon Valley, Polychain și LightSpeed ​​​​Faction, și-au mărit investiția pentru a doua oară după runda de început, ceea ce este suficient pentru a ilustra poziția de lider a Hyperbolic în pista Web3 AI.

Misiunea de bază a Hyperbolic este de a face AI disponibilă pentru toată lumea, accesibilă pentru dezvoltatori și accesibilă pentru creatori. Hyperbolic își propune să construiască o „pădure tropicală AI” în care dezvoltatorii pot găsi resursele necesare pentru a inova, a colabora și a crește în ecosistemul său. La fel ca o pădure tropicală naturală, ecologia este interconectată, vibrantă și regenerabilă, permițând creatorilor să exploreze fără limită.

În opinia celor doi co-fondatori Jasper și Yuchen, deși modelele AI pot fi open source, nu este suficient fără resurse de calcul deschise. În prezent, multe centre de date mari controlează resursele GPU, ceea ce descurajează mulți oameni care doresc să folosească AI. Hyperbolic își propune să distrugă această situație. Ei construiesc infrastructura de putere de calcul DePIN prin integrarea resurselor de calcul inactive din întreaga lume, facilitând utilizarea AI pentru toată lumea.

Prin urmare, Hyperbolic a introdus conceptul de „open AI cloud”. Totul, de la computere personale până la mari centre de date, poate fi conectat la Hyperbolic pentru a oferi putere de calcul. Pe această bază, Hyperbolic creează un strat AI verificabil, care îmbunătățește confidențialitatea, care permite dezvoltatorilor să construiască aplicații AI cu capacități de raționament, în timp ce puterea de calcul necesară provine direct din cloud-ul AI.

Similar cu Aethir și IO.NET, cloudul AI al Hyperbolic are propriul său model unic de cluster GPU, numit „Solar System Cluster”. După cum știm, sistemul solar conține diverse planete independente, cum ar fi Mercur și Marte, clusterul de sistem solar Hyperbolic gestionează, de exemplu, clusterul Mercur, clusterul Marte și clusterul Jupiter. Aceste clustere GPU au o gamă largă de utilizări și dimensiuni diferite. dar sunt independente unul de celălalt.

Un astfel de model asigură că clusterul GPU îndeplinește două caracteristici, este mai flexibil și maximizează eficiența în comparație cu Aethir și IO.NET:

  • Reglați echilibrul de stare, iar clusterul GPU se va extinde sau se va micșora automat în funcție de cerere

  • Dacă are loc o întrerupere într-un cluster, clusterul Sistemului Solar îl va detecta și repara automat

În experimentul de comparare a performanței modelului de limbă mare (LLM), debitul clusterului GPU hiperbolic a fost de până la 43 de jetoane/s. Acest rezultat nu a depășit doar 42 de jetoane/e ale echipei Together AI formată din 60 de persoane. a fost, de asemenea, semnificativ mai mare decât 27 de jetoane/e pentru HuggingFace, care are peste 300 de membri ai echipei.

În experimentul de comparație a vitezei de generare a modelului de generare a imaginii, clusterul Hyperbolic GPU a demonstrat, de asemenea, că puterea sa tehnică nu trebuie subestimată. De asemenea, folosind modelul SOTA de generare de imagini open source, Hyperbolic este lider cu o viteză de generare de 17,6 imagini/min, care nu numai că depășește 13,6 imagini/min ale Together AI, dar este și mult mai mare decât 6,5 imagini/min ale IO.NET.

Aceste date demonstrează cu tărie că modelul de cluster GPU al Hyperbolic este extrem de eficient, iar performanța sa remarcabilă îl deosebește de concurenții mai mari. Combinat cu avantajul prețului scăzut, acest lucru face ca Hyperbolic să fie foarte potrivit pentru aplicațiile AI complexe care necesită o putere de calcul ridicată pentru a fi susținute, oferă un răspuns aproape în timp real și asigură că modelele AI au o precizie și eficiență mai ridicate atunci când se ocupă de sarcini complexe.

În plus, din perspectiva inovației în criptare, considerăm că cea mai remarcabilă realizare a Hyperbolic este dezvoltarea mecanismului de verificare PoSP (Proof of Sampling, Sampling Proof), care utilizează o abordare descentralizată pentru a rezolva una dintre cele mai dificile provocări din câmpul AI - verificând dacă rezultatul dintr-un model specificat, permițând procesului de inferență să fie descentralizat rentabil.

Pe baza principiului PoSP, echipa Hyperbolic a dezvoltat mecanismul spML (învățare automată de eșantionare) pentru aplicațiile AI, eșantionând aleatoriu tranzacțiile în rețea, recompensând oamenii cinstiți și pedepsind oamenii necinstiți pentru a obține un efect de verificare ușor și pentru a reduce sarcina de calcul. sarcina rețelei permite aproape oricărui startup AI să-și descentralizeze serviciile AI într-o paradigmă de verificare distribuită.

Procesul specific de implementare este următorul:

1) Nodul calculează funcția și trimite rezultatul orchestratorului într-o manieră criptată.

2) Rămâne apoi la latitudinea orchestratorului să decidă dacă are încredere în acest rezultat și, dacă da, nodul este recompensat pentru calcul.

3) Dacă nu există încredere, orchestratorul va selecta aleatoriu un validator în rețea, va provoca nodul și va calcula aceeași funcție. De asemenea, verificatorul trimite rezultatele orchestratorului într-o manieră criptată.

4) În cele din urmă, orchestratorul verifică dacă toate rezultatele sunt consecvente, atât nodul, cât și verificatorul vor primi recompense dacă sunt inconsecvente, va fi inițiată o procedură de arbitrare pentru a urmări procesul de calcul al fiecărui rezultat. Oamenii cinstiți sunt recompensați pentru acuratețea lor, iar cei necinstiți sunt pedepsiți pentru că înșală sistemul.

Nodurile nu știu dacă rezultatele pe care le transmit vor fi contestate și nici nu știu ce validator va alege orchestratorul să conteste, pentru a asigura corectitudinea verificării. Costurile înșelăciunii depășesc cu mult beneficiile potențiale.

Dacă spML este testat în viitor, ar putea schimba jocul pentru aplicațiile AI, făcând verificarea inferenței fără încredere într-o realitate. În plus, Hyperbolic are capacitatea unică în industrie de a aplica algoritmul BF16 în raționamentul modelului (concurenții sunt încă blocați la FP8), ceea ce poate îmbunătăți în mod eficient acuratețea raționamentului, făcând serviciul de raționament descentralizat al Hyperbolic extrem de rentabil.

În plus, inovația Hyperbolic se reflectă și în integrarea sursei de alimentare cu cloud computing AI și a aplicațiilor AI. Cererea de putere de calcul descentralizată în sine este relativ redusă. poate fi autosuficient și poate realiza un echilibru între cerere și ofertă.

Dezvoltatorii pot construi aplicații inovatoare AI în jurul puterii de calcul, Web2 și Web3 pe Hyperbolic, cum ar fi:

  • GPU Exchange, o platformă de tranzacționare GPU construită pe rețeaua GPU (stratul de orchestrare), comercializează „resurse GPU” pentru tranzacționare gratuită, făcând puterea de calcul mai rentabilă.

  • IAO, sau tokenizarea agenților AI, permite contribuitorilor să câștige jetoane, iar veniturile agentului AI vor fi distribuite deținătorilor de jetoane.

  • DAO bazat pe inteligență artificială, adică un DAO care utilizează inteligența artificială pentru a ajuta la luarea deciziilor de guvernare și la managementul financiar.

  • GPU Restaking permite utilizatorilor să-și conecteze GPU-ul la Hyperbolic și apoi să îl mizeze la aplicații AI.

În general, Hyperbolic a construit un ecosistem AI deschis care face AI ușor accesibil tuturor. Prin inovația tehnologică, Hyperbolic face AI mai populară și mai accesibilă, făcând viitorul AI plin de interoperabilitate și compatibilitate și încurajând inovația colaborativă.

Datele revin utilizatorilor și ne alăturăm valului AI

Astăzi, datele sunt o mină de aur, iar datele personale sunt preluate și comercializate gratuit de giganții tehnologiei.

Datele sunt hrana AI. Fără date de înaltă calitate, chiar și cei mai avansați algoritmi nu își pot face treaba. Cantitatea, calitatea și diversitatea datelor afectează direct performanța modelelor AI.

După cum am menționat mai devreme, industria așteaptă cu nerăbdare lansarea GPT-5. Cu toate acestea, nu a fost lansat de mult timp, poate pentru că cantitatea de date nu este încă suficientă. Numai GPT-3 necesită un volum de date de 2 trilioane de jetoane în etapa de publicare a lucrărilor. Se așteaptă ca GPT-5 să atingă un volum de date de 200 de trilioane de jetoane. Pe lângă datele text existente, sunt necesare mai multe date multimodale, care pot fi folosite pentru antrenament după curățare.

În datele publice de pe Internet de astăzi, există relativ puține mostre de date de înaltă calitate. O situație realistă este că modelele mari au rezultate foarte bune în generarea de întrebări și răspunsuri în orice domeniu, dar au rezultate slabe atunci când se confruntă cu probleme în domeniile profesionale și chiar eșuează. Există o iluzie că modelul „vorbește în serios prostii”.

Pentru a asigura „prospețimea” datelor, giganții AI încheie adesea înțelegeri cu proprietarii de surse mari de date. De exemplu, OpenAI a semnat un contract de 60 de milioane de dolari cu Reddit.

Recent, unele software-uri sociale au început să solicite utilizatorilor să semneze acorduri, cerând utilizatorilor să fie de acord să autorizeze conținutul pentru utilizarea în formarea modelelor AI terțe. Cu toate acestea, utilizatorii nu au primit nicio recompensă. Acest comportament prădător a stârnit îndoieli publice cu privire la dreptul de utilizare a datelor.

Evident, potențialul blockchain-ului de a fi descentralizat și urmăribil până la origine este în mod natural potrivit pentru îmbunătățirea dilemei obținerii de date și resurse, oferind în același timp mai mult control și transparență pentru datele utilizatorilor și poate, de asemenea, obține beneficii prin participarea la instruirea și optimizarea Modele AI. Acest nou mod de a crea valoare a datelor va crește semnificativ participarea utilizatorilor și va promova prosperitatea generală a ecosistemului.

Web3 are deja unele companii care vizează date AI, cum ar fi:

  • Achiziție de date: Ocean Protocol, Vana, PIN AI, Sahara etc.

  • Prelucrarea datelor: Public AI, Lightworks etc.

Printre cele mai interesante se numără Vana, PIN AI și Saraha, care s-a întâmplat să fi primit recent sume mari de finanțare și să aibă o gamă luxoasă de investitori. Ambele proiecte ies din subdomenii și combină achiziția de date cu dezvoltarea AI pentru a promova implementarea aplicațiilor AI.

Vana: Utilizatorii controlează datele, DAO și mecanismul de contribuție remodelează economia datelor AI

Vana a încheiat o rundă de finanțare de 18 milioane de dolari în decembrie 2022 și o rundă strategică de 5 milioane de dolari în septembrie anul acesta. Investiții de la VC-uri cunoscute, cum ar fi Paradigm, Polychain și Coinbase.

Conceptul de bază al Vana este „date deținute de utilizator, realizând AI deținută de utilizator”. În această eră în care datele sunt regele, Vana vrea să spargă monopolul marilor companii asupra datelor, permițând utilizatorilor să-și controleze propriile date și să beneficieze de propriile date.

Vana este o rețea de date descentralizată axată pe protejarea datelor private, permițând ca datele utilizatorilor să fie utilizate la fel de flexibil ca și activele financiare. Vana încearcă să remodeleze peisajul economiei datelor și să transforme utilizatorii din furnizori pasivi de date în constructori de ecosisteme care participă activ și beneficiază împreună.

Pentru a realiza această viziune, Vana permite utilizatorilor să agrege și să încarce date printr-un DAO de date, apoi să verifice valoarea datelor, protejând în același timp confidențialitatea printr-un mecanism de dovadă a contribuției. Aceste date pot fi folosite pentru instruirea AI, iar utilizatorii sunt stimulați pe baza calității datelor pe care le încărcă.

În ceea ce privește implementarea, arhitectura tehnică a lui Vana include cinci componente cheie: stratul de mobilitate a datelor, stratul de portabilitate a datelor, grupul de conexiune universală, stocarea datelor negestionate și stratul de aplicații descentralizate.

Stratul de lichiditate a datelor: acesta este nucleul rețelei Vana, care stimulează, agregează și verifică datele valoroase prin Data Liquidity Pool (DLP). DLP este ca o versiune de date a „poolului de lichidități”. Fiecare DLP este un contract inteligent conceput pentru a agrega anumite tipuri de active de date, cum ar fi Reddit, Twitter și alte date din rețelele sociale.

Stratul de portabilitate a datelor: Această componentă oferă portabilitate datelor utilizatorilor, asigurând că utilizatorii își pot transfera și utiliza cu ușurință datele între diferite aplicații și modele AI.

Harta pentru ecologia datelor: aceasta este o hartă care urmărește fluxul de date în timp real în întregul ecosistem, asigurând transparența.

Stocare de date negestionată: inovația Vana constă în abordarea sa unică de gestionare a datelor, permițând utilizatorilor să păstreze întotdeauna controlul deplin asupra datelor lor. Datele originale ale utilizatorului nu vor fi încărcate în lanț, dar locația de stocare va fi aleasă de utilizator, cum ar fi un server cloud sau un server personal.

Stratul de aplicații descentralizat: Bazat pe date, Vana a construit un ecosistem de aplicații deschis. Dezvoltatorii pot folosi datele acumulate de DLP pentru a crea diverse aplicații inovatoare, inclusiv aplicații AI, iar contributorii de date pot obține beneficii din aceste aplicații.

În prezent, Vana este construită în jurul platformelor de social media precum ChatGPT, Reddit, LinkedIn și Twitter, precum și a DLP-urilor care se concentrează pe AI și pe datele de navigare Pe măsură ce mai multe DLP-uri se alătură și mai multe aplicații inovatoare sunt construite pe platformă, Vana are potențialul deveniți următoarea generație de infrastructură economică de date și inteligență artificială descentralizată.

Acest lucru ne amintește de o știre recentă. Pentru a îmbunătăți diversitatea LLM, Meta colectează date de la utilizatorii de Facebook și Instagram din Marea Britanie. . Poate că ar fi o alegere mai bună pentru Meta să construiască un DLP pentru Facebook și, respectiv, Instagram pe Vana, care nu numai că asigură confidențialitatea datelor, dar încurajează și mai mulți utilizatori să contribuie în mod activ cu date.

PIN AI: Asistent AI descentralizat, AI mobil conectează datele și viața de zi cu zi

PIN AI a finalizat o rundă de finanțare preliminară de 10 milioane de dolari în septembrie anul acesta. La această investiție au participat un număr de VC și investitori îngeri, cum ar fi a16z CSX, Hack VC și Blockchain Builders Fund (Stanford Blockchain Accelerator).

PIN AI este o rețea AI deschisă alimentată de rețeaua de stocare de date distribuită a arhitecturii DePIN. Utilizatorii își pot conecta dispozitivele la rețea, pot oferi date personale/preferințe ale utilizatorului și pot primi stimulente. Mișcarea permite utilizatorilor să recâștige controlul și să își monetizeze datele. Dezvoltatorii pot folosi datele pentru a construi agenți AI utili.

Viziunea sa este de a deveni o alternativă descentralizată la Apple Intelligence, angajată să ofere grupurilor de utilizatori aplicații utile în viața de zi cu zi și să realizeze intențiile propuse de utilizatori, cum ar fi achiziționarea de bunuri online, planificarea călătoriilor și planificarea comportamentelor investiționale.

PIN AI constă din două tipuri de AI, asistent personal AI și serviciu AI extern.

Asistentul personal AI poate accesa datele utilizatorului, poate colecta nevoile utilizatorului și poate oferi AI serviciului extern datele corespunzătoare atunci când au nevoie de ele. Stratul inferior al PIN AI este compus din rețeaua de stocare a datelor distribuite DePIN, care oferă date bogate ale utilizatorilor pentru deducerea serviciilor externe AI fără acces la confidențialitatea personală a utilizatorului.

Cu PIN AI, utilizatorii nu vor mai avea nevoie să deschidă mii de aplicații mobile pentru a îndeplini diferite sarcini. Când un utilizator își exprimă o intenție unui asistent personal AI, cum ar fi „Vreau să cumpăr o piesă nouă de îmbrăcăminte”, „Ce fel de mâncare să comand” sau „Găsiți cea mai bună oportunitate de investiție în articolul meu”, AI ​​​nu numai că înțelege preferințele utilizatorului, toate aceste sarcini pot fi, de asemenea, efectuate eficient - cei mai relevanți aplicații și furnizori de servicii vor fi găsiți să implementeze intenția utilizatorului sub forma unui proces de licitație competitivă.

Cel mai important lucru este că PIN AI realizează necesitatea introducerii unui serviciu descentralizat care să poată oferi mai multă valoare în dilema actuală în care utilizatorii sunt obișnuiți să interacționeze direct cu furnizorii de servicii centralizați pentru a obține servicii. Asistentul personal AI poate obține în mod legitim date de mare valoare generate atunci când utilizatorul interacționează cu aplicațiile Web2 în numele utilizatorului și le poate stoca și apela într-o manieră descentralizată, astfel încât aceleași date să poată exercita o valoare mai mare, permițând proprietarului datelor și Apelantul beneficiază și el.

Deși rețeaua principală PIN AI nu a fost încă lansată oficial, echipa a demonstrat prototipul produsului utilizatorilor prin Telegram într-o mică măsură pentru a facilita percepția viziunii.

Hi PIN Bot este format din trei secțiuni, Play, Data Connectors și AI Agent.

Play este un însoțitor virtual AI alimentat de modele mari, cum ar fi PIN AI-1.5b, Gemma, Llama și multe altele. Acesta este echivalent cu asistentul personal AI al PIN AI.

În Data Connectors, utilizatorii pot conecta conturi Google, Facebook, X și Telegram pentru a câștiga puncte pentru a actualiza însoțitorii virtuali. În viitor, va sprijini și utilizatorii să conecteze Amazon, Ebay, Uber și alte conturi. Aceasta este echivalentă cu rețeaua de date DePIN a PIN AI.

Utilizați propriile date pentru uzul dvs. După conectarea datelor, utilizatorul poate prezenta cerințe însoțitorului virtual (în curând), iar însoțitorul virtual va furniza datele utilizatorului Agentului AI care îndeplinește cerințele pentru sarcini. prelucrare.

Oficialii au dezvoltat câteva prototipuri de agent AI, care sunt încă în stadiu de testare. Acestea sunt echivalente cu serviciile AI externe ale PIN AI. De exemplu, X Insight, introduceți un cont Twitter și poate analiza funcționarea contului. Atunci când Data Connectors acceptă conturi de comerț electronic, takeout și alte platforme, agenții AI, cum ar fi Shopping și Order Food, pot juca, de asemenea, un rol în procesarea autonomă a comenzilor făcute de utilizatori.

În general, prin DePIN+AI, PIN AI a creat o rețea AI deschisă care permite dezvoltatorilor să creeze aplicații AI cu adevărat utile și să facă viața utilizatorilor mai convenabilă și mai inteligentă. Pe măsură ce mai mulți dezvoltatori se alătură, PIN AI va aduce mai multe aplicații inovatoare și va integra cu adevărat AI în viața de zi cu zi.

Sahara: arhitectura cu mai multe straturi conduce la proprietatea datelor AI, la confidențialitate și la tranzacții corecte

Sahara a finalizat o rundă de finanțare din seria A de 43 de milioane de dolari în luna august a acestui an, cu investiții de la VC-uri cunoscute, cum ar fi Binance Labs, Pantera Capital și Polychain.

Sahara AI este o platformă de aplicație blockchain AI cu arhitectură multistrat care se concentrează pe stabilirea unui model de dezvoltare AI mai echitabil și mai transparent în era AI care poate atribui valoare datelor și distribuie profituri utilizatorilor, rezolvând problemele de confidențialitate și securitate în mod tradițional. Sisteme AI, achiziție de date și transparență.

În termeni simpli, Sahara AI vrea să construiască o rețea AI descentralizată care să permită utilizatorilor să-și controleze propriile date și să primească recompense pe baza calității datelor pe care le contribuie. În acest fel, utilizatorii nu mai sunt furnizori pasivi de date, ci devin constructori de ecosisteme care pot participa și împărtăși beneficiile.

Utilizatorii pot încărca date pe piața de date descentralizată și apoi pot folosi un mecanism special pentru a dovedi dreptul de proprietate asupra datelor („confirmare”). Aceste date pot fi folosite pentru a antrena AI, iar utilizatorii sunt recompensați în funcție de calitatea datelor.

Sahara AI include o arhitectură cu patru straturi de aplicație, tranzacție, date și execuție, oferind o bază solidă pentru dezvoltarea ecosistemului AI.

  • Stratul de aplicație: oferă instrumente precum seifuri securizate, piețe de date AI descentralizate, seturi de instrumente fără cod și Sahara ID. Aceste instrumente asigură confidențialitatea datelor și promovează compensarea echitabilă pentru utilizatori și simplifică și mai mult procesul de creare și implementare a aplicațiilor AI.

Mai simplu spus, seiful utilizează tehnologie de criptare avansată pentru a asigura securitatea datelor AI; piața descentralizată a datelor AI poate fi utilizată pentru colectarea, adnotarea și transformarea datelor, promovând inovația și comerțul echitabil, care permite dezvoltarea aplicațiilor AI; Și mai simplu, Sahara ID gestionează reputația utilizatorilor și asigură încredere.

  • Stratul de tranzacție: Sahara blockchain folosește un mecanism de consens proof-of-stake (PoS) pentru a asigura eficiența și stabilitatea rețelei, permițând atingerea consensului chiar și în prezența nodurilor rău intenționate. În plus, funcția nativă de pre-compilare a Sahara este proiectată special pentru a optimiza procesarea AI și poate efectua calcule eficiente direct în mediul blockchain pentru a îmbunătăți performanța sistemului.

  • Stratul de date: gestionează datele în și în afara lanțului. Datele din lanț se ocupă de operațiuni care nu pot fi urmărite și înregistrările de atribute pentru a asigura credibilitatea și transparența datelor în afara lanțului gestionează seturi mari de date și utilizează tehnologia Merkle Tree și zero-knowledge proof pentru a asigura integritatea și securitatea datelor pentru a preveni duplicarea și manipularea datelor.

  • Stratul de execuție: rezumă operațiunile seifurilor, modelelor AI și aplicațiilor AI, susținând diferite paradigme de instruire, inferență și servicii AI.

Întreaga arhitectură cu patru straturi nu numai că asigură securitatea și scalabilitatea sistemului, dar reflectă și viziunea pe termen lung a Sahara AI de a promova economia colaborativă și dezvoltarea AI, având ca scop schimbarea completă a modelului de aplicare a tehnologiei AI și aducerea mai multă inovație și corectitudinea pentru utilizatori.

Concluzie

Pe măsură ce tehnologia AI continuă să avanseze și piața cripto apariției, ne aflăm în pragul unei noi ere.

Pe măsură ce modelele și aplicațiile IA mari continuă să apară, cererea de putere de calcul crește, de asemenea, exponențial. Cu toate acestea, deficitul de putere de calcul și creșterea costurilor reprezintă o provocare uriașă pentru multe întreprinderi mici și mijlocii. Din fericire, soluțiile descentralizate, în special Hyperbolic, Aethir și IO.NET, oferă startup-urilor AI noi modalități de a obține putere de calcul, de a reduce costurile și de a crește eficiența.

În același timp, vedem și importanța datelor în dezvoltarea AI. Datele nu sunt doar hrana AI, ci și cheia pentru promovarea implementării aplicațiilor AI. Proiecte precum PIN AI și Sahara oferă un suport puternic de date pentru dezvoltarea AI, motivând rețeaua și încurajând utilizatorii să participe la colectarea și partajarea datelor.

Puterea de calcul și datele nu sunt doar legături de antrenament. Pentru aplicațiile AI, de la ingerarea de date la inferența de producție, fiecare legătură necesită utilizarea unor instrumente diferite pentru a procesa date masive, iar acesta este un proces repetat în mod constant.

În această lume împletită a AI și Crypto, avem motive să credem că vom asista la implementarea mai multor proiecte inovatoare de AI în viitor. Aceste proiecte nu numai că ne vor schimba munca și stilul de viață, dar vor promova și întreaga societate să devină mai inteligentă şi direcţia de dezvoltare descentralizată. Pe măsură ce tehnologia continuă să avanseze și piața continuă să se maturizeze, așteptăm cu nerăbdare sosirea unei ere AI mai deschise, corecte și mai eficiente.