Autor: IOSG
TL;DR
Pe măsură ce interacțiunea dintre Web3 și AI devine un subiect de interes în lumea criptomonedelor, construcția infrastructurii AI în lumea criptografică devine prosperă, dar utilizarea efectivă a AI sau a aplicațiilor construite pentru AI rămâne limitată, iar problema omogenizării infrastructurii AI devine tot mai evidentă. Recent, prima rundă de finanțare pentru RedPill, la care am participat, a generat o înțelegere mai profundă.
Principalele instrumente pentru construirea Dapp-urilor AI includ acces descentralizat la OpenAI, rețele GPU, rețele de raționare și rețele de agenți.
Motivul pentru care rețelele GPU sunt mai populare decât „epoca mineritului Bitcoin” este că: piața AI este mai mare și crește rapid și stabil; AI sprijină milioane de aplicații zilnic; AI necesită o diversitate de modele GPU și locații ale serverelor; tehnologia este mai matură decât în trecut; și baza de clienți este, de asemenea, mai largă.
Rețelele de raționare și rețelele de agenți au infrastructuri similare, dar focusul este diferit. Rețeaua de raționare este destinată în principal dezvoltatorilor experimentați care desfășoară propriile modele, în timp ce rularea modelelor non-LLM nu necesită neapărat GPU. Rețelele de agenți se concentrează mai mult pe LLM, dezvoltatorii nefiind nevoiți să aducă propriile modele, ci pun accent pe ingineria sugestiilor și pe modul de conectare a diferitelor agenți. Rețelele de agenți au întotdeauna nevoie de GPU-uri de înaltă performanță.
Proiectele de infrastructură AI promit mult, continuând să lanseze noi funcționalități.
Cele mai multe proiecte native criptografice se află încă în etapa rețelei de testare, având o stabilitate slabă, configurații complexe și funcții limitate, având nevoie de timp pentru a-și dovedi securitatea și confidențialitatea.
Presupunând că Dapp-urile AI devin o mare tendință, există multe domenii neexplorate, cum ar fi monitorizarea, infrastructura asociată RAG, modele native Web3, API-uri native criptate încorporate și agenți descentralizați de date, rețele de evaluare etc.
Integrarea verticală este o tendință semnificativă. Proiectele de infrastructură încearcă să ofere servicii complete, simplificând munca dezvoltatorilor de Dapp-uri AI.
Viitorul va fi hibrid. Unele raționamente se vor desfășura pe front-end, iar altele vor fi efectuate în lanț, ceea ce va permite luarea în considerare a costurilor și a factorilor de verificabilitate.
Sursa: IOSG
Introducere
Combinația dintre Web3 și AI este unul dintre cele mai discutate subiecte în domeniul criptomonedelor de astăzi. Dezvoltatorii talentați construiesc infrastructura AI pentru lumea criptografică, dedicându-se aducerii inteligenței în contractele inteligente. Construirea Dapp-urilor AI este o sarcină extrem de complexă, iar domeniile cu care se confruntă dezvoltatorii includ date, modele, putere de calcul, operațiuni, desfășurare și integrarea cu blockchain-ul.
Pentru aceste nevoi, fondatorii Web3 au dezvoltat multe soluții preliminare, cum ar fi rețelele GPU, etichetarea datelor comunității, modele antrenate de comunitate, raționamente și antrenamente AI verificabile, precum și magazine de agenți. Cu toate acestea, în acest context vibrant de infrastructură, utilizarea efectivă a AI sau aplicațiile construite pentru AI sunt încă puține.
Dezvoltatorii care caută tutoriale pentru dezvoltarea Dapp-urilor AI descoperă că acestea legate de infrastructura AI native criptografice nu sunt multe, majoritatea tutorialelor implicând doar apelarea API-ului OpenAI pe front-end.
Sursa: IOSG Ventures
Aplicațiile actuale nu reușesc să valorifice pe deplin funcțiile descentralizate și verificabile ale blockchain-ului, dar această situație se va schimba rapid. Actualmente, majoritatea infrastructurilor AI axate pe criptomonede au lansat rețele de testare și plănuiesc să funcționeze oficial în următoarele 6 luni. Această cercetare va detalia principalele instrumente disponibile în infrastructura AI din domeniul criptomonedelor. Să ne pregătim pentru momentul GPT-3.5 în lumea criptografică!
1. RedPill: oferă autorizare descentralizată pentru OpenAI
RedPill, menționat anterior, este un punct de intrare excelent. OpenAI are câteva modele puternice de clasă mondială, cum ar fi GPT-4-vision, GPT-4-turbo și GPT-4o, fiind alegerea preferată pentru construirea Dapp-urilor avansate de inteligență artificială. Dezvoltatorii pot apela API-ul OpenAI prin intermediul unui oracle sau al unei interfețe front-end pentru a-l integra în Dapp.
RedPill integrează API-urile OpenAI ale diferitelor dezvoltatori sub o singură interfață, oferind utilizatorilor din întreaga lume servicii de inteligență artificială rapide, economice și verificabile, democratizând astfel resursele celor mai avansate modele de inteligență artificială. Algoritmul de rutare al RedPill va direcționa cererile dezvoltatorilor către un singur contributor. Cererile API vor fi executate prin rețeaua sa de distribuție, ocolind orice restricții posibile din partea OpenAI, rezolvând unele probleme comune cu care se confruntă dezvoltatorii criptografici, cum ar fi:
• Limitarea TPM (tokeni pe minut): Conturile noi au o utilizare limitată a tokenilor, neputând satisface cerințele Dapp-urilor populare și care depind de AI.
• Restricții de acces: Unele modele au restricții de acces pentru conturile noi sau pentru anumite țări.
Prin utilizarea aceluiași cod de cerere, dar schimbând numele gazdelor, dezvoltatorii pot accesa modelele OpenAI cu costuri reduse, scalabilitate ridicată și fără restricții.
2. Rețele GPU
Pe lângă utilizarea API-ului OpenAI, mulți dezvoltatori aleg să-și găzduiască modelele acasă. Aceștia pot folosi rețele GPU descentralizate, cum ar fi io.net, Aethir, Akash și alte rețele populare, pentru a-și construi propriile clustere GPU și a desfășura și rula diverse modele interioare sau open source.
Această rețea GPU descentralizată poate utiliza puterea de calcul a indivizilor sau a micilor centre de date pentru a oferi configurații flexibile, mai multe opțiuni de locații ale serverelor și costuri reduse, permițând dezvoltatorilor să efectueze experimente legate de AI cu un buget limitat. Totuși, din cauza naturii descentralizate, aceste rețele GPU au anumite limitări în ceea ce privește funcționalitatea, disponibilitatea și confidențialitatea datelor.
În ultimele luni, cererea pentru GPU a explodat, depășind fervoarea anterioară a mineritului de Bitcoin. Cauzele acestui fenomen includ:
Numărul de clienți țintiți a crescut, rețelele GPU servesc acum dezvoltatorii AI, al căror număr nu este doar mare, ci și mai fidel, nefiind afectați de fluctuațiile prețurilor criptomonedelor.
Comparativ cu echipamentele dedicate mineritului, GPU-urile descentralizate oferă mai multe tipuri și specificații, fiind mai capabile să îndeplinească cerințele. În special, modelele mari necesită VRAM mai mare, iar sarcinile mai mici dispun de GPU-uri mai adecvate. În același timp, GPU-urile descentralizate pot oferi servicii mai aproape de utilizatori finali, reducând latența.
Tehnologia devine din ce în ce mai matură, rețelele GPU se bazează pe blockchain-uri rapide, cum ar fi Solana, pentru decontare, tehnologia de virtualizare Docker și clusterele de calcul Ray.
În ceea ce privește rentabilitatea investiției, piața AI se extinde, având multe oportunități de dezvoltare a aplicațiilor și modelelor noi, iar rata de returnare estimată pentru modelul H100 este de 60-70%, în timp ce mineritul Bitcoin este mai complex, având câțiva câștigători și o producție limitată.
Companiile de minerit Bitcoin, cum ar fi Iris Energy, Core Scientific și Bitdeer, au început, de asemenea, să sprijine rețelele GPU, oferind servicii AI și achiziționând activ GPU-uri proiectate special pentru AI, cum ar fi H100.
Recomandare: Pentru dezvoltatorii Web2 care nu pun prea mult accent pe SLA, io.net oferă o experiență simplă și ușor de utilizat, fiind o alegere foarte rentabilă.
Aceasta este inima infrastructurii AI native criptografice. Aceasta va sprijini în viitor miliarde de operații de raționare AI. Multe layer1 sau layer2 AI oferă dezvoltatorilor capacitatea de a apela nativ raționarea AI în lanț. Liderii pieței includ Ritual, Valence și Fetch.ai.
Aceste rețele prezintă diferențe în următoarele aspecte: performanță (latență, timp de calcul), verificabilitatea modelelor suportate, preț (costuri de consum în lanț, costuri de raționare), experiența dezvoltatorului.
3.1 Obiective
În condiții ideale, dezvoltatorii ar trebui să poată accesa cu ușurință serviciile personalizate de raționare AI, din orice loc, prin orice formă de dovadă, cu aproape nicio barieră în procesul de integrare. Rețeaua de raționare oferă tot suportul de bază necesar dezvoltatorilor, inclusiv generarea și verificarea cererilor la cerere, efectuarea calculului de raționare, relay-ul și verificarea datelor de raționare, furnizarea de interfețe pentru Web2 și Web3, desfășurarea modelelor cu un singur clic, monitorizarea sistemului, operațiuni cross-chain, integrare sincronizată și execuție programată.
Prin aceste funcționalități, dezvoltatorii pot integra fără cusur serviciile de raționare în contractele lor inteligente existente. De exemplu, atunci când construiesc roboți de tranzacționare DeFi, acești roboți folosesc modele de învățare automată pentru a identifica momentele optime de cumpărare și vânzare pentru anumite perechi de tranzacționare și execută strategiile de tranzacționare corespunzătoare pe platformele de tranzacționare de bază.
În condiții ideale, toată infrastructura este găzduită în cloud. Dezvoltatorii trebuie doar să încarce modelele lor de strategie de tranzacționare într-un format comun precum torch, iar rețeaua de raționare va stoca și va oferi modele pentru interogările Web2 și Web3.
După finalizarea tuturor pașilor de desfășurare a modelului, dezvoltatorii pot apela direct raționarea modelului prin API-ul Web3 sau contractul inteligent. Rețeaua de raționare va continua să execute aceste strategii de tranzacționare și va returna rezultatele către contractul inteligent de bază. Dacă suma de fonduri gestionate de dezvoltator este foarte mare, va trebui să ofere și verificarea rezultatelor raționării. Odată ce rezultatul raționării este primit, contractul inteligent va efectua tranzacții pe baza acestor rezultate.
3.1.1 Asincron și sincron
Din punct de vedere teoretic, operațiile de raționare executate asincron pot aduce o performanță mai bună; cu toate acestea, acest mod poate fi inconvenient din punct de vedere al experienței dezvoltatorului. Atunci când se folosește modul asincron, dezvoltatorii trebuie mai întâi să trimită sarcina în contractul inteligent al rețelei de raționare. Când sarcina de raționare este finalizată, contractul inteligent al rețelei de raționare va returna rezultatul. În acest model de programare, logica este împărțită în două părți: apelul de raționare și procesarea rezultatelor raționării.
Dacă dezvoltatorii au apeluri de raționare înnodată și multă logică de control, situația devine și mai complicată.
Modelul de programare asincron face dificilă integrarea cu contractele inteligente existente. Aceasta necesită ca dezvoltatorii să scrie mult cod suplimentar și să gestioneze erorile și dependențele. În contrast, programarea sincronizată este mai intuitivă pentru dezvoltatori, dar introduce probleme de timp de răspuns și design al blockchain-ului. De exemplu, dacă datele de intrare sunt timp de bloc sau preț, care sunt date în mișcare rapidă, atunci după ce raționarea este finalizată, datele nu mai sunt actuale, ceea ce ar putea duce la revenirea execuției contractului inteligent în anumite circumstanțe. Imaginează-ți că faci o tranzacție folosind un preț depășit.
Rețelele de agenți permit utilizatorilor să-și personalizeze cu ușurință agenții. Aceste rețele sunt compuse din entități sau contracte inteligente capabile să execute sarcini în mod autonom, să comunice între ele și să interacționeze cu rețelele blockchain, fără a necesita intervenție umană directă. Acestea se concentrează în principal pe tehnologia LLM. De exemplu, poate oferi un chatbot GPT care înțelege în profunzime Ethereum. Instrumentele disponibile pentru acest chatbot sunt în prezent limitate, iar dezvoltatorii nu pot dezvolta aplicații complexe pe această bază.
Dar în viitor, rețelele de agenți vor oferi mai multe instrumente pentru utilizatori, nu doar cunoștințe, ci și capacitatea de a apela API externe, de a executa sarcini specifice etc. Dezvoltatorii vor putea conecta mai mulți agenți pentru a construi fluxuri de lucru. De exemplu, scrierea de contracte inteligente Solidity va implica mai mulți agenți specializați, inclusiv agenți de proiectare a protocoalelor, agenți de dezvoltare Solidity, agenți de revizuire a securității codului și agenți de desfășurare Solidity.
Coordonăm colaborarea acestor agenți prin utilizarea sugestiilor și scenariilor. Exemple de rețele de agenți includ Flock.ai, Myshell, Theoriq.
Recomandare: Majoritatea funcțiilor agenților de astăzi sunt relativ limitate. Pentru cazuri de utilizare specifice, agenții Web2 pot oferi servicii mai bune și dispun de instrumente de orchestrare mature, cum ar fi Langchain, Llamaindex.
5. Diferențele dintre rețelele de agenți și rețelele de raționare
Rețelele de agenți se concentrează mai mult pe LLM, oferind instrumente precum Langchain pentru a integra mai mulți agenți. În general, dezvoltatorii nu trebuie să dezvolte personal modele de învățare automată, deoarece rețelele de agenți au simplificat procesul de dezvoltare și desfășurare a modelelor. Aceștia trebuie doar să conecteze agenții și instrumentele necesare. În cele mai multe cazuri, utilizatorul final va folosi direct acești agenți.
Rețeaua de raționare este susținerea infrastructurii rețelei de agenți. Aceasta oferă dezvoltatorilor un nivel de acces mai scăzut. În mod normal, utilizatorul final nu folosește direct rețeaua de raționare. Dezvoltatorii trebuie să-și desfășoare propriile modele, care nu sunt limitate la LLM, și pot să le folosească prin puncte de acces off-chain sau on-chain. Rețelele de agenți și rețelele de raționare nu sunt produse complet independente. Am început deja să vedem unele produse integrate vertical. Acestea oferă simultan capacități de agenți și raționare, deoarece aceste două funcții depind de infrastructuri similare.
6. Oportunități noi
Pe lângă raționarea modelelor, antrenare și rețelele de agenți, domeniul web3 are multe noi domenii de explorat:
Set de date: Cum putem transforma datele blockchain în seturi de date utilizabile pentru învățarea automată? Dezvoltatorii de învățare automată au nevoie de date mai specifice și specializate. De exemplu, Giza oferă câteva seturi de date de înaltă calitate despre DeFi, dedicate antrenamentului în învățarea automată. Datele ideale nu ar trebui să fie doar simple date tabelare, ci ar trebui să includă și date grafice capabile să descrie interacțiunile din lumea blockchain. În prezent, avem încă deficiențe în această privință. Unele proiecte încearcă să rezolve această problemă recompensând indivizii pentru crearea de seturi de date noi, cum ar fi Bagel și Sahara, care promit să protejeze confidențialitatea datelor personale.
Stocarea modelelor: Unele modele sunt foarte mari, iar modul în care le stocăm, distribuim și gestionăm versiunile este crucial, afectând performanța și costurile învățării automate în lanț. În acest domeniu, proiecte de pionierat precum Filecoin, AR și 0g au realizat progrese.
Antrenarea modelelor: Antrenarea distribuției și verificabilă a modelelor este o provocare. Proiecte precum Gensyn, Bittensor, Flock și Allora au realizat progrese semnificative. Monitorizarea: Deoarece raționarea modelului are loc atât în lanț cât și în afara lanțului, avem nevoie de o nouă infrastructură pentru a ajuta dezvoltatorii web3 să urmărească utilizarea modelelor și să identifice rapid eventualele probleme și abateri. Cu instrumentele de monitorizare potrivite, dezvoltatorii de învățare automată web3 pot ajusta rapid și pot optimiza continuu precizia modelului.
Infrastructura RAG: RAG distribuit necesită un mediu de infrastructură complet nou, cu cerințe ridicate pentru stocare, calcul de încorporare și baze de date vectoriale, asigurând în același timp confidențialitatea datelor. Aceasta este cu mult diferită de infrastructura AI Web3 actuală, care se bazează în mare parte pe terți pentru a completa RAG, cum ar fi Firstbatch și Bagel.
Modele personalizate pentru Web3: Nu toate modelele sunt potrivite pentru scenariile Web3. În cele mai multe cazuri, modelele trebuie să fie reantrenate pentru a se adapta aplicațiilor specifice, cum ar fi predicția prețului sau recomandările. Pe măsură ce infrastructura AI se dezvoltă, ne așteptăm să apară mai multe modele native web3 pentru a susține aplicațiile AI. De exemplu, Pond dezvoltă GNN-uri blockchain pentru o varietate de scenarii, inclusiv predicția prețurilor, recomandări, detectarea fraudelor și prevenirea spălării banilor.
Rețea de evaluare: Evaluarea agenților fără feedback uman nu este ușoară. Odată cu popularizarea instrumentelor de creare a agenților, vor apărea pe piață nenumărate agenți. Acest lucru necesită un sistem care să demonstreze capacitățile acestor agenți și să ajute utilizatorii să decidă care agent are cea mai bună performanță în situații specifice. De exemplu, Neuronets este un participant în acest domeniu.
Mecanismul de consens: Pentru sarcinile AI, PoS nu este neapărat cea mai bună alegere. Complexitatea calculului, dificultatea verificării și lipsa determinismului sunt principalele provocări cu care se confruntă PoS. Bittensor a creat un nou mecanism de consens inteligent, recompensând nodurile din rețea care contribuie la modelele de învățare automată și la rezultatele acestora.
7. Perspectivele viitoare
În prezent, observăm o tendință de integrare verticală. Prin construirea unei infrastructuri de calcul de bază, rețelele pot susține o varietate de sarcini de învățare automată, inclusiv antrenare, raționare și servicii de rețele de agenți. Acest model își propune să ofere dezvoltatorilor de învățare automată web3 o soluție completă, de tip one-stop. În prezent, raționarea în lanț, deși costisitoare și lentă, oferă o verificabilitate excelentă și o integrare fără cusur cu sistemele de back-end (cum ar fi contractele inteligente). Cred că viitorul va merge spre aplicații hibride. O parte din raționare va fi procesată pe front-end sau off-chain, iar raționările cheie și decizionale vor fi realizate în lanț. Acest model a fost deja aplicat pe dispozitive mobile. Prin utilizarea caracteristicilor esențiale ale dispozitivelor mobile, acesta poate rula rapid modele mici local și poate transfera sarcinile mai complexe în cloud, folosind LLM-uri mai mari pentru procesare.