Scris de Kyle

Examinat de: Lemon

Sursa: Content Guild - News

Vă mulțumesc tuturor pentru că ați venit astăzi. Avem o grămadă de dezvoltări super interesante în tehnologia AO de împărtășit cu tine. Vom face mai întâi o demonstrație, apoi Nick și cu mine vom încerca să construim aici un agent AI care să folosească un model de limbă mare într-un contract inteligent pentru a cumpăra și a vinde pe baza sentimentului de chat din sistemul pe care urmează să-l faci. am auzit despre. Îl vom construi de la zero astăzi la fața locului și sperăm că va merge bine.

Da, vei vedea cum să faci totul singur.

Progresele tehnologice de aici pun AO cu mult peste alte sisteme de contracte inteligente. Acest lucru a fost adevărat înainte, iar acum devine mai mult ca un supercomputer descentralizat decât o rețea tradițională de contract inteligent. Dar are toate caracteristicile unei rețele smart contract. Așa că suntem foarte încântați să împărtășim asta cu voi toți. Fără alte prelungiri, să începem cu demo și apoi vom avea o discuție și vom construi ceva live împreună.

Salutare tuturor, multumesc ca ati venit azi. Suntem foarte încântați să anunțăm trei actualizări tehnice majore ale protocolului AO. Împreună, ei ating marele obiectiv de a sprijini modele de limbi mari care rulează într-un mediu descentralizat ca parte a contractelor inteligente. Acestea nu sunt doar modele de jucărie, modele mici sau modele compilate în propriile binare.

Este un sistem complet care vă permite să rulați aproape toate modelele majore în prezent open source și disponibile. De exemplu, Llama 3 rulează în contracte inteligente pe lanț, la fel ca GPT și modelul Apple și așa mai departe. Acesta este un efort de colaborare în întregul ecosistem, cu trei progrese tehnologice majore care fac parte din acest sistem. Așa că sunt foarte încântat să vă spun totul despre asta.

Imaginea generală este că acum LLM-urile (Large Language Models) pot fi rulate în contracte inteligente. Poate că ați auzit de multe ori despre criptomonedele AI și AI descentralizate. De fapt, cu excepția unui sistem despre care vom discuta astăzi, aproape toate aceste sisteme sunt AI ca oracole, adică rulează AI în afara lanțului și apoi pun rezultatele execuției în lanț pentru anumite scopuri.

Nu despre asta vorbim. Vorbim despre inferența unui model de limbaj mare ca parte a execuției de stat a contractului inteligent. Toate acestea sunt posibile de hard disk-ul AO pe care îl avem și de mecanismul de procesare hiper-paralel al AO, ceea ce înseamnă că puteți rula o mulțime de calcule fără ca acestea să afecteze diferitele procese cu care lucrez. Credem că acest lucru ne va permite să creăm un sistem financiar de agent autonom descentralizat foarte bogat.

Până acum, în finanțele descentralizate (DeFi), am reușit în esență să facem execuția tranzacțiilor brute fără încredere. Interacțiunile din diferite jocuri economice, cum ar fi împrumutul și schimbul, sunt lipsite de încredere. Acesta este doar un aspect al problemei. Dacă te gândești la piețele financiare globale.

Da, există diverse primitive economice care funcționează în moduri diferite. Există obligațiuni, acțiuni, mărfuri, derivate și multe altele. Dar când vorbim cu adevărat despre piețe, nu este vorba doar despre acestea, ci este de fapt nivelul de informații. O persoană care decide să cumpere, să vândă, să împrumute sau să participe la diferite jocuri financiare.

Până acum, în ecosistemul financiar descentralizat, am mutat cu succes toate aceste inițiale într-o stare fără încredere. Prin urmare, puteți face schimb pe Uniswap fără a avea încredere în operatorii Uniswap. De fapt, în principiu, nu există operatori. Stratul de inteligență al pieței este lăsat în afara lanțului. Așadar, dacă vrei să te implici în investițiile în criptomonede fără să faci singur toate cercetările și implicarea, trebuie să găsești un fond.

Le puteți încrede în fondurile dvs., iar apoi execută decizii inteligente și le transmit în aval la execuția de bază a rețelei în sine. Credem că în AO avem de fapt capacitatea de a muta partea inteligentă a pieței, inteligența care duce la decizii, în rețea însăși. Deci, un mod simplu de a înțelege ar putea fi să vă imaginați asta.

Un fond speculativ sau o aplicație de gestionare a portofoliului în care puteți avea încredere poate executa un set de instrucțiuni inteligente în cadrul rețelei, transferând astfel natura fără încredere a rețelei în procesul de luare a deciziilor. Aceasta înseamnă că un cont anonim, cum ar fi Yolo 420 Trader Number One (un comerciant îndrăzneț, ocazional), poate crea o strategie nouă și interesantă și o poate implementa în rețea, iar tu poți să-ți investești capitalul în el fără a avea de fapt încredere în el.

Acum puteți construi agenți autonomi care interacționează cu modele statistice mari. Cel mai comun model statistic mare este un model de limbaj mare, care poate procesa și genera text. Aceasta înseamnă că puteți introduce aceste modele în contracte inteligente ca parte a unei strategii dezvoltate de cineva cu o idee nouă și să le executați inteligent în rețea.

Vă puteți imagina că faceți o analiză de bază a sentimentelor. De exemplu, citiți știrile și decideți că acesta este un moment bun pentru a cumpăra sau a vinde acest derivat. Acesta este un moment bun pentru a face asta sau asta. Poți avea decizii asemănătoare oamenilor efectuate într-o manieră fără încredere. Aceasta nu este doar teorie. Am creat o monedă meme distractivă numită Llama Fed. Practic ideea este că este un simulator fiat în care un grup de lame (alpacas) sunt reprezentate de modelul Llama 3.

Sunt ca o încrucișare între llama și președintele Rezervei Federale, poți să mergi la ei și să le ceri să elibereze niște jetoane și îți vor evalua cererea. Modelul lingvistic mare în sine operează politica monetară, complet autonom și fără încredere. Noi l-am construit, dar nu avem control asupra lui. Ei operează politica monetară și decid cine ar trebui să primească jetoane și cine nu. Aceasta este o mică aplicație foarte interesantă a acestei tehnologii care, sperăm, va inspira toate celelalte aplicații posibile din ecosistem.

Pentru a realiza acest lucru, a trebuit să creăm trei noi capabilități de bază pentru AO, unele la nivelul de protocol de bază și altele la nivelul de aplicație. Acest lucru nu este util doar pentru execuția modelelor de limbaj mari, ci este și mai larg și mai interesant pentru dezvoltatorii AO. Așa că sunt încântat să vi le prezint astăzi.

Prima dintre aceste noi tehnologii este suportul Web Assembly pe 64 de biți. Sună puțin ca un termen tehnic, dar am o modalitate de a-i face pe toată lumea să înțeleagă ce înseamnă. Practic, suportul Web Assembly 64 permite dezvoltatorilor să creeze aplicații care folosesc mai mult de 4 GB de memorie. Vom introduce noile restricții mai târziu și sunt destul de uimitoare.

Dacă nu ești dezvoltator, gândește-te așa: cineva îți cere să scrii o carte și ești încântat de idee, dar ei spun că poți scrie doar 100 de pagini. nici mai mult nici mai puțin. Poți să exprimi ideile din carte, dar nu într-un mod natural și normal pentru că există constrângeri externe și trebuie să îi răspunzi și să schimbi modul în care scrii pentru a se potrivi.

În ecosistemul de contracte inteligente, nu este doar o limită de 100 de pagini. Aș spune că este un pic ca și cum ați construi într-o versiune anterioară a AO. Ethereum are o limită de memorie de 48 KB, care este ca și cum cineva ți-ar cere să scrii o carte cu o singură propoziție și poți folosi doar primele 200 de cuvinte în limba engleză cele mai populare. Construirea unor aplicații cu adevărat interesante în acest sistem este extrem de dificilă.

Apoi mai este Solana, care vă oferă acces la 10 MB de memorie de lucru. Aceasta este evident o îmbunătățire, dar practic vorbim de o pagină. ICP, Internet Computer Protocol, permite suport pentru 3 GB de memorie. Teoretic este plin, dar trebuiau să coboare la 3GB. Acum, cu 3 GB de RAM, puteți rula o mulțime de aplicații diferite, dar cu siguranță nu puteți rula aplicații AI mari. Acestea necesită încărcarea unor cantități mari de date în memoria principală pentru acces rapid. Acest lucru nu poate fi realizat eficient cu 3 GB de RAM.

Când am lansat AO în februarie a acestui an, aveam și o limită de memorie de 4 GB, iar această limită a fost de fapt cauzată de versiunea pe 32 de biți a Web Assembly. Acum, această limită de memorie dispare complet la nivel de protocol. În schimb, limita de memorie la nivel de protocol este de 18EB (exaocteți). Aceasta este o cantitate mare de stocare.

Va mai trece ceva timp până când acesta va fi folosit pentru calcul în memorie, mai degrabă decât pentru mediul de stocare pe termen lung. La nivel de implementare, unitățile de calcul din rețeaua AO sunt acum capabile să acceseze 16 GB de memorie, dar va fi relativ ușor să înlocuiți aceasta cu o memorie mai mare în viitor fără a schimba protocolul. 16 GB este mai mult decât suficient pentru a rula calcule mari de model de limbaj, ceea ce înseamnă că puteți descărca și executa un model de 16 GB pe AO astăzi. Cum ar fi versiunea necuantificată Llama 3 a seriei Falcon și multe alte modele.

Aceasta este o componentă de bază necesară pentru a construi sisteme de calcul inteligente bazate pe limbaj. Acum este pe deplin acceptat în lanț ca parte a contractelor inteligente, ceea ce credem că este foarte, foarte interesant.

Acest lucru elimină o limitare majoră de calcul a AO și, ulterior, a sistemelor de contracte inteligente. Când am lansat AO în februarie a acestui an, poate ați observat în videoclip că am menționat de mai multe ori că aveți putere de calcul nelimitată, dar exista o limită de cel mult 4 GB de RAM. Aceasta este ridicarea acestei restricții. Credem că acesta este un progres foarte interesant, iar 16 GB este suficient pentru a rula aproape orice model pe care doriți să îl rulați în domeniul actual de AI.

Am reușit să ridicăm limita de 16 GB fără a schimba protocolul, ceea ce va fi relativ ușor în viitor, ceea ce reprezintă o îmbunătățire semnificativă față de rularea inițială a Web Assembly 64. Deci, acesta în sine reprezintă un progres uriaș în capabilitățile sistemului. A doua tehnologie majoră care permite modelelor de limbi mari să ruleze pe AO este WeaveDrive.

WeaveDrive vă permite să accesați datele Arweave din AO ca pe un hard disk local. Aceasta înseamnă că puteți deschide orice ID de tranzacție în AO care este autentificat de unitatea de expediere și îl puteți încărca în rețea. Desigur, puteți accesa aceste date și le puteți citi în programul dvs. la fel ca un fișier de pe hard disk-ul local.

Știm cu toții că în prezent există aproximativ 6 miliarde de tranzacții stocate pe Arweave, așa că acesta este un set de date uriaș pentru început. Acest lucru înseamnă, de asemenea, că atunci când se construiesc aplicații în viitor, va exista un stimulent sporit pentru a încărca date în Arweave, deoarece aceste date pot fi utilizate și în programele AO. De exemplu, când am realizat un model de limbă mare care rulează pe Arweave, am încărcat în rețea modele în valoare de aproximativ 1.000 USD. Dar acesta este doar începutul.

Cu o rețea de contracte inteligente native pentru sistemul de fișiere, numărul de aplicații pe care le puteți construi este enorm. Deci este foarte interesant. Și mai bine, sistemul pe care l-am construit vă permite să transmiteți date în flux în mediul de execuție. Aceasta este o nuanță tehnică, dar vă puteți imagina că reveniți la analogia cărții.

Cineva îți spune, vreau să accesez o bucată de date din cartea ta. Vreau să obțin o diagramă din această carte. Într-un sistem simplu, sau chiar în rețelele de contracte inteligente de astăzi, aceasta ar fi o îmbunătățire uriașă și ai încerca întreaga carte. Cu toate acestea, evident că acest lucru nu este foarte eficient, mai ales dacă acea carte este un model statistic mare care conține mii de pagini.

Acest lucru este extrem de ineficient. În schimb, ceea ce facem în AO este să vă lăsăm să citiți octeții direct. Mergeți direct la locația diagramei din carte, doar copiați diagrama în aplicația dvs. și executați-o. Acest lucru îmbunătățește foarte mult eficiența sistemului. Acesta nu este doar un produs minim viabil (MVP), ci este un mecanism de acces la date complet funcțional, bine construit. Deci ai un sistem de calcul infinit și un hard disk infinit și combină-le împreună și ai un supercomputer.

Acesta nu a mai fost construit înainte și acum este disponibil pentru toată lumea la costuri minime. Aici este AO acum și suntem foarte încântați de asta. Sistemul este implementat și la nivel de sistem de operare. Prin urmare, am făcut din WeaveDrive un subprotocol al AO, o extensie de unitate de calcul pe care oricine o poate încărca. Acest lucru este interesant, deoarece aceasta este prima extindere de acest gen.

AO a avut întotdeauna capacitatea de a adăuga extensii mediului de execuție. La fel cum aveți un computer și doriți să conectați mai multă memorie sau să conectați o placă grafică, puneți fizic o unitate în sistem. Puteți face acest lucru cu unitățile de calcul ale AO și asta facem aici. Deci, la nivel de sistem de operare, acum aveți un hard disk, care este doar un sistem de fișiere care reprezintă stocarea datelor.

Aceasta înseamnă că nu numai că poți accesa aceste date în AO, construind aplicații în mod obișnuit, dar le poți accesa de fapt din orice aplicație pe care o aduci pe web. Deci, aceasta este o capacitate aplicabilă pe scară largă care este accesibilă tuturor celor care construiesc în sistem, indiferent de limba în care scriu, Rust, C, Lua, Solidity etc., ca și cum ar fi o caracteristică nativă a sistemului. În construirea acestui sistem, ne-a forțat, de asemenea, să creăm subprotocoale, creând modalități prin care alte unități de calcul se pot scala, astfel încât alții să poată construi lucruri interesante în viitor.

Acum că avem capacitatea de a rula calcule pe seturi de memorie de orice dimensiune și de a încărca date din rețea în procesele din AO, următoarea întrebare este cum să facem inferența în sine.

Deoarece am ales să construim AO pe Web Assembly ca mașină virtuală principală, a fost relativ ușor să compilați și să rulăm codul existent în acel mediu. Deoarece am construit WeaveDrive astfel încât să fie expus ca un sistem de fișiere la nivel de sistem de operare, rularea Llama.cpp (un motor de inferență pentru modele de limbaj la scară largă open source) pe sistem este de fapt relativ ușoară.

Acest lucru este foarte interesant, deoarece înseamnă că nu numai că puteți rula acest motor de inferență, dar puteți rula cu ușurință și multe alte motoare. Prin urmare, componenta finală care permite rularea modelelor de limbă mari în cadrul AO este motorul de inferență al modelului de limbaj mare în sine. Am portat un sistem numit Llama.cpp, care sună puțin misterios, dar este de fapt mediul de execuție a modelelor open source lider în prezent.

Funcționând direct în cadrul contractului inteligent AO, acest lucru este de fapt relativ ușor odată ce avem capacitatea de a avea orice cantitate de date în sistem și apoi de a încărca orice cantitate de date din Arweave.

Pentru a face acest lucru posibil, lucrăm și cu o extensie de calcul numită SIMD (Single Instruction Multiple Data), care vă permite să rulați aceste modele mai rapid. Așa că am activat și această funcție. Asta înseamnă că în prezent aceste modele rulează pe CPU, dar destul de repede. Dacă aveți un calcul asincron, ar trebui să se potrivească cazului dvs. de utilizare. Lucruri precum citirea semnalelor de știri și apoi deciderea ce tranzacții să fie executate funcționează bine în sistemul actual. Dar avem și câteva upgrade-uri interesante despre care vom vorbi în curând, în ceea ce privește alte mecanisme de accelerare, cum ar fi utilizarea GPU-urilor pentru a accelera inferența modelului de limbaj mare.

Llama.cpp vă permite să încărcați nu numai modelul lider Meta Llama 3, ci și multe alte modele, de fapt cu aproximativ 90% mai multe modele pe care le puteți descărca de pe site-ul web de modele open source Hugging Face pot fi rulate în cadrul sistemului, din GPT -2 Dacă doriți, accesați 253 și Monet, sistemul de modele de limbă mare al Apple și multe alte modele. Deci acum avem cadrul pentru a încărca orice model de la Arweave, folosind hard disk-ul pentru a încărca modelul pe care vreau să-l rulez în sistem. Le încărcați, sunt doar date normale și apoi le puteți încărca în procesul AO și le puteți executa, obține rezultatele și lucra așa cum doriți. Credem că acesta este un pachet care face posibile aplicații care nu au fost posibile în ecosistemele de contracte inteligente anterioare și, chiar dacă ar fi fost posibile acum, cantitatea de modificări arhitecturale în sistemele existente precum Solana ar fi fost pur și simplu neprevăzută și nu ar fi fost în calea sa pe viitor. imagine. Așa că pentru a vă arăta acest lucru și pentru a-l face real și ușor de înțeles, am creat un simulator, Llama Fed. Ideea de bază este că obținem un comitet de membri ai Fed care sunt llama, atât în ​​ceea ce privește modelul meta-lama 3, cât și în ceea ce privește președintele Fed.

De asemenea, le spunem că sunt lamă, precum Alan Greenspan sau președintele Rezervei Federale. Puteți intra în acest mic mediu.

Unii dintre voi veți fi familiarizați cu acest mediu, de fapt este ca Gather unde lucrăm astăzi, puteți vorbi cu llama și îi cereți să vă dea niște jetoane pentru un proiect cu adevărat interesant, iar ei vor decide dacă vi-l dau pe baza cererea dumneavoastră. Așa că ardeți niște jetoane Arweave, jetoane wAR (furnizate de echipa AOX) și îți oferă jetoane în funcție de faptul că ei consideră că propunerea ta este bună sau nu. Deci aceasta este o monedă meme cu politică monetară complet autonomă și inteligentă. Deși aceasta este o formă simplă de inteligență, este totuși interesantă. Acesta va evalua propunerile tale și ale altora și va conduce politica monetară. Analizând titlurile de știri și luând decizii inteligente sau interacționând cu asistența clienților și returnând valoare, toate acestea pot fi acum realizate în cadrul contractelor inteligente. Elliot vă va arăta acum.

Bună tuturor, sunt Elliot și astăzi vă voi arăta Llama Land, o lume autonomă în lanț care rulează în cadrul AO, alimentată de modelul Meta Llama 3 cu sursă deschisă.

Conversațiile pe care le vedem aici nu sunt doar conversații între jucători, ci lame digitale complet autonome.

De exemplu, această lamă este umană.

Dar această lamă este IA în lanț.

Această clădire conține Llama hrănite. Este ca Rezerva Federală, dar pentru lamă.

Lama Fed conduce prima politică monetară din lume bazată pe inteligență artificială și bate jetoane Llama.

Acest tip este regele Llamei. Îi puteți oferi jetoane Arweave împachetate (wAR) și puteți scrie o solicitare pentru a obține niște jetoane Llama.

Lama King AI va evalua și decide dacă acordă jetoane Llama. Politica monetară a lui Llamafed este complet autonomă, fără supraveghere umană. Fiecare agent din lume și fiecare cameră în sine este un proces în lanț pe AO.

Se pare că King Llama ne-a acordat niște jetoane și dacă mă uit în portofelul meu ArConnect, văd că sunt deja acolo. bun. Llama Land este doar prima lume bazată pe inteligență artificială care a fost implementată pe AO. Acesta este cadrul pentru un nou protocol care permite oricui să-și construiască propria lume autonomă, singura limită fiind imaginația ta. Toate acestea sunt implementate 100% în lanț și sunt posibile numai pe AO.

Mulțumesc Elliot. Ceea ce tocmai ați văzut nu este doar un model lingvistic mare care participă la luarea deciziilor financiare și conduce un sistem autonom de politică monetară. Nu există uși din spate, nu avem control asupra lor, toate acestea sunt conduse de AI însuși. Mai vezi și un mic univers, un loc în care te poți plimba în spațiul fizic, unde poți merge și interacționa cu infrastructura financiară. Credem că acesta este mai mult decât o mică demonstrație distractivă.

Există de fapt niște lucruri cu adevărat interesante aici, locuri care reunesc diferiți oameni care folosesc produse financiare. Vedem în ecosistemul DeFi că, dacă cineva dorește să participe la un proiect, îl verifică mai întâi pe Twitter și apoi merge pe site-ul web pentru a participa la jocul original de bază.

Apoi se alătură grupurilor Telegram sau canalelor Discord sau discută cu alți utilizatori pe Twitter. Experiența este foarte descentralizată, cu toții sărind între diferite aplicații. O idee interesantă pe care o încercăm este dacă aveți o interfață de utilizator pentru aceste aplicații DeFi, care să permită comunității lor să se reunească și să co-gestioneze acest spațiu autonom pe care îl accesează în mod colectiv, deoarece este o aplicație de rețea permanentă care se poate alătura experienței.

Imaginați-vă că puteți merge într-un loc care arăta ca o casă de licitații și puteți discuta cu alți utilizatori cărora le-a plăcut protocolul. Practic, puteți discuta cu alți utilizatori atunci când există activitate în procesul mecanismului financiar care are loc pe AO. Aspectele comunitare și sociale sunt combinate cu partea financiară a produsului.

Credem că acest lucru este foarte interesant și poate avea chiar implicații mai largi. Aici construiți un agent AI autonom care rătăcește în această lume Arweave, interacționând cu diferitele aplicații și utilizatori pe care îi descoperă. Deci, dacă construiți un metavers, primul lucru pe care îl faceți când creați un joc online este să creați NPC-uri (personaje non-player). Aici, NPC-urile pot fi generice.

Ai un sistem inteligent care rătăcește și interacționează cu mediul înconjurător, astfel încât să nu ai problema de pornire la rece a utilizatorului. Puteți avea agenți autonomi care încearcă să facă bani pentru ei înșiși, încercând să își facă prieteni, interacționând cu mediul ca utilizatorii obișnuiți DeFi. Ni s-a părut destul de amuzant, chiar dacă puțin ciudat. Vom vedea.

În viitor, vedem și oportunități de a accelera execuția modelelor de limbaj mari în AO. Mai devreme am vorbit despre conceptul de scalare a unităților de calcul. Așa am construit WeaveDrive.

Nu doar WeaveDrive, puteți construi orice fel de extensie pentru mediul de calcul al AO. Există un proiect ecologic foarte interesant care rezolvă această problemă pentru execuția unui model de limbaj mare accelerat de GPU, care este Rețeaua Apus. Îi voi lăsa să explice.

Bună, sunt Mateo. Astăzi sunt încântat să vă prezint Apus Network. Apus Network se angajează să construiască o rețea GPU descentralizată, fără încredere.

Oferim un modul de extensie AO cu sursă deschisă utilizând stocarea permanentă în lanț a Arweave, oferim un mediu de execuție determinist pentru GPU-uri și oferim un model de stimulare economică pentru IA descentralizată folosind jetoane AO ​​și APUS. Rețeaua Apus va folosi noduri de minerit GPU pentru a efectua în mod competitiv antrenamentul optim, fără încredere, care rulează pe Arweave și AO. Acest lucru asigură că utilizatorii au acces la cele mai bune modele AI la cel mai rentabil preț. Ne puteți urmări progresul pe X (Twitter) @apus_network. Mulțumiri.

Aceasta este starea actuală a AI pe AO astăzi. Puteți încerca Llama Fed și puteți încerca să construiți singur aplicații de contracte inteligente bazate pe modele lingvistice la scară largă. Credem că acesta este începutul introducerii informațiilor de piață în mediile de execuție descentralizate. Suntem foarte încântați de acest lucru și așteptăm cu nerăbdare să vedem ce se întâmplă în continuare. Vă mulțumesc tuturor pentru participare astăzi și aștept cu nerăbdare să comunic din nou cu voi.