Autor: YBB Capital Researcher Zeke
Unu, început cu atenția și plictiseala
În ultimul an, din cauza întreruperii narațiunii la nivel de aplicare, care nu poate ține pasul cu explozia infrastructurii, domeniul criptomonedelor s-a transformat treptat într-o luptă pentru resursele de atenție. De la Silly Dragon la Goat, de la Pump.fun la Clanker, dorința de noutate în atenție a dus la o competiție acerbă. Începând cu cel mai banal mod de atragere a atenției pentru monetizare, s-a trecut rapid la un model platformă în care cererea și oferta de atenție sunt unite, iar apoi biologia siliconică devine noul furnizor de conținut. În mijlocul diverselor forme ale Meme Coin, a apărut în sfârșit o existență care poate ajunge la un consens între retaileri și VC-uri: Agentul AI.
Atenția este în cele din urmă un joc cu sumă zero, dar speculațiile pot, de asemenea, să stimuleze o creștere sălbatică. În articolul nostru despre UNI, am revizuit începutul epocii de aur a blockchain-ului, iar creșterea rapidă a DeFi a provenit din era mineritului LP deschisă de Compound Finance, unde intrările și ieșirile din mii de bazine de minerit cu APY de mii de procente erau cel mai primitiv mod de a juca pe blockchain în acea perioadă, deși situația finală a fost prăbușirea diverselor bazine de minerit. Dar intrarea nebună a minerilor auriferi a lăsat blockchain-ului o lichiditate fără precedent, iar DeFi, în cele din urmă, s-a desprins de pura speculație, formând un sector matur care satisface nevoile financiare ale utilizatorilor în aspecte precum plăți, tranzacții, arbitraj, staking etc. În prezent, Agentul AI trece prin această etapă sălbatică; căutăm cum Crypto poate fuziona mai bine cu AI și, în cele din urmă, poate duce la un nou vârf în stratul de aplicații.
Două, cum își exercită agentul inteligența autonomă
În articolul anterior am discutat pe scurt despre originile Meme-ului AI: Truth Terminal, precum și despre perspectivele pentru viitorul Agentului AI, iar acest articol se concentrează mai întâi pe Agentul AI în sine.
Să începem cu definiția Agentului AI; Agent în domeniul AI este un termen mai vechi, dar nedefinit, care subliniază în principal autonomia, adică orice AI capabil să perceapă mediul și să reacționeze poate fi numit Agent. În definiția actuală, Agentul AI se apropie mai mult de un agent inteligent, adică setăm un sistem care imită deciziile umane pentru modelul mare, iar în comunitatea academică acest sistem este considerat cea mai promițătoare cale către AGI (Inteligență Artificială Generală).
În versiunile timpurii ale GPT, am putut percepe clar că modelele mari sunt foarte asemănătoare cu oamenii, dar când venea vorba de răspunsuri la multe întrebări complexe, modelele mari ofereau doar răspunsuri aparent corecte. Motivul esențial este că modelele mari de atunci se bazau pe probabilitate și nu pe cauzalitate, iar în plus, ele nu aveau abilitățile de utilizare a uneltelor, memorie, planificare, etc., pe care le are omul, iar Agentul AI poate completa aceste deficiențe. Așadar, putem rezuma cu o formulă: Agentul AI = LLM (Model mare) + Planificare + Memorie + Unelte.
Modelele mari bazate pe prompturi (Prompt) sunt mai degrabă ca o persoană statică, au viață doar atunci când le introducem, iar scopul agentului inteligent este de a fi o persoană mai reală. În prezent, agenții inteligenți din comunitate sunt în principal modele ajustate ale versiunilor Llama 70b sau 405b de la Meta (cele două au parametri diferiți), având capacitatea de a memora și de a utiliza API-uri pentru a accesa unelte, în alte aspecte ar putea necesita ajutorul sau inputul uman (inclusiv interacțiunea și cooperarea cu alți agenți inteligenți), astfel încât putem observa că agenții inteligenți din comunitate există în principal sub formă de KOL-uri pe rețelele sociale. Pentru a face ca agenții inteligenți să semene mai mult cu oamenii, trebuie să aibă capacitatea de planificare și acțiune, iar subiectul lanțului de gândire din planificare este deosebit de important.
Trei, lanțul de gândire (Chain of Thought, CoT)
Conceptul de lanț de gândire (Chain of Thought, CoT) a apărut pentru prima dată în 2022 în lucrarea publicată de Google (Chain-of-Thought Prompting Elicits Reasoning in Large Language Models), lucrarea subliniază că putem îmbunătăți capacitatea de raționament a modelului generând o serie de pași intermediari de raționament, ajutând modelul să înțeleagă mai bine și să rezolve probleme complexe.
Un prompt tipic CoT conține trei părți: descrierea clară a sarcinii, raționamentele logice care susțin soluționarea sarcinii, baza teoretică sau principiile, exemplele soluțiilor specifice. Această structură ajută modelul să înțeleagă cerințele sarcinii, apropiindu-se treptat de răspuns prin raționament logic, îmbunătățind astfel eficiența și acuratețea soluționării problemelor. CoT este deosebit de potrivit pentru sarcini care necesită o analiză profundă și raționamente în mai multe etape, cum ar fi rezolvarea problemelor matematice, redactarea rapoartelor de proiect etc. În sarcini simple, CoT poate să nu aducă avantaje semnificative, dar pentru sarcini complexe, poate îmbunătăți semnificativ performanța modelului, reducând rata erorilor prin strategii de rezolvare pas cu pas și îmbunătățind calitatea finalizării sarcinilor.
Când construim un Agent AI, CoT joacă un rol cheie, Agentul AI trebuie să înțeleagă informațiile primite și să facă decizii raționale pe baza acestora, CoT prin furnizarea unei modalități ordonate de gândire ajută Agentul să proceseze și să analizeze eficient informațiile de intrare, transformând rezultatele analizei în ghiduri de acțiune concrete; această metodă nu doar că sporește fiabilitatea și eficiența deciziilor Agentului, ci îmbunătățește și transparența procesului decizional, făcând comportamentul Agentului mai predictibil și mai ușor de urmărit. CoT, împărțind sarcinile în pași mici, ajută Agentul să reflecteze cu atenție asupra fiecărui punct de decizie, reducând deciziile greșite cauzate de suprasolicitarea informațiilor; CoT face ca procesul decizional al Agentului să fie mai transparent, astfel încât utilizatorii să înțeleagă mai ușor baza deciziilor Agentului. În interacțiunea cu mediul, CoT permite Agentului să învețe constant informații noi și să-și ajusteze strategiile de comportament.
CoT, ca o strategie eficientă, nu doar că îmbunătățește capacitatea de raționament a modelelor mari de limbaj, dar joacă și un rol important în construirea unor agenți AI mai inteligenți și mai fiabili. Prin utilizarea CoT, cercetătorii și dezvoltatorii pot crea sisteme inteligente mai bine adaptate mediilor complexe, având un grad ridicat de autonomie. CoT a demonstrat în aplicarea practică avantajele sale unice, în special în gestionarea sarcinilor complexe, prin împărțirea sarcinilor în pași mici, nu doar că a crescut acuratețea soluțiilor, dar a îmbunătățit și interpretabilitatea și controlabilitatea modelului. Această metodă de rezolvare pas cu pas a problemelor poate reduce semnificativ rata deciziilor greșite cauzate de excesul de informații sau de complexitatea excesivă în fața sarcinilor complexe. În același timp, această metodă a îmbunătățit trasabilitatea și verificabilitatea întregii soluții.
Funcția principală a CoT este de a combina planificarea, acțiunea și observația, compensând decalajul dintre raționament și acțiune. Această modalitate de gândire permite Agentului AI să dezvolte strategii eficiente când prevestește posibile situații anormale, precum și să acumuleze informații noi și să verifice prognozele stabilite anterior în timp ce interacționează cu mediul extern, oferind noi dovezi de raționament. CoT este ca un motor puternic de precizie și stabilitate, ajutând Agentul AI să mențină o eficiență operațională ridicată în medii complexe.
Patru, cerințe false corecte
Crypto cu ce aspecte ale stivei tehnologice AI trebuie să se combine? În articolul de anul trecut am spus că descentralizarea puterii de calcul și a datelor este un pas crucial pentru a ajuta micile întreprinderi și dezvoltatorii individuali să economisească costuri, iar în acest an, în clasificarea detaliată a Crypto x AI realizată de Coinbase, am observat o diviziune mai detaliată:
(1) Strat de calcul (se referă la rețelele care se concentrează pe furnizarea de resurse de unități de procesare grafică (GPU) pentru dezvoltatorii AI);
(2) Strat de date (se referă la rețelele care susțin accesul, orchestrarea și validarea descentralizată a datelor AI);
(3) Strat de middleware (se referă la platformele sau rețelele care susțin dezvoltarea, implementarea și găzduirea modelului AI sau agenților);
(4) Strat de aplicare (se referă la produsele orientate către utilizatori care utilizează mecanismele AI de pe blockchain, fie B2B, fie B2C).
În aceste patru straturi, fiecare strat are viziuni grandioase, iar obiectivele lor sunt în esență de a lupta împotriva dominației gigantilor din Silicon Valley în era următoare a internetului. Așa cum am spus anul trecut, trebuie să acceptăm că gigantii din Silicon Valley controlează în mod exclusiv puterea de calcul și datele? În interiorul modelelor mari închise, care sunt monopolizate, există un „black box” și știința, ca religia cea mai credinciosă a omenirii de astăzi, va considera că fiecare propoziție răspunsă de modelele mari va fi adevărul pentru o mare parte din oameni, dar cum va fi validat acest adevăr? Conform viziunii gigantilor din Silicon Valley, permisiunile pe care le va avea Agentul, în cele din urmă, vor depăși imaginația, cum ar fi dreptul de plată al portofelului tău, dreptul de a utiliza terminalul, cum putem garanta că oamenii nu au intenții rele?
Decentralizarea este singurul răspuns, dar uneori trebuie să ne gândim rațional la câți plătitori ai acestor viziuni grandioase există. În trecut, ne-am putut permite să ignorăm ciclul comercial închis, compensând erorile idealizate prin Token-uri. Dar situația actuală este foarte gravă, Crypto x AI trebuie să se coreleze cu realitatea pentru a crea designuri, de exemplu, cum putem echilibra furnizarea pe ambele capete în condiții de pierdere de performanță și instabilitate în stratul de putere de calcul? Pentru a realiza competitivitatea centrului cloud centralizat. Câte utilizatori reali vor avea proiectele din stratul de date, cum putem verifica validitatea și veridicitatea datelor furnizate și ce tip de clienți au nevoie de aceste date? Celelalte straturi de nivel doi urmează aceeași logică, în această eră nu avem nevoie de atât de multe cerințe false care par corecte.
Cinci, Meme a ieșit în SocialFi
Așa cum am spus în primul paragraf, Meme a ieșit cu o viteză extrem de rapidă, conformându-se formei SocialFi a Web3. Friend.tech a fost Dapp-ul care a tras prima dată, dar a eșuat din cauza unui design de token prea grăbit. Pump.fun a demonstrat fezabilitatea pură a platformei, fără a crea niciun token, fără a impune reguli. Cererea și oferta de atenție sunt unite, poți posta meme-uri, face streaming, emite monede, lăsa comentarii, tranzacționa, totul este liber; Pump.fun percepe doar o taxă de serviciu. Aceasta este practic similară cu modelul economiei de atenție al actualelor rețele sociale precum YouTube, Ins, doar că subiecții de taxare sunt diferiți, iar în termeni de jocuri, Pump.fun este mai Web3.
Clanker de la Base este un integrator, datorită ecosistemului integrat gestionat direct, Base are propriul Dapp social ca suport, formând un ciclu intern complet. Meme-ul Agentului este o formă 2.0 a Meme Coin-ului, oamenii caută mereu noutăți, iar Pump.fun se află acum în centrul atenției; din perspectiva tendinței, este doar o chestiune de timp până când fanteziile biologiei siliconice vor înlocui stereotipurile biologiei carbonice.
Am menționat deja de nenumărate ori Base, doar că fiecare dată conținutul este diferit, privit din perspectiva timpului, Base nu a fost niciodată un deschizător de drumuri, dar a fost întotdeauna un câștigător.
Ce altceva poate fi un agent inteligent?
Dintr-o perspectivă practică, agentul inteligent nu poate fi descentralizat în viitorul apropiat; din perspectiva construcției agenților în domeniul AI tradițional, nu este o simplă problemă de raționament care poate fi rezolvată prin descentralizare și open-source; este nevoie de conectarea la diferite API-uri pentru a accesa conținutul Web2, iar costurile de operare sunt foarte mari. Designul lanțului de gândire și colaborarea între agenți inteligenți depind adesea de un om ca intermediar. Vom experimenta o perioadă lungă de tranziție până când va apărea o formă de fuzionare adecvată, poate similară cu UNI. Dar la fel ca în articolul precedent, cred că agenții inteligenți vor avea un impact semnificativ asupra industriei noastre, la fel cum Cex există în industria noastră, nu este corect, dar este foarte important.
Articolul (Revizuirea agenților AI) publicat luna trecută de Stanford și Microsoft descrie în detaliu aplicațiile agenților în industria medicală, mașini inteligente, lumi virtuale, iar în anexă au fost deja multe cazuri de experimentare cu GPT-4V ca agenți implicați în dezvoltarea jocurilor de top 3A.
Nu trebuie să ne forțăm prea mult pentru a combina rapid cu decentralizarea, eu prefer ca piesa pe care agentul inteligent să o completeze să fie întâi capacitatea și viteza de a se dezvolta de jos în sus, avem atât de multe dărâmături de narațiune și un metavers gol care așteaptă să fie umplut, în etapa potrivită vom considera cum să îl transformăm în următorul UNI.
Surse referitoare
Lanțul de gândire „emergent” al modelului mare, ce capacitate este de fapt? Autor: Brain Extreme Body
Un articol pentru a înțelege Agentul, următoarea etapă a modelului mare Autor: LinguaMind