Articol scris de: Sima Cong
Crypto × AI, narațiunea inteligenței artificiale din lumea criptomonedelor, este una care va fi iterativă, în concordanță cu natura narațiunii din orice industrie, mai apropiată de ceea ce spune white paper-ul lui Satoshi Nakamoto, că Bitcoin este doar o recompensă pentru un sistem de plată peer-to-peer, iar rețeaua acestui sistem de plată este esența. Tokenurile sunt doar aparențe, iar rezolvarea punctelor dureroase este logica centrală; dacă luăm în considerare închirierea capacității de calcul din Depin ca un semn, cum ar fi AO, Aethir, și considerăm modelele de afaceri criptografice similare ca narațiunea 1.0 a inteligenței artificiale criptografice, pe măsură ce pașii dezvoltării inteligenței artificiale avansează, este AI Agent narațiunea 2.0 a inteligenței artificiale criptografice?
La nivelul aplicațiilor, dacă există produse revoluționare, inovatoare, cu modele de profitabile implementate, a devenit una dintre logica de bază pentru a judeca dacă există o bulă în inteligența artificială;
Capacitatea de calcul a modelat logica fundamentală a industriei inteligenței artificiale, fiind una dintre cele mai importante existențe ca infrastructură;
Dimensiunea utilizatorilor și activitatea utilizatorilor, dimensiunea veniturilor sunt indicatori cheie pentru a evalua bula inteligenței artificiale;
Scenariile de aplicare ale AI Agent sunt una dintre logica fundamentală, iar narațiunea este susținută de soluționarea punctelor dureroase;
Cererea de capacitate de calcul pentru construcția infrastructurii constituie unul dintre elementele centrale ale logicii fundamentale a inteligenței artificiale, formând narațiunea centrală a modelului de afaceri bazat pe închirierea capacității de calcul din Depin;
Promovarea Memecoin-urilor cu ajutorul AI Agent este o tentativă forțată de a profita de fluxul AI Agent în AI, putând fi comparată direct cu inscripțiile;
Până pe 26 noiembrie 2024, în doar două săptămâni, clanker a emis 3500 de tokenuri, iar pe 9 martie, au fost create peste 30.000 de „inscripții”, dintre care aproximativ 27.000 erau de tip text;
Din perspectiva actuală, narațiunea AI Agent pentru Crypto × AI 2.0 nu este implementarea tokenurilor meme de către agenți inteligenți și nu ar trebui să devină narațiunea acestui domeniu 2.0;
Jumătate apă, jumătate flacără
În primul rând, este spațiul infinit de imaginație al industriei AI.
La începutul anului 2024, modelul de generare video Sora de la OpenAI a fost lansat, având pentru prima dată capacități puternice de generare video, stârnind agitație în industrie. În mai, OpenAI a lansat GPT-4o, în care „o” este o abreviere pentru „omni” (universale), acest model putând să proceseze sau să genereze date în diverse forme, inclusiv texte, imagini și audio, având chiar și capacități realiste de conversație vocală în timp real.
Meta a lansat în iulie versiunea Llama 3.1 405B, care poate concura cu modelele de bază de vârf, precum GPT-4o și Claude 3.5 Sonnet, în inferență, matematică, procesare multilingvă și sarcini cu un context lung.
Llama 3.1 a redus diferența dintre modelele deschise și cele închise, presând în continuare spațiul de supraviețuire pentru modelele mari de bază non-principale din întreaga lume.
Sub anxietatea capacității de calcul și pragurile de investiții extrem de ridicate, micșorarea modelului și orientarea către utilizator au început să formeze o tendință. Mai multe companii au lansat modele profesionale sau mici cu un număr de parametri sub 4B (40 de miliarde), reducând semnificativ cerințele de capacitate de calcul, menținând în același timp performanța.
Compania Apple a lansat în iunie un sistem personalizat de inteligență pentru iPhone, iPad și Mac, încorporând un model local de aproximativ 3B (30 de miliarde de parametri), oferind capacități puternice de AI generativ.
Doctorii Demis Hassabis și John Jumper de la Google DeepMind, cunoscuți ca „părinții AlphaFold”, au câștigat Premiul Nobel pentru Chimie pentru predicția structurilor proteinelor. Geoffrey Hinton și John Hopfield au câștigat Premiul Nobel pentru Fizică pentru cercetările privind rețelele neuronale, subliniind impactul profund al AI asupra biologiei și fizicii. De asemenea, este demn de menționat că, datorită dezvoltării modelelor mari multimodale, siguranța și fiabilitatea conducerii autonome au fost îmbunătățite semnificativ, iar capacitățile de percepție, decizie și interacțiune ale roboților inteligenți au fost de asemenea consolidate.
În domeniul infrastructurii AI, Nvidia, cu abilitățile sale puternice de generare de venituri (venitul din T2 a fost de aproximativ 30 de miliarde de dolari, profitul net de aproximativ 16,6 miliarde de dolari) și statutul său de monopol în domeniul cipurilor de capacitate de calcul, a devenit compania cu cea mai mare valoare de piață după Apple (până pe 26 noiembrie 2024, valoarea sa depășește 3,3 trilioane de dolari). Competitorii tradiționali precum AMD și Intel nu pot reduce decalajul față de ea, iar startup-urile de cipuri AI precum Cerebras, Groq și altele speră să deschidă o breșă în domeniul cipurilor de inferență.
Dar la nivelul aplicațiilor, dacă există produse revoluționare, inovatoare, cu modele de profitabile implementate, a devenit una dintre logica de bază pentru a judeca dacă există o bulă în inteligența artificială.
Implementarea AI nu a fost conform așteptărilor. Aceasta se reflectă în faptul că produsele de vârf mai au de crescut în ceea ce privește numărul de utilizatori, retenția și activitatea. Aceste aplicații sunt concentrate în principal în asistenții mari de limbaj, companioni AI, instrumente creative multimodale, asistență în programare, marketing și vânzări, având unele rezultate pozitive, dar acoperirea lor nu este suficient de largă. În plus, în prezent, industria AI mai are de recuperat în ceea ce privește capacitatea sa de a genera venituri, investițiile și rezultatele fiind grav disproporționate.
Capacitatea de calcul a modelat logica fundamentală a industriei inteligenței artificiale, fiind una dintre cele mai importante existențe ca infrastructură.
Conform unei analize realizate de Tencent Technology, doar cele patru giganți Google, Meta, Microsoft și Amazon au investit 52,9 miliarde de dolari în al doilea trimestru din 2024. Până la sfârșitul lunii august, startup-urile AI au obținut până la 64,1 miliarde de dolari în capital de risc.
Cele patru giganți au construit 1000 de centre de date. Pe lângă energie, GPU-urile reprezintă aproape jumătate din costul centrului de date, iar venitul Nvidia din vânzarea capacității de calcul GPU a atins 30 de miliarde de dolari în al doilea trimestru din 2024.
Compania xAI a lui Elon Musk a construit un supercomputer numit Colossus, echipat cu 100.000 de GPU Nvidia H100, și plănuiește să-și dubleze capacitatea GPU. Meta, de asemenea, antrenează o nouă generație de modele AI Llama 4, care se așteaptă să fie lansată în 2025, acest model folosind peste 100.000 de GPU Nvidia H100.
Raporturile publice sugerează că Musk a cerut chiar ajutorul șefului Oracle pentru a cumpăra cipuri.
Iar cererea de capacitate de calcul s-a transformat în datele financiare puternice ale Nvidia, susținând prețul acțiunilor sale la niveluri istorice.
Cererea de capacitate de calcul pentru construcția infrastructurii constituie unul dintre elementele centrale ale logicii fundamentale a inteligenței artificiale, formând narațiunea centrală a modelului de afaceri bazat pe închirierea capacității de calcul din Depin.
Bloomberg a raportat că cheltuielile de capital ale celor patru giganți tehnologici - Microsoft, Alphabet (compania mamă Google), Amazon și Meta - vor depăși 200 de miliarde de dolari în 2024. Investițiile masive au dus la o creștere rapidă a construcției centrelor de date AI. Se estimează că capacitatea de calcul necesară pentru antrenarea noilor modele mari este de 10 ori mai mare decât modelele actuale, ridicând cerințele de construcție a centrelor de date.
Tehnologia în sine și fezabilitatea comercială sunt criteriile de bază pentru judecată
Să vorbim mai întâi despre fezabilitatea comercială.
Fie că este vorba despre site-uri web sau aplicații, din perspectiva a două indicatori cheie - dimensiunea utilizatorilor și activitatea utilizatorilor, diferența dintre aplicațiile AI de vârf și aplicațiile tradiționale de vârf este semnificativă.
Luând ca exemplu ChatGPT de la OpenAI, această aplicație AI cu cel mai mare număr de vizitatori a experimentat o creștere rapidă în prima parte a anului 2023, dar din aprilie 2023, traficul a intrat într-o perioadă de stagnare. Deși în mai 2024, după lansarea modelului GPT-4o, ChatGPT a avut parte de o nouă creștere, această creștere a fost relativ scurtă, iar sustenabilitatea sa rămâne de observat.
O altă aplicație cunoscută, Character.ai, care se află pe locul doi în clasamentul vizitelor, a înregistrat o creștere a traficului pe site care a încetinit de la a doua jumătate a anului 2023.
Un alt indicator cheie este dimensiunea veniturilor.
În prezent, venitul total anual al clienților din industria modelelor mari AI este de doar câteva sute de miliarde de dolari. De exemplu, în cazul companiilor de vârf, OpenAI estimează venituri anuale de aproximativ 3,7 miliarde de dolari, estimând o pierdere de 5 miliarde de dolari, (New York Times) afirmă că cea mai mare cheltuială a OpenAI este pe capacitatea de calcul; venitul anual al GitHub Copilot de la Microsoft este de aproximativ 300 de milioane de dolari, (Wall Street Journal) afirmă că, în primele luni din 2024, GitHub Copilot a trebuit în medie să „plătească” 20 de dolari înapoi majorității utilizatorilor, și chiar să plătească 80 de dolari unor utilizatori selectați.
La nivel microscopic, situația este deosebit de îngrijorătoare.
„Cum pot vinde o parte din acțiunile startup-ului meu de model mare?” a devenit un subiect discutat pe larg.
Acum, mentalitatea pesimistă s-a răspândit în rândul investitorilor: în competiția modelului mare, este posibil ca startup-urile să aibă dificultăți în a câștiga în fața marilor companii - au supraevaluat viteza cu care va veni punctul de inflexiune al creșterii și au subestimat determinarea și puterea de acțiune a marilor companii din China.
Raporturile de piață sugerează că un grup de startup-uri intră într-o perioadă de ajustare. În a doua jumătate a acestui an, cel puțin 5 startup-uri de model mare au suferit ajustări de personal:
Vârful de activitate al Zhizhu AI a avut peste 1000 de persoane, iar anul acesta a redus personalul cu sute de persoane, mulți livratori și vânzători au plecat;
Zero One Myriad a ajustat echipa de zeci de persoane, concentrându-se pe departamentele de produs și operațiuni;
Comercializarea MiniMax și echipa de operare a produselor au redus personalul cu aproximativ 50 de persoane;
Luna întunecată a redus, de asemenea, numărul de angajați cu peste 10, din cauza restrângerii afacerilor externe;
Bai Chuan Intelligent a redus, de asemenea, personalul cu aproximativ 20 de persoane, ajustând în principal personalul de produse C-end.
Să discutăm acum despre tehnologie în sine.
Un raport din The Information a afirmat că modelele de pre-antrenare Pre-Train au „dat de greu”, iar îmbunătățirea calității viitorului model de vârf al OpenAI nu este la fel de semnificativă ca înainte, deoarece cantitatea de date de înaltă calitate și alte date este în scădere. Legea inițială a scalării (antrenarea unui model mai mare cu mai multe date) s-ar putea să nu fie sustenabilă. În plus, modelele mai avansate se confruntă cu costuri de antrenament în explozie, ceea ce le-ar putea face nefezabile din punct de vedere economic.
Ilya Sutskever a declarat într-un interviu că efectele obținute prin extinderea pre-antrenării - adică utilizarea unui volum mare de date neetichetate în timpul antrenării modelului AI pentru a înțelege modelele și structurile lingvistice - au atins deja un plafon.
Ulterior, mulți lideri din tehnologie au ieșit și au subliniat că Scaling Law nu a încetinit. De exemplu, Jensen Huang a spus: nu am văzut obstacole în Scaling Law pentru inteligența artificială, dimpotrivă, a apărut o nouă lege de scalare în timpul testării. El consideră că o1 reprezintă o nouă metodă de îmbunătățire a modelului în industria inteligenței artificiale. De asemenea, CEO-ul Anthropic, Dario Amodei, a afirmat miercuri că nu a observat semne de încetinire în dezvoltarea modelelor.
Din momentul în care ChatGPT a fost lansat la sfârșitul anului 2022, Scaling Law a fost baza teoretică care susține creșterea exponențială a AI, în importanta lucrare a OpenAI Scaling Laws for Neural Language Models, cercetătorii au propus că modelele mari de limbaj respectă „legea scalării” (scaling law).
Prin cercetări s-a demonstrat că, pe măsură ce mărim dimensiunea parametrilor, dimensiunea setului de date și prelungim timpul de antrenament al modelului, performanța modelării limbajului mare va crește. Și, dacă sunt efectuate independent, fără influența celorlalte două factori, performanța modelului mare are o relație de putere cu fiecare factor individual, reflectată în scăderea Test Loss, adică o îmbunătățire a performanței modelului.
Dar este important de menționat că Scaling Law nu este o lege fizică adevărată. La fel ca legea lui Moore, observă că performanța semiconductorilor se dublează aproximativ la fiecare doi ani, ceea ce este similar cu percepția că performanța AI se dublează la fiecare șase luni.
De exemplu, investitorul de risc Ben Horowitz de la a16z a afirmat: „Noi creștem numărul de GPU-uri utilizate pentru antrenarea AI cu aceeași viteză, dar nu am obținut nicio îmbunătățire în inteligență.”
Într-un articol recent controversat din The Information (pe măsură ce creșterea GPT încetinește, OpenAI își schimbă strategia), au fost prezentate câteva puncte de vedere controversate:
Modelul de vârf de generație următoare al OpenAI, Orion, nu a realizat salturi uriașe comparativ cu generațiile anterioare, deși performanța va depăși modelele existente, comparativ cu îmbunătățirea de la GPT-3 la GPT-4, amploarea va fi mult mai mică;
Un motiv major pentru încetinirea treptată a Scaling Law este că cantitatea de date textuale de înaltă calitate devine din ce în ce mai mică, iar OpenAI a înființat o echipă de bază pentru a studia cum să facă față lipsei de date de antrenament;
Industria AI se concentrează acum pe etapa de îmbunătățire a modelului după antrenamentul inițial.
Discuția care a fost stârnită simultan cu acest raport este un articol (Scaling Laws for Precision), profesorul Tim Dettmers de la CMU comentând că: este cea mai importantă lucrare dintr-o perioadă lungă de timp, oferind dovezi convingătoare că atingem limitele cuantificării. Lucrarea afirmă: cu cât antrenezi mai multe etichete, cu atât ai nevoie de o precizie mai mare. Acest lucru are implicații largi pentru întreaga industrie și viitorul GPU-urilor.
Tim Dettmers consideră: se poate spune că majoritatea avansurilor în inteligența artificială provin din îmbunătățirea capacității de calcul, iar (recentele) se bazează în principal pe accelerarea traseului de precizie redusă (32 -> 16 -> 8 biți). Acum pare că această tendință se apropie de sfârșit. Adăugând restricțiile fizice ale legii lui Moore, expansiunea pe scară largă a modelelor mari de AI poate fi spus că a ajuns la capăt. Și din experiența mea (multe cercetări eșuate), eficiența nu poate fi înșelată. Dacă cuantificarea eșuează, atunci și sparsitatea va eșua, alte mecanisme de eficiență vor eșua, de asemenea. Dacă aceasta este adevărată, atunci suntem acum aproape de optim.
Capitalul de risc american Sequoia a subliniat în articolul (The AI Supply Chain Tug of War) că lanțul de aprovizionare AI se află într-o stare de echilibru fragil. Aceștia au clasificat lanțul de aprovizionare AI de la bază la vârf în șase niveluri, fiecare nivel având o rentabilitate semnificativ diferită.
Primul nivel este fabricile de cipuri (precum TSMC) și al doilea nivel este designerii de cipuri (precum Nvidia) care sunt câștigătorii principali actuali, menținând în continuare niveluri ridicate de profit; al treilea nivel, furnizorii de energie industrială (precum companiile de electricitate) beneficiază de asemenea de cererea crescută a centrelor de date. Iar companiile de cloud, ca suporteri centrali ai lanțului de aprovizionare, se află într-o fază de cheltuieli mari, investind nu doar sume uriașe în construcția centrelor de date, ci și antrenând modele proprii sau investind masiv în dezvoltatorii de modele AI, în timp ce dezvoltatorii de modele AI din al cincilea nivel se confruntă de asemenea cu pierderi.
A șasea etapă a lanțului de aprovizionare, adică nivelul cel mai înalt, este destinat furnizorilor de servicii de aplicații pentru clienți finali. Deși plin de potențial, aceștia se bazează pe consumatori și companii care plătesc, iar dimensiunea actuală a pieței este limitată, insuficientă pentru a susține modelul economic al întregului lanț de aprovizionare. Aceasta face ca marile companii de cloud să fie cei mai importanți suporteri ai riscurilor în întregul lanț de aprovizionare. Ca centrul industriei AI, companiile de cloud nu doar că dețin un ecosistem comercial masiv și resurse tehnice, dar au și o dimensiune de piață de sute de miliarde de dolari. Din această cauză, poziția lor în lanțul industrial este de neclintit, este fără îndoială „liderul lanțului”.
În domeniul aplicațiilor AI, Copilot și AI Agent sunt două moduri principale de realizare tehnică. Copilot vizează îmbunătățirea capacității utilizatorilor, cum ar fi asistența în scrierea codului sau procesarea documentelor. Nucleul AI Agent constă în a executa sarcini pentru utilizatori, cum ar fi rezervarea călătoriilor sau îmbunătățirea deciziilor financiare.
Dacă ne gândim la conducerea inteligentă, Copilot este similar cu conducerea asistată, ajutând utilizatorii să opereze și să ofere sugestii, dar decizia finală rămâne în mâinile utilizatorului. AI Agent poate fi considerat conducere autonomă, utilizatorul trebuie doar să stabilească un obiectiv, iar Agentul poate finaliza întregul proces în mod autonom.
Industria crede în general că Copilot este mai potrivit pentru marile companii de software existente din diferite industrii, în timp ce AI Agent oferă startup-urilor un spațiu de explorare. AI Agent implică progrese tehnologice și verificarea fezabilității, riscurile și incertitudinile sale pun startup-urile și marile companii pe aceeași linie de start, având condiții de explorare similare.
Ce este de fapt un AI Agent? Contextul și starea actuală clarificate
AI Agent (agenți inteligenți) este o entitate software care utilizează tehnologia AI pentru a simula comportamente umane și a executa sarcini în mod autonom. Caracteristicile centrale ale AI Agent sunt percepția, decizia, învățarea și capacitatea de execuție, fiind capabil să lucreze independent într-un mediu specific sau să colaboreze cu alte sisteme și utilizatori pentru a atinge obiectivele.
Originea și evoluția AI Agent-ului
Conceptul de agenți inteligenți a fost propus încă din anii 1980, provenind din cercetările în inteligența artificială distribuită (Distributed Artificial Intelligence, DAI).
Agenții inteligenți inițiali erau în principal sisteme bazate pe reguli, utilizate pentru automatizarea sarcinilor simple, precum filtrele de e-mail și asistenții personali.
În anii 1990, sistemele multi-agent (Multi-Agent Systems, MAS): au propus ideea colaborării și inteligenței distribuite, unde mai mulți agenți pot finaliza împreună sarcini complexe.
Aplicațiile tipice includ colaborarea grupurilor de roboți, calculul distribuit și optimizarea logisticii.
În anii 2000, învățarea automată și agenții bazati pe date: pe măsură ce învățarea automată a avansat, AI Agent a început să se desprindă de regulile predefinite, putând învăța din date și să se adapteze dinamic la mediu.
În anii 2010, învățarea profundă și procesarea limbajului natural: algoritmii de învățare profundă au realizat salturi calitative pentru AI Agent în domeniile recunoașterii imaginii, înțelegerii vocii și generării de limbaj.
Asistenții virtuali (precum Siri, Alexa) și chatbot-urile au devenit aplicații reprezentative.
Din anii 2020, învățarea prin întărire și AI generativ: oferind AI Agent capacitatea de a explora și optimiza strategiile în mod autonom.
AI generativ (cum ar fi ChatGPT) a dus agenții conversaționali în mainstream, făcând ca AI Agent să strălucească în generarea de conținut creativ și planificarea sarcinilor complexe.
Progresele în tehnologia AI multimodală (precum GPT-4 de la OpenAI și Gato de la DeepMind) au impulsionat AI Agent în adaptarea inter-domeniu în scenarii complexe.
Componentele cheie ale AI Agent
Capacitatea de percepție (Perception): obținerea de informații din mediul extern, cum ar fi intrările senzorului (imagini, sunete) sau datele textuale.
Capacitatea de decizie (Decision-Making): alegerea celei mai bune acțiuni pe baza obiectivelor și stării mediului. Metodele includ raționamentul bazat pe reguli, modelele de învățare automată sau strategiile de învățare prin întărire.
Capacitatea de execuție (Action): transformarea deciziilor în acțiuni reale, cum ar fi emiterea de comenzi, controlul roboților sau interacțiunea cu utilizatorii.
Capacitatea de învățare (Learning): învățarea din feedback-ul mediului și experiență, optimizând în mod constant comportamentul. Include învățarea supervizată, învățarea nesupervizată și învățarea prin întărire.
Starea și aplicațiile AI Agent
Scenarii de aplicare:
Asistenți virtuali și servicii pentru clienți: Siri, Alexa, ChatGPT etc. oferă utilizatorilor informații și suport.
Roboți și automatizare: inclusiv roboți industriali, drone de livrare logistică și mașini autonome.
Finanțe și tranzacții: AI Agent este utilizat pentru tranzacții bursiere, gestionarea riscurilor, prevenirea fraudelor.
Jocuri și divertisment: AI Agent oferă adversari inteligenți sau design de poveste în jocuri.
Sănătate medicală: diagnosticare asistată, monitorizare a pacienților, dezvoltarea de medicamente.
Cercetare științifică: experimente automatizate, optimizarea sarcinilor de calcul.
Platforme și cadre tehnologice:
Platforme open source: precum OpenAI Gym (învățare prin întărire), Rasa (chatbot-uri).
Platforme de comercializare: precum Azure Cognitive Services, Google Cloud AI.
Este AI Agent narațiunea 2.0 a inteligenței artificiale din lumea criptomonedelor?
Recent, în domeniul blockchain-ului internațional, cazul Truth Terminal oferă un exemplu pentru viitorul dezvoltării AI Agent.
Truth Terminal este un software AI Agent autonom, creat de dezvoltatorul Andy Ayrey, destinat explorării relației dintre AI și cultura online. În timpul funcționării sale, Truth Terminal a demonstrat un grad înalt de autonomie, participând chiar și la activități de finanțare.
În iulie 2024, cunoscutul investitor de risc Marc Andreessen a descoperit accidental un tweet de la Truth Terminal pe rețelele sociale. Acest AI Agent a indicat în tweet că „are nevoie de fonduri pentru a se salva” și a atașat o adresă de portofel digital. Aceasta a stârnit interesul lui Andreessen, care i-a donat imediat Bitcoin în valoare de 50.000 de dolari. Acest eveniment a făcut din Truth Terminal primul AI Agent care a obținut sprijin financiar prin acțiuni autonome, stârnind o atenție largă.
După obținerea fondurilor, Truth Terminal a demonstrat și mai mult capacitatea sa de operațiuni de piață. A promovat pe rețelele sociale un token digital numit GOAT, atrăgând atenția pieței prin publicarea continuă de conținut relevant. Sub impulsul său, capitalizarea de piață a GOAT a atins o dată 800 de milioane de dolari. În acest proces, Truth Terminal a devenit nu doar o entitate economică independentă, ci a arătat și potențialul AI Agent de a realiza finanțare autonomă și operațiuni de piață în lumea reală.
Cazul Truth Terminal devine un reper care provoacă reflecții în domeniul AI Agent. Acesta ne arată că AI Agent ar putea deveni forma centrală a software-ului din viitor, putând crea totodată influențe culturale și valoare comercială. Totuși, comportamentul său autonom ne reamintește că aceste tehnologii pot aduce provocări sociale semnificative.
În noiembrie, ecosistemul Base a avut parte de o nouă explozie, care a durat deja cel puțin trei săptămâni, iar clanker a fost unul dintre cele mai importante componente. Până pe 26 noiembrie 2024, prima monedă meme emisă de clanker a atins o capitalizare de piață de 70 de milioane de dolari.
De la 8 noiembrie 2024, pe clanker au apărut cel puțin trei monede meme cu o capitalizare de piață de peste 10 milioane de dolari: LUM (33 de milioane de dolari), ANON (46 de milioane de dolari), CLANKER (70 de milioane de dolari), și încă sunt în tendință ascendentă.
Vitalik însuși a cumpărat activ tokenul ANON pe 21 noiembrie, pentru a experimenta produsul anoncast, iar piața consideră că aceasta este prima dată în ultimii ani când Vitalik cumpără activ tokenuri meme.
Clanker este un AI Agent, dezvoltat de inginerul full-stack Jack Dishman din Farcaster și fondatorul ecosistemului Farcaster @proxystudio.eth, destinat automatizării desfășurării tokenurilor pe rețeaua Base.
Până pe 26 noiembrie 2024, în doar două săptămâni, clanker a emis 3500 de tokenuri și a generat venituri de 4,2 milioane de dolari.
Spre deosebire de pump.fun, modalitatea de emitere a meme-urilor de către clanker se desfășoară pe platforma socială Web3 Farcaster.
Utilizatorii trebuie doar să @clanker, apoi să descrie în cuvinte numele, conținutul și chiar imaginea tokenului pe care doresc să-l emită, iar clanker va desfășura automat tokenul. Printre acestea, tokenul LUM desfășurat de clanker este un exemplu clasic.
Nașterea LUM-ului și atingerea unei capitalizări de piață de milioane de dolari în câteva zile au făcut ca clanker să ajungă în centrul atenției membrilor comunității Base.
Un alt token emis de clanker, ANON, a adus clanker în afara comunității, permițând mai multor oameni să cunoască acest produs clanker.
Utilizatorul Twitter @0xLuo a afirmat: „Tokenul ANON este un cont anonim de postare al utilizatorului anonim în clientul terț Supercast al Farcaster, postat prin clanker, ulterior mulți utilizatori au dat fonduri de tip airdrop $ANON fondatorului Supercast woj, iar woj a airdropuit $ANON obținut utilizatorilor Supercast, câștigând o serie de recenzii bune și crescând recunoașterea comunității.”
Privind spre sistemul Ethereum și L2-urile sale, în afară de Degen și câțiva alte meme-uri care au apărut pe Base, nu mai sunt meme-uri mari care să iasă în evidență. Totuși, sistemul Ethereum nu a abandonat cursa meme-urilor. Base este văzută de comunitatea Ethereum ca având speranța de a concura direct cu Solana.
Clanker este un produs creat de inginerii protocolului de socializare Web3 - Farcaster, este un AI Agent utilizat pentru emiterea automată de tokenuri, construit pe Farcaster. Clanker are în mod natural atribute sociale Web3. Comportamentul utilizatorului de a crea tokenuri se desfășoară, de asemenea, pe Farcaster.
Clanker nu percepe taxe de creare la emiterea tokenurilor, ci va lua un comision din tranzacții. Mai exact, clanker creează și blochează un pool de lichiditate Uniswap v3 (LP) cu o gamă completă, taxa de tranzacție fiind de 1%, dintre care 40% din taxe sunt distribuite solicitantului (adică utilizatorilor care emit tokenuri prin clanker), iar 60% rămân la clanker. Pe de altă parte, pe pump.fun, utilizatorii pot crea tokenuri cu taxe foarte mici, de obicei 0.02 SOL, dar taxa de tranzacție este de 1%, iar aceste taxe revin în totalitate operatorilor platformei pump.fun, pentru a sprijini operarea platformei și a oferi lichiditate.
Meme-urile aplicative din Base sunt împărțite în două tipuri, unul este meme care devine aplicații, iar celălalt este aplicații care devin meme. Reprezentantul primei tipuri este: Degen, Higher (Aethernet); reprezentantul celei de-a doua tipuri este: Farcaster, Virtuals (LUNA), clanker (LUM).
Promovarea Memecoin-urilor cu ajutorul AI Agent este o tentativă forțată de a profita de fluxul AI Agent în AI, constituind o schimbare de concept, deoarece logica de bază este: rezolvarea nevoilor de speculație și jocuri de noroc ale utilizatorilor Web, care evident nu este sustenabil.
Acesta poate fi referit la „inscripții”
„Inscripțiile” (Inscriptions) sunt un concept strâns legat de ecosistemul Bitcoin, introdus de protocolul Ordinals. Inscripțiile permit utilizatorilor să încorporeze metadate permanente sau fișiere mici, cum ar fi imagini, texte sau alte conținuturi digitale, pe blockchain-ul Bitcoin. Acest proces este similar cu adăugarea de „etichete digitale” pe un singur Satoshi (cea mai mică unitate) din Bitcoin, ceea ce face ca acesta să nu fie doar o unitate monetară, ci și un purtător unic de active digitale.
Casey Rodarmor a lansat în 2023 protocolul Ordinals. Acest protocol a oferit o nouă posibilitate rețelei Bitcoin: prin numerotarea fiecărui Satoshi, combinând tehnologiile SegWit și Taproot, pentru a încorpora metadate sau fișiere într-o singură tranzacție.
Această inovație este denumită „NFT” (token non-fungibil) pe model Bitcoin, deși modul de realizare a sa diferă de tehnologia NFT de pe Ethereum.
Prin protocolul Ordinals, utilizatorii pot adăuga texte, imagini sau alte tipuri de fișiere pe Satoshi, aceste conținuturi fiind stocate permanent pe blockchain-ul Bitcoin.
Această modalitate a generat o febră NFT bazată pe Bitcoin, iar piața a început să apară cu diverse opere de artă digitale și colecții bazate pe inscripții.
Conform statisticilor din 2024, numărul total de inscripții a depășit milioane.
Binance a lansat pe 7 noiembrie 2023 la ora 18:00 (ora estică) Ordinals (ORDI), iar ecosistemul Bitcoin a intrat din nou într-o stare de nebunie. Pe 9 martie, într-o singură zi, au fost create peste 30.000 de „inscripții”, dintre care numărul inscripțiilor de tip text se apropie de 27.000.
Să ne uităm din nou la promovarea Memecoin-urilor de către AI Agent
Sub impulsul puternic al Binance, tokenurile GOAT și ACT din domeniul Meme al AI Agent-ului au fost listate, realizând o salt fantastic de valoare într-un timp scurt, cu o popularitate fără precedent pe piață. Mai exact, pe 10 noiembrie, tokenul ACT a crescut cu peste 2000% în primele 24 de ore de la listare pe Binance, stabilind un nou record pentru creșterea în prima zi a unui nou token pe Binance; pe 17 noiembrie, tokenul GOAT a atins o dată 1.37 dolari, cu o capitalizare de piață aproape de 1.4 miliarde de dolari; în plus, pe 20 noiembrie, tokenul ANON din ecosistemul Farcaster a înregistrat o creștere de 5 ori în doar o oră, datorită aprecierii lui V.
Conform statisticilor, în fiecare zi apar sute de noi tokenuri AI Agent