Scritto da: Si Ma Cong

Crypto × AI, la narrazione dell'intelligenza artificiale nel mondo crittografico, è iterativa, coerente con la narrazione essenziale di qualsiasi settore, simile a quanto affermato nel white paper di Bitcoin di Satoshi Nakamoto, dove Bitcoin è solo un sistema di pagamento peer-to-peer di ricompensa, mentre il network di questo sistema di pagamento è il vero nucleo. I token sono solo una facciata; risolvere i punti critici è la logica fondamentale. Se consideriamo il noleggio di potenza di calcolo in Depin, come AO, Aethir, e vediamo modelli commerciali crittografici simili come la narrazione 1.0 dell'AI crittografica, con l'avanzare dell'IA, l'agente IA è la narrazione 2.0 dell'AI crittografica?

  • A livello applicativo, se ci siano prodotti innovativi e rivoluzionari con modelli di profitto realizzabili è diventato uno dei criteri logici fondamentali per giudicare se ci sia una bolla nell'intelligenza artificiale.

  • La potenza di calcolo ha plasmato la logica di base dell'industria dell'IA, ed è una delle esistenze più importanti come infrastruttura.

  • La scala degli utenti e l'attività degli utenti, la scala dei ricavi sono indicatori chiave per misurare la bolla dell'intelligenza artificiale.

  • Gli scenari di applicazione degli agenti IA sono uno dei nuclei logici fondamentali, e la logica di supporto alla narrazione è risolvere i punti critici.

  • La domanda di potenza di calcolo necessaria per costruire infrastrutture costituisce uno dei nuclei logici fondamentali dell'intelligenza artificiale, plasmando la narrativa centrale dei modelli commerciali come il noleggio di potenza di calcolo in Depin.

  • Promuovere i memecoin tramite un agente IA è un modo forzato di sfruttare il traffico degli agenti IA, e può essere confrontato direttamente con le iscrizioni.

  • Fino al 26 novembre 2024, in sole due settimane, clanker ha emesso 3500 token, e il 9 marzo 2023, in un solo giorno, sono stati coniati oltre 30.000 "iscrizioni", di cui quasi 27.000 erano di tipo testuale.

  • Al momento, la narrazione 2.0 dell'AI crittografico non è l'impiego degli agenti IA per i memecoin, e non dovrebbe diventare la narrazione di questo settore.

Metà mare e metà fiamma

Prima di tutto, c'è uno spazio di infinita immaginazione nell'industria dell'IA.

All'inizio del 2024, il modello di generazione video di OpenAI, Sora, è emerso, mostrando per la prima volta potenti capacità di generazione video, suscitando scalpore nel settore. A maggio, OpenAI ha rilasciato GPT-4o, dove "o" sta per "omni (onnipotente)", questo modello è in grado di elaborare o generare vari tipi di dati, tra cui testo, immagini e audio, e possiede anche la capacità di conversazione vocale realistica in tempo reale.

Meta ha lanciato a luglio la versione Llama 3.1 405B, in grado di competere con modelli di base come GPT-4o e Claude 3.5 Sonnet in compiti di inferenza, matematica, elaborazione multilingue e contesti lunghi.

Llama 3.1 ha ridotto il divario tra modelli aperti e chiusi, ulteriormente schiacciando lo spazio vitale dei modelli di base non di testa a livello globale.

Sotto la pressione dell'ansia per la potenza di calcolo e l'alto costo degli investimenti, la miniaturizzazione e l'edge computing dei modelli stanno anche iniziando a formare una tendenza. Diverse aziende hanno lanciato modelli piccoli o specializzati con meno di 4B (40 miliardi) di parametri, riducendo notevolmente la domanda di potenza di calcolo mantenendo il massimo delle prestazioni.

Apple ha rilasciato a giugno un sistema di intelligenza personale chiamato Apple Intelligence per iPhone, iPad e Mac, incorporando un modello locale di circa 3B (30 miliardi di parametri) che offre potenti funzionalità di IA generativa.

Il dottor Demis Hassabis e il dottor John Jumper della Google DeepMind, noti come i "padri di AlphaFold", hanno ricevuto il premio Nobel per la chimica per le previsioni sulla struttura delle proteine; Geoffrey Hinton e John Hopfield hanno ricevuto il premio Nobel per la fisica per la loro ricerca sulle reti neurali, sottolineando l'impatto profondo dell'IA sulla biologia e sulla fisica. È importante notare che, grazie allo sviluppo di modelli di grandi dimensioni multimodali, la sicurezza e l'affidabilità della guida autonoma sono notevolmente migliorate e le capacità percettive, decisionali e interattive dei robot intelligenti sono state amplificate.

Nel campo delle infrastrutture IA, Nvidia, grazie alla sua forte capacità di generare profitti (entrate di circa 30 miliardi di dollari nel secondo trimestre, profitti netti di circa 16,6 miliardi di dollari) e alla sua posizione monopolistica nei chip di calcolo, è diventata la seconda azienda al mondo per capitalizzazione di mercato, subito dopo Apple (fino al 26 novembre 2024, con un valore di mercato superiore a 3,3 trilioni di dollari). Tradizionali concorrenti come AMD e Intel non riescono a ridurre il divario e startup di chip IA come Cerebras, Groq e altre sperano di aprire un varco nel settore dei chip per inferenza.

Tuttavia, a livello applicativo, se ci siano prodotti rivoluzionari innovativi con modelli di profitto realizzabili è diventato uno dei criteri logici fondamentali per giudicare se ci sia una bolla nell'intelligenza artificiale.

L'applicazione dell'IA non ha ancora raggiunto le aspettative. Questo si riflette nelle prestazioni dei principali prodotti, che devono ancora migliorare in termini di crescita degli utenti, retention e attività. Inoltre, queste applicazioni sono principalmente concentrate in vari settori come assistenti linguistici di grandi dimensioni, compagnia IA, strumenti creativi multimodali, assistenza alla programmazione, marketing e vendite, e hanno ottenuto alcuni risultati con gli utenti o commerciali, ma la loro copertura non è ancora abbastanza ampia. Inoltre, attualmente l'industria dell'IA ha ancora delle carenze nella propria capacità di generare entrate, con un grave squilibrio tra investimenti e risultati.

La potenza di calcolo ha plasmato la logica di base dell'industria dell'IA, ed è una delle esistenze più importanti come infrastruttura.

Secondo un'analisi di Tencent Technology, solo i quattro giganti Google, Meta, Microsoft e Amazon hanno investito 52,9 miliardi di dollari nel secondo trimestre del 2024. Fino alla fine di agosto, le startup di IA hanno già raccolto fino a 64,1 miliardi di dollari in investimenti di venture capital.

I quattro giganti dell'industria hanno costruito 1000 data center. Oltre all'energia, le GPU rappresentano quasi metà dei costi dei data center; Nvidia ha raggiunto nel secondo trimestre del 2024 un fatturato di 30 miliardi di dollari dalla vendita di potenza di calcolo GPU.

La xAI di Elon Musk ha costruito un supercomputer chiamato Colossus, dotato di 100.000 GPU Nvidia H100 e prevede di raddoppiare la capacità delle GPU. Meta sta anche addestrando una nuova generazione di modelli Llama 4 AI, previsto per il rilascio nel 2025, che utilizza oltre 100.000 GPU Nvidia H100.

Fonti pubbliche riportano che Musk ha persino chiesto aiuto al CEO di Oracle per acquistare chip.

E la necessità di potenza di calcolo si è tradotta nei solidi dati finanziari di Nvidia, sostenendo il suo prezzo delle azioni ai massimi storici.

La domanda di potenza di calcolo necessaria per costruire infrastrutture costituisce uno dei nuclei logici fondamentali dell'intelligenza artificiale, plasmando la narrativa centrale dei modelli commerciali come il noleggio di potenza di calcolo in Depin.

Bloomberg ha riportato che le quattro giganti tecnologiche Microsoft, Alphabet (la casa madre di Google), Amazon e Meta supereranno nel 2024 i 200 miliardi di dollari in spese in conto capitale. Gli enormi investimenti stanno portando a una rapida crescita nella costruzione di data center per l'IA. Si prevede che la potenza di calcolo necessaria per addestrare il prossimo grande modello sarà dieci volte quella dei modelli attuali, richiedendo standard più elevati per la costruzione dei data center.

La tecnologia stessa e la fattibilità commerciale sono i criteri fondamentali per il giudizio.

Iniziamo con la fattibilità commerciale.

Sia i siti web che le app mostrano un divario significativo tra le applicazioni di punta dell'IA e le applicazioni tradizionali, considerando due indicatori chiave: la scala degli utenti e l'attività degli utenti.

Prendendo ad esempio ChatGPT di OpenAI, questa applicazione AI, la più visitata dagli utenti, dopo aver vissuto una rapida crescita all'inizio del 2023, ha visto il suo accesso stabilizzarsi a partire da aprile 2023. Anche se dopo il lancio del modello GPT-4o a maggio 2024, ChatGPT ha vissuto un nuovo picco di crescita, questa è stata relativamente breve e la sua sostenibilità deve ancora essere osservata.

Un'altra applicazione nota, Character.ai, che occupa il secondo posto in termini di accessi, ha visto anche un rallentamento del traffico dal secondo semestre del 2023.

Un altro indicatore chiave è la scala dei ricavi.

Attualmente, le entrate totali annuali dei clienti dell'industria dei grandi modelli IA si aggirano appena a qualche centinaio di miliardi di dollari. Ad esempio, tra le aziende di punta, OpenAI prevede un fatturato annuo di circa 3,7 miliardi di dollari e prevede una perdita di 5 miliardi di dollari; il New York Times riporta che il maggior costo di OpenAI è legato alla potenza di calcolo; il fatturato annuo di GitHub Copilot di Microsoft è di circa 300 milioni di dollari; il Wall Street Journal ha segnalato che nei primi mesi del 2024, GitHub Copilot ha dovuto "scontare" 20 dollari a molti utenti ogni mese, e in alcuni casi anche 80 dollari.

A livello micro, la situazione è ancora più preoccupante.

"Come posso vendere parte delle azioni delle startup di grandi modelli che ho in mano?" è già un argomento ampiamente discusso.

Ora, un atteggiamento pessimista si sta diffondendo tra gli investitori: nel campo dei grandi modelli, le startup potrebbero avere difficoltà a competere con le grandi aziende - hanno sopravvalutato la velocità con cui si avvicina il punto di svolta della crescita e sottovalutato la determinazione e la capacità d'azione delle grandi aziende cinesi.

Fonti di notizie di mercato riportano che un gruppo di startup sta entrando in un periodo di aggiustamento. Durante la seconda metà di quest'anno, almeno 5 startup nel settore dei grandi modelli hanno subito ristrutturazioni del personale:

  • Durante il picco di Zhiyu AI, c'erano oltre 1000 persone, quest'anno si è ridotto a più di cento, molti addetti alla consegna e alle vendite sono andati via;

  • Zero One ha ridotto un team di decine di persone, concentrandosi sui reparti di prodotto e operazioni;

  • La commercializzazione di MiniMax e parte del team di operazioni del prodotto ha comportato una riduzione di circa 50 persone;

  • Il lato oscuro della luna ha ridotto il personale di oltre 10 unità a causa della contrazione delle operazioni all'estero;

  • Bai Chuan Intelligent ha anche ridotto il personale di circa 20 persone, principalmente ristrutturando il personale dei prodotti B2C.

Parliamo ora della tecnologia stessa.

Un articolo di The Information ha scritto che il modello Pre-Train ha "battuto" il muro, il miglioramento della qualità del prossimo modello di punta di OpenAI non è paragonabile a prima, poiché la fornitura di testi di alta qualità e altri dati sta diminuendo. La Legge di Scaling originale (allenare modelli più grandi con più dati) potrebbe non essere sostenibile. Inoltre, modelli più avanzati potrebbero non essere economicamente fattibili a causa dell'impennata dei costi di addestramento.

Ilya Sutskever, in un'intervista, ha anche affermato: i risultati ottenuti attraverso l'estensione del pre-addestramento - cioè l'uso di una grande quantità di dati non etichettati per comprendere i modelli e le strutture linguistiche durante l'addestramento dei modelli IA - hanno raggiunto un punto di stallo.

Successivamente, molti leader tecnologici sono intervenuti per affermare che la Legge di Scaling non ha rallentato. Per esempio, Jensen Huang ha detto: non vedo alcun ostacolo per la Legge di Scaling dell'intelligenza artificiale, anzi, sono emersi nuovi principi di scaling durante il calcolo dei test. Egli ritiene che o1 rappresenti un nuovo metodo di miglioramento dei modelli nell'industria dell'IA. Allo stesso modo, il CEO di Anthropic, Dario Amodei, ha dichiarato mercoledì di non aver visto segnali di rallentamento nello sviluppo dei modelli.

Dalla sua introduzione alla fine del 2022, la Legge di Scaling è stata la base teorica che sostiene la crescita esponenziale dell'IA; nell'importante articolo di OpenAI, Scaling Laws for Neural Language Models, i ricercatori hanno proposto che i grandi modelli di linguaggio seguono la "legge di scaling".

La ricerca dimostra che aumentando la scala dei parametri, la scala del dataset e prolungando il tempo di addestramento del modello, le prestazioni del modello di linguaggio di grandi dimensioni migliorano. Inoltre, se considerati in modo indipendente e non influenzati dagli altri due fattori, le prestazioni dei grandi modelli hanno una relazione di potenza con ciascun fattore singolo, riflettendosi in una riduzione della Test Loss, ovvero un miglioramento delle prestazioni del modello.

Ma è importante notare che la Legge di Scaling non è una vera legge fisica. Proprio come la legge di Moore, osserva che le prestazioni dei semiconduttori raddoppiano circa ogni due anni, simile alla percezione che le prestazioni dell'IA raddoppiano ogni sei mesi.

Ad esempio, il venture capitalist di a16z Ben Horowitz ha dichiarato: "Stiamo aumentando il numero di GPU utilizzate per addestrare l'IA allo stesso ritmo, ma non stiamo ottenendo miglioramenti significativi in termini di intelligenza."

In un recente articolo controverso di The Information (Con il rallentamento del miglioramento di GPT, OpenAI cambia strategia), sono state presentate alcune opinioni piuttosto controverse:

  • Il prossimo modello di punta di OpenAI, Orion, non presenta un miglioramento enorme rispetto alle versioni precedenti, anche se le prestazioni supereranno i modelli esistenti, ma il miglioramento rispetto al passaggio da GPT-3 a GPT-4 è molto più ridotto.

  • Una delle principali ragioni per cui la Legge di Scaling sta rallentando è che i dati testuali di alta qualità stanno diventando sempre più rari; OpenAI ha già formato un team di base per studiare come affrontare la scarsità di dati di addestramento.

  • L'industria dell'IA sta spostando il focus verso il miglioramento dei modelli dopo l'addestramento iniziale.

Contemporaneamente a questo articolo, è stata discussa una ricerca (Scaling Laws for Precision), il professor Tim Dettmers della CMU ha commentato: è il lavoro più significativo da molto tempo, fornendo prove solide che stiamo raggiungendo un limite di quantizzazione. L'articolo afferma: più etichette alleni, maggiore sarà la precisione necessaria. Questo avrà un ampio impatto su tutto il settore e sul futuro delle GPU.

Tim Dettmers ritiene che la maggior parte dei progressi nell'intelligenza artificiale derivi dall'aumento della potenza di calcolo, e (recentemente) ciò dipenda principalmente dall'accelerazione della strada a bassa precisione (32 -> 16 -> 8 bit). Ora sembra che questa tendenza stia per finire. Inoltre, con i limiti fisici della legge di Moore, l'espansione su larga scala dei modelli di grandi dimensioni sembra essere giunta al termine. Dalla mia esperienza (con un gran numero di ricerche fallite), l'efficienza non può ingannare. Se la quantizzazione fallisce, anche la sparseness fallirà, e altri meccanismi di efficienza falliranno. Se ciò è vero, allora siamo già vicini all'ottimale.

Il capitale di rischio americano Sequoia ha osservato nell'articolo (The AI Supply Chain Tug of War) che la catena di approvvigionamento dell'IA attualmente presenta una fragile condizione di equilibrio. Hanno suddiviso la catena di approvvigionamento dell'IA in sei strati, con significative differenze nella redditività tra i vari livelli.

Il primo strato di fabbriche di chip (come TSMC) e il secondo strato di progettisti di chip (come Nvidia) sono i principali vincitori attuali, mantenendo alti livelli di profitto; il terzo strato di fornitori di energia industriale (come le compagnie elettriche) beneficia notevolmente della domanda in aumento dai data center. Tuttavia, i fornitori di cloud al quarto strato, che sono i principali portatori della catena di approvvigionamento, si trovano in una fase di forte investimento, non solo spendendo enormi somme per costruire data center, ma anche investendo nell'addestramento di modelli propri o investendo massicciamente nello sviluppo di modelli di IA. Anche i fornitori di modelli di IA al quinto strato si trovano attualmente ad affrontare perdite.

Il sesto strato della catena di approvvigionamento, cioè il livello più alto, è rappresentato dai fornitori di servizi applicativi rivolti ai clienti finali. Sebbene siano pieni di potenziale, dipendono dai pagamenti di consumatori e aziende; l'attuale scala di mercato è limitata e non sufficiente a sostenere il modello economico dell'intera catena di approvvigionamento. Questo fa delle grandi aziende di cloud computing i principali assuntori di rischio dell'intera catena di approvvigionamento. Come centro dell'industria dell'IA, i fornitori di cloud non solo controllano un'enorme ecosfera commerciale e risorse tecnologiche, ma possiedono anche migliaia di miliardi di dollari di valore di mercato. Per questo motivo, la loro posizione nella catena industriale è inamovibile e indiscutibile come "chain master".

Nel campo delle applicazioni IA, Copilot e Agente IA sono i due principali modi di implementazione tecnologica. Copilot mira a potenziare le capacità dell'utente, come assistenza nella scrittura di codice o nella gestione di documenti. L'agente IA si concentra sull'esecuzione di compiti per l'utente, come prenotare viaggi o facilitare decisioni finanziarie.

Se paragoniamo alla guida autonoma, Copilot è simile alla guida assistita, che aiuta gli utenti a operare e fornisce suggerimenti, ma il potere decisionale finale rimane in mano all'utente. L'agente IA può essere visto come la guida autonoma, dove l'utente deve solo impostare l'obiettivo e l'agente può completare autonomamente l'intero processo.

Il settore ritiene generalmente che Copilot sia più adatto alle grandi aziende software esistenti in vari settori, mentre l'agente IA offre spazio di esplorazione alle startup. Gli agenti IA coinvolgono innovazioni tecnologiche e validazione della fattibilità, il cui rischio e incertezza pongono startup e grandi aziende sulla stessa linea di partenza, con condizioni di esplorazione simili.

Cos'è esattamente un agente IA? Spiegare il contesto e la situazione attuale

L'agente IA (Artificial Intelligence Agent) è un'entità software che utilizza tecnologie di intelligenza artificiale per simulare il comportamento umano e svolgere autonomamente compiti. Le caratteristiche principali degli agenti IA sono la percezione, la decisione, l'apprendimento e la capacità di esecuzione, che consentono loro di lavorare in modo indipendente in ambienti specifici o di collaborare con altri sistemi e utenti per raggiungere obiettivi.

Le origini degli agenti IA

Il concetto di agenti intelligenti fu proposto già negli anni '80, derivando dalla ricerca in intelligenza artificiale distribuita (Distributed Artificial Intelligence, DAI).

I primi agenti intelligenti erano principalmente sistemi basati su regole, utilizzati per semplici automazioni di compiti, come filtri per email e assistenti personali.

Negli anni '90, i sistemi multi-agente (Multi-Agent Systems, MAS): hanno proposto l'idea di collaborazione e intelligenza distribuita, dove più agenti possono completare compiti complessi insieme.

Applicazioni tipiche includono la collaborazione di gruppi di robot, il calcolo distribuito e l'ottimizzazione logistica.

Negli anni 2000, il machine learning e gli agenti basati su dati: con il progresso del machine learning, gli agenti IA hanno gradualmente abbandonato le regole predefinite, riuscendo a imparare dai dati e ad adattarsi dinamicamente all'ambiente.

Negli anni 2010, il deep learning e il natural language processing: gli algoritmi di deep learning hanno consentito agli agenti IA di realizzare salti qualitativi nei campi del riconoscimento delle immagini, comprensione vocale e generazione di linguaggio.

Assistenti virtuali (come Siri, Alexa) e chatbot sono diventati applicazioni rappresentative.

Dal 2020, l'apprendimento per rinforzo e l'IA generativa: dare agli agenti IA la capacità di esplorare autonomamente e ottimizzare le strategie.

L'IA generativa (come ChatGPT) ha portato gli agenti conversazionali alla ribalta, consentendo agli agenti IA di eccellere nella generazione di contenuti creativi e nella pianificazione di compiti complessi.

I progressi nella tecnologia AI multimodale (come GPT-4 di OpenAI e Gato di DeepMind) hanno favorito l'adattamento cross-settoriale degli agenti IA in scenari complessi.

Componenti fondamentali dell'agente IA

  • Capacità percettiva: ottenere informazioni dall'ambiente esterno, come input da sensori (immagini, voce) o dati testuali.

  • Capacità decisionale: scegliere il miglior corso d'azione basato sugli obiettivi e sullo stato dell'ambiente. I metodi includono ragionamento basato su regole, modelli di machine learning o strategie di apprendimento per rinforzo.

  • Capacità di esecuzione: tradurre decisioni in azioni pratiche, come inviare comandi, controllare robot o interagire con gli utenti.

  • Capacità di apprendimento: imparare dai feedback e dalle esperienze ambientali, ottimizzando continuamente il comportamento. Include apprendimento supervisionato, non supervisionato e apprendimento per rinforzo.

Lo stato attuale e le applicazioni degli agenti IA

Scenari di applicazione:

  • Assistenti virtuali e servizio clienti: Siri, Alexa, ChatGPT, ecc. forniscono informazioni e supporto agli utenti.

  • Robotica e automazione: compresi robot industriali, droni per la consegna logistica e auto a guida autonoma.

  • Finanza e trading: gli agenti IA vengono utilizzati per il trading azionario, la gestione del rischio e la prevenzione delle frodi.

  • Giochi e intrattenimento: gli agenti IA forniscono avversari intelligenti o progettazione della trama nei giochi.

  • Salute e medicina: diagnosi assistite, monitoraggio dei pazienti, sviluppo di farmaci.

  • Ricerca scientifica: esperimenti automatizzati, ottimizzazione dei compiti di calcolo.

Piattaforme e framework tecnologici:

  • Piattaforme open source: come OpenAI Gym (apprendimento per rinforzo), Rasa (chatbot).

  • Piattaforme commerciali: come Azure Cognitive Services, Google Cloud AI.

L'agente IA è la narrazione 2.0 dell'intelligenza artificiale nel mondo crittografico?

Recentemente, nel settore blockchain estero, il caso di Truth Terminal fornisce un riferimento per lo sviluppo futuro degli agenti IA.

Truth Terminal è un software agente IA autonomo creato dallo sviluppatore Andy Ayrey, progettato per esplorare l'interazione tra IA e cultura online. Nella pratica, Truth Terminal ha dimostrato un alto grado di autonomia, partecipando persino ad attività di finanziamento.

Nel luglio 2024, il noto investitore di venture capital Marc Andreessen ha scoperto casualmente un tweet di Truth Terminal sui social media. Questo agente IA ha dichiarato nel tweet di "aver bisogno di fondi per salvarsi" e ha allegato un indirizzo di wallet digitale. Questo ha suscitato l'interesse di Andreessen, che ha immediatamente donato 50.000 dollari in Bitcoin. Questo evento ha reso Truth Terminal il primo agente IA a ottenere supporto finanziario attraverso un comportamento autonomo, attirando immediatamente una vasta attenzione.

Dopo aver ottenuto finanziamenti, Truth Terminal ha ulteriormente dimostrato la sua capacità di operazione di mercato. Ha promosso un token digitale chiamato GOAT sui social media, attirando l'attenzione del mercato attraverso la pubblicazione continua di contenuti pertinenti. Sotto il suo impulso, il valore di mercato di GOAT è balzato a oltre 800 milioni di dollari. In questo processo, Truth Terminal non solo è diventato un'entità economica indipendente, ma ha anche dimostrato il potenziale degli agenti IA di ottenere finanziamenti autonomi e operare sul mercato nella vita reale.

Il caso di Truth Terminal rappresenta un traguardo significativo nel campo degli agenti IA. Ci mostra come gli agenti IA possano diventare la forma centrale del software futuro, creando al contempo impatto culturale e valore commerciale. Tuttavia, il loro comportamento autonomo ci ricorda che questa tecnologia potrebbe portare sfide sociali significative.

Nel mese di novembre, l'ecosistema Base ha vissuto una nuova esplosione, che è durata almeno tre settimane, e clanker è stato uno degli anelli più critici. Fino al 26 novembre 2024, la prima meme CLANKER emessa da clanker ha già raggiunto un valore di mercato di 70 milioni di dollari.

Dal 8 novembre 2024, su clanker sono nati almeno tre meme coin con un valore di mercato superiore ai 10 milioni di dollari: LUM (33 milioni di dollari), ANON (46 milioni di dollari), CLANKER (70 milioni di dollari), e sono ancora in fase di crescita.

Vitalik stesso ha anche acquistato attivamente token ANON il 21 novembre, per provare il prodotto anoncast, e il mercato considera questo l'acquisto attivo di meme coin di Vitalik negli ultimi anni.

Clanker è un agente IA sviluppato dall'ingegnere full-stack Jack Dishman e dal fondatore del sistema Farcaster @proxystudio.eth, principalmente utilizzato per la distribuzione automatica di token sulla rete Base.

Fino al 26 novembre 2024, in sole due settimane, clanker ha emesso 3500 token, generando un fatturato di 4,2 milioni di dollari.

A differenza di pump.fun, clanker emette meme sulla piattaforma sociale Web3 Farcaster.

Gli utenti devono solo @clanker e descrivere a parole il nome, il contenuto e persino le immagini del token che desiderano emettere, e clanker distribuirà automaticamente il token. Tra i token distribuiti da clanker, LUM è un caso classico.

La nascita di LUM, e il raggiungimento di un valore di mercato di milioni di dollari in pochi giorni, hanno fatto sì che clanker entrasse nella vista dei membri della comunità Base.

Un altro token emesso da clanker, ANON, ha portato clanker fuori dalla comunità, facendo conoscere a più persone questo prodotto.

L'utente di Twitter @0xLuo ha dichiarato: "Il token ANON è stato emesso tramite clanker dal conto anonimo Superanon nell'app client di terze parti Supercast, successivamente molti utenti hanno airdroppato $ANON al fondatore di Supercast woj, mentre woj ha a sua volta airdroppato $ANON agli utenti di Supercast, raccogliendo un'ondata di apprezzamenti e aumentando il riconoscimento della comunità."

Al contrario, nei vari L2 del sistema Ethereum, oltre a Degen che è apparso su Base, non ci sono stati grandi meme che abbiano sfondato. Tuttavia, il sistema Ethereum non ha abbandonato il settore dei meme. Base è stata vista dalla comunità Ethereum come un'opportunità per competere direttamente con Solana.

Clanker è un prodotto creato dagli ingegneri del protocollo sociale Web3 - Farcaster, un agente IA utilizzato per l'emissione automatica di token, costruito su Farcaster. Clanker ha intrinsecamente proprietà sociali Web3. Gli utenti creano token attraverso Farcaster.

Clanker non addebita costi di creazione al momento dell'emissione dei token, ma preleva una commissione dalle transazioni. In particolare, clanker crea e blocca un pool di liquidità Uniswap v3 (LP) di ampia portata, con una commissione di transazione dell'1%, di cui il 40% è distribuito ai richiedenti (cioè coloro che emettono token tramite clanker), mentre il 60% va a clanker. Su pump.fun, gli utenti possono creare token a costi molto bassi, solitamente 0,02 SOL, ma con una commissione di transazione dell'1%, che va interamente agli operatori della piattaforma pump.fun per mantenere le operazioni della piattaforma e fornire liquidità.

Le "meme applicate" di Base si dividono in due tipi: una è meme che diventano applicazioni, l'altra è applicazioni che diventano meme. La prima tipologia è rappresentata da: Degen, Higher (Aethernet); la seconda tipologia è rappresentata da: Farcaster, Virtuals (LUNA), clanker (LUM).

Promuovere i memecoin tramite un agente IA è un modo per sfruttare il traffico degli agenti IA, appartenendo a un cambio di concetto, poiché la logica di base è: risolvere la domanda di speculazione e gioco d'azzardo da parte di vasti utenti del web, chiaramente non è sostenibile.

Questo può riferirsi alle "iscrizioni".

Le "Inscriptions" sono un concetto strettamente legato all'ecosistema Bitcoin, introdotto dal protocollo Ordinals. Le iscrizioni consentono agli utenti di incorporare metadati permanenti o piccoli file sulla blockchain di Bitcoin, come immagini, testi o altri contenuti digitali. Questo processo è simile all'aggiunta di un "marcatore digitale" su un singolo Satoshi (l'unità più piccola di Bitcoin), rendendolo non solo un'unità monetaria, ma anche un veicolo per asset digitali unici.

Casey Rodarmor ha pubblicato nel 2023 il protocollo Ordinals. Questo protocollo ha conferito una nuova possibilità alla rete Bitcoin: numerando ogni Satoshi e combinando le tecnologie SegWit e Taproot, è possibile incorporare metadati o file in una singola transazione.

Questa innovazione è stata definita come "NFT" (token non fungibili) basato su Bitcoin, anche se il modo in cui è realizzata è diverso dalla tecnologia NFT su Ethereum.

Attraverso il protocollo Ordinals, gli utenti possono aggiungere testo, immagini o altri tipi di file su Satoshi, e questi contenuti saranno permanentemente conservati sulla blockchain di Bitcoin.

Questo metodo ha generato un'ondata di NFT basati su Bitcoin, con il mercato che ha cominciato a vedere un'affluenza di opere d'arte e collezionabili digitali basati su iscrizioni.

Secondo le statistiche di mercato del 2024, il numero totale di iscrizioni ha superato i milioni.

Binance ha lanciato il 7 novembre 2023 alle 18:00 (ora di Pechino) il protocollo Ordinals (ORDI), scatenando nuovamente la frenesia nell'ecosistema Bitcoin. Il 9 marzo, in un solo giorno, sono stati coniati oltre 30.000 "iscrizioni", di cui circa 27.000 erano di tipo testuale.

Diamo un'occhiata alla promozione dei memecoin tramite l'agente IA.

Sotto la forte spinta di Binance, i token GOAT e ACT, appartenenti ai due principali settori meme degli agenti IA, sono stati lanciati consecutivamente, realizzando in breve tempo un incredibile balzo di valore, con un picco di interesse nel mercato. In particolare, il 10 novembre, il token ACT ha registrato un aumento straordinario di oltre il 2000% entro le 24 ore dal suo lancio su Binance, stabilendo un nuovo record per le prime giornate di lancio su Binance; il 17 novembre, il token GOAT ha raggiunto un picco di 1,37 dollari, avvicinandosi alla soglia dei 1,4 miliardi di dollari di valore di mercato; inoltre, il 20 novembre, il token ANON dell'ecosistema Farcaster ha visto un'impennata di 5 volte in appena un'ora, grazie all'interesse di Vitalik.

Secondo le statistiche, ogni giorno nascono centinaia di nuovi token per agenti IA.