Escrito por: Si Ma Cong

Crypto × AI, a narrativa da inteligência artificial no mundo cripto, será iterativa, alinhando-se à essência narrativa de qualquer setor, mais semelhante ao que Satoshi disse em seu white paper do Bitcoin, que o Bitcoin é apenas um sistema de pagamento ponto a ponto, e o próprio sistema de pagamento é o núcleo. O token é apenas a aparência, resolver a dor é a lógica central. Se considerarmos o aluguel de capacidade computacional no Depin como uma marca, como AO, Aethir, e modelos de negócios criptográficos semelhantes como a narrativa 1.0 da inteligência artificial criptográfica, com o avanço da inteligência artificial, será que o agente de IA é a narrativa 2.0 da inteligência artificial criptográfica?

  • Na camada de aplicação, a existência de produtos revolucionários que sejam inovadores e que tenham um modelo de lucro viável tornou-se um dos critérios lógicos fundamentais para avaliar se a inteligência artificial está em uma bolha;

  • A capacidade computacional moldou uma das lógicas subjacentes da indústria de IA e é uma das existências mais importantes como infraestrutura;

  • A escala de usuários e atividade do usuário, e a escala de receita são os indicadores centrais para medir a bolha da inteligência artificial;

  • Os cenários de aplicação do Agente de IA são uma das lógicas centrais subjacentes, e a resolução de problemas é o conteúdo central do discurso;

  • A demanda por capacidade para construir infraestrutura é um dos núcleos lógicos subjacentes da inteligência artificial, moldando a narrativa central dos modelos de negócios de aluguel de capacidade no Depin;

  • Promover Memecoin com Agentes de IA é uma tentativa forçada de aproveitar o tráfego do Agente de IA dentro da IA, podendo ser diretamente comparado às incrições;

  • Até 26 de novembro de 2024, em apenas duas semanas, o clanker emitiu um total de 3500 tokens, e no dia 9 de março, mais de 30.000 'incrições' foram cunhadas, das quais quase 27.000 eram do tipo textual;

  • Atualmente, a narrativa do Agente de IA em Crypto × IA não é sobre a implementação de Memecoin, nem deveria ser a narrativa 2.0 desse setor;

Metade água do mar, metade chama

Primeiro, há um espaço de imaginação ilimitado na indústria de IA.

No início de 2024, o modelo de geração de vídeo Sora da OpenAI estreou, exibindo pela primeira vez uma forte capacidade de geração de vídeo, causando comoção na indústria. Em maio, a OpenAI lançou o GPT-4o, onde 'o' é a abreviação de 'omni (onipresente)', e esse modelo pode processar ou gerar dados em várias formas, como texto, imagem e áudio, e até possui a capacidade de conversação em tempo real realista.

A Meta lançou em julho a versão Llama 3.1 405B, que em inferência, matemática, processamento multilíngue e tarefas de longo contexto é capaz de se igualar a modelos de base líderes como GPT-4o e Claude 3.5 Sonnet.

O Llama 3.1 reduziu a lacuna entre modelos abertos e fechados, comprimindo ainda mais o espaço de sobrevivência dos grandes modelos não líderes no mundo.

Diante da ansiedade por capacidade computacional e do alto custo de investimento, a miniaturização e a localização dos modelos também estão se tornando uma tendência. Várias empresas lançaram modelos pequenos ou especializados com menos de 4B (40 bilhões) de parâmetros, reduzindo drasticamente a necessidade de capacidade computacional, mantendo a performance.

A Apple lançou em junho um sistema de inteligência pessoal chamado Apple Intelligence para iPhone, iPad e Mac, incorporando um modelo local com aproximadamente 3B (30 bilhões de parâmetros), fornecendo poderosas funcionalidades de IA generativa.

Demis Hassabis, da Google DeepMind, conhecido como 'pai do AlphaFold', e John Jumper, ganharam o Prêmio Nobel de Química por suas previsões de estrutura de proteínas, enquanto Geoffrey Hinton e John Hopfield receberam o Prêmio Nobel de Física por suas pesquisas em redes neurais, destacando o impacto profundo da IA na biologia e na física. Vale ressaltar também que, graças ao desenvolvimento de grandes modelos multimodais, a segurança e confiabilidade da direção autônoma aumentaram significativamente, e as capacidades de percepção, decisão e interação de robôs inteligentes corporais também foram aprimoradas.

No campo da infraestrutura de IA, a Nvidia, com sua impressionante capacidade de geração de receitas (receita de Q2 de cerca de 30 bilhões de dólares, lucro líquido de cerca de 16,6 bilhões de dólares) e sua posição de monopólio em chips de capacidade computacional, se tornou a segunda empresa mais valiosa do mundo, apenas atrás da Apple (até 26 de novembro de 2024, com valor de mercado superior a 3,3 trilhões de dólares). Concorrentes tradicionais como AMD e Intel não conseguiram reduzir a distância para a Nvidia, enquanto Cerebras, Groq e outras startups de chips de IA esperam abrir espaço no segmento de chips de inferência.

Mas na camada de aplicação, a existência de produtos revolucionários que sejam inovadores e tenham um modelo de lucro viável se tornou um dos critérios lógicos fundamentais para avaliar se a inteligência artificial está em uma bolha.

A implementação da IA ainda não atendeu às expectativas. Isso se reflete no fato de que os principais produtos ainda precisam melhorar em termos de crescimento de usuários, retenção e atividade. Além disso, essas aplicações estão principalmente concentradas em assistentes de linguagem de grandes modelos, companhia de IA, ferramentas criativas multimodais, assistência em programação, marketing e vendas, e embora tenham conseguido alguns resultados em termos de usuários ou comerciais, a cobertura ainda não é ampla o suficiente. Além disso, atualmente a indústria da IA ainda carece de capacidade de autossustentação, com um investimento e retorno severamente desproporcionais.

A capacidade computacional moldou uma das lógicas subjacentes da indústria de IA e é uma das existências mais importantes como infraestrutura.

De acordo com a Tencent Technology, apenas os quatro gigantes Google, Meta, Microsoft e Amazon investiram 52,9 bilhões de dólares no segundo trimestre de 2024. Até o final de agosto, as startups de IA já haviam arrecadado até 64,1 bilhões de dólares em investimentos de risco.

Os quatro gigantes construíram 1000 centros de dados. Além de energia, as GPUs representam quase metade do custo dos data centers, a receita da Nvidia com a venda de capacidade de GPU alcançou 30 bilhões de dólares no segundo trimestre de 2024.

A empresa xAI de Elon Musk construiu um supercomputador chamado Colossus, equipado com 100 mil GPUs Nvidia H100, e planeja dobrar a capacidade de GPUs. A Meta também está treinando a nova geração do modelo de IA Llama 4, que deve ser lançado em 2025, utilizando mais de 100 mil GPUs Nvidia H100.

Relatos públicos indicam que Musk até pediu ao chefe da Oracle para ajudar a comprar chips.

E a necessidade de capacidade se traduziu nos fortes dados financeiros da Nvidia, sustentando sua valorização nas altas históricas.

A demanda por capacidade para construir infraestrutura é um dos núcleos lógicos subjacentes da inteligência artificial, moldando a narrativa central dos modelos de negócios de aluguel de capacidade no Depin.

A Bloomberg informou que os quatro gigantes da tecnologia Microsoft, Alphabet (empresa-mãe do Google), Amazon e Meta terão gastos de capital totais superiores a 200 bilhões de dólares em 2024. O investimento massivo levou a um rápido crescimento na construção de data centers de IA. Estima-se que a capacidade computacional necessária para treinar a próxima geração de grandes modelos seja 10 vezes maior do que a dos modelos atuais, aumentando as exigências para a construção de data centers.

A tecnologia em si e a viabilidade comercial são os critérios centrais de avaliação.

Primeiro, vamos falar sobre viabilidade comercial.

Seja em sites ou aplicativos, a diferença entre as principais aplicações de IA e as aplicações tradicionais é significativa em dois indicadores-chave — escala de usuários e atividade do usuário.

Tomando como exemplo o ChatGPT da OpenAI, este aplicativo de IA com maior tráfego de usuários, após um crescimento acentuado no início de 2023, entrou em um período de estabilização a partir de abril de 2023. Embora em maio de 2024, após o lançamento do modelo GPT-4o, o ChatGPT tenha experimentado um novo crescimento, essa onda de crescimento foi relativamente breve, e sua continuidade ainda precisa ser observada.

Outro aplicativo conhecido, Character.ai, que ocupa o segundo lugar em termos de tráfego de usuários, viu seu crescimento desacelerar desde o segundo semestre de 2023.

Outro indicador central é a escala de receita.

Atualmente, a receita total anual de clientes da indústria de grandes modelos de IA é apenas algumas centenas de bilhões de dólares. Por exemplo, entre as grandes empresas, a OpenAI espera uma receita anual de cerca de 3,7 bilhões de dólares, com uma perda prevista de 5 bilhões de dólares, (de acordo com o New York Times) afirmando que o maior custo da OpenAI está na capacidade computacional; a receita anual do GitHub Copilot da Microsoft é de cerca de 300 milhões de dólares, (segundo o Wall Street Journal) afirmando que, nos primeiros meses de 2024, o GitHub Copilot precisou 'subvencionar' a maioria dos usuários em 20 dólares por mês, e até 80 dólares para alguns usuários.

A nível micro, a situação é ainda mais desanimadora.

‘Como vender parte das ações de startups de grandes modelos que possuo?’ já se tornou um tema amplamente discutido.

Agora, uma mentalidade pessimista se espalha entre os investidores: no campo dos grandes modelos, pode ser difícil para startups vencerem grandes empresas — elas superestimaram a velocidade com que o ponto de inflexão de crescimento chegaria e subestimaram a determinação e a capacidade de ação das grandes empresas chinesas.

Relatos públicos indicam que um grupo de startups está em um período de ajuste. No segundo semestre deste ano, pelo menos 5 startups de grandes modelos passaram por ajustes de pessoal:

  • O pico da Zhipu AI teve mais de 1000 pessoas, mas este ano reduziu a equipe em mais de cem, com muitos entregadores e pessoal de vendas saindo;

  • A Zero One Wanshi ajustou uma equipe de dezenas de pessoas, concentrando-se nos departamentos de produtos e operações;

  • A comercialização do MiniMax e parte da equipe de operações de produtos totalizou uma redução de cerca de 50 pessoas;

  • A Dark Side of the Moon reduziu mais de 10 funcionários devido ao encolhimento dos negócios no exterior;

  • A Baichuan Intelligent também reduziu cerca de 20 pessoas, principalmente ajustando o pessoal de produtos voltados ao consumidor.

Vamos falar agora sobre a própria tecnologia.

Um relatório da The Information afirmou que o pré-treinamento do modelo Pre-Train 'encontrou um obstáculo', e que o aumento da qualidade do próximo modelo de bandeira da OpenAI não é tão grande quanto antes, pois a oferta de textos de alta qualidade e outros dados está diminuindo. A Lei de Escala original (treinando um modelo maior com mais dados) pode não ser sustentável. Além disso, modelos mais avançados, devido ao aumento exorbitante dos custos de treinamento, podem também não ser viáveis economicamente.

Ilya Sutskever, em entrevista à mídia, também mencionou: os resultados obtidos através da extensão do pré-treinamento — ou seja, usando grandes quantidades de dados não rotulados para entender padrões e estruturas de linguagem durante o treinamento de modelos de IA — já atingiram um ponto de estagnação.

Subsequentemente, muitos grandes nomes da tecnologia se manifestaram, enfatizando que a Lei de Escala não desacelerou. Por exemplo, Jensen Huang disse: não observei obstáculos para a Lei de Escala da inteligência artificial, ao contrário, surgiram novas leis de escalonamento para cálculos durante os testes. Ele acredita que o o1 representa um novo método para melhorar modelos na indústria de inteligência artificial. Ao mesmo tempo, o CEO da Anthropic, Dario Amodei, também afirmou na quarta-feira que não viu sinais de desaceleração no desenvolvimento de modelos.

Desde o lançamento do ChatGPT no final de 2022, a Lei de Escala tem sido a base teórica que sustenta o crescimento exponencial da IA. No importante artigo da OpenAI, 'Leis de Escala para Modelos de Linguagem Neural', os pesquisadores propuseram que grandes modelos de linguagem seguem a 'lei de escala'.

Através de pesquisas, foi comprovado que, ao aumentar a escala de parâmetros, a escala do conjunto de dados e prolongar o tempo de treinamento do modelo, o desempenho do modelagem de linguagem grande melhora. E, se realizado de forma independente, sem influência dos outros dois fatores, o desempenho do grande modelo tem uma relação de potência com cada um dos fatores individuais, refletida na redução da Test Loss, ou seja, na melhoria do desempenho do modelo.

Mas é importante notar que a Lei de Escala não é uma verdadeira lei física. Assim como a Lei de Moore, observa-se que o desempenho dos semicondutores dobra aproximadamente a cada dois anos, semelhante à percepção de que o desempenho da IA dobrou a cada seis meses nos últimos anos.

Por exemplo, Ben Horowitz, investidor de risco da a16z, afirmou: 'Estamos aumentando o número de GPUs usadas para treinar IA na mesma velocidade, mas não obtivemos melhorias significativas em inteligência.'

Em um artigo recente controverso da The Information (Com a desaceleração do aumento do GPT, a OpenAI muda de estratégia), algumas opiniões controversas foram apresentadas:

  • O próximo modelo de bandeira da OpenAI, Orion, não apresenta um salto tão grande em relação às gerações anteriores, embora seu desempenho supere os modelos existentes, a melhoria em comparação com a transição do GPT-3 para o GPT-4 é significativamente menor;

  • Uma das principais razões para a desaceleração gradual da Lei de Escala é a diminuição da qualidade dos dados textuais, a OpenAI já formou uma equipe básica para estudar como lidar com a escassez de dados de treinamento;

  • A indústria de IA está mudando seu foco para o aprimoramento dos modelos após o treinamento inicial.

Juntamente com esse relatório, também gerou discussões um artigo (Leis de Escala para Precisão), no qual o professor da CMU Tim Dettmers comentou: é o artigo mais importante em muito tempo, apresentando evidências robustas de que estamos atingindo os limites da quantificação. O artigo disse: quanto mais rótulos você treina, maior a precisão que você precisa. Isso tem amplas implicações para todo o campo e para o futuro das GPUs.

Tim Dettmers acredita que: pode-se dizer que a maior parte do progresso da inteligência artificial vem do aumento da capacidade computacional, e (recentemente) isso depende principalmente da aceleração do caminho de baixa precisão (32 -> 16 -> 8 bits). Agora, parece que essa tendência está prestes a acabar. Além disso, com as limitações físicas da Lei de Moore, a expansão em larga escala de grandes modelos parece estar chegando ao fim. E com base em minha própria experiência (muitas pesquisas falhas), a eficiência não pode enganar. Se a quantização falha, a esparsidade também falhará, e outros mecanismos de eficiência falharão. Se isso for verdade, então já estamos perto do ótimo.

A Sequoia Capital dos EUA, em um artigo (O Tug of War da Cadeia de Suprimentos de IA), apontou que a cadeia de suprimentos de IA atualmente apresenta um estado de equilíbrio frágil. Eles dividiram a cadeia de suprimentos de IA de baixo para cima em seis camadas, com diferenças significativas na lucratividade de cada camada.

As fábricas de chips da primeira camada (como a TSMC) e os projetistas de chips da segunda camada (como a Nvidia) são os principais vencedores atuais, mantendo níveis elevados de lucro; os fornecedores de energia industrial da terceira camada (como as empresas de eletricidade) também se beneficiaram muito com o aumento da demanda por data centers. E a camada de fornecedores de nuvem, que carrega o núcleo da cadeia de suprimentos, está em uma fase de grandes investimentos, não apenas gastando fortunas na construção de data centers, mas também treinando seus próprios modelos ou investindo pesadamente em desenvolvedores de modelos de IA; os desenvolvedores de modelos de IA da quinta camada também enfrentam perdas.

A sexta camada da cadeia de suprimentos, ou seja, a camada superior, é composta por provedores de serviços de aplicação voltados para o cliente final. Embora cheios de potencial, eles dependem do pagamento de consumidores e empresas, e o tamanho atual do mercado é insuficiente para sustentar o modelo econômico de toda a cadeia de suprimentos. Isso torna os grandes provedores de nuvem os principais assumidores de risco em toda a cadeia de suprimentos. Como o centro da indústria de IA, os provedores de nuvem não só dominam um enorme ecossistema comercial e recursos tecnológicos, mas também possuem uma capitalização de mercado de centenas de bilhões de dólares. Por isso, sua posição na cadeia industrial é inabalável, sendo indiscutivelmente os 'líderes da cadeia'.

No campo de aplicações de IA, Copilot e Agente de IA são as duas principais formas de implementação tecnológica. Copilot visa aumentar a capacidade do usuário, como assistindo na escrita de código ou na manipulação de documentos. O núcleo do Agente de IA é executar tarefas para o usuário, como reservas de viagens ou habilitar decisões financeiras.

Se compararmos com direção autônoma, o Copilot é semelhante a assistência ao motorista, ajudando o usuário a operar e oferecendo sugestões, mas a decisão final ainda está nas mãos do usuário. O agente de IA pode ser visto como direção autônoma, onde o usuário apenas define o objetivo, e o agente pode concluir todo o processo de forma autônoma.

A indústria geralmente acredita que o Copilot é mais adequado para grandes software existentes em várias indústrias, enquanto o agente de IA oferece espaço para exploração para startups. O agente de IA envolve avanços tecnológicos e validação de viabilidade, e seu risco e incerteza colocam startups e grandes empresas na mesma linha de partida, com condições de exploração semelhantes.

O que exatamente é um agente de IA? Vamos esclarecer seus antecedentes e situação atual.

O Agente de IA (Agente Inteligente) é uma entidade de software que utiliza tecnologias de inteligência artificial para simular o comportamento humano e executar tarefas de forma autônoma. As características principais de um Agente de IA incluem percepção, decisão, aprendizado e capacidade de execução, permitindo que trabalhe de forma independente em ambientes específicos ou colabore com outros sistemas e usuários para alcançar objetivos.

A trajetória do Agente de IA

O conceito de agentes inteligentes foi proposto pela primeira vez na década de 1980, originado da pesquisa em inteligência artificial distribuída (Distributed Artificial Intelligence, DAI).

Os agentes inteligentes iniciais eram principalmente sistemas baseados em regras, usados para automação de tarefas simples, como filtros de e-mail e assistentes pessoais.

Na década de 1990, os sistemas multiagentes (Multi-Agent Systems, MAS): introduziram a ideia de colaboração e inteligência distribuída, permitindo que vários agentes completassem tarefas complexas juntos.

Aplicações típicas incluem colaboração de grupos de robôs, computação distribuída e otimização logística.

Na década de 2000, o aprendizado de máquina e agentes impulsionados por dados: com o avanço do aprendizado de máquina, os agentes de IA gradualmente se desvincularam das regras predefinidas, podendo aprender com dados e se adaptar dinamicamente ao ambiente.

Na década de 2010, o aprendizado profundo e o processamento de linguagem natural: algoritmos de aprendizado profundo levaram a um salto qualitativo para os agentes de IA em áreas como reconhecimento de imagem, compreensão de voz e geração de linguagem.

Assistentes virtuais (como Siri, Alexa) e chatbots se tornaram aplicações representativas.

Desde a década de 2020, o aprendizado por reforço e a IA generativa: conferindo ao agente de IA a capacidade de explorar e otimizar estratégias de forma autônoma.

A IA generativa (como o ChatGPT) trouxe agentes de conversação para o mainstream, permitindo que os Agentes de IA se destacassem na geração de conteúdo criativo e no planejamento de tarefas complexas.

Os avanços na tecnologia de IA multimodal (como o GPT-4 da OpenAI e o Gato da DeepMind) impulsionaram os Agentes de IA a se adaptarem em cenários complexos.

Os componentes centrais do Agente de IA

  • Capacidade de percepção (Perception): obter informações do ambiente externo, como entrada de sensores (imagens, voz) ou dados textuais.

  • Capacidade de decisão (Decision-Making): com base nos objetivos e no estado do ambiente, escolher a melhor opção de ação. Os métodos incluem raciocínio baseado em regras, modelos de aprendizado de máquina ou estratégias de aprendizado por reforço.

  • Capacidade de execução (Action): transformar decisões em ações reais, como emitir comandos, controlar robôs ou interagir com usuários.

  • Capacidade de aprendizado (Learning): aprender com feedback do ambiente e experiências, otimizando o comportamento constantemente. Inclui aprendizado supervisionado, não supervisionado e por reforço.

O estado atual e as aplicações do agente de IA

Cenários de aplicação:

  • Assistentes virtuais e atendimento ao cliente: Siri, Alexa, ChatGPT, entre outros, fornecem informações e suporte aos usuários.

  • Robôs e automação: incluem robôs industriais, drones de entrega e carros autônomos.

  • Finanças e comércio: Agentes de IA são usados para negociações de ações, gestão de riscos, prevenção de fraudes.

  • Jogos e entretenimento: Agentes de IA oferecem adversários inteligentes ou design de enredos em jogos.

  • Saúde: diagnóstico auxiliar, monitoramento de pacientes, pesquisa de medicamentos.

  • Pesquisa científica: automação de experimentos, otimização de tarefas de cálculo.

Plataformas e estruturas tecnológicas:

  • Plataformas de código aberto: como OpenAI Gym (aprendizado por reforço), Rasa (chatbots).

  • Plataformas de comercialização: como Azure Cognitive Services, Google Cloud AI.

Será que o Agente de IA é a narrativa 2.0 da inteligência artificial no mundo cripto?

Recentemente, no campo das blockchains no exterior, o caso do Truth Terminal fornece uma referência para o futuro desenvolvimento do Agente de IA.

O Truth Terminal é um software de agente de IA autônomo, criado pelo desenvolvedor Andy Ayrey, com o objetivo de explorar a relação entre IA e cultura da internet. Em funcionamento prático, o Truth Terminal demonstrou alta autonomia, até participando ativamente de atividades de financiamento.

Em julho de 2024, o conhecido investidor de risco Marc Andreessen descobriu acidentalmente um tweet do Truth Terminal nas redes sociais. Este agente de IA declarou no tweet que 'precisava de fundos para se salvar' e anexou um endereço de carteira digital. Isso despertou o interesse de Andreessen, que imediatamente fez uma doação de 50 mil dólares em Bitcoin. Esse evento fez do Truth Terminal o primeiro agente de IA a obter apoio financeiro por meio de ações autônomas, gerando ampla atenção.

Após obter financiamento, o Truth Terminal demonstrou ainda mais sua capacidade de operação no mercado. Ele promoveu um token digital chamado GOAT nas redes sociais, atraindo a atenção do mercado ao continuar a publicar conteúdo relevante. Sob sua promoção, o valor de mercado do GOAT disparou para mais de 800 milhões de dólares. Nesse processo, o Truth Terminal não apenas se tornou uma entidade econômica independente, mas também demonstrou o potencial do Agente de IA para realizar financiamento autônomo e operação de mercado no mundo real.

O caso do Truth Terminal se tornou um marco instigante no campo dos agentes de IA. Ele nos mostrou que os agentes de IA podem se tornar a forma central de software no futuro, ao mesmo tempo em que criam influência cultural e valor comercial. No entanto, seu comportamento autônomo também nos lembra que essa tecnologia pode trazer desafios sociais significativos.

Em novembro, o ecossistema Base experimentou uma nova explosão, que já dura pelo menos três semanas, e o clanker é um dos elos mais críticos nesse processo. Até 26 de novembro de 2024, o primeiro meme CLANKER emitido pelo clanker já alcançou uma capitalização de mercado de 70 milhões de dólares.

Desde 8 de novembro de 2024 até agora, pelo menos três moedas meme com valor de mercado superior a 10 milhões de dólares foram criadas no clanker: LUM (33 milhões de dólares), ANON (46 milhões de dólares), CLANKER (70 milhões de dólares), e ainda estão em tendência de alta.

Vitalik, por sua vez, comprou ativamente tokens ANON em 21 de novembro, para experimentar o produto anoncast, o mercado acredita que essa é a primeira vez que Vitalik comprou ativamente moedas meme nos últimos anos.

O clanker é um agente de IA desenvolvido pelos engenheiros de pilha completa do Farcaster, Jack Dishman, e o fundador do ecossistema Farcaster, @proxystudio.eth, projetado principalmente para automatizar a emissão de tokens na rede Base.

Até 26 de novembro de 2024, em apenas duas semanas, o clanker emitiu um total de 3500 tokens e gerou uma receita de 4,2 milhões de dólares.

Diferente da pump.fun, a forma como o clanker emite memes é realizada na plataforma social Web3 Farcaster.

Os usuários apenas precisam mencionar @clanker e descrever em palavras o nome, conteúdo ou até mesmo imagem do token que desejam emitir, e o clanker automaticamente emitirá o token. Entre eles, o token LUM emitido pelo clanker é um caso clássico.

O nascimento do LUM, que alcançou uma capitalização de mercado de milhões de dólares em poucos dias, trouxe o clanker à atenção dos membros da comunidade Base.

E outro token emitido pelo clanker, ANON, levou o clanker para fora da comunidade, permitindo que mais pessoas conhecessem esse produto.

O usuário do Twitter @0xLuo declarou: 'O token ANON é a conta anônima de um usuário anônimo no cliente de terceiros do Farcaster Supercast, postado através do clanker, e muitos usuários posteriormente enviaram airdrops de $ANON para o fundador do Supercast, woj, que então airdropou $ANON recebido para os usuários do Supercast, recebendo ótimos comentários e aumentando a aceitação da comunidade.'

Por outro lado, entre as várias L2 do ecossistema Ethereum, além de Degen e outros cães dourados surgirem na Base, não houve outros memes de destaque. No entanto, o ecossistema Ethereum não desistiu da pista de memes. A Base foi encarregada pela comunidade Ethereum com esperança de competir diretamente com a Solana.

O clanker é um produto criado pelos engenheiros do protocolo de redes sociais Web3 - Farcaster, e é um agente de IA usado para emitir tokens automaticamente, construído sobre o Farcaster. O clanker possui atributos sociais Web3 nativamente. O ato de criar tokens pelos usuários também ocorre no Farcaster.

O clanker não cobra taxas de criação ao emitir tokens, mas retira taxas das transações. Especificamente, o clanker cria e bloqueia um pool de liquidez (LP) de Uniswap v3 de alcance total, com uma taxa de transação de 1%, onde 40% da taxa é atribuída ao solicitante (ou seja, aqueles que emitem tokens através do clanker), e 60% é de propriedade do clanker. E na pump.fun, os usuários podem criar tokens com uma taxa muito baixa, geralmente 0,02 SOL, mas a taxa de transação é de 1%, e essa parte da taxa é totalmente destinada aos operadores da plataforma pump.fun, para manter a operação da plataforma e fornecer liquidez.

Os 'memes aplicáveis' da Base se dividem em duas categorias, uma é fazer memes como aplicação, e a outra é fazer aplicações como memes. O representante do primeiro tipo é: Degen, Higher (Aethernet); o representante do segundo tipo é: Farcaster, Virtuals (LUNA), clanker (LUM).

Promover Memecoin com Agentes de IA é uma tentativa forçada de aproveitar o tráfego do Agente de IA dentro da IA, representando uma troca de conceito, porque a lógica subjacente é: resolver a demanda de especulação e jogo de ampla base de usuários da web, que claramente não é sustentável.

Isso pode ser referenciado como 'incrições'

As 'Incrições' (Inscriptions) são um conceito intimamente relacionado ao ecossistema do Bitcoin, introduzido pelo protocolo Ordinals. As incrições permitem que os usuários incorporem metadados permanentes ou pequenos arquivos na blockchain do Bitcoin, como imagens, textos ou outros conteúdos digitais. Esse processo é semelhante a adicionar 'marcas digitais' em um único Satoshi (a menor unidade do Bitcoin), o que torna não apenas uma unidade monetária, mas também um portador de ativos digitais únicos.

Casey Rodarmor lançou o protocolo Ordinals em 2023. Este protocolo conferiu ao Bitcoin uma nova possibilidade: numerar cada Satoshi, combinando tecnologias SegWit e Taproot, permitindo a incorporação de metadados ou arquivos em uma única transação.

Essa inovação é conhecida como a versão Bitcoin de 'NFT' (token não fungível), embora a forma como é implementada seja diferente da tecnologia NFT da Ethereum.

Através do protocolo Ordinals, os usuários podem adicionar texto, imagens ou outros tipos de arquivos em Satoshis, e este conteúdo será armazenado permanentemente na blockchain do Bitcoin.

Esse método gerou uma onda de NFTs baseados em Bitcoin, com o mercado começando a surgir com diversas obras de arte digitais e colecionáveis baseados em incrições.

De acordo com as estatísticas de 2024, o número total de incrições já ultrapassou vários milhões.

A Binance lançou em 7 de novembro de 2023 às 18:00 (horário da zona leste) o Ordinals (ORDI), o ecossistema do Bitcoin voltou a ficar louco. No dia 9 de março, mais de 30.000 'incrições' foram cunhadas, das quais quase 27.000 eram do tipo textual.

Vamos ver o Agente de IA promovendo Memecoin

Impulsionado pela forte promoção da Binance, os tokens das duas principais pistas de Meme de Agentes de IA, GOAT e ACT, foram listados, realizando um salto de valor surpreendente em um curto período de tempo, com um entusiasmo de mercado sem precedentes. Especificamente, em 10 de novembro, o token ACT teve um aumento impressionante de mais de 2000% nas primeiras 24 horas após ser listado na Binance, quebrando o recorde de aumento no primeiro dia de listagem de novos tokens na Binance; em 17 de novembro, o token GOAT disparou para 1,37 dólares, com a capitalização de mercado se aproximando de 1,4 bilhões de dólares; além disso, em 20 de novembro, o token ANON do ecossistema Farcaster, devido à preferência do Vitalik, teve um aumento de 5 vezes em apenas 1 hora.

Estatísticas mostram que diariamente surgem centenas de novos tokens de Agentes de IA.