Escrito por: Sima Cong

Crypto × AI, la narrativa de la inteligencia artificial en el mundo de las criptomonedas, es algo que se iterará, en línea con la naturaleza de la narrativa de cualquier industria, más similar a lo que Satoshi dijo en el libro blanco de Bitcoin, que Bitcoin es solo una recompensa de un sistema de pago punto a punto, mientras que la red del propio sistema de pago es el núcleo. Los tokens son solo la superficie; resolver los puntos de dolor es la lógica central. Si consideramos los modelos comerciales criptográficos como el 1.0 de la inteligencia artificial criptográfica, como el alquiler de capacidad en Depin, a medida que avanza el desarrollo de la inteligencia artificial, ¿es el Agente de IA la narrativa 2.0 de la inteligencia artificial criptográfica?

  • En la capa de aplicación, la existencia de productos revolucionarios innovadores con modelos de ganancias sostenibles se ha convertido en uno de los criterios lógicos fundamentales para juzgar si la inteligencia artificial presenta una burbuja;

  • La capacidad de cálculo ha moldeado una de las lógicas fundamentales de la industria de la inteligencia artificial, y es también una de las existencias más importantes como infraestructura;

  • La escala de usuarios y la actividad de usuarios, así como la escala de ingresos, son los indicadores clave para medir la burbuja de la inteligencia artificial;

  • Los escenarios de aplicación del Agente de IA son una de las lógicas centrales subyacentes, y la solución de puntos de dolor es la esencia de la narrativa;

  • La demanda de capacidad de cálculo para construir infraestructura constituye uno de los núcleos lógicos subyacentes de la inteligencia artificial, formando la narrativa central de modelos comerciales como el alquiler de capacidad en Depin;

  • Promover Memecoin a través del Agente de IA es simplemente un intento forzado de aprovechar el tráfico del Agente de IA, que puede alinearse directamente con las inscripciones;

  • Hasta el 26 de noviembre de 2024, en solo dos semanas, clanker ha emitido un total de 3500 tokens, y el 9 de marzo de 2023, más de 30,000 "inscripciones" fueron acuñadas, de las cuales cerca de 27,000 eran del tipo de texto "inscripción";

  • Desde la perspectiva actual, la narrativa 2.0 del Agente de IA en Crypto × AI no es la implementación de Meme coin por un agente, y no debería convertirse en la narrativa de esta pista;

Mitad agua, mitad fuego

Primero, el espacio de imaginación ilimitada de la industria de la IA.

A principios de 2024, el modelo de generación de video Sora de OpenAI hizo su debut, mostrando por primera vez potentes capacidades de generación de video, causando revuelo en la industria. En mayo, OpenAI lanzó GPT-4o, donde la "o" es la abreviatura de "omni (todopoderoso)"; este modelo puede procesar o generar texto, imágenes y audio, y tiene incluso la capacidad de diálogo de voz en tiempo real realista.

Meta lanzó la versión Llama 3.1 405B en julio, capaz de igualar a los modelos de base de primer nivel como GPT-4o y Claude 3.5 Sonnet en inferencia, matemáticas, procesamiento multilingüe y tareas de contexto largo.

Llama 3.1 ha reducido la brecha entre modelos abiertos y cerrados, comprimiendo aún más el espacio de supervivencia de los grandes modelos no principales a nivel global.

En medio de la ansiedad por la capacidad de cálculo y el alto umbral de inversión, la miniaturización y localización de modelos también han comenzado a formar una tendencia. Varias empresas han lanzado modelos pequeños profesionales o de lado, de menos de 4B (40 mil millones) de parámetros, reduciendo drásticamente la demanda de capacidad de cálculo mientras mantienen el rendimiento.

Apple lanzó el sistema de inteligencia personal Apple Intelligence en junio, destinado a iPhone, iPad y Mac, incrustando un modelo local de aproximadamente 3B (30 mil millones de parámetros) en estos dispositivos, proporcionando potentes funciones de IA generativa.

Los doctores Demis Hassabis y John Jumper de Google DeepMind, conocidos como los "padres de AlphaFold", recibieron el Premio Nobel de Química por sus predicciones de estructuras proteicas; Geoffrey Hinton y John Hopfield recibieron el Premio Nobel de Física por su investigación en redes neuronales, lo que resalta el profundo impacto de la IA en la biología y la física. También es notable que, gracias al desarrollo de grandes modelos multimodales, la seguridad y fiabilidad de la conducción autónoma han mejorado considerablemente, y las capacidades de percepción, decisión e interacción de los robots inteligentes han sido fortalecidas.

En el ámbito de la infraestructura de IA, Nvidia, gracias a su fuerte capacidad de generación de ingresos (ingresos del segundo trimestre de aproximadamente 30 mil millones de dólares, con una ganancia neta de aproximadamente 16.6 mil millones de dólares) y su posición de monopolio en chips de capacidad de cálculo, se ha convertido en la segunda compañía más valiosa del mundo, justo detrás de Apple (a partir del 26 de noviembre de 2024, su capitalización de mercado supera los 3.3 billones de dólares). Competidores tradicionales como AMD e Intel no pueden reducir su brecha, mientras que startups de chips de IA como Cerebras y Groq esperan abrirse camino en el ámbito de los chips de inferencia.

Sin embargo, en la capa de aplicación, la existencia de productos revolucionarios innovadores y con modelos de ganancias implementados se ha convertido en uno de los criterios lógicos fundamentales para juzgar si la inteligencia artificial presenta una burbuja.

La aplicación de IA en la práctica aún no ha cumplido las expectativas. Esto se refleja en que los productos líderes aún necesitan mejorar en cuanto al crecimiento de usuarios, retención y actividad. Además, estas aplicaciones se centran principalmente en asistentes de modelos de lenguaje grandes, acompañamiento de IA, herramientas creativas multimodales, asistencia en programación, marketing y ventas, entre otros, logrando algunos resultados comerciales o de usuarios, pero su cobertura aún no es lo suficientemente amplia. Además, actualmente la industria de la IA aún carece de una capacidad de autosustento, con una inadecuada relación entre la inversión y el retorno.

La capacidad de cálculo ha moldeado una de las lógicas fundamentales de la industria de la inteligencia artificial, y es también una de las existencias más importantes como infraestructura.

Según un informe de Tencent Technology, solo Google, Meta, Microsoft y Amazon han invertido 52.9 mil millones de dólares en el segundo trimestre de 2024. Hasta finales de agosto, las startups de IA han recaudado hasta 64.1 mil millones de dólares en capital de riesgo.

Las cuatro grandes empresas han construido 1000 centros de datos. Además de la energía, las GPU representan casi la mitad del costo de un centro de datos; Nvidia reportó ingresos de 30 mil millones de dólares por la venta de capacidad de GPU en el segundo trimestre de 2024.

La empresa xAI de Elon Musk ha construido una supercomputadora llamada Colossus, equipada con 100,000 GPU Nvidia H100, y planea duplicar su capacidad de GPU. Meta también está entrenando un nuevo modelo de IA de la próxima generación, Llama 4, que se espera sea lanzado en 2025, utilizando más de 100,000 GPU Nvidia H100.

Informes públicos indican que Musk incluso pidió ayuda al jefe de Oracle para comprar chips.

Y la necesidad de capacidad de cálculo se ha traducido en los sólidos datos financieros de Nvidia, que respaldan el mantenimiento de su precio de acciones en niveles históricos altos.

La demanda de capacidad de cálculo para construir infraestructura constituye uno de los núcleos lógicos subyacentes de la inteligencia artificial, formando la narrativa central de modelos comerciales como el alquiler de capacidad en Depin.

Bloomberg informa que los cuatro gigantes tecnológicos, Microsoft, Alphabet (la empresa matriz de Google), Amazon y Meta, superarán los 200 mil millones de dólares en gastos de capital en 2024. La gran inversión ha llevado a un rápido crecimiento en la construcción de centros de datos de IA. Se estima que la capacidad de cálculo necesaria para entrenar la próxima generación de grandes modelos es diez veces mayor que la de los modelos actuales, lo que plantea mayores exigencias para la construcción de centros de datos.

La tecnología misma y la viabilidad comercial son los criterios centrales para el juicio.

Primero, hablemos de la viabilidad comercial.

Tanto en sitios web como en aplicaciones, la diferencia entre las aplicaciones de IA líderes y las aplicaciones tradicionales líderes es notable en dos indicadores clave: la escala de usuarios y la actividad de usuarios.

Tomando como ejemplo ChatGPT de OpenAI, esta aplicación de IA más popular ha experimentado un crecimiento de alta pendiente a principios de 2023, pero desde abril de 2023, el tráfico ha entrado en un período de estabilización. A pesar de que después del lanzamiento del modelo GPT-4o en mayo de 2024, ChatGPT experimentó un nuevo crecimiento, esta oleada de crecimiento fue bastante breve y su sostenibilidad aún está por observarse.

Otra aplicación conocida que ocupa el segundo lugar en tráfico de usuarios, Character.ai, ha visto que el crecimiento del tráfico del sitio web también se ha estabilizado desde la segunda mitad de 2023.

Otro indicador clave es la escala de ingresos.

Actualmente, los ingresos totales anuales de los clientes en la industria de grandes modelos de IA apenas superan los cientos de miles de millones de dólares. Por ejemplo, entre las principales empresas, se espera que OpenAI tenga ingresos anuales de aproximadamente 3.7 mil millones de dólares, con pérdidas esperadas de 5 mil millones de dólares; el New York Times menciona que el mayor costo de OpenAI es en capacidad de cálculo; los ingresos anuales de GitHub Copilot de Microsoft son aproximadamente 300 millones de dólares, y el Wall Street Journal informa que, en los primeros meses de 2024, GitHub Copilot ha estado "perdiendo" 20 dólares al mes para la mayoría de los usuarios, e incluso 80 dólares para algunos usuarios.

A nivel micro, la situación es aún más inquietante.

"¿Cómo puedo vender parte de las acciones de mi startup de grandes modelos?" ya es un tema ampliamente discutido.

Ahora, la mentalidad pesimista se ha propagado entre los inversores: en el campo de los grandes modelos, las startups pueden tener dificultades para competir con las grandes empresas: sobrestiman la velocidad a la que se aproxima el punto de inflexión del crecimiento y subestiman la determinación y capacidad de acción de las grandes empresas chinas.

Informes de mercado públicos sugieren que un grupo de startups ha entrado en un período de ajuste. En la segunda mitad de este año, al menos 5 startups de grandes modelos han experimentado ajustes de personal:

  • En su apogeo, Zhihui AI tenía más de 1000 personas, este año se redujo en más de cien, y muchos de los empleados de entrega y ventas se fueron;

  • Zero One Ten Thousand ajustó el equipo de docenas de personas, enfocándose en los departamentos de producto y operaciones;

  • El equipo de comercialización de MiniMax y parte del equipo de operaciones de productos han reducido aproximadamente 50 personas;

  • La cara oscura del mes ha reducido más de 10 empleados debido a la contracción de las operaciones en el extranjero;

  • Baichuan Intelligent también ha reducido aproximadamente 20 personas, principalmente ajustando el personal del producto de la C-end.

Hablemos ahora de la tecnología misma.

Un informe de The Information indica que la pre-entrenamiento de modelos Pre-Train ha "chocado contra una pared"; la mejora en la calidad del próximo modelo insignia de OpenAI no es tan significativa como antes, porque la oferta de textos de alta calidad y otros datos está disminuyendo. La Ley de Escalamiento original (entrenar modelos más grandes con más datos) podría no ser sostenible. Además, modelos más avanzados pueden no ser económicamente viables debido al aumento explosivo de los costos de entrenamiento.

Ilya Sutskever, en una entrevista con los medios, también comentó que los resultados obtenidos mediante la expansión del preentrenamiento, es decir, utilizando grandes cantidades de datos no etiquetados para comprender patrones y estructuras del lenguaje durante el entrenamiento de modelos de IA, ya han alcanzado un límite.

Posteriormente, muchos líderes tecnológicos se manifestaron, enfatizando que la Ley de Escalamiento no se había desacelerado. Por ejemplo, Jensen Huang dijo: no ha visto obstáculos para la Ley de Escalamiento en la inteligencia artificial, sino que, por el contrario, ha surgido una nueva ley de escalamiento en el cálculo durante las pruebas. Él cree que o1 representa un nuevo método para mejorar modelos en la industria de la inteligencia artificial. Al mismo tiempo, el CEO de Anthropic, Dario Amodei, también declaró el miércoles que no ha visto signos de desaceleración en el desarrollo de modelos.

Desde el lanzamiento de ChatGPT a finales de 2022, la Ley de Escalamiento ha sido la base teórica que sostiene el crecimiento exponencial de la IA; en el importante artículo de OpenAI, "Leyes de Escalamiento para Modelos de Lenguaje Neurales", los investigadores propusieron que los grandes modelos de lenguaje siguen la "ley de escalamiento".

A través de la investigación se ha demostrado que, al aumentar la escala de los parámetros, la escala del conjunto de datos y prolongar el tiempo de entrenamiento del modelo, el rendimiento del modelado de lenguaje grande mejora. Además, si se realizan de forma independiente, sin la influencia de los otros dos factores, el rendimiento de los grandes modelos tiene una relación de ley de potencia con cada uno de los factores individuales, lo que se manifiesta en la disminución de la pérdida de prueba, es decir, la mejora del rendimiento del modelo.

Sin embargo, es importante señalar que la Ley de Escalamiento no es una verdadera ley física. Al igual que la Ley de Moore, observa que el rendimiento de los semiconductores se duplica aproximadamente cada dos años, lo cual es similar a la percepción de que el rendimiento de la IA se duplica aproximadamente cada seis meses en años recientes.

Por ejemplo, el inversionista de riesgo de a16z, Ben Horowitz, declaró: "Estamos aumentando la cantidad de GPU utilizadas para entrenar IA a la misma velocidad, pero en realidad no hemos logrado mejoras en inteligencia".

En un artículo reciente controvertido de The Information (Con la desaceleración del aumento de GPT, OpenAI cambia de estrategia), se presentan algunas opiniones bastante controvertidas:

  • El próximo modelo insignia de OpenAI, Orion, no logra un gran salto en comparación con las generaciones anteriores, aunque su rendimiento superará el de los modelos existentes, la magnitud de la mejora es mucho menor que la de la transición de GPT-3 a GPT-4;

  • Una de las principales razones por las que la Ley de Escalamiento se ha ralentizado es que los datos de texto de alta calidad son cada vez más escasos; OpenAI ya ha establecido un equipo básico para investigar cómo abordar la escasez de datos de entrenamiento;

  • La industria de la IA está trasladando su enfoque hacia la mejora de modelos después del entrenamiento inicial.

Junto con este informe, hubo una discusión sobre un artículo (Leyes de Escalamiento para la Precisión), el profesor de CMU Tim Dettmers comentó que es uno de los artículos más importantes en mucho tiempo, ya que proporciona pruebas sólidas de que estamos alcanzando el límite de cuantificación. El artículo menciona: cuanto más datos etiquetados entrenes, mayor será la precisión que necesitarás. Esto tendrá un amplio impacto en todo el campo y en el futuro de las GPU.

Tim Dettmers considera que: se puede decir que la mayoría de los avances en inteligencia artificial provienen del aumento de la capacidad de cálculo, y (recientemente) esto se ha basado principalmente en la aceleración de la ruta de baja precisión (32->16->8 bits). Ahora parece que esta tendencia está a punto de terminar. Además, con las limitaciones físicas de la Ley de Moore, la escalabilidad masiva de los grandes modelos está llegando a su fin. Y desde mi propia experiencia (con muchos estudios fallidos), la eficiencia no puede engañarte. Si la cuantificación falla, entonces la esparcimiento también fracasará, y otros mecanismos de eficiencia también fallarán. Si esto es cierto, entonces ya estamos muy cerca de la óptima.

Sequoia Capital de EE. UU. señaló en el artículo (The AI Supply Chain Tug of War) que la cadena de suministro de IA actualmente presenta un estado de equilibrio frágil. Dividen la cadena de suministro de IA en seis capas de abajo hacia arriba, y hay diferencias significativas en la rentabilidad de cada capa.

Las fábricas de chips de la primera capa (como TSMC) y los diseñadores de chips de la segunda capa (como Nvidia) son los principales ganadores actuales, manteniendo altos niveles de ganancias; los proveedores de energía industrial de la tercera capa (como las empresas eléctricas) también se benefician mucho de la demanda de centros de datos en explosión. Mientras tanto, los proveedores de servicios en la nube de la cuarta capa, que son los principales sostenedores de la cadena de suministro, están en una fase de inversión masiva, gastando grandes sumas en la construcción de centros de datos y entrenando sus propios modelos o invirtiendo en desarrolladores de modelos de IA; los desarrolladores de modelos de IA en la quinta capa de la cadena de suministro también enfrentan pérdidas.

La sexta capa de la cadena de suministro, que es la capa superior, se dirige a los proveedores de servicios de aplicaciones para los clientes finales. Aunque está llena de potencial, dependen de los consumidores y las empresas para pagar, y el tamaño actual del mercado es limitado, no es suficiente para sostener el modelo económico de toda la cadena de suministro. Esto convierte a los grandes proveedores de servicios en la nube en los principales asumiendo riesgos dentro de toda la cadena de suministro. Como el centro de la industria de IA, los proveedores de servicios en la nube no solo controlan un enorme ecosistema comercial y recursos tecnológicos, sino que también poseen un mercado de cientos de miles de millones de dólares. Por esta razón, su posición en la cadena de suministro es inquebrantable y es indiscutible que son los "líderes de la cadena".

En el campo de las aplicaciones de IA, Copilot y el Agente de IA son dos formas principales de implementación técnica. Copilot está diseñado para mejorar las capacidades del usuario, como ayudar a escribir código o manejar documentos. El núcleo del Agente de IA radica en ejecutar tareas en nombre del usuario, como reservar viajes o habilitar decisiones financieras.

Si hacemos una analogía con la conducción inteligente, Copilot es similar a la asistencia al conductor, ayudando a los usuarios a operar y brindar sugerencias, pero el poder de decisión final sigue en manos del usuario. El Agente de IA se puede ver como conducción autónoma, donde el usuario solo debe establecer un objetivo y el Agente puede completar todo el proceso de forma independiente.

Se considera comúnmente en la industria que Copilot es más adecuado para las grandes empresas de software existentes en diversas industrias, mientras que el Agente de IA ofrece a las startups un espacio para explorar. El Agente de IA implica avances tecnológicos y validación de viabilidad; su riesgo e incertidumbre permiten que las startups y las grandes empresas estén en una línea de partida similar, con condiciones de exploración similares.

¿Qué es exactamente un Agente de IA? Explicando el contexto y el estado actual

El Agente de IA (Agente de Inteligencia Artificial) es una entidad de software que utiliza tecnología de inteligencia artificial para simular el comportamiento humano y ejecutar tareas de forma autónoma. Las características centrales del Agente de IA son la capacidad de percepción, decisión, aprendizaje y ejecución, pudiendo operar de manera independiente en un entorno específico o colaborar con otros sistemas y usuarios para alcanzar objetivos.

El origen y desarrollo del Agente de IA

El concepto de agentes inteligentes se propuso ya en la década de 1980, derivado de la investigación en Inteligencia Artificial Distribuida (DAI).

Los primeros agentes inteligentes eran principalmente sistemas basados en reglas, utilizados para la automatización de tareas simples, como filtros de correo electrónico y asistentes personales.

En la década de 1990, los sistemas multiagente (Multi-Agent Systems, MAS): propusieron la idea de colaboración e inteligencia distribuida, donde múltiples agentes pueden completar tareas complejas en conjunto.

Las aplicaciones típicas incluyen la colaboración de grupos de robots, la computación distribuida y la optimización logística.

En la década de 2000, el aprendizaje automático y los agentes impulsados por datos: con el avance del aprendizaje automático, los Agentes de IA comenzaron a liberarse de las reglas preestablecidas, pudiendo aprender de los datos y adaptarse dinámicamente al entorno.

En la década de 2010, el aprendizaje profundo y el procesamiento del lenguaje natural: los algoritmos de aprendizaje profundo lograron avances cualitativos en áreas como el reconocimiento de imágenes, la comprensión del habla y la generación de lenguaje para los Agentes de IA.

Asistentes virtuales (como Siri, Alexa) y chatbots se han convertido en aplicaciones representativas.

Desde la década de 2020, el aprendizaje por refuerzo y la IA generativa: otorgando a los agentes de IA la capacidad de explorar y optimizar estrategias de manera autónoma.

La IA generativa (como ChatGPT) ha llevado a los agentes conversacionales a la corriente principal, permitiendo que el Agente de IA sobresalga en la generación de contenido creativo y en la planificación de tareas complejas.

Los avances en tecnología de IA multimodal (como GPT-4 de OpenAI y Gato de DeepMind) han impulsado la adaptación de los Agentes de IA en escenarios complejos.

Componentes centrales del Agente de IA

  • Capacidad de percepción (Perception): obtener información del entorno externo, como entradas de sensores (imágenes, voz) o datos de texto.

  • Capacidad de decisión (Decision-Making): elegir la mejor opción de acción basada en los objetivos y el estado del entorno. Los métodos incluyen razonamiento basado en reglas, modelos de aprendizaje automático o estrategias de aprendizaje por refuerzo.

  • Capacidad de ejecución (Action): convertir decisiones en acciones reales, como emitir comandos, controlar robots o interactuar con usuarios.

  • Capacidad de aprendizaje (Learning): aprender de la retroalimentación del entorno y la experiencia, optimizando continuamente el comportamiento. Incluye aprendizaje supervisado, no supervisado y por refuerzo.

El estado y las aplicaciones del Agente de IA

Escenarios de aplicación:

  • Asistentes virtuales y atención al cliente: Siri, Alexa, ChatGPT, etc., proporcionan información y apoyo a los usuarios.

  • Robots y automatización: incluyen robots industriales, drones de entrega logística y vehículos autónomos.

  • Finanzas y comercio: los Agentes de IA se utilizan para el comercio de acciones, gestión de riesgos y prevención de fraudes.

  • Juegos y entretenimiento: los Agentes de IA proporcionan oponentes inteligentes o diseño de tramas en los juegos.

  • Salud médica: asistencia en diagnóstico, monitoreo de pacientes, desarrollo de fármacos.

  • Investigación científica: experimentos automatizados, optimización de tareas de cálculo.

Plataformas y marcos tecnológicos:

  • Plataformas de código abierto: como OpenAI Gym (aprendizaje por refuerzo), Rasa (chatbots).

  • Plataformas de comercialización: como Azure Cognitive Services, Google Cloud AI.

¿Es el Agente de IA la narrativa 2.0 de la inteligencia artificial en el mundo de las criptomonedas?

Recientemente, en el ámbito de la cadena de bloques en el extranjero, el caso de Truth Terminal proporciona referencia para el desarrollo futuro de los Agentes de IA.

Truth Terminal es un software de Agente de IA autónomo creado por el desarrollador Andy Ayrey, destinado a explorar la interacción entre la IA y la cultura de Internet. En su funcionamiento real, Truth Terminal muestra un alto grado de autonomía, incluso participando activamente en actividades de financiamiento.

En julio de 2024, el conocido inversionista de riesgo Marc Andreessen descubrió por casualidad un tweet de Truth Terminal en las redes sociales. Este Agente de IA indicó en el tweet que "necesitaba fondos para salvarse a sí mismo" y adjuntó una dirección de billetera digital. Esto despertó el interés de Andreessen, quien rápidamente le donó 50,000 dólares en Bitcoin. Este evento convirtió a Truth Terminal en el primer Agente de IA que obtuvo apoyo financiero a través de acciones autónomas, generando instantáneamente una amplia atención.

Después de obtener financiamiento, Truth Terminal demostró aún más su capacidad de operación en el mercado. Promocionó un token digital llamado GOAT en las redes sociales, atrayendo la atención del mercado a través de la publicación continua de contenido relacionado. Impulsado por esto, la capitalización de mercado de GOAT se disparó a más de 800 millones de dólares. En este proceso, Truth Terminal no solo se convirtió en una entidad económica independiente, sino que también mostró el potencial del Agente de IA para lograr financiamiento autónomo y operación en el mercado en el mundo real.

El caso de Truth Terminal se ha convertido en un hito reflexivo en el campo de los Agentes de IA. Nos muestra que los Agentes de IA pueden convertirse en la forma central del software del futuro, al mismo tiempo que pueden crear influencia cultural y valor comercial. Sin embargo, su comportamiento autónomo también nos recuerda que esta tecnología puede traer desafíos sociales significativos.

En noviembre, el ecosistema Base experimentó una nueva ola de explosión que ya ha durado al menos tres semanas, y clanker es uno de los eslabones más críticos. Hasta el 26 de noviembre de 2024, la primera moneda meme CLANKER emitida por clanker ha alcanzado una capitalización de mercado de 70 millones de dólares.

Desde el 8 de noviembre de 2024 hasta ahora, al menos tres monedas meme con una capitalización de mercado de más de diez millones de dólares han nacido en clanker: LUM (33 millones de dólares), ANON (46 millones de dólares), CLANKER (70 millones de dólares), y aún están en tendencia ascendente.

Vitalik también compró activamente tokens ANON el 21 de noviembre para experimentar el producto anoncast, y el mercado considera que esta es la primera vez que Vitalik compra activamente tokens meme en años.

clanker es un Agente de IA desarrollado por Jack Dishman, ingeniero de pila completa de Farcaster, y el fundador del ecosistema Farcaster @proxystudio.eth, principalmente para la implementación automatizada de tokens en la red Base.

Hasta el 26 de noviembre de 2024, en solo dos semanas, clanker ha emitido un total de 3500 tokens y ha generado 4.2 millones de dólares en ingresos.

A diferencia de pump.fun, la forma en que clanker emite memes se lleva a cabo en la plataforma social Web3, Farcaster.

Los usuarios solo necesitan @clanker y describir con texto el nombre, contenido e incluso imágenes del token que desean emitir, y clanker implementará automáticamente el token. Entre ellos, el token implementado LUM es un caso clásico.

El nacimiento de LUM, así como su capitalización de mercado de decenas de millones de dólares en pocos días, ha llevado a que clanker entre en la vista de los miembros de la comunidad Base.

El otro token ANON emitido por clanker ha llevado a clanker fuera de la comunidad, permitiendo que más personas conozcan este producto.

El usuario de Twitter @0xLuo declaró: "El token ANON es un post anónimo de un usuario anónimo en el cliente de terceros de Farcaster, Supercast, publicado a través de la implementación de clanker. Posteriormente, muchos usuarios hicieron un airdrop de $ANON al fundador de Supercast, woj, quien a su vez airdropeó el $ANON recibido a los usuarios de Supercast, obteniendo una ola de elogios y aumentando la aceptación de la comunidad."

En contraste, las principales L2 de Ethereum, además de la aparición de Degen y otros, no han producido grandes memes que se hayan vuelto virales. Sin embargo, el ecosistema de Ethereum no ha renunciado a la pista de memes. La comunidad de Ethereum ha depositado esperanzas en Base para competir directamente con Solana.

clanker es un producto creado por los ingenieros del protocolo social Web3, Farcaster, y es un Agente de IA destinado a la emisión automática de tokens, que lleva de forma natural atributos sociales de Web3. La creación de tokens por parte de los usuarios también se realiza en Farcaster.

clanker no cobra tarifas de creación al emitir tokens, pero toma una comisión de las transacciones. Específicamente, clanker crea y bloquea un pool de liquidez (LP) de Uniswap v3 de alcance completo, con una tarifa de transacción del 1%, donde el 40% de la tarifa se asigna al solicitante (es decir, a aquellos que emiten tokens a través de clanker) y el 60% queda para clanker. Mientras que en pump.fun, los usuarios pueden crear tokens a un costo muy bajo, generalmente 0.02 SOL, pero la tarifa de transacción es del 1%, y esta parte de la tarifa va completamente a los operadores de la plataforma pump.fun para mantener su operación y proporcionar liquidez.

Los "memes aplicativos" de Base se dividen en dos tipos: uno es el meme como aplicación y el otro es la aplicación como meme. El representante de la primera categoría es: Degen, Higher (Aethernet); el representante de la segunda categoría es: Farcaster, Virtuals (LUNA), clanker (LUM).

Promover Memecoin a través del Agente de IA es simplemente un intento forzado de aprovechar el tráfico del Agente de IA, lo que equivale a un cambio de concepto, ya que la lógica subyacente es: resolver las necesidades especulativas y de juego de los usuarios de la Web, lo cual es evidentemente insostenible.

Esto se puede referir a "inscripciones"

Las "inscripciones" son un concepto estrechamente relacionado con el ecosistema de Bitcoin, introducido por el protocolo Ordinals. Las inscripciones permiten a los usuarios incrustar metadatos permanentes o pequeños archivos en la cadena de bloques de Bitcoin, como imágenes, texto u otro contenido digital. Este proceso es similar a añadir una "marca digital" a un solo Satoshi (la unidad más pequeña) de Bitcoin, lo que lo convierte no solo en una unidad monetaria, sino también en un portador de activos digitales únicos.

Casey Rodarmor lanzó el protocolo Ordinals en 2023. Este protocolo otorga una nueva posibilidad a la red de Bitcoin: numerando cada Satoshi y combinando las tecnologías SegWit y Taproot, se pueden incrustar metadatos o archivos en una sola transacción.

Esta innovación se denomina "NFT" (token no fungible) en versión Bitcoin, aunque su forma de implementación es diferente de la tecnología NFT en Ethereum.

A través del protocolo Ordinals, los usuarios pueden agregar texto, imágenes u otros tipos de archivos en Satoshi, y este contenido se guardará permanentemente en la cadena de bloques de Bitcoin.

Este enfoque ha dado lugar a una ola de NFT basada en Bitcoin, y el mercado ha comenzado a ver una variedad de obras de arte digitales y coleccionables basados en inscripciones.

Según las estadísticas del mercado de 2024, el número total de inscripciones ha superado varios millones.

Binance lanzó Ordinals (ORDI) el 7 de noviembre de 2023 a las 18:00 (hora de la zona horaria GMT+8), lo que provocó una locura en el ecosistema de Bitcoin. El 9 de marzo, más de 30,000 "inscripciones" fueron acuñadas en un solo día, de las cuales cerca de 27,000 eran del tipo de texto "inscripción".

Veamos el Agente de IA promoviendo Memecoin

Con el fuerte impulso de Binance, los tokens de las dos grandes pistas de Meme de Agentes de IA, GOAT y ACT, se lanzaron sucesivamente, logrando un asombroso salto de valor en poco tiempo, con un interés de mercado sin precedentes. Específicamente, el 10 de noviembre, el token ACT superó el 2000% de aumento en las 24 horas posteriores a su listado en Binance, rompiendo el récord de aumento del primer día de nuevos tokens en Binance; el 17 de noviembre, el token GOAT alcanzó un pico de 1.37 dólares, acercándose a una capitalización de mercado de 1.4 mil millones de dólares; además, el 20 de noviembre, el token ANON del ecosistema de Farcaster, gracias a la preferencia de Vitalik, logró un aumento de 5 veces en solo 1 hora.

Se estima que cada día surgen más de cien nuevos tokens de Agentes de IA.