En los últimos dos años, con el auge de la inteligencia artificial, la IA ha penetrado en diversas industrias como la manufactura, el comercio electrónico, la publicidad y la medicina, y el ámbito de las criptomonedas no es una excepción; la fusión de la inteligencia artificial con la blockchain nos ha mostrado un activo digital único: el token criptográfico de IA.

Su popularidad comenzó a finales de 2022, con el auge del chatbot inteligente ChatGPT de OpenAI, muchas personas se dieron cuenta de que la inteligencia artificial ya no era solo un concepto de película, sino que más aplicaciones han entrado en la realidad, y la IA se ha convertido en una aplicación de productividad eficiente en industrias reales.

El fervor por la inteligencia artificial también ha influido en los gigantes institucionales. Por ejemplo, Google anunció que comenzará a desarrollar su propio chatbot de inteligencia artificial, Bard. Además, una noticia digna de mención es que Microsoft adquirió OpenAI por 10 mil millones de dólares y propuso integrarlo en su motor de búsqueda Bing. El interés continuo del público en la tecnología de IA ha llevado a un crecimiento explosivo en el valor de mercado de varios tokens de IA, con algunos aumentando hasta un 1600%.

Entonces, ¿qué es el token de IA? ¿Cómo se combina con Web3 y cuál es la dirección futura? A continuación se discutirán estas cuestiones.

¿Qué es el token de IA?

El token de IA es un activo criptográfico que integra principios de IA en la tecnología blockchain. Los elementos de IA de tales tokens les permiten desarrollar mejores estrategias automatizadas que pueden resolver problemas específicos. Debido a que su inteligencia puede adaptarse mejor a las condiciones del mercado, son más ventajosos que otros activos criptográficos.

El token de IA es una criptomoneda que apoya proyectos, aplicaciones y servicios basados en IA dentro del ecosistema blockchain. Desempeña tres funciones clave:

  1. Facilitar el intercambio, son un medio de intercambio dentro de plataformas impulsadas por inteligencia artificial, donde los usuarios pueden pagar tarifas de servicio, acceder a datos y participar en actividades de la plataforma.

  2. Pueden servir como tokens de gobernanza, donde estos tokens otorgan a sus poseedores derechos de gobernanza, permitiendo a los poseedores participar en la configuración del desarrollo de proyectos o plataformas de inteligencia artificial.

  3. También pueden ser utilizados como recompensas para incentivar a los usuarios a contribuir a protocolos o proyectos de inteligencia artificial, generalmente por contribuir con datos, proporcionar recursos de computación, etc.

Infraestructura de IA + Web3

Los principales proyectos de la capa de infraestructura de la industria IA + Web3 están fundamentalmente narrados en torno a redes de computación descentralizada, con bajo costo como principal ventaja, y la expansión de la red mediante incentivos de tokens, teniendo como objetivo principal servir a los clientes de IA + Web3.

La infraestructura es la dirección de crecimiento determinista del desarrollo de la IA.

Demanda explosiva de potencia de IA

En los últimos años, la demanda de potencia de cálculo ha crecido rápidamente, especialmente tras la aparición de modelos grandes (LLM), la demanda de potencia de IA ha desencadenado el mercado de alta potencia de cálculo. Datos de OpenAI muestran que desde 2012, el uso de computación para entrenar los modelos de IA más grandes ha crecido exponencialmente, duplicándose en promedio cada 3-4 meses, y su velocidad de crecimiento supera con creces la ley de Moore.

Al mismo tiempo, la enorme demanda de datos también plantea requisitos para el almacenamiento y la memoria de hardware, especialmente en la fase de entrenamiento del modelo, donde se requiere una gran cantidad de entradas de parámetros y almacenamiento de grandes volúmenes de datos. Los chips de almacenamiento utilizados en servidores de IA incluyen: Memoria de Alto Ancho de Banda (HBM), DRAM y SSD, que deben ofrecer mayor capacidad, mayor rendimiento, menor latencia y mayor velocidad de respuesta para los escenarios de trabajo de los servidores de IA.

El desequilibrio entre oferta y demanda impulsa altos costos de potencia de cálculo

Con el desarrollo de modelos grandes, la complejidad de cálculo también ha aumentado drásticamente, lo que requiere más hardware de alta gama para satisfacer las demandas de entrenamiento de modelos. Tomando como ejemplo GPT-3, con 13 millones de usuarios únicos accediendo, la demanda correspondiente de chips es de más de 30,000 A100 GPU. Por lo tanto, el costo de inversión inicial alcanzará la asombrosa cifra de 800 millones de dólares, y se estima que el costo diario de inferencia del modelo será de 700,000 dólares. Por lo tanto, la subida de la demanda de GPU de alta gama y el obstáculo en el suministro han impulsado los altos precios actuales de hardware como las GPU.

La infraestructura de IA ocupa el crecimiento del valor central de la cadena industrial

Un informe de Grand View Research indica que el tamaño del mercado global de IA en la nube se estima en 62.63 mil millones de dólares en 2023 y se prevé que crezca a 647.6 mil millones de dólares para 2030, con una tasa de crecimiento compuesta anual del 39.6%. Este dato refleja el potencial de crecimiento de los servicios de IA en la nube y su importante participación en toda la cadena industrial de la IA.

La lógica narrativa de los proyectos de infraestructura de IA + Web3

La demanda de infraestructura de IA distribuida es fuerte y tiene un potencial de crecimiento a largo plazo, por lo que es un área fácil de narrar y preferida por el capital. Actualmente, los principales proyectos de la capa de infraestructura de la industria IA + Web3 están fundamentalmente narrados en torno a redes de computación descentralizada, con bajo costo como principal ventaja, y la expansión de la red mediante incentivos de tokens, teniendo como objetivo principal servir a los clientes de IA + Web3. Incluye principalmente dos niveles:

1. Comparar plataformas de compartición y alquiler de recursos de computación en la nube descentralizada puramente: hay muchos proyectos tempranos de IA, como Render Network, Akash Network, etc.;

  • Los recursos de potencia de cálculo son la principal ventaja competitiva: la ventaja competitiva central y los recursos suelen ser capaces de acceder a una gran cantidad de proveedores de potencia de cálculo, estableciendo rápidamente su red básica, al mismo tiempo que ofrecen productos de gran usabilidad para los clientes.

  • Bajo umbral de producto, rápida velocidad de lanzamiento: para productos maduros como Render Network y Akash Network, ya se pueden ver datos de crecimiento tangible, con cierta ventaja competitiva.

  • Homogeneización de productos de nuevos entrantes: debido a la popularidad actual del sector y las bajas barreras de entrada de tales productos, recientemente han entrado muchos proyectos que hacen narrativas sobre compartición de potencia de cálculo y alquiler de potencia de cálculo, pero los productos son relativamente homogéneos y se necesita ver más ventajas competitivas diferenciadas.

  • Enfocado en servir a clientes con necesidades simples de cálculo: por ejemplo, Render Network principalmente atiende la demanda de renderizado, mientras que Akash Network proporciona más recursos de CPU.

2. Proporcionar servicios de flujo de trabajo de computación descentralizada + ML: hay muchos proyectos emergentes que han recibido grandes financiamientos recientemente, como Gensyn, io.net, Ritual, etc.;

  • La computación descentralizada eleva la base de valoración. Dado que la potencia de cálculo es la narrativa determinista del desarrollo de la IA, los proyectos con una base de potencia de cálculo suelen tener modelos de negocio más estables y con mayor potencial, lo que les confiere una valoración más alta en comparación con proyectos puramente de capa intermedia.

  • Los servicios de capa intermedia destacan por ventajas diferenciadas. Los servicios de la capa intermedia son la parte de estas infraestructuras de potencia de cálculo que tienen ventajas competitivas, como los oráculos y validadores que sincronizan el cálculo de IA en cadena y fuera de cadena, así como herramientas para el despliegue y gestión del flujo de trabajo general de IA.