Autor: IOSG
Resumen
A medida que la combinación de Web3 e IA se convierte en un tema candente en el mundo de las criptomonedas, la construcción de infraestructura de IA en el mundo cripto florece, pero hay pocas aplicaciones que realmente utilicen IA o que se construyan para IA, lo que hace que el problema de homogeneización de la infraestructura de IA se haga evidente. La primera ronda de financiamiento de RedPill en la que participamos suscitó algunas comprensiones más profundas.
Las principales herramientas para construir Dapps de IA incluyen acceso descentralizado a OpenAI, redes GPU, redes de inferencia y redes de agentes.
Se dice que las redes GPU son más populares que durante la ‘época de la minería de Bitcoin’ porque: el mercado de IA es más grande y crece de manera rápida y estable; la IA admite millones de aplicaciones a diario; la IA necesita una variedad de modelos de GPU y ubicaciones de servidores; la tecnología es más madura que antes; y el grupo de clientes es más amplio.
Las redes de inferencia y las redes de agentes tienen infraestructuras similares, pero sus enfoques son diferentes. La red de inferencia está destinada principalmente a desarrolladores experimentados que despliegan sus propios modelos, mientras que ejecutar modelos que no son LLM no siempre requiere GPU. La red de agentes se centra más en los LLM, donde los desarrolladores no necesitan llevar sus propios modelos, y se enfocan más en la ingeniería de indicaciones y en cómo conectar diferentes agentes. Las redes de agentes siempre requieren GPU de alto rendimiento.
Los proyectos de infraestructura de IA prometen grandes beneficios y continúan lanzando nuevas funciones.
La mayoría de los proyectos nativos de criptomonedas aún están en fase de red de prueba, con poca estabilidad, configuraciones complejas y funciones limitadas, y aún necesitan tiempo para demostrar su seguridad y privacidad.
Suponiendo que las Dapps de IA se conviertan en una gran tendencia, hay muchos campos no explotados, como el monitoreo, la infraestructura relacionada con RAG, modelos nativos de Web3, APIs nativas de cifrado integradas y agentes descentralizados de datos, redes de evaluación, etc.
La integración vertical es una tendencia notable. Los proyectos de infraestructura intentan ofrecer servicios integrales, simplificando el trabajo de los desarrolladores de Dapps de IA.
El futuro será híbrido. Parte de la inferencia se realizará en el front-end, y parte se calculará en la cadena, lo que tendrá en cuenta factores de costo y verificabilidad.
Fuente: IOSG
Introducción
La combinación de Web3 e IA es uno de los temas más destacados en el ámbito cripto actual. Desarrolladores talentosos están construyendo infraestructura de IA para el mundo cripto, dedicándose a llevar inteligencia a los contratos inteligentes. Construir Dapps de IA es una tarea extremadamente compleja, donde los desarrolladores deben manejar una gama que incluye datos, modelos, potencia de cálculo, operaciones, despliegue e integración con blockchain.
Para estas necesidades, los fundadores de Web3 han desarrollado muchas soluciones iniciales, como redes GPU, etiquetado de datos comunitarios, modelos entrenados por la comunidad, inferencia y entrenamiento de IA verificables, así como tiendas de agentes. Sin embargo, en este próspero contexto de infraestructura, hay pocas aplicaciones que realmente utilicen IA o que se construyan para IA.
Cuando los desarrolladores buscan tutoriales de desarrollo de Dapps de IA, encuentran que no hay muchos tutoriales relacionados con la infraestructura nativa de IA en criptomonedas, la mayoría de los tutoriales solo abordan la llamada a la API de OpenAI en el frontend.
Fuente: IOSG Ventures
Las aplicaciones actuales no han aprovechado plenamente la descentralización y la capacidad de verificación de blockchain, pero esta situación cambiará pronto. Actualmente, la mayoría de las infraestructuras de IA enfocadas en criptomonedas han lanzado redes de prueba y planean operar oficialmente en los próximos 6 meses. Este estudio detallará las principales herramientas disponibles en la infraestructura de IA en el ámbito cripto. ¡Preparémonos para el momento GPT-3.5 en el mundo cripto!
1. RedPill: Proporcionando autorización descentralizada para OpenAI
RedPill, en la que hemos invertido, es un buen punto de entrada. OpenAI tiene varios modelos poderosos de clase mundial, como GPT-4-vision, GPT-4-turbo y GPT-4o, que son la opción preferida para construir Dapps de inteligencia artificial avanzados. Los desarrolladores pueden llamar a la API de OpenAI a través de oráculos o interfaces frontend para integrarla en sus Dapps.
RedPill integra las APIs de OpenAI de diferentes desarrolladores en una sola interfaz, proporcionando servicios de inteligencia artificial rápidos, económicos y verificables para usuarios de todo el mundo, democratizando así el acceso a recursos de modelos de inteligencia artificial de vanguardia. El algoritmo de enrutamiento de RedPill dirige las solicitudes de los desarrolladores a un único contribuyente. Las solicitudes de API se ejecutarán a través de su red de distribución, eludiendo cualquier posible restricción de OpenAI y resolviendo algunos problemas comunes que enfrentan los desarrolladores cripto, como:
• Restricciones de TPM (tokens por minuto): Las nuevas cuentas tienen un uso limitado de tokens, lo que no satisface la demanda de Dapps populares y dependientes de IA.
• Restricciones de acceso: Algunos modelos han establecido restricciones de acceso para nuevas cuentas o ciertos países.
Al usar el mismo código de solicitud pero cambiando el nombre del host, los desarrolladores pueden acceder a los modelos de OpenAI de manera económica, altamente escalable e ilimitada.
2. Redes GPU
Además de usar la API de OpenAI, muchos desarrolladores también optan por alojar modelos en casa. Pueden aprovechar redes GPU descentralizadas como io.net, Aethir, Akash y otras redes populares para construir sus propias granjas de GPU y desplegar y ejecutar varios modelos potentes internos o de código abierto.
Una red GPU descentralizada como esta puede aprovechar la potencia de cálculo de individuos o pequeños centros de datos para ofrecer configuraciones flexibles, más opciones de ubicación de servidores y costos más bajos, permitiendo a los desarrolladores realizar experimentos relacionados con la IA con un presupuesto limitado. Sin embargo, debido a su naturaleza descentralizada, estas redes GPU tienen ciertas limitaciones en funcionalidad, disponibilidad y privacidad de datos.
En los últimos meses, la demanda de GPU ha sido explosiva, superando la anterior fiebre de minería de Bitcoin. Las razones de este fenómeno incluyen:
El aumento de clientes objetivo ha llevado a las redes GPU a servir a desarrolladores de IA, quienes son numerosos y más leales, y no se ven afectados por las fluctuaciones en el precio de las criptomonedas.
En comparación con los dispositivos de minería dedicados, las GPU descentralizadas ofrecen más modelos y especificaciones, lo que puede satisfacer mejor las demandas. Especialmente, el procesamiento de modelos grandes requiere más VRAM, mientras que las tareas pequeñas tienen GPU más adecuadas. Además, las GPU descentralizadas pueden servir a los usuarios finales más de cerca, reduciendo la latencia.
La tecnología se está volviendo más madura, y las redes GPU dependen de blockchains de alta velocidad como Solana para liquidaciones, tecnologías de virtualización como Docker y clústeres de computación como Ray.
En términos de retorno de inversión, el mercado de IA se está expandiendo, con muchas oportunidades para el desarrollo de nuevas aplicaciones y modelos, y la tasa de retorno esperada para el modelo H100 es del 60-70%, mientras que la minería de Bitcoin es más compleja, donde el ganador se lo lleva todo, y la producción es limitada.
Empresas de minería de Bitcoin como Iris Energy, Core Scientific y Bitdeer también han comenzado a apoyar redes GPU, ofreciendo servicios de IA y comprando activamente GPU diseñadas para IA, como la H100.
Recomendación: Para desarrolladores de Web2 que no priorizan SLA, io.net ofrece una experiencia simple y fácil de usar, siendo una opción muy rentable.
Este es el núcleo de la infraestructura nativa de IA en criptomonedas. En el futuro, apoyará miles de millones de operaciones de inferencia de IA. Muchos AI layer1 o layer2 ofrecen a los desarrolladores la capacidad de invocar inferencias de IA en la cadena de forma nativa. Los líderes del mercado incluyen Ritual, Valence y Fetch.ai.
Estas redes difieren en los siguientes aspectos: rendimiento (latencia, tiempo de cálculo), modelos soportados, verificabilidad, precios (costos de consumo en la cadena, costos de inferencia) y experiencia de desarrollo.
3.1 Objetivos
En un escenario ideal, los desarrolladores deberían poder acceder fácilmente a servicios de inferencia de IA personalizados desde cualquier lugar y en cualquier forma de prueba, sin obstáculos en el proceso de integración. La red de inferencia proporciona todo el soporte básico que los desarrolladores necesitan, incluyendo generación y verificación de pruebas bajo demanda, cálculo de inferencia, retransmisión y verificación de datos de inferencia, interfaces para Web2 y Web3, despliegue de modelos con un solo clic, monitoreo del sistema, operaciones entre cadenas, integración sincrónica y ejecución programada.
Con estas funciones, los desarrolladores pueden integrar servicios de inferencia sin problemas en sus contratos inteligentes existentes. Por ejemplo, al construir un robot de trading DeFi, estos robots utilizarán modelos de aprendizaje automático para buscar oportunidades de compra y venta en pares de trading específicos y ejecutar estrategias de trading correspondientes en plataformas de trading subyacentes.
En un estado completamente ideal, toda la infraestructura está alojada en la nube. Los desarrolladores solo necesitan subir su modelo de estrategia de trading en un formato universal como torch, y la red de inferencia almacenará y proporcionará el modelo para consultas Web2 y Web3.
Una vez que se completen todos los pasos de despliegue del modelo, los desarrolladores pueden llamar a la inferencia del modelo directamente a través de la API de Web3 o contratos inteligentes. La red de inferencia continuará ejecutando estas estrategias de trading y retroalimentará los resultados al contrato inteligente subyacente. Si la cantidad de fondos comunitarios que gestiona el desarrollador es grande, también necesitará proporcionar una verificación de los resultados de la inferencia. Una vez que el contrato inteligente reciba el resultado de la inferencia, realizará el trading basado en esos resultados.
3.1.1 Asincrónica y Sincrónica
Teóricamente, las operaciones de inferencia asincrónicas pueden ofrecer un mejor rendimiento; sin embargo, este enfoque puede resultar inconveniente en la experiencia de desarrollo. Al adoptar un enfoque asincrónico, los desarrolladores deben enviar primero la tarea al contrato inteligente de la red de inferencia. Cuando la tarea de inferencia se complete, el contrato inteligente de la red de inferencia devolverá el resultado. En este modelo de programación, la lógica se divide en dos partes: la llamada de inferencia y el procesamiento del resultado de la inferencia.
La situación se complica aún más si los desarrolladores tienen llamadas de inferencia anidadas y una gran cantidad de lógica de control.
El modo de programación asincrónica dificulta la integración con contratos inteligentes existentes. Esto requiere que los desarrolladores escriban una gran cantidad de código adicional y manejen errores y dependencias. En comparación, la programación sincrónica es más intuitiva para los desarrolladores, aunque introduce problemas con el tiempo de respuesta y el diseño de blockchain. Por ejemplo, si los datos de entrada son datos que cambian rápidamente, como el tiempo de bloque o precios, entonces, una vez completada la inferencia, los datos ya no son frescos, lo que podría resultar en que la ejecución del contrato inteligente deba revertirse en ciertas situaciones. Imagina hacer una transacción con un precio desactualizado.
Las redes de agentes permiten a los usuarios personalizar fácilmente los agentes. Estas redes están compuestas por entidades o contratos inteligentes que pueden ejecutar tareas de forma autónoma, interactuar entre sí y comunicarse con la red blockchain, todo sin intervención humana directa. Se enfocan principalmente en la tecnología LLM. Por ejemplo, pueden ofrecer un chatbot GPT que entienda Ethereum. Las herramientas actuales de este chatbot son bastante limitadas, y los desarrolladores aún no pueden desarrollar aplicaciones complejas sobre esta base.
Pero en el futuro, las redes de agentes ofrecerán más herramientas a los agentes, no solo conocimiento, sino también la capacidad de llamar a APIs externas, ejecutar tareas específicas, etc. Los desarrolladores podrán conectar múltiples agentes para construir flujos de trabajo. Por ejemplo, escribir contratos inteligentes en Solidity implicará varios agentes especializados, incluidos agentes de diseño de protocolos, agentes de desarrollo de Solidity, agentes de revisión de seguridad de código y agentes de despliegue de Solidity.
Coordinamos la colaboración de estos agentes utilizando indicaciones y escenarios. Algunos ejemplos de redes de agentes incluyen Flock.ai, Myshell, Theoriq.
Recomendación: La mayoría de las funciones de los agentes actuales son relativamente limitadas. Para casos de uso específicos, los agentes de Web2 pueden servir mejor y tienen herramientas de orquestación más maduras, como Langchain y Llamaindex.
5. Diferencias entre redes de agentes y redes de inferencia
Las redes de agentes se centran más en los LLM, proporcionando herramientas como Langchain para integrar múltiples agentes. En general, los desarrolladores no necesitan desarrollar modelos de aprendizaje automático por sí mismos, ya que las redes de agentes han simplificado el proceso de desarrollo y despliegue de modelos. Solo necesitan conectar los agentes y herramientas necesarias. En la mayoría de los casos, los usuarios finales utilizarán estos agentes directamente.
La red de inferencia es la infraestructura que respalda la red de agentes. Ofrece a los desarrolladores acceso de bajo nivel. Normalmente, los usuarios finales no utilizan la red de inferencia directamente. Los desarrolladores necesitan desplegar sus propios modelos, que no se limitan a LLM, y pueden usarlos a través de puntos de acceso en la cadena o fuera de la cadena. Las redes de agentes y las redes de inferencia no son productos completamente independientes. Ya hemos comenzado a ver algunos productos de integración vertical. Dado que estas dos funciones dependen de infraestructuras similares, ofrecen simultáneamente capacidades de agentes y de inferencia.
6. Nuevas tierras de oportunidades
Además de inferencia de modelos, entrenamiento y redes de agentes, hay muchas nuevas áreas en el ámbito web3 que valen la pena explorar:
Conjuntos de datos: ¿cómo transformar los datos de blockchain en conjuntos de datos utilizables para el aprendizaje automático? Los desarrolladores de aprendizaje automático necesitan datos más específicos y especializados. Por ejemplo, Giza proporciona algunos conjuntos de datos de alta calidad sobre DeFi, diseñados específicamente para el entrenamiento de aprendizaje automático. Los datos ideales no deberían ser solo datos tabulares simples, sino que también deberían incluir datos gráficos que puedan describir las interacciones en el mundo de blockchain. Actualmente, aún hay deficiencias en este aspecto. Algunos proyectos están abordando este problema recompensando a las personas por crear nuevos conjuntos de datos, como Bagel y Sahara, que prometen proteger la privacidad de los datos personales.
Almacenamiento de modelos: Algunos modelos son enormes, y cómo almacenar, distribuir y controlar las versiones de estos modelos es clave, ya que afecta el rendimiento y costo del aprendizaje automático en la cadena. En este ámbito, proyectos pioneros como Filecoin, AR y 0g ya han avanzado.
Entrenamiento de modelos: El entrenamiento de modelos distribuido y verificable es un desafío. Gensyn, Bittensor, Flock y Allora han logrado avances significativos. Monitoreo: Dado que la inferencia de modelos ocurre tanto en la cadena como fuera de ella, necesitamos una nueva infraestructura para ayudar a los desarrolladores de web3 a rastrear el uso de los modelos y detectar problemas y sesgos potenciales a tiempo. Con las herramientas de monitoreo adecuadas, los desarrolladores de aprendizaje automático de web3 pueden ajustar rápidamente y optimizar continuamente la precisión del modelo.
Infraestructura RAG: RAG distribuido necesita un nuevo entorno de infraestructura, con altos requerimientos en almacenamiento, cálculo de incrustaciones y bases de datos vectoriales, mientras se asegura la privacidad y seguridad de los datos. Esto es muy diferente de la infraestructura de IA de Web3 actual, que en su mayoría depende de terceros para completar RAG, como Firstbatch y Bagel.
Modelos personalizados para Web3: No todos los modelos son adecuados para escenarios de Web3. En la mayoría de los casos, los modelos deben ser reentrenados para adaptarse a aplicaciones específicas como predicciones de precios, recomendaciones, etc. A medida que la infraestructura de IA florece, esperamos que haya más modelos nativos de web3 para servir a aplicaciones de IA. Por ejemplo, Pond está desarrollando un GNN en blockchain para diversas aplicaciones como predicción de precios, recomendaciones, detección de fraudes y prevención de lavado de dinero.
Redes de evaluación: Evaluar agentes sin retroalimentación humana es complicado. A medida que las herramientas de creación de agentes se vuelven más populares, surgirán innumerables agentes en el mercado. Esto requiere un sistema para mostrar las capacidades de estos agentes y ayudar a los usuarios a determinar cuál tiene el mejor rendimiento en situaciones específicas. Por ejemplo, Neuronets es un participante en este campo.
Mecanismo de consenso: Para tareas de IA, PoS no siempre es la mejor opción. La complejidad computacional, la dificultad de verificación y la falta de determinismo son los principales desafíos que enfrenta PoS. Bittensor ha creado un nuevo mecanismo de consenso inteligente que recompensa a los nodos que contribuyen a modelos de aprendizaje automático y sus salidas dentro de la red.
7. Perspectivas futuras
Actualmente, hemos observado una tendencia hacia la integración vertical. Al construir una capa básica de computación, la red puede soportar múltiples tareas de aprendizaje automático, incluyendo entrenamiento, inferencia y servicios de redes de agentes. Este modelo está destinado a proporcionar una solución integral para los desarrolladores de aprendizaje automático de Web3. Actualmente, aunque la inferencia en la cadena es costosa y lenta, proporciona una excelente verificabilidad y una integración sin problemas con sistemas backend (como contratos inteligentes). Creo que el futuro se dirigirá hacia aplicaciones híbridas. Parte del procesamiento de inferencias se llevará a cabo en el frontend o fuera de la cadena, mientras que las inferencias críticas y decisivas se realizarán en la cadena. Este modelo ya se ha aplicado en dispositivos móviles. Aprovechando las características inherentes de los dispositivos móviles, puede ejecutar rápidamente modelos pequeños localmente y trasladar tareas más complejas a la nube, utilizando LLM más grandes para su procesamiento.