En el último año, la narrativa de IA ha crecido rápidamente en el mercado de Crypto, con VC líderes como a16z, Sequoia, Lightspeed y Polychain haciendo grandes inversiones de millones de dólares. Muchos equipos de alto nivel con antecedentes académicos y en investigación están ingresando a Web3, avanzando hacia una IA descentralizada. En los próximos 12 meses, veremos cómo estos proyectos de alta calidad comienzan a materializarse.
En octubre de este año, OpenAI recaudó nuevamente 6.6 mil millones de dólares, llevando la carrera armamentista de IA a un nivel sin precedentes. Los pequeños inversionistas rara vez tienen la oportunidad de ganar dinero más allá de invertir directamente en NVIDIA y hardware; por lo tanto, este entusiasmo seguramente se extenderá a Crypto, especialmente con la reciente ola de memes de IA que ha capturado a todos.
Con el reciente aumento de financiamiento adicional de Polychain y Lightspeed para el principal proyecto descentralizado de IA, Hyperbolic, hemos comenzado a trazar el desarrollo de seis proyectos de infraestructura Crypto x IA que han obtenido grandes financiamientos, anticipando cómo la tecnología descentralizada puede respaldar a la humanidad en el futuro de la IA.
Hyperbolic: Recientemente anunció que completó una ronda de financiamiento Serie A de 12 millones de dólares, liderada conjuntamente por Variant y Polychain, con un total de financiamiento que supera los 20 millones de dólares. VC reconocidos como Bankless Ventures, Chapter One, Lightspeed Faction, IOSG, Blockchain Builders Fund, Alumni Ventures y Samsung Next han participado.
PIN AI: Completó una ronda de financiamiento pre-semilla de 10 millones de dólares, con la participación de reconocidos VC como a16z CSX, Hack VC y Blockchain Builders Fund (aceleradora de blockchain de Stanford).
Vana: Completó una ronda de financiamiento de 18 millones de dólares y 5 millones de dólares en financiamiento estratégico, con inversiones de VC reconocidos como Paradigm, Polychain y Coinbase.
Sahara: Completó una ronda de financiamiento de 43 millones de dólares, con inversiones de VC reconocidos como Binance Labs, Pantera Capital y Polychain.
Aethir: En 2023, completó una ronda de financiamiento Pre-A de 9 millones de dólares con una valoración de 150 millones de dólares, y en 2024 completó aproximadamente 120 millones de dólares en ventas de nodos.
IO.NET: Completó una ronda de financiamiento de 30 millones de dólares, con la participación de reconocidos VC como Hack VC, Delphi Digital y Foresight Ventures.
Los tres elementos clave de la IA: datos, potencia de cálculo y algoritmos.
Marx nos enseñó en (El Capital) que los medios de producción, la fuerza productiva y las relaciones de producción son elementos clave en la producción social. Si hacemos una analogía, veremos que en el mundo de la inteligencia artificial también existen estos tres elementos clave.
En la era de la IA, la potencia de cálculo, los datos y los algoritmos son clave.
En IA, los datos son los medios de producción. Por ejemplo, lo que escribes y las fotos que tomas en redes sociales son datos, son como "ingredientes" que constituyen la base sobre la cual opera la IA.
Estos datos incluyen desde información numérica estructurada hasta formas no estructuradas como imágenes, audio, video y texto. Sin datos, los algoritmos de IA no pueden aprender y optimizarse. La calidad, cantidad, cobertura y diversidad de los datos afectan directamente el rendimiento del modelo de IA, determinando si puede completar tareas específicas de manera eficiente.
En IA, la potencia de cálculo es la fuerza productiva. La potencia de cálculo son los recursos computacionales subyacentes necesarios para ejecutar algoritmos de IA. Cuanto más fuerte es la potencia de cálculo, más rápido se procesa la información y mejores son los resultados. La fuerza de la potencia de cálculo determina directamente la eficiencia y capacidad del sistema de IA.
Una poderosa capacidad de cálculo no solo puede reducir el tiempo de entrenamiento del modelo, sino también soportar arquitecturas de modelo más complejas, elevando así el nivel de inteligencia de la IA. Modelos de lenguaje grande como ChatGPT de OpenAI requieren meses de entrenamiento en potentes clústeres de computación.
En la IA, el algoritmo es la relación de producción. El algoritmo es el núcleo de la IA, su diseño determina cómo se colaboran los datos y la potencia de cálculo, siendo clave para transformar los datos en decisiones inteligentes. Con el apoyo de una potente capacidad de cálculo, el algoritmo puede aprender mejor los patrones en los datos y aplicarlos a problemas reales.
De este modo, los datos son el combustible de la IA, la potencia de cálculo es el motor de la IA y el algoritmo es el alma de la IA. IA = datos + potencia de cálculo + algoritmo; cualquier startup que busque destacarse en el campo de la IA debe contar con estos tres elementos, o demostrar una ventaja única en uno de ellos.
A medida que la IA avanza hacia un enfoque multimodal (modelos que pueden procesar simultáneamente texto, imágenes y audio), la demanda de potencia de cálculo y datos seguirá creciendo exponencialmente.
En la era de escasez de potencia de cálculo, Crypto potencia la IA.
El surgimiento de ChatGPT no solo ha desencadenado una revolución en la inteligencia artificial, sino que también ha colocado la potencia de cálculo y el hardware de cálculo en el centro de atención de la tecnología.
Tras el "Gran Debate de los Mil Modelos" de 2023, en 2024, con el creciente entendimiento del mercado sobre los grandes modelos de IA, la competencia global en torno a los grandes modelos está siendo dividida en dos vías: "mejora de capacidades" y "desarrollo de escenarios".
En cuanto a la mejora de la capacidad de los grandes modelos, el mayor deseo del mercado es el esperado lanzamiento de GPT-5 por parte de OpenAI, anticipando que el gran modelo pase a una etapa realmente multimodal.
En el desarrollo de escenarios de grandes modelos, los gigantes de IA están acelerando la integración de los grandes modelos en los sectores industriales, generando valor de aplicación. Por ejemplo, los intentos en áreas como Agentes de IA y búsqueda de IA están profundizando la mejora de la experiencia del usuario existente mediante grandes modelos.
Detrás de estas dos vías, sin duda, hay una mayor demanda de potencia de cálculo. La mejora de la capacidad de los grandes modelos se centra en el entrenamiento, que requiere invocar grandes potencias de cálculo de alto rendimiento en poco tiempo; mientras que las aplicaciones de escenarios de grandes modelos se centran en la inferencia, donde los requisitos de rendimiento de potencia de cálculo no son tan altos, pero se enfocan más en la estabilidad y la baja latencia.
Como OpenAI estimó en 2018, desde 2012, la demanda de potencia de cálculo para entrenar grandes modelos se duplica cada 3.5 meses, con un aumento de hasta 10 veces en la potencia requerida cada año. Al mismo tiempo, a medida que más y más grandes modelos y aplicaciones se implementan en escenarios de negocios reales, la demanda de potencia de cálculo para inferencia también ha aumentado significativamente.
Surge una pregunta: la demanda global de GPUs de alto rendimiento está aumentando rápidamente, pero la oferta no ha podido mantenerse al día. Tomando como ejemplo el chip H100 de NVIDIA, en 2023, experimentó graves problemas de escasez de suministro, con un déficit de más de 430,000 unidades. El próximo chip B100, que promete mejorar el rendimiento en 2.5 veces y solo aumentar los costos en un 25%, probablemente experimentará nuevamente una escasez de suministro. Este desequilibrio entre oferta y demanda puede llevar a un nuevo aumento en los costos de potencia de cálculo, dificultando que muchas pequeñas y medianas empresas soporten altos costos computacionales, limitando así su potencial de desarrollo en el campo de la IA.
Grandes empresas tecnológicas como OpenAI, Google y Meta tienen una capacidad de adquisición de recursos más poderosa, con dinero y recursos para construir su propia infraestructura de potencia de cálculo. Pero, ¿qué hay de las startups de IA, y más aún, de aquellas que aún no han conseguido financiamiento?
De hecho, comprar GPUs de segunda mano en plataformas como eBay y Amazon es una opción viable. Aunque reduce costos, puede haber problemas de rendimiento y gastos de mantenimiento a largo plazo. En esta era de escasez de GPUs, construir infraestructura para startups puede que nunca sea la mejor solución.
A pesar de que ya existen proveedores de nube de GPU que ofrecen renta bajo demanda, el alto costo sigue siendo un desafío considerable para ellos. Por ejemplo, el costo de una NVIDIA A100 es de aproximadamente 80 dólares por día; si se necesitan 50 unidades funcionando durante 25 días al mes, el costo solo en potencia de cálculo asciende a 80 x 50 x 25 = 100,000 dólares/mes.
Esto ha dado la oportunidad a las redes de potencia de cálculo descentralizadas basadas en DePIN de aprovechar la situación, se podría decir que están en una buena trayectoria. Como lo han hecho IO.NET, Aethir y Hyperbolic, han trasladado los costos de infraestructura de potencia de cálculo de las startups de IA a la red misma. Además, permite a cualquier persona en el mundo conectar GPU no utilizadas desde casa, reduciendo significativamente los costos computacionales.
Aethir: Red de GPU compartida global que democratiza la potencia de cálculo.
Aethir completó en septiembre de 2023 una ronda de financiamiento Pre-A de 9 millones de dólares con una valoración de 150 millones de dólares, y en marzo-mayo de este año, realizó ventas de nodos Checker por aproximadamente 120 millones de dólares. En solo 30 minutos, Aethir logró obtener 60 millones de dólares en ingresos a través de la venta de nodos Checker, lo que demuestra el reconocimiento y expectativas del mercado hacia el proyecto.
El núcleo de Aethir es establecer una red de GPU descentralizada que permita a todos contribuir con sus recursos de GPU inactivos y obtener beneficios. Esto transforma cada computadora en una pequeña supercomputadora, compartiendo la capacidad de cálculo de manera colectiva. Los beneficios son una mejora significativa en la utilización de la GPU, reducción del desperdicio de recursos, y la posibilidad de que empresas o individuos que requieren gran capacidad de cálculo obtengan los recursos necesarios a menor costo.
Aethir ha creado una red DePIN descentralizada, similar a un pool de recursos, incentivando a centros de datos, estudios de juegos, empresas tecnológicas y jugadores de todo el mundo a conectar GPUs inactivas a la red. Estos proveedores de GPU pueden conectarse o desconectarse de la red libremente, lo que resulta en una mayor utilización en comparación con tenerlas inactivas. Esto permite a Aethir ofrecer recursos de GPU que van desde el nivel de consumidor hasta el nivel de centro de datos, a un costo que es más del 80% más bajo que el de los proveedores de nube Web2.
La arquitectura DePIN de Aethir asegura la calidad y estabilidad de estos recursos de cómputo dispersos. Las tres partes más centrales son:
Container es la unidad de computación de Aethir, que actúa como servidor en la nube, encargado de ejecutar y renderizar aplicaciones. Cada tarea es encapsulada en un Container independiente, funcionando como un entorno relativamente aislado para ejecutar tareas del cliente, evitando interferencias entre tareas.
El Indexer (indexador) se utiliza principalmente para emparejar y programar recursos de potencia de cálculo disponibles de acuerdo a las necesidades de la tarea en tiempo real. Al mismo tiempo, un mecanismo dinámico de ajuste de recursos puede asignar dinámicamente los recursos a diferentes tareas según la carga de la red, alcanzando la mejor eficiencia general.
El Checker (verificador) se encarga de monitorear y evaluar en tiempo real el rendimiento del Container. Puede monitorear y evaluar el estado de toda la red y reaccionar rápidamente a posibles problemas de seguridad. En caso de ataques a la red y otros incidentes de seguridad, puede emitir alertas y activar medidas de protección al detectar comportamientos anómalos. Asimismo, cuando el rendimiento de la red presenta cuellos de botella, el Checker puede emitir recordatorios oportunos para que se puedan resolver los problemas a tiempo, asegurando la calidad y seguridad del servicio.
Container, Indexer y Checker cooperan de manera efectiva, brindando a los clientes configuraciones de potencia de cálculo personalizables, seguras, estables y a un precio relativamente bajo. Para áreas como IA y juegos, Aethir es una solución comercial de calidad.
En general, Aethir ha remodelado la asignación y uso de los recursos de GPU a través del enfoque DePIN, haciendo que la potencia de cálculo sea más accesible y económica. Ha logrado algunos resultados notables en los campos de IA y juegos, y sigue expandiendo sus socios y líneas de negocio, con un potencial de desarrollo ilimitado en el futuro.
IO.NET: Una red de supercomputación distribuida que rompe los cuellos de botella de potencia de cálculo.
IO.NET completó en marzo de este año una ronda de financiamiento de 30 millones de dólares, con la participación de reconocidos VC como Hack VC, Delphi Digital y Foresight Ventures.
Similar a Aethir, construir una red de computación descentralizada a nivel empresarial, agregando recursos de cómputo inactivos (GPU, CPU) de todo el mundo, para ofrecer servicios de potencia de cálculo más accesibles, económicos y flexibles a las startups de IA.
A diferencia de Aethir, IO.NET utiliza el marco Ray (IO-SDK) para convertir miles de clústeres de GPU en un todo, sirviendo para aprendizaje automático (el marco Ray también fue utilizado por OpenAI para entrenar GPT-3). Al entrenar grandes modelos en un solo dispositivo, las limitaciones de memoria de CPU/GPU y los flujos de trabajo de procesamiento secuencial presentan un gran cuello de botella. Utilizando el marco Ray para orquestar y procesar por lotes, se ha logrado la paralelización de tareas de potencia de cálculo.
Para ello, IO.NET utiliza una arquitectura multicapa:
Capa de interfaz de usuario: Proporciona una interfaz visual frontal para los usuarios, incluyendo un sitio web público, área de clientes y área de proveedores de GPU, con el objetivo de ofrecer una experiencia de usuario intuitiva y amigable.
Capa de seguridad: Asegura la integridad y seguridad del sistema, integrando mecanismos de protección de red, autenticación de usuarios y registro de actividades.
Capa de API: Actúa como un centro de comunicación para el sitio web, proveedores y gestión interna, facilitando el intercambio de datos y la ejecución de diversas operaciones.
Capa de backend: Constituye el núcleo del sistema, encargándose de la gestión de clústeres/GPU, interacción con clientes y tareas operativas como la autoescalabilidad.
Capa de base de datos: Responsable del almacenamiento y gestión de datos, donde el almacenamiento principal maneja datos estructurados y la memoria caché se utiliza para el procesamiento de datos temporales.
Capa de tareas: Gestiona la comunicación asíncrona y la ejecución de tareas, garantizando la eficacia en el procesamiento y el flujo de datos.
Capa de infraestructura: Constituye la base del sistema, incluyendo un pool de recursos de GPU, herramientas de orquestación y tareas de ejecución/ML, equipada con soluciones de monitoreo robustas.
Desde un punto de vista técnico, IO.NET ha lanzado la arquitectura en capas de su tecnología central IO-SDK para abordar los desafíos del cálculo distribuido, así como la tecnología de túneles inversos y la arquitectura VPN en malla para resolver problemas de conexión segura y privacidad de datos. En un entorno donde Web3 está en auge y es considerado el próximo Filecoin, su futuro es prometedor.
En general, la misión central de IO.NET es construir la infraestructura DePIN más grande del mundo, concentrando todos los recursos de GPU inactivos del planeta para apoyar a los campos que requieren grandes cantidades de potencia de cálculo en IA y aprendizaje automático.
Hyperbolic: Construyendo un "bosque de IA", logrando un ecosistema distribuido de infraestructura de IA próspero y colaborativo.
Hoy, Hyperbolic anunció nuevamente que ha completado una ronda de financiamiento Serie A de más de 12 millones de dólares, liderada conjuntamente por Variant y Polychain Capital, con un total de financiamiento que supera los 20 millones de dólares. VC reconocidos como Bankless Ventures, Chapter One, Lightspeed Faction, IOSG, Blockchain Builders Fund, Alumni Ventures y Samsung Next también han participado. Esto demuestra la posición de liderazgo de Hyperbolic en la carrera de Web3 IA, con inversiones adicionales de los importantes VC de Silicon Valley, Polychain y LightSpeed Faction, evidenciando su estatus destacado.
La misión central de Hyperbolic es hacer que la IA sea accesible a todos, donde los desarrolladores puedan permitírselo y los creadores también. Hyperbolic busca construir un "bosque de IA", donde en su ecosistema, los desarrolladores puedan encontrar los recursos necesarios para la innovación, colaboración y desarrollo. Al igual que un bosque natural, los ecosistemas están interconectados, llenos de vida y son renovables, permitiendo a los creadores explorar sin restricciones.
Según Jasper y Yuchen, los cofundadores, aunque los modelos de IA pueden ser de código abierto, sin recursos de computación abiertos, esto no es suficiente. Actualmente, muchos grandes centros de datos controlan los recursos de GPU, lo que desalienta a muchos que desean utilizar IA. Hyperbolic busca romper esta situación, integrando recursos de computación inactivos a nivel global para establecer una infraestructura de potencia de cálculo DePIN, permitiendo que cualquier persona use IA fácilmente.
Por lo tanto, Hyperbolic ha introducido el concepto de "nube de IA abierta", donde cualquier computadora, desde la personal hasta un centro de datos, puede conectarse a Hyperbolic para obtener potencia de cálculo. Con esto, Hyperbolic ha creado una capa de IA verificable y que asegura la privacidad, permitiendo a los desarrolladores construir aplicaciones de IA con capacidad de inferencia, con potencia de cálculo que fluye directamente de la nube de IA.
Al igual que Aethir e IO.NET, la nube de IA de Hyperbolic posee su propio modelo de clúster de GPU único, denominado "clúster solar". Como sabemos, el sistema solar incluye varios planetas independientes como Mercurio y Marte; el clúster solar de Hyperbolic gestiona clústeres como el de Mercurio, Marte y Júpiter, que son diversos en usos y tamaños, pero independientes entre sí, todos orquestados por el sistema solar.
Este modelo asegura que el clúster de GPUs cumpla con dos características, siendo más flexible y maximizando la eficiencia en comparación con Aethir e IO.NET.
Para mantener el equilibrio del estado, el clúster de GPU se ampliará o reducirá automáticamente según la demanda.
Si un clúster se interrumpe, el clúster solar del sistema solar lo detectará y lo reparará automáticamente.
En las pruebas comparativas de rendimiento de modelos de lenguaje grande (LLM), el clúster de GPU de Hyperbolic alcanzó un rendimiento de 43 tokens/s, superando no solo los 42 tokens/s del equipo de Together AI de 60 personas, sino que también es claramente superior a los 27 tokens/s de HuggingFace, que cuenta con más de 300 miembros en su equipo.
En el experimento comparativo de velocidad de generación de modelos de generación de imágenes, el clúster de GPU de Hyperbolic también demostró su impresionante capacidad técnica. Utilizando el mismo modelo de generación de imágenes de código abierto SOTA, Hyperbolic lideró con una velocidad de generación de 17.6 imágenes/min, superando no solo las 13.6 imágenes/min de Together AI, sino también las 6.5 imágenes/min de IO.NET.
Estos datos demuestran con fuerza que el modelo de clúster de GPU de Hyperbolic posee una eficiencia extremadamente alta, y su rendimiento sobresaliente le permite destacar entre competidores más grandes. Combinado con su ventaja de precios asequibles, Hyperbolic es muy adecuado para aplicaciones de IA complejas que requieren un alto soporte de potencia de cálculo, proporcionando respuestas casi en tiempo real y asegurando que los modelos de IA tengan mayor precisión y eficiencia al manejar tareas complejas.
Además, desde la perspectiva de la innovación en criptomonedas, creemos que el mayor logro de Hyperbolic es el desarrollo del mecanismo de verificación PoSP (Prueba de Muestreo), que aborda uno de los mayores desafíos en el campo de la IA mediante un método descentralizado — verificar si las salidas provienen de un modelo específico, permitiendo que el proceso de inferencia se descentralice de manera económica y efectiva.
Basado en el principio de PoSP, el equipo de Hyperbolic ha desarrollado un mecanismo de spML (Sampling Machine Learning) para aplicaciones de IA, que aleatoriamente toma muestras de transacciones en la red, recompensando a los honestos y penalizando a los deshonestos, logrando un efecto de verificación ligero que aligera la carga computacional de la red, permitiendo que casi cualquier startup de IA complete su servicio de IA de manera descentralizada con un paradigma verificable.
El proceso de implementación específico es el siguiente:
1) Los nodos calcularon la función, enviando los resultados al orquestador de forma encriptada.
2) Luego, el orquestador decide si confía en este resultado; si confía, los nodos reciben recompensas por su cálculo.
3) Si no se confía, el orquestador seleccionará al azar a los validadores en la red y desafiará a los nodos, calculando la misma función. De igual manera, los validadores envían los resultados al orquestador de forma encriptada.
4) Finalmente, el orquestador verifica si todos los resultados son consistentes; si lo son, tanto los nodos como los validadores recibirán recompensas; si no lo son, se iniciará un proceso de arbitraje para rastrear el cálculo de cada resultado. Los honestos recibirán recompensas por su precisión, mientras que los deshonestos serán castigados por engañar al sistema.
Los nodos no saben si los resultados que presentan serán desafiados, ni saben qué validador elige el orquestador para desafiar, lo que garantiza la imparcialidad de la verificación. El costo de hacer trampa supera con creces los posibles beneficios.
Si el spML se valida en el futuro, será suficiente para cambiar las reglas del juego de las aplicaciones de IA, haciendo que la verificación de inferencias sin necesidad de confianza sea una realidad. Además, Hyperbolic tiene la capacidad única en la industria de aplicar el algoritmo BF16 en la inferencia de modelos (mientras que sus competidores aún están en FP8), lo que puede mejorar efectivamente la precisión de la inferencia, haciendo que el servicio de inferencia descentralizado de Hyperbolic sea excepcionalmente rentable.
Además, la innovación de Hyperbolic también se refleja en su integración de la oferta de potencia de cálculo en la nube de IA con aplicaciones de IA. La demanda del mercado de potencia de cálculo descentralizada es escasa, y Hyperbolic está atrayendo a desarrolladores para construir aplicaciones de IA mediante la creación de una infraestructura de IA verificable, donde la potencia de cálculo puede integrarse directamente en las aplicaciones de IA sin sacrificar el rendimiento y la seguridad. Una vez que se alcance un cierto tamaño, podrá autosostenerse, logrando un equilibrio entre oferta y demanda.
Los desarrolladores pueden construir aplicaciones innovadoras centradas en IA, potencia de cálculo, Web2 y Web3 en Hyperbolic, por ejemplo:
GPU Exchange, una plataforma de intercambio de GPUs construida sobre la red de GPU (capa de orquestación), que convierte los "recursos de GPU" en productos comerciables, haciendo que la potencia de cálculo sea más rentable.
IAO, o la tokenización de Agentes de IA, que permite a los contribuyentes ganar tokens, cuyos ingresos se distribuyen entre los tenedores de tokens.
DAO impulsado por IA, es decir, un DAO que ayuda en la toma de decisiones y gestión financiera mediante inteligencia artificial.
GPU Restaking, que permite a los usuarios conectar GPUs a Hyperbolic y luego apostarlas para aplicaciones de IA.
En general, Hyperbolic ha construido un ecosistema de IA abierto, permitiendo que todos puedan usar IA fácilmente. A través de la innovación tecnológica, Hyperbolic está haciendo que la IA sea más accesible y disponible, llenando el futuro de la IA de interoperabilidad y compatibilidad, y fomentando la innovación colaborativa.
Los datos regresan a los usuarios, juntos hacia la ola de IA.
Hoy en día, los datos son una mina de oro, y los datos personales están siendo capturados y comercializados sin compensación por los gigantes tecnológicos.
Los datos son el alimento de la IA. Sin datos de alta calidad, incluso los algoritmos más avanzados no pueden funcionar. La cantidad, calidad y diversidad de los datos afectan directamente el rendimiento del modelo de IA.
Como se mencionó anteriormente, la industria está esperando el lanzamiento de GPT-5. Sin embargo, aún no ha sido lanzado, posiblemente porque la cantidad de datos aún no es suficiente. Solo en la fase de publicación del artículo, GPT-3 necesitó 2 billones de tokens de datos. Se espera que GPT-5 alcance 200 billones de tokens de datos. Además de los datos textuales existentes, se necesitarán más datos multimodales, que deben ser limpiados antes de poder ser utilizados para el entrenamiento.
En los datos de internet público de hoy, hay escasez de muestras de datos de alta calidad. Una realidad es que los grandes modelos generan respuestas muy buenas en cualquier campo, pero su desempeño es deficiente ante preguntas de campos especializados, incluso pueden producir la ilusión de que el modelo "habla en serio tonterías".
Para garantizar la "frescura" de los datos, los gigantes de la IA a menudo negocian acuerdos con grandes propietarios de fuentes de datos. Por ejemplo, OpenAI firmó un acuerdo de 60 millones de dólares con Reddit.
Recientemente, algunas aplicaciones sociales han comenzado a requerir que los usuarios firmen acuerdos, exigiendo que los usuarios acepten que su contenido se utilice para entrenar modelos de IA de terceros, sin embargo, los usuarios no reciben ninguna compensación. Este comportamiento depredador ha suscitado cuestionamientos sobre los derechos de uso de datos.
Es evidente que el potencial de la descentralización y la trazabilidad de la blockchain es particularmente adecuado para mejorar el acceso a datos y recursos, al mismo tiempo que proporciona a los usuarios más control y transparencia sobre sus datos, además de la oportunidad de obtener beneficios al participar en el entrenamiento y optimización de los modelos de IA. Esta nueva forma de creación de valor de los datos aumentará significativamente la participación de los usuarios y promoverá la prosperidad general del ecosistema.
Web3 ya ha visto algunas empresas dirigidas a datos de IA, como:
Obtención de datos: Ocean Protocol, Vana, PIN AI, Sahara, etc.
Procesamiento de datos: Public AI, Lightworks, etc.
Entre los proyectos más interesantes están Vana, PIN AI y Sahara, que recientemente han conseguido grandes financiamientos con inversores de renombre. Estos proyectos han ido más allá de sus subcampos, combinando la adquisición de datos con el desarrollo de IA para impulsar la implementación de aplicaciones de IA.
Vana: Los usuarios controlan los datos, DAO y mecanismos de contribución reforman la economía de datos de IA.
Vana completó una ronda de financiamiento de 18 millones de dólares en diciembre de 2022 y una financiación estratégica de 5 millones de dólares en septiembre de este año. VC reconocidos como Paradigm, Polychain y Coinbase han invertido.
La filosofía central de Vana es "los datos son propiedad del usuario, lo que permite a los usuarios tener su propia IA". En esta era dominada por los datos, Vana desea romper el monopolio de los grandes corporaciones sobre los datos, permitiendo que los usuarios controlen sus propios datos y se beneficien de ellos.
Vana es una red de datos descentralizada, enfocada en proteger los datos privados, permitiendo que los datos de los usuarios se utilicen de manera tan flexible como los activos financieros. Vana intenta reformar el panorama de la economía de datos, transformando a los usuarios de proveedores de datos pasivos a constructores activos del ecosistema que participan y se benefician conjuntamente.
Para lograr esta visión, Vana permite a los usuarios reunir y subir datos a través de un DAO de datos, y luego validar el valor de los datos a través de un mecanismo de prueba de contribución, asegurando la privacidad. Estos datos pueden ser utilizados para entrenar IA, y los usuarios reciben incentivos basados en la calidad de los datos subidos.
En términos de implementación, la arquitectura técnica de Vana incluye cinco componentes clave: capa de liquidez de datos, capa de portabilidad de datos, grupo de conectores genéricos, almacenamiento de datos no gestionado y capa de aplicaciones descentralizadas.
Capa de Liquidez de Datos: Este es el núcleo de la red de Vana, que incentiva, agrega y valida datos valiosos a través de un fondo de liquidez de datos (DLP). DLP es como un "fondo de liquidez" para datos, donde cada DLP es un contrato inteligente dedicado a agregar tipos específicos de activos de datos, como datos de redes sociales de Reddit, Twitter, etc.
Capa de Portabilidad de Datos: Este componente otorga portabilidad a los datos del usuario, asegurando que el usuario pueda transferir y utilizar fácilmente sus datos entre diferentes aplicaciones y modelos de IA.
Mapa de ecosistema de datos: Este es un mapa que rastrea el flujo de datos en tiempo real a través de todo el ecosistema, asegurando la transparencia.
Almacenamiento de datos no gestionado: La innovación de Vana radica en su única forma de gestión de datos, que permite a los usuarios mantener el control total sobre sus datos. Los datos originales de los usuarios no se almacenan en la cadena, sino que los usuarios eligen dónde almacenarlos, como en servidores en la nube o servidores personales.
Capa de Aplicaciones Descentralizadas: Sobre la base de datos, Vana ha construido un ecosistema de aplicaciones abierto, donde los desarrolladores pueden utilizar los datos acumulados en DLP para construir diversas aplicaciones innovadoras, incluidas aplicaciones de IA, mientras que los contribuyentes de datos pueden recibir recompensas por estas aplicaciones.
Actualmente, Vana ha construido DLP enfocados en plataformas sociales como ChatGPT, Reddit, LinkedIn y Twitter, así como en datos de navegación relacionados con IA. A medida que más DLP se unan, más aplicaciones innovadoras se construirán en la plataforma, lo que le da a Vana el potencial de convertirse en la infraestructura de economía de IA y datos descentralizada de próxima generación.
Esto nos recuerda una noticia reciente en la que Meta, para mejorar la diversidad de LLM, está recolectando datos de usuarios del Reino Unido de Facebook e Instagram, pero ha sido criticado por obligar a los usuarios a elegir "optar por no participar" en lugar de "dar su consentimiento". Tal vez, construir un DLP para Facebook e Instagram en Vana, no solo aseguraría la privacidad de los datos, sino que también incentivaría a más usuarios a contribuir activamente.
PIN AI: Asistente de IA descentralizado, conectando datos e vida diaria de manera móvil.
PIN AI completó en septiembre de este año una ronda de financiamiento pre-semilla de 10 millones de dólares, con la participación de reconocidos VC y ángeles inversionistas como a16z CSX, Hack VC y Blockchain Builders Fund (aceleradora de blockchain de Stanford).
PIN AI es una red de IA abierta, respaldada por una red de almacenamiento de datos distribuida basada en la arquitectura DePIN, donde los usuarios pueden conectar sus dispositivos a la red, proporcionar datos personales/preferencias de usuario y obtener incentivos en forma de tokens. Esto permite a los usuarios recuperar el control y monetizar sus datos. Los desarrolladores pueden utilizar estos datos para construir agentes de IA útiles.
Su visión es convertirse en la alternativa descentralizada de Apple Intelligence, dedicada a ofrecer aplicaciones útiles para la vida cotidiana a la comunidad de usuarios, realizando las intenciones planteadas por los usuarios, como comprar productos en línea, planear viajes, o planificar inversiones.
PIN AI está compuesto por dos tipos de IA: el asistente de IA personal y el servicio de IA externo.
El asistente de IA personal puede acceder a los datos del usuario, recopilar sus necesidades y proporcionar los datos necesarios a los servicios de IA externos cuando los necesiten. La base de PIN AI está compuesta por una red de almacenamiento de datos distribuida DePIN, que proporciona ricos datos de usuarios para la inferencia de servicios de IA externos, sin poder acceder a la privacidad personal del usuario.
Con PIN AI, los usuarios ya no necesitarán abrir miles de aplicaciones móviles para completar diferentes tareas. Cuando los usuarios expresen intenciones como "quiero comprar ropa nueva", "qué tipo de comida pedir" o "encontrar la mejor oportunidad de inversión en este artículo", la IA no solo entenderá las preferencias del usuario, sino que también podrá ejecutar eficazmente todas estas tareas: encontrará las aplicaciones y proveedores de servicios más relevantes para cumplir con la intención del usuario mediante un sistema de licitación.
Lo más importante es que PIN AI ha reconocido la necesidad de introducir un servicio descentralizado que ofrezca más valor, en un momento en que los usuarios están acostumbrados a interactuar directamente con proveedores de servicios centralizados. El asistente de IA personal puede legítimamente obtener datos valiosos generados al interactuar el usuario con aplicaciones Web2, almacenándolos y llamándolos de manera descentralizada, haciendo que los mismos datos brinden un mayor valor, beneficiando simultáneamente a los propietarios y a los que los utilizan.
Aunque la red principal de PIN AI aún no se ha lanzado oficialmente, el equipo ha mostrado una pequeña muestra de la forma del producto a los usuarios a través de Telegram, facilitando la comprensión de la visión.
Hi PIN Bot está compuesto por tres secciones: Play, Data Connectors y AI Agent.
Play es un compañero virtual de IA, respaldado por modelos grandes como PIN AI-1.5b, Gemma y Llama. Esto equivale al asistente personal de IA de PIN AI.
En los Conectores de Datos, los usuarios pueden conectar sus cuentas de Google, Facebook, X y Telegram, ganando puntos para mejorar su compañero virtual. En el futuro, también se añadirán las cuentas de Amazon, eBay, Uber, etc. Esto equivale a la red de datos DePIN de PIN AI.
Tus propios datos para tu propio uso; al conectar datos, los usuarios podrán hacer solicitudes a un compañero virtual (próximamente), que proporcionará los datos del usuario a agentes de IA que cumplan con los requisitos de la tarea.
El equipo oficial ha desarrollado algunos prototipos de agentes de IA, que todavía están en fase de prueba, equivalentes a los servicios de IA externos de PIN AI. Por ejemplo, X Insight, que al ingresar una cuenta de Twitter puede analizar el rendimiento de dicha cuenta. Cuando los Conectores de Datos soporten cuentas de plataformas como comercio electrónico y entrega de comida, agentes de IA como Shopping y Order Food también podrán actuar, procesando pedidos de usuarios de manera autónoma.
En general, mediante la combinación de DePIN+IA, PIN AI ha creado una red de IA abierta que permite a los desarrolladores construir aplicaciones de IA verdaderamente útiles, haciendo que la vida de los usuarios sea más conveniente e inteligente. A medida que más desarrolladores se unan, PIN AI traerá más aplicaciones innovadoras, integrando la IA en la vida cotidiana.
Sahara: Liderando la confirmación de datos de IA, privacidad y comercio justo con una arquitectura multicapa.
Sahara completó en agosto de este año una ronda de financiamiento de 43 millones de dólares, con inversiones de reconocidos VC como Binance Labs, Pantera Capital y Polychain.
Sahara AI es una plataforma de aplicación blockchain de IA de arquitectura multicapa, enfocada en establecer un modelo de desarrollo de IA más justo y transparente en la era de la IA, que pueda asignar el valor de los datos y compartir beneficios con los usuarios, abordando los puntos débiles de privacidad, seguridad, acceso a datos y transparencia en los sistemas de IA tradicionales.
En términos simples, Sahara AI busca construir una red de IA descentralizada que permita a los usuarios controlar sus datos y recibir recompensas basadas en la calidad de los datos que contribuyan. De este modo, los usuarios dejan de ser meros proveedores de datos pasivos y se convierten en constructores activos del ecosistema que pueden compartir beneficios.
Los usuarios pueden subir datos a su mercado de datos descentralizado y luego probar la propiedad de estos datos a través de un mecanismo especial ("confirmación"). Estos datos pueden ser utilizados para entrenar IA, y los usuarios recibirán recompensas basadas en la calidad de los datos.
Sahara AI incluye aplicaciones, transacciones, datos y una arquitectura de ejecución de cuatro capas, proporcionando una sólida base para el desarrollo del ecosistema de IA.
Capa de Aplicaciones: Proporciona herramientas como un vault seguro, un mercado de datos de IA descentralizado, un paquete de herramientas sin código y Sahara ID. Estas herramientas aseguran la privacidad de los datos y fomentan una compensación justa para los usuarios, simplificando además el proceso de creación y despliegue de aplicaciones de IA.
En resumen, el vault utiliza tecnologías de cifrado avanzadas para asegurar la seguridad de los datos de IA; el mercado de datos de IA descentralizada puede utilizarse para la recopilación, etiquetado y transformación de datos, fomentando la innovación y el comercio justo; el paquete de herramientas sin código facilita el desarrollo de aplicaciones de IA; y Sahara ID se encarga de gestionar la reputación del usuario, garantizando la confianza.
Capa de transacciones: La blockchain de Sahara asegura la eficiencia y estabilidad de la red a través de un mecanismo de consenso de prueba de participación (PoS), permitiendo alcanzar consenso incluso en presencia de nodos maliciosos. Además, la función nativa de precompilación de Sahara está diseñada para optimizar el procesamiento de IA, permitiendo realizar cálculos eficientes directamente en un entorno blockchain, mejorando el rendimiento del sistema.
Capa de datos: Maneja datos en cadena y fuera de cadena. La procesamiento de datos en cadena incluye registros de operaciones y atributos no rastreables, asegurando credibilidad y transparencia; los datos fuera de cadena manejan conjuntos de datos grandes, utilizando tecnología de Merkle Tree y pruebas de conocimiento cero para asegurar la integridad y seguridad de los datos, evitando duplicados y alteraciones.
Capa de ejecución: Abstrae las operaciones de vault, modelos de IA y aplicaciones de IA, soportando diversos paradigmas de entrenamiento, inferencia y servicios de IA.
La arquitectura de cuatro capas no solo asegura la seguridad y escalabilidad del sistema, sino que también refleja la gran visión de Sahara AI para promover la economía colaborativa y el desarrollo de IA, buscando transformar radicalmente los modelos de aplicación de tecnología de IA, proporcionando soluciones más innovadoras y justas para los usuarios.
Conclusión
Con el avance continuo de la tecnología de IA y el surgimiento del mercado de criptomonedas, estamos al borde de una nueva era.
Con la continua aparición de grandes modelos de IA y aplicaciones, la demanda de potencia de cálculo está creciendo de manera exponencial. Sin embargo, la escasez de potencia de cálculo y el aumento de costos son un gran desafío para muchas pequeñas y medianas empresas. Afortunadamente, soluciones descentralizadas, especialmente Hyperbolic, Aethir e IO.NET, han proporcionado nuevas vías para adquirir potencia de cálculo a startups de IA, reduciendo costos y mejorando la eficiencia.
Al mismo tiempo, también hemos visto la importancia de los datos en el desarrollo de la IA. Los datos no solo son el alimento de la IA, sino que también son clave para impulsar la implementación de aplicaciones de IA. Proyectos como PIN AI y Sahara están incentivando a los usuarios a participar en la recopilación y el intercambio de datos, proporcionando un sólido apoyo de datos para el desarrollo de la IA.
La potencia de cálculo y los datos no son solo parte del proceso de entrenamiento; para las aplicaciones de IA, desde la captura de datos hasta la producción de inferencias, cada paso requiere herramientas diferentes para manejar grandes volúmenes de datos, y este es un proceso que se repite constantemente.
En este mundo entrelazado de IA y Crypto, tenemos razones para creer que en el futuro veremos más proyectos innovadores de IA surgir, los cuales no solo cambiarán nuestra forma de trabajar y vivir, sino que también impulsarán a la sociedad hacia un desarrollo más inteligente y descentralizado. Con el continuo avance de la tecnología y la madurez del mercado, esperamos la llegada de una era de IA más abierta, justa y eficiente.