A primera vista, AI x Web3 parecen ser tecnologías independientes, cada una de las cuales se basa en principios fundamentalmente diferentes y cumple funciones diferentes. Sin embargo, si profundizamos más, descubriremos que existen oportunidades para que ambas tecnologías equilibren sus compensaciones y que sus fortalezas únicas pueden complementarse y mejorarse mutuamente. Balaji Srinivasan articuló brillantemente este concepto de capacidades complementarias en la conferencia SuperAI, inspirando una comparación detallada de cómo interactúan estas tecnologías.

Con un enfoque ascendente, Token surgió de los esfuerzos de descentralización de ciberpunks anónimos y ha evolucionado durante más de una década a través de los esfuerzos colaborativos de numerosas entidades independientes en todo el mundo. En cambio, la IA se desarrolla mediante un enfoque de arriba hacia abajo, dominado por un puñado de gigantes tecnológicos. Estas empresas marcan el ritmo y la dinámica de la industria, con barreras de entrada determinadas más por la intensidad de recursos que por la complejidad tecnológica.

Además, las dos tecnologías son de naturaleza completamente diferente. En esencia, los tokens son sistemas deterministas que producen resultados inmutables, como la previsibilidad de una función hash o una prueba de conocimiento cero. Esto contrasta con la naturaleza probabilística y a menudo impredecible de la inteligencia artificial.

Asimismo, la criptografía sobresale en la verificación, garantizando la autenticidad y seguridad de las transacciones y estableciendo procesos y sistemas sin confianza, mientras que la IA se centra en la generación, creando contenido digital enriquecido. Sin embargo, en el proceso de creación de abundancia digital, garantizar la procedencia del contenido y prevenir el robo de identidad se convierte en un desafío.

Afortunadamente, los tokens ofrecen el concepto opuesto de abundancia digital: escasez digital. Proporciona herramientas relativamente maduras que pueden extenderse a la tecnología de inteligencia artificial para garantizar la confiabilidad de las fuentes de contenido y evitar problemas de robo de identidad.

Una ventaja significativa de los tokens es su capacidad para atraer grandes cantidades de hardware y capital a redes coordinadas para cumplir objetivos específicos. Esta capacidad es particularmente beneficiosa para la inteligencia artificial que consume grandes cantidades de potencia informática. Movilizar recursos subutilizados para proporcionar potencia informática más barata puede mejorar significativamente la eficiencia de la inteligencia artificial.

Al comparar estas dos tecnologías, no sólo podemos apreciar sus contribuciones individuales, sino también ver cómo juntas pueden crear nuevos caminos para la tecnología y la economía. Cada tecnología puede complementar las deficiencias de la otra, creando un futuro más integrado e innovador. En esta publicación de blog, nuestro objetivo es explorar el panorama industrial emergente de AI x Web3, destacando algunas verticales emergentes en la intersección de estas tecnologías.

Fuente: IOSG Ventures

2.1 Red informática

El mapa de la industria presenta primero las redes informáticas que intentan resolver el problema del suministro limitado de GPU y reducir los costos informáticos de diferentes maneras. Vale la pena centrarse en los siguientes elementos:

  • Interoperabilidad de GPU no unificada: Este es un esfuerzo muy ambicioso con altos riesgos e incertidumbres técnicos, pero si tiene éxito, tiene el potencial de crear resultados de gran escala e impacto, haciendo que todos los recursos informáticos sean interoperables. Esencialmente, la idea es crear el compilador y otros requisitos previos para que, en el lado de la oferta, se pueda conectar cualquier recurso de hardware, mientras que, en el lado de la demanda, la falta de uniformidad de todo el hardware se abstraerá por completo para que sus solicitudes informáticas puedan enrutarse. a la red cualquier recurso en . Si esta visión tiene éxito, reducirá la dependencia actual del software CUDA, que está completamente dominado por los desarrolladores de IA. A pesar de los elevados riesgos técnicos, muchos expertos se muestran muy escépticos sobre la viabilidad de este enfoque.

  • Agregación de GPU de alto rendimiento: consolide las GPU más populares del mundo en una red distribuida y sin permisos sin preocuparse por problemas de interoperabilidad entre recursos de GPU no uniformes.

  • Agregación de GPU de consumo básico: apunta a agregar algunas GPU de menor rendimiento que pueden estar disponibles en dispositivos de consumo. Estas GPU son los recursos más infrautilizados en el lado de la oferta. Está dirigido a aquellos que están dispuestos a sacrificar el rendimiento y la velocidad por una sesión de entrenamiento más larga y económica.

2.2 Entrenamiento e inferencia

Las redes computacionales se utilizan principalmente para dos funciones principales: entrenamiento e inferencia. La necesidad de estas redes proviene de proyectos Web 2.0 y Web 3.0. En el mundo de la Web 3.0, proyectos como Bittensor aprovechan los recursos informáticos para ajustar el modelo. En términos de razonamiento, los proyectos Web 3.0 enfatizan la verificabilidad de los procesos. Este enfoque ha dado lugar a un razonamiento verificable como vertical de mercado, con proyectos que exploran cómo integrar el razonamiento de IA en contratos inteligentes manteniendo al mismo tiempo los principios de descentralización.

2.3 Plataforma de agente inteligente

El siguiente paso son las plataformas de agentes inteligentes, y el gráfico describe los problemas centrales que las startups de esta categoría deben resolver:

  • Interoperabilidad de agentes y capacidades de descubrimiento y comunicación: los agentes pueden descubrirse y comunicarse entre sí.

  • Capacidades de construcción y gestión de clústeres de agentes: los agentes pueden formar clústeres y gestionar otros agentes.

  • Propiedad y mercado para agentes de IA: Proporcionar propiedad y mercado para agentes de IA.

Estas características enfatizan la importancia de los sistemas flexibles y modulares que pueden integrarse perfectamente en una variedad de aplicaciones de inteligencia artificial y blockchain. Los agentes de IA tienen el potencial de revolucionar la forma en que interactuamos con Internet y creemos que los agentes aprovecharán la infraestructura para respaldar sus operaciones. Imaginamos que los agentes de IA dependan de la infraestructura de las siguientes maneras:

  • Acceda a datos web en tiempo real utilizando una red de scraping distribuida

  • Uso de canales DeFi para pagos entre agentes

  • Requerir un depósito financiero no sólo tiene como objetivo castigar la mala conducta cuando ocurre, sino también aumentar la capacidad de descubrimiento del agente (es decir, utilizar el depósito como una señal financiera durante el descubrimiento).

  • Utilice el consenso para decidir qué eventos deberían resultar en recortes

  • Estándares de interoperabilidad abiertos y marcos de agencia para permitir la construcción de colectivos componibles

  • Evalúe el desempeño pasado basándose en un historial de datos inmutables y seleccione los colectivos de agentes apropiados en tiempo real

Fuente: IOSG Ventures

2.4 Capa de datos

En la integración de AI x Web3, los datos son un componente central. Los datos son un activo estratégico en la competencia de la IA y, junto con los recursos informáticos, constituyen un recurso clave. Sin embargo, esta categoría a menudo se pasa por alto porque la mayor parte de la atención de la industria se centra en el nivel informático. De hecho, las primitivas proporcionan muchas direcciones de valor interesantes en el proceso de adquisición de datos, incluidas principalmente las siguientes dos direcciones de alto nivel:

  • Acceder a datos públicos de Internet

  • Acceder a datos protegidos

Acceder a datos públicos de Internet: esta dirección tiene como objetivo construir redes de rastreo distribuidas que puedan rastrear todo Internet en cuestión de días, obtener conjuntos de datos masivos o acceder a datos de Internet muy específicos en tiempo real. Sin embargo, para rastrear grandes conjuntos de datos en Internet, los requisitos de la red son muy altos y se requieren al menos unos cientos de nodos para iniciar un trabajo significativo. Afortunadamente, Grass, una red de nodos rastreadores distribuidos, ya tiene más de 2 millones de nodos que comparten activamente ancho de banda de Internet con la red, con el objetivo de rastrear todo Internet. Esto muestra el enorme potencial de los incentivos financieros para atraer recursos valiosos.

Si bien Grass nivela el campo de juego cuando se trata de datos públicos, todavía existen desafíos para aprovechar los datos subyacentes, es decir, el acceso a conjuntos de datos propietarios. En concreto, todavía hay una gran cantidad de datos que se conservan de forma que se preserve la privacidad debido a su naturaleza sensible. Muchas nuevas empresas están aprovechando herramientas criptográficas que permiten a los desarrolladores de IA crear y ajustar grandes modelos de lenguaje utilizando las estructuras de datos subyacentes de conjuntos de datos propietarios, manteniendo al mismo tiempo la privacidad de la información confidencial.

Tecnologías como el aprendizaje federado, la privacidad diferencial, los entornos de ejecución confiables y la computación totalmente homomórfica y multipartita brindan diferentes niveles de protección de la privacidad y compensaciones. El artículo de investigación de Bagel (https://blog.bagel.net/p/with-great-data-comes-great-responsibility-d67) resume una excelente descripción general de estas técnicas. Estas tecnologías no solo protegen la privacidad de los datos durante el proceso de aprendizaje automático, sino que también permiten soluciones integrales de IA que preservan la privacidad a nivel informático.

2.5 Fuentes de datos y modelos

Las técnicas de procedencia de datos y modelos tienen como objetivo establecer procesos que puedan asegurar a los usuarios que están interactuando con los modelos y datos previstos. Además, estas tecnologías brindan garantías de autenticidad y procedencia. Tomando la tecnología de marcas de agua como ejemplo, las marcas de agua son una de las tecnologías fuente del modelo, que incorpora la firma directamente en el algoritmo de aprendizaje automático, más específicamente en los pesos del modelo, de modo que se pueda verificar durante la recuperación si la inferencia proviene del modelo esperado. .

2.6 Aplicación

En términos de aplicaciones, las posibilidades de diseño son infinitas. En el mapa de la industria anterior, enumeramos algunos casos de desarrollo que son particularmente interesantes con la aplicación de la tecnología de IA en el campo de la Web 3.0. Dado que estos casos de uso son en su mayoría autodescriptivos, no hacemos comentarios adicionales aquí. Sin embargo, vale la pena señalar que la intersección de la IA y la Web 3.0 tiene el potencial de remodelar muchas verticales del campo, ya que estas nuevas primitivas brindan a los desarrolladores más libertad para crear casos de uso innovadores y optimizar los casos de uso existentes.

Resumir

La convergencia AI x Web3 trae consigo una promesa llena de innovación y potencial. Aprovechando las fortalezas únicas de cada tecnología, podemos resolver una variedad de desafíos y crear nuevos caminos tecnológicos. A medida que exploramos esta industria emergente, la sinergia entre AI x Web3 puede impulsar un progreso que remodele nuestras futuras experiencias digitales y la forma en que interactuamos en la web.

La convergencia de la escasez y la abundancia digitales, la movilización de recursos subutilizados para lograr eficiencia computacional y el establecimiento de prácticas de datos seguras que preserven la privacidad definirán la próxima era de evolución tecnológica.

Sin embargo, debemos reconocer que esta industria aún está en su infancia y el panorama actual de la industria puede volverse obsoleto en un corto período de tiempo. El rápido ritmo de la innovación significa que las soluciones de vanguardia actuales pronto podrían ser reemplazadas por nuevos avances. No obstante, los conceptos fundamentales discutidos, como redes informáticas, plataformas de agentes y protocolos de datos, resaltan las vastas posibilidades para integrar la inteligencia artificial con la Web 3.0.