rounded

Escrito por: Hackear VC

Compilado por: TinTinLand

 

La IA es una de las áreas más candentes y prometedoras del mercado de las criptomonedas recientemente:

 

  • Entrenamiento de IA descentralizado

  • DePIN de GPU

  • Modelos de IA sin censura

 

¿Son estos avances o simplemente exageraciones? Hack VC analiza las principales ideas de combinación de Crypto✖️AI. ¡Discutamos juntos los desafíos y oportunidades reales!

 

Ideas con potencial y desafíos

 

Primero, comencemos con las “perspectivas de la IA Web3”: estas ideas generan mucha publicidad, pero la realidad puede no ser tan ideal.

 


Idea n.º 1: formación descentralizada en IA

 

El problema de realizar entrenamiento de IA en cadena es que el entrenamiento requiere comunicación y coordinación de alta velocidad entre GPU porque las redes neuronales requieren retropropagación durante el entrenamiento. Nvidia ofrece dos innovaciones para ello (NVLink e InfiniBand). Estas técnicas hacen que la comunicación de GPU sea más rápida, pero se limitan a clústeres de GPU dentro de un único centro de datos (velocidades de más de 50 Gbps).

 

Si se introduce una red descentralizada, la velocidad disminuirá repentinamente en varios órdenes de magnitud debido al aumento de la latencia y el ancho de banda de la red. Esto no es un punto de partida para los casos de uso de entrenamiento de IA en comparación con las interconexiones de alta velocidad de Nvidia dentro de los centros de datos.

 

Es importante señalar que aquí hay algunas innovaciones que pueden brindar nuevas posibilidades para el futuro:

 

La capacitación distribuida a través de InfiniBand se está realizando a escala porque NVIDIA admite de forma nativa la capacitación distribuida y no local a través de la Biblioteca de comunicación colectiva de NVIDIA. Sin embargo, esto aún se encuentra en sus primeras etapas, por lo que las métricas de adopción aún no se han determinado. El cuello de botella causado por la distancia física todavía existe, por lo que el entrenamiento local a través de InfiniBand sigue siendo significativamente más rápido.

 

Recientemente se han publicado algunas investigaciones novedosas que muestran que al depender de una menor sincronización de la comunicación, es posible que la capacitación descentralizada sea más práctica en el futuro.

 

La programación inteligente de fragmentación y entrenamiento de modelos también puede ayudar a mejorar el rendimiento. Del mismo modo, es posible que en el futuro se diseñen nuevas arquitecturas modelo específicamente para infraestructura descentralizada (Gensyn está trabajando en estas áreas).

 

La parte de datos de la capacitación también es un desafío. Cualquier proceso de entrenamiento de IA implica procesar grandes cantidades de datos. Normalmente, los modelos se entrenan en sistemas de almacenamiento de datos centralizados y seguros con alta escalabilidad y rendimiento. Esto requiere transferir y procesar terabytes de datos y no es un ciclo único. Los datos suelen tener ruido y contener errores, por lo que deben limpiarse y convertirse a un formato utilizable antes de entrenar un modelo. Esta etapa implica las tareas repetitivas de normalizar, filtrar y manejar los valores faltantes. Estos plantean serios desafíos en un entorno descentralizado.

 

La parte de datos del entrenamiento también es iterativa, lo que no es muy adecuado para Web3. OpenAI necesitó miles de iteraciones para lograr sus resultados. Los escenarios de tareas más básicos para los expertos en ciencia de datos en equipos de IA incluyen definir objetivos, preparar datos, analizarlos y estructurarlos para extraer información importante y hacerlos adecuados para el modelado. Luego, desarrolle un modelo de aprendizaje automático para resolver el problema definido y valide su desempeño utilizando un conjunto de datos de prueba. El proceso es iterativo: si el modelo actual no funciona como se esperaba, los expertos volverán a la fase de recopilación de datos o de entrenamiento del modelo para mejorar los resultados. Ahora, imagine cómo sería este proceso en un entorno descentralizado, donde los mejores marcos y herramientas existentes en Web3 no están disponibles.

 

Otro problema con el entrenamiento de modelos de IA en cadena es que es un mercado menos interesante que la inferencia. Actualmente, se utiliza una gran cantidad de recursos informáticos GPU para la formación de AI LLM. Pero a largo plazo, la inferencia se convertirá en un caso de uso más común para las GPU. Piénselo: ¿cuántos LLM de IA necesita capacitar para satisfacer a los usuarios de todo el mundo y cuántos clientes están utilizando estos modelos?

 

Una solución que está progresando en todos los frentes es 0g.ai, que proporciona una infraestructura de disponibilidad y almacenamiento de datos en cadena. Su arquitectura ultrarrápida y su capacidad para almacenar grandes cantidades de datos en cadena permiten un entrenamiento rápido e iterativo de modelos de IA en cadena.

 

Idea n.º 2: utilizar cálculos de inferencia de IA demasiado redundantes para llegar a un consenso

 

Uno de los desafíos con CryptoxAI es verificar la precisión de la inferencia de la IA, porque no se puede confiar plenamente en una única parte centralizada para realizar la inferencia y puede existir el riesgo de que los nodos se comporten mal. En Web2 AI, este desafío no existe porque no existe un sistema de consenso descentralizado.

 

Una propuesta para resolver este problema es la computación redundante, donde múltiples nodos repiten las mismas operaciones de inferencia de IA para que puedan operar sin confianza, sin un único punto de falla.

 

El problema con este enfoque es que vivimos en un mundo con una grave escasez de chips de IA de alta gama. Hay un período de espera de varios años para los chips NVIDIA de alta gama, lo que hace subir los precios. Si también necesita volver a ejecutar su inferencia de IA varias veces en varios nodos, ahora está multiplicando esos costosos costos. Esto no es factible para muchos proyectos.

 

Idea n.º 3: casos de uso de IA a corto plazo específicos de Web3

 

Se ha sugerido que Web3 debería tener sus propios casos de uso de IA únicos, específicamente para los usuarios de Web3. Esto podría ser, por ejemplo, un protocolo Web3 que utiliza IA para calificar el riesgo de los grupos DeFi, una billetera Web3 que sugiere nuevos protocolos basados ​​en el historial de su billetera o un juego Web3 que usa IA para controlar personajes que no son jugadores (NPC).

 

Actualmente, este es un mercado en pañales y todavía quedan muchos casos de uso por descubrir. Algunos desafíos incluyen:

 

  • Los casos de uso nativos de Web3 requieren menos volumen de transacciones de IA porque la demanda del mercado aún está en su infancia.

 

  • Hay menos clientes porque hay muchos menos clientes Web3 en comparación con clientes Web2, por lo que el mercado está menos fragmentado.

 

  • Los propios clientes también son inestables porque son empresas emergentes con menos capital, por lo que algunas empresas emergentes pueden fracasar con el tiempo. Es posible que los proveedores de servicios de IA de Web3 que atienden a clientes de Web3 necesiten recuperar una parte de su base de clientes con el tiempo para reemplazar a aquellos que han cerrado, lo que hace que expandirse sea un negocio más difícil.

 

A largo plazo, Hack VC es muy optimista en los casos de uso de IA nativa de Web3, especialmente a medida que los agentes de IA se vuelven más frecuentes. Imaginamos un futuro en el que cada usuario de Web3 tenga una gran cantidad de agentes de IA que lo ayuden. Este líder de categoría inicial es Theoriq, que permite agentes de IA en cadena autónomos y componibles.

 

Idea n.º 4: DePIN de GPU de consumo

 

Hay muchas redes informáticas de IA descentralizadas que dependen de GPU de consumo en lugar de centros de datos. Las GPU de consumo son adecuadas para tareas de inferencia de IA de gama baja o casos de uso de consumo donde la latencia, el rendimiento y la confiabilidad son flexibles. Pero para los casos de uso empresarial profesional (que son los mercados más importantes), los clientes necesitan redes de mayor confiabilidad que las máquinas domésticas individuales y, a menudo, GPU de gama alta si tienen tareas de inferencia más complejas. Los centros de datos son más adecuados para estas aplicaciones más valiosas para los clientes.

 

Es importante tener en cuenta que consideramos que las GPU de consumo son adecuadas para fines de demostración o para personas y empresas emergentes que pueden tolerar una menor confiabilidad. Pero estos clientes son fundamentalmente menos valiosos, por lo que creemos que los DePIN que atienden a empresas Web2 serán más valiosos a largo plazo. Como resultado, el proyecto GPU DePIN, como se lo conoce generalmente, ha evolucionado desde sus inicios con hardware principalmente de consumo hasta tener A100/H100 y disponibilidad a nivel de clúster.

 

Casos de uso prácticos y del mundo real para Crypto x AI

 

Ahora, analicemos casos de uso que brindan un "beneficio real", donde Crypto x AI puede agregar valor significativamente.

 


Caso de uso n.º 1: servicio a clientes Web2

 

McKinsey estima que la IA generativa podría agregar el equivalente a entre 2,6 y 4,4 billones de dólares en valor por año en los 63 casos de uso que analizaron, en comparación con el PIB total del Reino Unido de 3,1 billones de dólares en 2021. Esto aumentaría el impacto de toda la IA entre un 15% y un 40%. Esta estimación se duplica aproximadamente si incluimos el impacto de incorporar IA generativa en el software que actualmente se utiliza para otras tareas.

 

Si se calculan las estimaciones anteriores, esto significa que el mercado global de IA (excluyendo la IA generativa) podría valer billones de dólares. En comparación, el valor total de todas las criptomonedas, incluido Bitcoin y todas las altcoins, es actualmente de sólo unos 2,7 billones de dólares. Así que tenemos que ser realistas: la gran mayoría de los clientes que necesitan IA a corto plazo son clientes de Web2, porque los clientes de Web3 que realmente necesitan IA sólo representan una pequeña parte de los 2,7 billones (considerando que BTC representa la mitad de este mercado). , y el propio BTC (sin necesidad/uso de IA).

 

Los casos de uso de Web3 AI apenas están comenzando y no está claro qué tan grande será el mercado. Pero una cosa es intuitivamente segura: en el futuro previsible será una pequeña parte del mercado Web2. Creemos que Web3 AI todavía tiene un futuro brillante, pero eso solo significa que la aplicación más poderosa de Web3 AI en este momento está sirviendo a los clientes de Web2.

 

Algunos clientes de Web2 que pueden beneficiarse de Web3 AI incluyen:

 

  • Empresas de software verticales creadas teniendo en cuenta la IA desde el principio (por ejemplo, Cedar.ai u Observe.ai)

  • Grandes empresas que ajustan modelos para sus propios fines (por ejemplo, Netflix)

  • Proveedores de IA de rápido crecimiento (por ejemplo, Anthropic)

  • Empresas de software que añaden IA a productos existentes (por ejemplo, Canva)

 

Se trata de una base de clientes relativamente estable porque estos clientes suelen ser grandes y de alto valor. Es poco probable que cierren pronto y representan una enorme base de clientes potenciales para los servicios de IA. Los servicios de IA de Web3 que prestan servicios a los clientes de Web2 se beneficiarán de esta base de clientes estable.

 

Pero, ¿por qué un cliente de Web2 querría utilizar la tecnología Web3? El resto de este artículo explica este razonamiento.

 

Caso de uso n.° 2: reduzca los costos de uso de GPU con GPU DePIN

 

Los GPU DePIN agregan potencia informática de GPU infrautilizada (la más confiable de las cuales proviene de los centros de datos) y la utilizan para la inferencia de IA (como io.net). Una forma sencilla de pensar en ello es pensar en ello como el “Airbnb de las GPU” (consumo efectivamente colaborativo de activos subutilizados).

 

 

La razón por la que estamos entusiasmados con los GPU DePIN es, como se mencionó anteriormente, que actualmente hay una escasez de chips NVIDIA y actualmente hay ciclos de GPU desperdiciados que podrían usarse para la inferencia de IA. Estos propietarios de hardware ya tienen costos hundidos y no están utilizando plenamente sus equipos hoy en día, por lo que estos ciclos fraccionarios de GPU pueden estar disponibles a un costo mucho menor que el status quo porque efectivamente es una "ganancia inesperada" para el propietario del hardware.

 

Por ejemplo:

 

  • Máquinas AWS: si alquila un H100 de AWS hoy, deberá comprometerse a un contrato de arrendamiento por un año porque la oferta del mercado es limitada. Esto genera desperdicio porque es poco probable que utilice su GPU los 7 días de la semana, los 365 días del año.

 

  • Hardware de minería de Filecoin: Filecoin es una red con una gran oferta subsidiada pero sin una demanda real significativa. Desafortunadamente, Filecoin nunca encontró una verdadera adecuación entre el producto y el mercado, por lo que los mineros de Filecoin corrieron el riesgo de cerrar. Estas máquinas tienen GPU que pueden reutilizarse para tareas de inferencia de IA de bajo nivel.

 

  • Hardware de minería ETH: cuando ETH pasa de PoW a PoS, se lanza inmediatamente una gran cantidad de hardware que puede reutilizarse para la inferencia de IA.

 

Es importante tener en cuenta que no todo el hardware de GPU es adecuado para la inferencia de IA. Una razón obvia es que las GPU más antiguas no tienen suficiente memoria de GPU para manejar LLM, aunque existen algunas innovaciones interesantes en esta área. Por ejemplo, Exabits tiene tecnología que carga neuronas activas en la memoria de la GPU y neuronas inactivas en la memoria de la CPU. Predicen qué neuronas deben estar activas/inactivas. Esto permite que incluso las GPU de gama baja con memoria de GPU limitada manejen cargas de trabajo de IA, lo que hace que las GPU de gama baja sean más útiles en la inferencia de IA.

 

También es importante tener en cuenta que los Web3 AI DePIN deberán solidificar sus servicios con el tiempo y proporcionar servicios de nivel empresarial, como inicio de sesión único, cumplimiento de SOC 2, acuerdos de nivel de servicio (SLA), etc. Esto será similar a lo que los clientes de Web2 disfrutan actualmente en la nube.

 

Caso de uso n.º 3: Evite la autocensura de OpenAI con modelos sin censura

 

Se debate mucho sobre la censura de la IA. Turquía, por ejemplo, prohibió temporalmente OpenAI (posteriormente levantó la prohibición después de que OpenAI mejorara su cumplimiento). Creemos que este escrutinio es inherentemente inútil, ya que los países necesitan adoptar la IA para seguir siendo competitivos.

 

Aún más interesante es la autocensura de OpenAI. Por ejemplo, OpenAI no manejará contenido NSFW ni predecirá las próximas elecciones presidenciales. Creemos que existe un mercado enorme e interesante para casos de uso de IA que, por alguna razón, OpenAI no quiere tocar.

 

El código abierto es una gran solución porque los repositorios de Github no están en deuda con los accionistas ni con la junta directiva. Por ejemplo, Venice.ai promete proteger su privacidad y operar sin censura. La clave, por supuesto, es el código abierto, que impulsa esto. Web3 AI puede llevar eficazmente estos modelos de software de código abierto (OSS) al siguiente nivel ejecutando estas inferencias en clústeres de GPU de bajo costo. Es por eso que creemos que OSS+Web3 es la combinación ideal para ser pioneros en la IA sin censura.

 

Caso de uso n.° 4: evite enviar información de identificación personal a OpenAI

 

Muchas grandes empresas están muy preocupadas por la privacidad de sus datos corporativos internos. Es muy difícil para estos clientes confiar sus datos a un tercero centralizado como OpenAI.

 

Con Web3, a primera vista puede parecer más preocupante para estas empresas, ya que sus datos internos aparecen de repente en una red descentralizada. Sin embargo, existen algunas innovaciones en el campo de las tecnologías de mejora de la privacidad de la IA:

 

  • Entorno de ejecución confiable (TEE), como Super Protocol

  • Cifrado totalmente homomórfico (FHE), como Fhenix.io o Inco Network, y PPML de Bagel

 

Estas tecnologías aún están en desarrollo y el rendimiento continúa mejorando con los próximos ASIC FHE y de conocimiento cero (ZK). Pero el objetivo a largo plazo es proteger los datos empresariales mientras se ajusta el modelo. Con la aparición de estos protocolos, Web3 puede convertirse en una plataforma más atractiva para la informática de IA que preserva la privacidad.

 


Caso de uso n.º 5: aprovechar las últimas innovaciones en modelos de código abierto

 

El OSS (software de código abierto) ha ido consumiendo la cuota de mercado del software propietario durante las últimas décadas. Vemos el LLM como una forma compleja de software propietario que está listo para ser interrumpido por OSS. Algunos retadores notables incluyen Llama, RWKV y Mistral.ai. Sin duda, esta lista crecerá con el tiempo (puede encontrar una lista más completa en Openrouter.ai). Aproveche estas nuevas innovaciones aprovechando Web3 AI, impulsada por modelos OSS.

 

Creemos que, con el tiempo, un grupo de trabajo global de desarrollo de código abierto combinado con incentivos criptográficos puede impulsar una rápida innovación en los modelos de código abierto y los agentes y marcos construidos sobre ellos. Un ejemplo es el protocolo de agente de IA Theoriq. Theoriq aprovecha los modelos OSS para crear una red componible de agentes de IA interconectados que se pueden ensamblar en soluciones de IA más avanzadas.

 

Tenemos confianza debido a la experiencia pasada: la mayoría del "software de desarrollo" es lentamente superado por el OSS con el tiempo. Microsoft alguna vez fue una empresa de software propietario y ahora es la empresa que más contribuye en Github, y por una buena razón. Si observa cómo Databricks, PostGresSQL, MongoDB, etc. están alterando las bases de datos propietarias, este es un ejemplo de toda una industria afectada por el OSS, por lo que hay bastantes precedentes aquí.

 

Sin embargo, esto tiene un problema. Un aspecto complicado de los LLM de OSS es que OpenAI ha comenzado a celebrar acuerdos de licencia de datos pagos con organizaciones como Reddit y el New York Times. Si esta tendencia continúa, los LLM de OSS pueden tener dificultades para competir debido a las barreras financieras para adquirir datos. Nvidia puede duplicar sus inversiones en informática confidencial como facilitador del intercambio seguro de datos. El tiempo dirá cómo se desarrolla esta tendencia.

 

Caso de uso n.° 6: lograr consenso mediante muestreo aleatorio con alto costo de penalización o pruebas ZK

 

Un desafío con la inferencia de Web3 AI es la verificación. Los verificadores tienen la oportunidad de ganar honorarios falsificando resultados, por lo que verificar la inferencia es una medida importante. Es importante señalar que este tipo de engaño aún no ha ocurrido, ya que el razonamiento de la IA aún está en su infancia, pero es inevitable a menos que se tomen medidas para prevenir este comportamiento.

 

El enfoque estándar de Web3 es hacer que varios validadores repitan la misma operación y comparen los resultados. El desafío obvio es que, como se mencionó anteriormente, la inferencia de IA es costosa debido a la actual escasez de chips Nvidia de alta gama. Dado que Web3 puede proporcionar inferencias de menor costo a través de GPU DePIN infrautilizadas, el cálculo repetido debilitará gravemente la propuesta de valor de Web3.

 

Una solución más prometedora es realizar pruebas ZK para cálculos de inferencia de IA fuera de la cadena. En este caso, puede determinar si el modelo se entrenó correctamente o si la inferencia se ejecutó correctamente verificando una prueba ZK concisa (llamada zkML). Los ejemplos incluyen Modulus Labs y ZKonduit. El rendimiento de estas soluciones aún está en sus primeras etapas, ya que las operaciones ZK requieren un uso muy intensivo de computación. Sin embargo, esperamos que esta situación mejore con el lanzamiento de los ASIC de hardware de ZK.

 

Lo que tiene más potencial es un método de razonamiento de IA basado en muestreo "optimista". En este modelo, solo se valida una pequeña fracción de los resultados generados por el validador, pero se establece el costo económico de la penalización lo suficientemente alto como para que, si se detecta, haya una fuerte restricción económica sobre el validador, evitando así que haga trampa. De esta manera, se pueden guardar cálculos redundantes (consulte, por ejemplo, el artículo de prueba de muestreo de Hyperbolic).

 

Otra idea con potencial son las soluciones de marcas de agua y huellas dactilares, como la propuesta por Bagel Network. Esto es similar al mecanismo de garantía de calidad del modelo de IA en el dispositivo que Amazon Alexa utiliza para millones de sus dispositivos.

 

Caso de uso n.º 7: Ahorros con OSS (margen de beneficio de OpenAI)

 

La próxima oportunidad que brinda Web3 a la IA es la democratización de los costos. Hasta ahora hemos hablado del ahorro de costos de GPU a través de DePIN. Pero Web3 también ofrece la oportunidad de ahorrar en los márgenes de beneficio de los servicios centralizados de IA de Web2, como OpenAI, que actualmente genera más de mil millones de dólares en ingresos anuales. Estos ahorros de costos provienen del uso de modelos de código abierto en lugar de modelos propietarios porque los creadores de los modelos no intentan sacar provecho de ellos.

 

Muchos modelos de OSS seguirán siendo completamente gratuitos, lo que proporciona la mejor economía para los clientes. Sin embargo, algunos modelos OSS también pueden intentar estos métodos de monetización. Considere que solo el 4% de todos los modelos de Hugging Face fueron capacitados por empresas con presupuesto para ayudar a subsidiar estos modelos (ver aquí). El 96% restante de los modelos son capacitados por la comunidad. Estos modelos –el 96% de Hugging Face– tienen un coste real básico (tanto computacional como de datos). Entonces estos modelos necesitan alguna forma de monetizarlos.

 

Existen muchas propuestas para monetizar estos modelos OSS. Uno de los más interesantes es el concepto de "Oferta de modelo inicial" (IMO), que consiste en tokenizar el modelo en sí, retener una parte de los tokens para el equipo y distribuir una parte de los ingresos futuros del modelo a los poseedores de tokens. Aunque obviamente existen algunos obstáculos legales y regulatorios.

 

Otros modelos de OSS intentarán monetizar según el uso. Tenga en cuenta que si esto llega a buen término, los modelos OSS pueden parecerse cada vez más a sus homólogos Web2 con fines de lucro. Pero en realidad, el mercado estará fragmentado y algunos modelos seguirán siendo completamente gratuitos.

 

Caso de uso n.º 8: fuentes de datos descentralizadas

 

Uno de los mayores desafíos de la IA es obtener los datos correctos para entrenar el modelo. Mencionamos anteriormente que existen desafíos con la capacitación descentralizada en IA. ¿Qué tal usar una red descentralizada para obtener los datos (y luego entrenarlos en otro lugar, incluso en una plataforma Web2 tradicional)?

 

Eso es exactamente lo que están haciendo empresas emergentes como Grass. Grass es una red descentralizada de “extracción de datos” en la que los individuos aportan la potencia de procesamiento inactiva de su máquina para adquirir datos que sirvan de base para el entrenamiento de modelos de IA. Hipotéticamente, a escala, esta fuente de datos puede superar los esfuerzos internos de cualquier empresa para adquirir datos debido al poder de una gran red de nodos incentivados. Esto incluye no sólo obtener más datos, sino también obtenerlos con mayor frecuencia, haciéndolos más relevantes y actualizados. Debido a que los raspadores de datos están dispersos y no residen en una única dirección IP, es casi imposible detener este ejército de raspado descentralizado. También tienen una red de humanos que limpian y normalizan los datos para que sean útiles una vez eliminados.

 

Una vez que tenga los datos, también necesitará un lugar para almacenarlos en la cadena, así como los LLM generados con los datos. 0g.AI es uno de los primeros líderes en esta categoría. Es una solución de almacenamiento Web3 de alto rendimiento y optimizada para IA que es significativamente más barata que AWS (otra ventaja económica de Web3 AI) y al mismo tiempo proporciona infraestructura de disponibilidad de datos para Capa 2, IA y más.

 

Es importante tener en cuenta que el papel de los datos en Web3 AI puede cambiar en el futuro. Hoy en día, el status quo para los LLM es entrenar previamente el modelo con datos y perfeccionarlo con el tiempo con más datos. Sin embargo, estos modelos siempre están ligeramente desactualizados porque los datos en Internet cambian en tiempo real. Por lo tanto, las respuestas inferidas del LLM son levemente inexactas.

 

La dirección futura puede ser un nuevo paradigma: datos en "tiempo real". El concepto es que cuando al LLM se le hace una pregunta de inferencia, el LLM puede realizar una inyección de pistas utilizando datos recopilados de Internet en tiempo real. De esta manera, LLM puede utilizar los datos más actualizados, algo en lo que Grass está trabajando.

 

en conclusión

 

 

En resumen, si bien el potencial de la IA Web3 es enorme, los desafíos actuales y las necesidades del mercado sugieren que la aplicación más práctica y realista es atender a los clientes de Web2. El futuro de Web3 AI es brillante, pero su adopción total y expansión en el mercado aún llevará tiempo. Al identificar y resolver estos desafíos, podemos sentar mejor las bases para el crecimiento y el éxito de Web3 AI.