Por Alex Xu, socio de investigación de Mint Ventures
Introducción
Este ciclo del mercado alcista de las criptomonedas ha sido el menos inspirador en términos de innovación comercial. A diferencia del mercado alcista anterior, que vio tendencias fenomenales como DeFi, NFT y GameFi, este ciclo carece de puntos críticos importantes en la industria. En consecuencia, ha habido un crecimiento lento en la base de usuarios, la inversión industrial y la actividad de los desarrolladores.
Esta tendencia también es evidente en el precio de los criptoactivos. Durante todo el ciclo, la mayoría de las altcoins, incluido ETH, han perdido constantemente valor en relación con BTC. La valoración de las plataformas de contratos inteligentes está impulsada en gran medida por la prosperidad de sus aplicaciones. Cuando la innovación en el desarrollo de aplicaciones se estanca, resulta difícil aumentar la valoración de las cadenas públicas.
Sin embargo, la inteligencia artificial (IA), como sector relativamente nuevo en el panorama de las criptomonedas, podría beneficiarse del crecimiento explosivo y los puntos críticos actuales en el mundo comercial en general. Esto brinda a los proyectos de IA dentro del espacio criptográfico el potencial de atraer una atención incremental significativa.
En el informe IO.NET publicado por Mint Ventures en abril, se analizó en profundidad la necesidad de integrar la IA con las criptomonedas. Las ventajas de las soluciones criptoeconómicas (como el determinismo, la asignación eficiente de recursos y la falta de confianza) podrían abordar los tres principales desafíos de la IA: la aleatoriedad, la intensidad de los recursos y la dificultad para distinguir entre humanos y máquinas.
En el sector de la IA de la criptoeconomía, quiero discutir y explorar varias cuestiones críticas en este artículo, que incluyen:
Existen narrativas emergentes o potencialmente explosivas en el sector de la criptoIA.
Los caminos catalizadores y los marcos lógicos de estas narrativas.
Proyectos Cripto + IA.
Los riesgos e incertidumbres involucrados en el desarrollo del sector cripto + IA.
Tenga en cuenta que este artículo refleja mi pensamiento actual y puede evolucionar. Las opiniones aquí son subjetivas y puede haber errores en los hechos, datos y razonamiento lógico. Este no es un consejo financiero, pero se agradecen los comentarios y las discusiones.
La próxima ola de narrativas en el sector de cripto IA
Antes de sumergirnos en las tendencias emergentes en el sector de la criptoIA, examinemos primero las narrativas principales actuales. Según la capitalización de mercado, aquellos con una valoración superior a mil millones de dólares incluyen:
Poder computacional
Render Network ($RNDR): con una capitalización de mercado circulante de $3,85 mil millones,
Akash: con una capitalización de mercado circulante de 1.200 millones de dólares
IO.NET: recientemente valorada en mil millones de dólares en su última ronda de financiación.
Redes de algoritmos
Bittensor ($TAO): cuenta con una capitalización de mercado circulante de 2,970 millones de dólares.
Agentes de IA
Fetch.ai ($FET): alcanza una capitalización de mercado circulante previa a la fusión de $2.1 mil millones
*Hora de actualización de datos: 24 de mayo de 2024.
Más allá de los campos mencionados anteriormente, ¿qué sector de la IA producirá el próximo proyecto con una capitalización de mercado superior a los mil millones de dólares?
Creo que esto se puede especular desde dos perspectivas: la narrativa del “lado de la oferta industrial” y la narrativa del “momento GPT”.
Examinar las oportunidades en el campo de la energía y los datos desde la perspectiva de la oferta industrial
Desde la perspectiva de la oferta industrial, cuatro fuerzas impulsoras clave detrás del desarrollo de la IA son:
Algoritmos: los algoritmos de alta calidad pueden ejecutar tareas de entrenamiento e inferencia de manera más eficiente.
Potencia informática: tanto el entrenamiento como la inferencia de modelos exigen una potencia informática sustancial proporcionada por el hardware GPU. Este requisito representa un importante cuello de botella industrial, ya que la actual escasez de chips hace subir los precios de los chips de gama media y alta.
Energía: los centros de datos de IA requieren un consumo de energía significativo. Más allá de la electricidad necesaria para que las GPU realicen tareas computacionales, también se necesita una cantidad sustancial de energía para enfriar las GPU. En los grandes centros de datos, los sistemas de refrigeración por sí solos representan alrededor del 40% del consumo total de energía.
Datos: mejorar el rendimiento de modelos grandes requiere ampliar los parámetros de entrenamiento, lo que genera una demanda masiva de datos de alta calidad.
Con respecto a las cuatro fuerzas impulsoras industriales mencionadas anteriormente, los sectores de algoritmos y potencia informática ya tienen proyectos criptográficos con una capitalización de mercado circulante que supera los mil millones de dólares. Sin embargo, los sectores de energía y datos aún no han visto proyectos alcanzar límites de mercado similares.
En realidad, pronto podría surgir escasez en el suministro de energía y datos, lo que podría convertirse en los próximos puntos críticos de la industria e impulsar el aumento de proyectos relacionados en el espacio criptográfico.
Comencemos con la parte de energía.
El 29 de febrero de 2024, Elon Musk comentó en la conferencia Bosch ConnectedWorld 2024: “Predije la escasez de chips hace más de un año, y la próxima escasez será la electricidad. Creo que el año que viene veremos que simplemente no pueden encontrar suficiente electricidad para hacer funcionar todos los chips”.
Según datos específicos, el Instituto de Inteligencia Artificial Centrada en el Humano de la Universidad de Stanford, dirigido por Fei-Fei Li, publica anualmente el “Informe del Índice de IA”. En su informe de 2022 sobre la industria de la IA para 2021, el grupo de investigación estimó que el consumo de energía de la IA ese año representó solo el 0,9% de la demanda mundial de electricidad, lo que ejerció una presión limitada sobre la energía y el medio ambiente. Sin embargo, en 2023, la Agencia Internacional de Energía (AIE) resumió el año 2022 afirmando que los centros de datos globales consumieron aproximadamente 460 teravatios-hora (TWh) de electricidad, lo que representa el 2% de la demanda mundial de electricidad. También predijeron que para 2026, el consumo de energía global de los centros de datos será de al menos 620 TWh, alcanzando potencialmente hasta 1050 TWh.
En realidad, las estimaciones de la Agencia Internacional de Energía siguen siendo conservadoras, ya que numerosos proyectos de IA que están a punto de lanzarse demandarán mucha más energía de lo previsto en 2023.
Por ejemplo, Microsoft y OpenAI están planeando el proyecto Stargate. Esta ambiciosa iniciativa comenzará en 2028 y finalizará alrededor de 2030. El proyecto tiene como objetivo construir una supercomputadora equipada con millones de chips de IA dedicados, proporcionando a OpenAI una potencia informática sin precedentes para avanzar en su investigación en inteligencia artificial, en particular en modelos de lenguaje de gran tamaño. El coste estimado de este proyecto supera los 100.000 millones de dólares, lo que supone 100 veces el coste de los grandes centros de datos actuales.
Se espera que el consumo de energía sólo para el proyecto Stargate alcance los 50 TWh.
Como resultado, el fundador de OpenAI, Sam Altman, afirmó en el Foro de Davos en enero de este año: “La inteligencia artificial del futuro requerirá avances energéticos, ya que la electricidad consumida por la IA superará con creces las expectativas”.
Después de la potencia informática y la energía, la próxima gran escasez en la industria de la IA en rápido crecimiento probablemente sean los datos.
De hecho, la escasez de datos de alta calidad necesarios para la IA ya se ha convertido en una realidad.
A través de la evolución continua de GPT, hemos comprendido en gran medida el patrón de mejorar las capacidades de los modelos de lenguaje grandes: al expandir los parámetros del modelo y los datos de entrenamiento, las capacidades de estos modelos se pueden aumentar exponencialmente. Este proceso no muestra ningún obstáculo técnico inmediato.
Sin embargo, es probable que en el futuro los datos de alta calidad y disponibles públicamente sean cada vez más escasos. Los productos de IA pueden enfrentar conflictos entre oferta y demanda similares a los experimentados con los chips y la energía.
En primer lugar, hay un aumento de las disputas sobre la propiedad de los datos.
El 27 de diciembre de 2023, The New York Times presentó una demanda contra OpenAI y Microsoft en el Tribunal de Distrito de Estados Unidos, alegando que utilizaron millones de sus artículos sin permiso para entrenar el modelo GPT. El New York Times busca miles de millones de dólares en daños legales y reales por la “copia y uso ilegal de obras de valor único” y exige la destrucción de todos los modelos y datos de capacitación que incluyan sus materiales protegidos por derechos de autor.
A finales de marzo de 2024, The New York Times emitió una nueva declaración, ampliando sus acusaciones más allá de OpenAI para incluir a Google y Meta. La declaración afirmaba que OpenAI había utilizado una herramienta de reconocimiento de voz llamada Whisper para transcribir una gran cantidad de vídeos de YouTube en texto, que luego se utilizó para entrenar GPT-4. El New York Times argumentó que se ha convertido en una práctica común que las grandes empresas empleen tácticas clandestinas para entrenar sus modelos de IA. También señalaron que Google está involucrado en prácticas similares, convirtiendo el contenido de vídeo de YouTube en texto para su entrenamiento modelo, infringiendo esencialmente los derechos de los creadores de contenido de vídeo.
Es poco probable que la demanda entre The New York Times y OpenAI, denominada el primer “caso de derechos de autor de IA”, se resuelva rápidamente debido a su complejidad y al profundo impacto que podría tener en el futuro del contenido y la industria de la IA. Un posible resultado es un acuerdo extrajudicial, en el que Microsoft y OpenAI, con mucho dinero, pagarán una cantidad significativa en concepto de compensación. Sin embargo, futuras disputas sobre los derechos de autor de los datos inevitablemente aumentarán el costo general de los datos de alta calidad.
Además, se ha informado que Google, como el motor de búsqueda más grande del mundo, está considerando cobrar tarifas por sus servicios de búsqueda, no para el público en general, sino para las empresas de inteligencia artificial.
Fuente: Reuters
Los servidores del motor de búsqueda de Google contienen grandes cantidades de contenido; esencialmente, todo el contenido que ha aparecido en las páginas web desde el siglo XXI. Los productos de búsqueda impulsados por IA, como Perplexity y Kimi y Meta Sota desarrollados por empresas chinas, procesan los datos recuperados de estas búsquedas a través de IA y luego los entregan a los usuarios. Introducir cargos para que las empresas de inteligencia artificial accedan a los datos de los motores de búsqueda aumentará sin duda el costo de obtener datos.
Además, los gigantes de la IA no se centran sólo en los datos públicos; También apuntan a datos internos no públicos.
Photobucket, un sitio web de alojamiento de imágenes y vídeos de larga data, alguna vez contó con 70 millones de usuarios y casi la mitad de la participación del mercado de fotografías en línea de Estados Unidos a principios de la década de 2000. Sin embargo, con el auge de las redes sociales, la base de usuarios de Photobucket se ha reducido significativamente y ahora cuenta con sólo 2 millones de usuarios activos, cada uno de los cuales paga una elevada tarifa anual de 399 dólares. De acuerdo con su acuerdo de usuario y política de privacidad, las cuentas inactivas durante más de un año se reclaman, lo que otorga a Photobucket el derecho de usar las imágenes y videos cargados. El director ejecutivo de Photobucket, Ted Leonard, reveló que sus 1.300 millones de fotos y vídeos son extremadamente valiosos para entrenar modelos de IA generativa. Actualmente está negociando con varias empresas tecnológicas para vender estos datos, con precios que van desde los 5 céntimos a 1 dólar por foto y más de 1 dólar por vídeo. Leonard estima que los datos de Photobucket podrían valer más de mil millones de dólares.
El equipo de investigación EPOCH, especializado en tendencias de desarrollo de la IA, publicó un informe titulado “¿Nos quedaremos sin datos? Un análisis de los límites del escalamiento de conjuntos de datos en Machine Learning”. Este informe, basado en el uso de datos en 2022 en el aprendizaje automático y la generación de nuevos datos, al tiempo que considera el crecimiento de los recursos informáticos, concluyó que los datos de texto de alta calidad podrían agotarse entre febrero de 2023 y 2026, y los datos de imágenes podrían agotarse entre febrero de 2023 y 2026. entre 2030 y 2060. Sin mejoras significativas en la eficiencia de la utilización de datos o la aparición de nuevas fuentes de datos, la tendencia actual de grandes modelos de aprendizaje automático que dependen de conjuntos de datos masivos podría desacelerarse.
Teniendo en cuenta la tendencia actual de los gigantes de la IA a comprar datos a precios elevados, parece que los datos de texto gratuitos y de alta calidad se han agotado, lo que valida la predicción de EPOCH de hace dos años.
Al mismo tiempo, están surgiendo soluciones a la “escasez de datos de IA”, específicamente datos de IA como servicio.
Defined.ai es una de esas empresas que ofrece datos reales personalizados y de alta calidad para empresas de inteligencia artificial.
Ejemplos de tipos de datos en Defined.ai
El modelo de negocio de Defined.ai funciona de la siguiente manera: las empresas de IA especifican sus requisitos de datos, como la necesidad de imágenes con una determinada calidad de resolución, libres de borrosidades y sobreexposición, y con contenido auténtico. Las empresas también pueden solicitar temas específicos según sus tareas de capacitación, como fotografías nocturnas de conos de tráfico, estacionamientos y señales para mejorar el reconocimiento de escenas nocturnas de la IA. El público puede aceptar estas tareas y subir sus fotos, que luego son revisadas por Defined.ai. Las imágenes aprobadas se pagan, normalmente entre 1 y 2 dólares por imagen de alta calidad, entre 5 y 7 dólares por videoclip corto y entre 100 y 300 dólares por un vídeo de alta calidad de más de 10 minutos. El texto se compensa a 1 dólar por cada mil palabras, y quienes completan la tarea ganan alrededor del 20% de las tarifas. Este enfoque de suministro de datos podría convertirse en un nuevo negocio de crowdsourcing similar al "etiquetado de datos".
La distribución global de tareas, los incentivos económicos, la fijación de precios de los activos de datos, la circulación y la protección de la privacidad, en la que todos puedan participar, suenan muy parecidos a un modelo de negocio adecuado al paradigma Web3.
Análisis de los proyectos Crypto + AI desde la perspectiva del suministro industrial
La atención generada por la escasez de chips se ha extendido a la industria de la criptografía, posicionando la potencia informática descentralizada como el sector de IA más popular y valorado hasta la fecha.
Si los conflictos de oferta y demanda en la industria de la inteligencia artificial para energía y datos se agudizan en los próximos 1 o 2 años, ¿qué proyectos relacionados con la narrativa están presentes actualmente en la industria de la criptografía?
Comencemos con proyectos de concepto energético.
Actualmente, los proyectos de energía que figuran en los principales intercambios centralizados (CEX) son muy escasos, siendo Power Ledger y su token nativo $POWR el único ejemplo.
Power Ledger se estableció en 2017 como una plataforma energética integral basada en blockchain destinada a descentralizar el comercio de energía. Promueve el comercio directo de electricidad entre individuos y comunidades, apoya la adopción generalizada de energía renovable y garantiza la transparencia y eficiencia de las transacciones a través de contratos inteligentes. Inicialmente, Power Ledger operaba en una cadena de consorcio adaptada de Ethereum. En la segunda mitad de 2023, Power Ledger actualizó su documento técnico y lanzó su propia cadena pública integral, basada en el marco técnico de Solana, para manejar microtransacciones de alta frecuencia en el mercado de energía distribuida. Las principales áreas de negocio de Power Ledger actualmente incluyen:
Comercio de energía: permitir a los usuarios comprar y vender electricidad directamente entre pares, particularmente de fuentes renovables.
Comercio de Productos Ambientales: Facilitar el comercio de créditos de carbono y certificados de energía renovable, así como el financiamiento basado en productos ambientales.
Operaciones de cadena pública: atraer desarrolladores de aplicaciones para que se basen en la cadena de bloques Power Ledger, con tarifas de transacción pagadas en tokens $POWR.
La capitalización de mercado circulante actual de Power Ledger es de 170 millones de dólares, con una capitalización de mercado totalmente diluida de 320 millones de dólares.
En comparación con los proyectos criptográficos de concepto energético, existe una variedad más rica de objetivos en el sector de datos.
A continuación se enumeran los proyectos del sector de datos que estoy siguiendo actualmente, que figuran en al menos un CEX importante, como Binance, OKX o Coinbase, ordenados por valoración totalmente diluida (FDV) de menor a mayor:
1. Streamr ($DATOS)
La propuesta de valor de Streamr es construir una red de datos descentralizada en tiempo real donde los usuarios puedan intercambiar y compartir datos libremente mientras conservan el control total sobre su propia información. A través de su mercado de datos, Streamr pretende permitir que los productores de datos vendan flujos de datos directamente a los consumidores interesados, eliminando la necesidad de intermediarios, reduciendo así los costos y aumentando la eficiencia.
Fuente: https://streamr.network/hub/projects
En aplicaciones del mundo real, Streamr ha colaborado con otro proyecto de hardware para vehículos Web3, DIMO, para recopilar datos como la temperatura y la presión del aire a través de sensores de hardware DIMO instalados en los vehículos. Luego, estos datos se transmiten como flujos de datos meteorológicos a las organizaciones que los necesitan.
A diferencia de otros proyectos de datos, Streamr se centra más en IoT y datos de sensores de hardware. Además de los datos de vehículos DIMO, otros proyectos notables incluyen flujos de datos de tráfico en tiempo real en Helsinki. En consecuencia, el token de Streamr, $DATA, experimentó un aumento significativo, duplicando su valor en un solo día durante el pico del concepto Depin en diciembre pasado.
Actualmente, la capitalización de mercado circulante de Streamr es de 44 millones de dólares, con una capitalización de mercado totalmente diluida de 58 millones de dólares.
2. Covalente ($CQT)
A diferencia de otros proyectos de datos, Covalent se centra en proporcionar datos de blockchain. La red Covalent lee datos de los nodos de blockchain a través de RPC, los procesa y organiza y crea una base de datos de consultas eficiente. Esto permite a los usuarios de Covalent recuperar rápidamente la información que necesitan sin realizar consultas complejas directamente en los nodos de blockchain. Estos servicios se denominan "indexación de datos blockchain".
Covalent atiende principalmente a clientes empresariales, incluidos varios protocolos DeFi y muchas empresas de cifrado centralizadas como Consensys (la empresa matriz de MetaMask), CoinGecko (un conocido sitio de seguimiento de criptoactivos), Rotki (una herramienta fiscal) y Rainbow (un billetera criptográfica). Además, los gigantes de la industria financiera tradicional como Fidelity y Ernst & Young también se encuentran entre los clientes de Covalent. Según las revelaciones oficiales de Covalent, los ingresos del proyecto por servicios de datos ya han superado los del proyecto líder en el mismo campo, The Graph.
La industria Web3, con sus datos en cadena integrados, transparentes, auténticos y en tiempo real, está preparada para convertirse en una fuente de datos de alta calidad para escenarios de IA especializados y "pequeños modelos de IA" específicos. Covalent, como proveedor de datos, ya ha comenzado a ofrecer datos para varios escenarios de IA y ha introducido datos estructurados verificables diseñados para aplicaciones de IA.
Fuente: Soluciones sobre covalente
Por ejemplo, Covalent proporciona datos para la plataforma de comercio inteligente en cadena SmartWhales, que utiliza inteligencia artificial para identificar direcciones y patrones comerciales rentables. Entender Finance aprovecha los datos estructurados de Covalent, procesados por tecnología de inteligencia artificial para obtener información en tiempo real, detección de anomalías y análisis predictivos.
Actualmente, los principales escenarios de aplicación de los servicios de datos en cadena de Covalent se encuentran predominantemente en el campo financiero. Sin embargo, a medida que los productos y tipos de datos Web3 continúan diversificándose, se espera que los casos de uso de datos en cadena se expandan aún más.
La capitalización de mercado circulante de Covalent es de 150 millones de dólares, con una capitalización de mercado totalmente diluida de 235 millones de dólares, lo que ofrece una notable ventaja de valoración en comparación con The Graph, un proyecto líder en el sector de indexación de datos blockchain.
3. Hivemapper ($Miel)
Entre todos los tipos de datos, los datos de vídeo suelen tener el precio más alto. Hivemapper puede proporcionar a las empresas de inteligencia artificial información de mapas y videos. Hivemapper es un proyecto de mapeo global descentralizado que tiene como objetivo crear un sistema de mapas detallado, dinámico y accesible a través de tecnología blockchain y contribuciones de la comunidad. Los participantes capturan datos de mapas usando cámaras para tablero y los agregan a la red de datos de código abierto Hivemapper, ganando tokens $HONEY como recompensa por sus contribuciones. Para mejorar los efectos de la red y reducir los costos de interacción, Hivemapper se basa en Solana.
Hivemapper se fundó en 2015 con la visión original de crear mapas utilizando drones. Sin embargo, este enfoque resultó difícil de escalar, lo que llevó a la empresa a pasar al uso de cámaras de tablero y teléfonos inteligentes para capturar datos geográficos, reduciendo así el costo de la creación de mapas globales.
En comparación con el software de mapeo y visualización de calles como Google Maps, Hivemapper aprovecha una red de incentivos y un modelo de crowdsourcing para expandir de manera más eficiente la cobertura de mapas, mantener la actualización de los datos de mapas del mundo real y mejorar la calidad del video.
Antes del aumento de la demanda de datos de IA, los principales clientes de Hivemapper incluían los departamentos de conducción autónoma de empresas automotrices, proveedores de servicios de navegación, gobiernos, compañías de seguros y empresas inmobiliarias. Hoy en día, Hivemapper puede proporcionar datos ambientales y viales extensos a la IA y a modelos grandes a través de API. Al actualizar continuamente los flujos de datos de imágenes y características de las carreteras, los modelos de IA y ML estarán mejor equipados para traducir estos datos en capacidades mejoradas, lo que les permitirá realizar tareas relacionadas con la ubicación geográfica y el juicio visual de manera más efectiva.
Fuente: Blog de Hivemapper
Actualmente, la capitalización de mercado circulante de $Honey, el token nativo de Hivemapper, es de 120 millones de dólares, con una capitalización de mercado totalmente diluida de 496 millones de dólares.
Además de los proyectos antes mencionados, otros proyectos destacados en el sector de datos incluyen:
1. The Graph ($GRT): con una capitalización de mercado circulante de $3.2 mil millones y una valoración totalmente diluida (FDV) de $3.7 mil millones, The Graph ofrece servicios de indexación de datos blockchain similares a Covalent.
2. Ocean Protocol ($OCEAN): Ocean Protocol tiene una capitalización de mercado circulante de $670 millones y un FDV de $1,45 mil millones. El proyecto tiene como objetivo facilitar el intercambio y la monetización de datos y servicios relacionados con datos a través de su protocolo de código abierto. Ocean Protocol conecta a los consumidores de datos con los proveedores de datos, garantizando confianza, transparencia y trazabilidad en el intercambio de datos. El proyecto se fusionará con Fetch.ai y SingularityNET, y el token se convertirá a $ASI.
La reaparición del momento GPT y el advenimiento de la inteligencia artificial general
En mi opinión, el “sector de IA” en la industria de la criptografía realmente comenzó en 2023, el año correcto en que ChatGPT conmocionó al mundo. El rápido aumento de los proyectos de cripto IA fue impulsado en gran medida por la "ola de entusiasmo" que siguió al crecimiento explosivo de la industria de la IA.
A pesar de las continuas mejoras en las capacidades con modelos como GPT-4 y GPT-turbo, y las impresionantes capacidades de creación de videos demostradas por Sora, así como el rápido desarrollo de grandes modelos de lenguaje más allá de OpenAI, es innegable que los avances tecnológicos en IA están causando Disminución del shock cognitivo para el público. La gente está adoptando gradualmente herramientas de inteligencia artificial y los reemplazos de empleos a gran escala aún no se han materializado.
¿Seremos testigos de otro “momento GPT” en el futuro, un salto en el desarrollo que conmocionará al público y les hará darse cuenta de que sus vidas y su trabajo cambiarán fundamentalmente?
Este momento podría ser la llegada de la inteligencia artificial general (AGI).
AGI, o inteligencia artificial general, se refiere a máquinas que poseen habilidades cognitivas generales similares a las humanas, capaces de resolver una amplia gama de problemas complejos, en lugar de limitarse a tareas específicas. Los sistemas AGI tienen altos niveles de pensamiento abstracto, amplios conocimientos previos, razonamiento integral de sentido común, comprensión causal y capacidades de aprendizaje de transferencia interdisciplinaria. AGI se desempeña al nivel de los mejores humanos en diversos campos y, en términos de capacidad general, supera por completo incluso a los grupos humanos más destacados.
De hecho, ya sea representado en novelas de ciencia ficción, juegos, películas o a través de las expectativas del público tras el rápido aumento de GPT, la sociedad ha anticipado durante mucho tiempo el surgimiento de AGI que supera los niveles cognitivos humanos. En otras palabras, la propia GPT es un precursor de la AGI, un presagio de la inteligencia artificial general.
La razón por la que GPT tiene un impacto industrial y un shock psicológico tan profundo es que su implementación y desempeño han superado con creces las expectativas del público. La gente no anticipó que un sistema de IA capaz de pasar la prueba de Turing llegaría tan rápido y con capacidades tan impresionantes.
De hecho, la inteligencia artificial general (AGI) puede volver a crear un “momento GPT” en los próximos 1 o 2 años: justo cuando las personas se están acostumbrando a usar GPT como asistente, pronto descubrirán que la IA ha evolucionado más allá de ser simplemente una simple herramienta. un asistente. Podría abordar de forma independiente tareas altamente creativas y desafiantes, incluida la resolución de problemas que han dejado perplejos a los principales científicos humanos durante décadas.
El 8 de abril de este año, Elon Musk fue entrevistado por Nicolai Tangen, director de inversiones del fondo soberano de Noruega, y habló sobre el cronograma para el surgimiento de AGI.
Musk afirmó: "Si definimos AGI como más inteligente que los humanos más inteligentes, creo que es muy probable que aparezca en 2025".
Según la predicción de Elon Musk, AGI tardaría como máximo otro año y medio en llegar. Sin embargo, añadió una condición: “siempre que la electricidad y el hardware puedan mantener el ritmo”.
Los beneficios de la llegada de AGI son obvios.
Significa que la productividad humana dará un salto significativo y se resolverán muchos problemas científicos que nos han dejado perplejos durante décadas. Si definimos a “los seres humanos más inteligentes” como ganadores del Premio Nobel, significa que, siempre que tengamos suficiente energía, potencia informática y datos, podríamos tener innumerables “premios Nobel” incansables trabajando las veinticuatro horas del día para abordar los problemas científicos más desafiantes.
Sin embargo, los ganadores del Premio Nobel no son tan raros como uno entre cientos de millones. Sus capacidades e intelecto suelen estar al nivel de los mejores profesores universitarios. Sin embargo, debido a la probabilidad y la suerte, eligieron la dirección correcta, persistieron y lograron resultados. Muchos de sus pares igualmente capaces podrían haber ganado premios Nobel en un universo paralelo de investigación científica. Desafortunadamente, todavía no hay suficientes profesores universitarios de alto nivel involucrados en los avances científicos, por lo que la velocidad a la que se puede “explorar todas las direcciones correctas en la investigación científica” sigue siendo muy lenta.
Con AGI, y con suficiente energía y potencia informática, podríamos tener un número ilimitado de AGI de “nivel de premio Nobel” que realicen una exploración en profundidad en cualquier dirección potencial para avances científicos. La velocidad del avance tecnológico aumentaría exponencialmente. Esta aceleración llevaría a multiplicar por cien los recursos que actualmente consideramos caros y escasos en los próximos 10 a 20 años, como la producción de alimentos, nuevos materiales, medicamentos y educación de alta calidad. El costo de adquirir estos recursos disminuiría dramáticamente. Podríamos sustentar a una población mayor con menos recursos y la riqueza per cápita aumentaría rápidamente.
Tendencia del PIB mundial realizada por el Banco Mundial
Esto puede parecer algo sensacional, así que consideremos dos ejemplos. Estos ejemplos también se utilizaron en mi informe de investigación anterior sobre IO.NET:
En 2018, la Premio Nobel de Química, Frances Arnold, dijo durante la ceremonia de entrega de premios: “Hoy podemos, a todos los efectos prácticos, leer, escribir y editar cualquier secuencia de ADN, pero no podemos componerla. Cinco años más tarde, hasta 2023, un equipo de investigadores de la Universidad de Stanford y Salesforce Research, una startup centrada en la inteligencia artificial, realizó una publicación en “Nature Biotechnology”. Utilizando un modelo de lenguaje grande refinado a partir de GPT-3, generaron un catálogo completamente nuevo de 1 millón de proteínas. Entre ellas, descubrieron dos proteínas con estructuras distintas, ambas dotadas de función antibacteriana, lo que podría allanar el camino para nuevas estrategias de resistencia bacteriana más allá de los antibióticos tradicionales. Esto significa un salto monumental para superar los obstáculos de la creación de proteínas con la ayuda de la IA.
Antes de esto, el algoritmo de inteligencia artificial AlphaFold predijo las estructuras de casi los 2.140 millones de tipos de proteínas de la Tierra en 18 meses, un hito que amplifica en varias magnitudes los logros de los biólogos estructurales a lo largo de la historia.
La transformación está en camino y la llegada de AGI acelerará aún más este proceso.
Sin embargo, la llegada de AGI también presenta enormes desafíos.
AGI no solo reemplazará a una gran cantidad de trabajadores del conocimiento, sino también a aquellos en las industrias de servicios físicos, que actualmente se consideran "menos impactadas por la IA". A medida que la tecnología robótica madure y los nuevos materiales reduzcan los costos de producción, la proporción de puestos de trabajo reemplazados por máquinas y software aumentará rápidamente.
Cuando esto suceda, rápidamente surgirán dos cuestiones que antes parecían muy lejanas:
Los desafíos del empleo y los ingresos de una gran población desempleada
Cómo distinguir entre la IA y los humanos en un mundo donde la IA es omnipresente
Worldcoin y Worldchain están intentando proporcionar soluciones mediante la implementación de un sistema de renta básica universal (RBU) para garantizar un ingreso básico para el público y el uso de biometría basada en el iris para distinguir entre humanos y IA.
De hecho, la RBU no es sólo un concepto teórico; ha sido probado en la práctica del mundo real. Países como Finlandia e Inglaterra han llevado a cabo experimentos de RBU, mientras que partidos políticos en Canadá, España e India están proponiendo y promoviendo activamente iniciativas similares.
La ventaja de utilizar un modelo de identificación biométrica y blockchain para la distribución de la RBU radica en su alcance global, proporcionando una cobertura más amplia de la población. Además, la red de usuarios ampliada a través de la distribución del ingreso puede respaldar otros modelos de negocios, como los servicios financieros (DeFi), las redes sociales y el crowdsourcing de tareas, creando sinergia dentro del ecosistema comercial de la red.
Uno de los proyectos notables que aborda el impacto de la llegada de AGI es Worldcoin ($WLD), con una capitalización de mercado circulante de $1,030 millones de dólares y una capitalización de mercado totalmente diluida de $47,2 mil millones de dólares.
Riesgos e incertidumbres en las narrativas de cripto IA
A diferencia de muchos informes de investigación publicados anteriormente por Mint Ventures, este artículo contiene un grado significativo de subjetividad en sus pronósticos y predicciones narrativas. Los lectores deberían ver el contenido de este artículo como una discusión especulativa más que como una previsión del futuro. Los pronósticos narrativos mencionados anteriormente enfrentan numerosas incertidumbres que podrían llevar a suposiciones incorrectas. Estos riesgos o factores que influyen incluyen, entre otros:
Riesgo energético: rápida disminución del consumo de energía debido a las actualizaciones de GPU
A pesar de la creciente demanda de energía para la IA, los fabricantes de chips como NVIDIA actualizan continuamente su hardware para ofrecer una mayor potencia informática con un menor consumo de energía. Por ejemplo, en marzo de 2024, NVIDIA lanzó la tarjeta informática AI GB200 de nueva generación, que integra dos GPU B200 y una CPU Grace. Su rendimiento de entrenamiento es cuatro veces mayor que el de la anterior GPU AI H100, y su rendimiento de inferencia es siete veces mayor que el de la H100, mientras que requiere solo una cuarta parte del consumo de energía de la H100. No obstante, el apetito por el poder impulsado por la IA sigue creciendo. Con la disminución del consumo de energía unitario y la mayor expansión de los escenarios y la demanda de aplicaciones de IA, el consumo total de energía podría aumentar.
Riesgo de datos: Proyecto Q* y “datos autogenerados”
Se rumorea que hay un proyecto dentro de OpenAI conocido como “Q*”, mencionado en comunicaciones internas a los empleados. Según Reuters, citando a expertos de OpenAI, esto podría representar un avance significativo en el camino de OpenAI hacia el logro de la superinteligencia o inteligencia artificial general (AGI). Se rumorea que Q* resuelve problemas matemáticos nunca antes vistos mediante la abstracción y genera sus propios datos para entrenar modelos grandes, sin necesidad de ingresar datos del mundo real. Si este rumor es cierto, se eliminaría el cuello de botella que supone el entrenamiento de grandes modelos de IA, limitado por la falta de datos de alta calidad.
Llegada de AGI: las preocupaciones de OpenAI
Sigue siendo incierto si AGI llegará realmente en 2025, como predice Musk, pero es sólo cuestión de tiempo. Worldcoin, como beneficiario directo de la narrativa AGI, enfrenta su mayor preocupación por parte de OpenAI, dado que es ampliamente considerado como el "token sombra de OpenAI".
En las primeras horas del 14 de mayo, OpenAI presentó el último rendimiento de GPT-4o y otras 19 versiones de modelos de lenguaje grandes en puntuaciones de tareas integrales en su lanzamiento de nuevos productos de primavera. Según la tabla, GPT-4o obtuvo una puntuación de 1310, que visualmente parece significativamente más alta que los demás. Sin embargo, en términos de puntuación total, es sólo un 4,5% más alto que el GPT-4 turbo que ocupa el segundo lugar, un 4,9% más que el Gemini 1.5 Pro de Google en cuarto lugar y un 5,1% más que el Claude3 Opus de Anthropic en quinto lugar.
Desde que GPT-3.5 sorprendió al mundo por primera vez, solo ha pasado poco más de un año, y los competidores de OpenAI ya han cerrado la brecha significativamente (a pesar de que GPT-5 aún no se ha lanzado, lo que se espera que suceda este año). La cuestión de si OpenAI podrá mantener su posición de liderazgo en la industria en el futuro es cada vez más incierta. Si la ventaja y el dominio de OpenAI se diluyen o incluso se superan, entonces el valor narrativo de Worldcoin como token en la sombra de OpenAI también disminuirá.
Además de la solución de autenticación de iris de Worldcoin, cada vez más competidores están ingresando al mercado. Por ejemplo, el proyecto de identificación con escaneo de la palma de la mano Humanity Protocol completó recientemente una nueva ronda de financiación, recaudando 30 millones de dólares con una valoración de mil millones de dólares. LayerZero Labs también ha anunciado que operará en Humanity y se unirá a su red de nodos validadores, utilizando pruebas ZK para autenticar credenciales.
Conclusión
En conclusión, si bien he extrapolado posibles narrativas futuras para el sector criptográfico de IA, es importante reconocer que difiere de los sectores criptográficos nativos como DeFi. Es en gran medida producto de la exageración de la IA que se extiende al mundo de las criptomonedas. Muchos de los proyectos actuales aún no han demostrado sus modelos de negocio, y muchos proyectos se parecen más a memes con temas de IA (por ejemplo, $RNDR se parece a un meme de NVIDIA, Worldcoin se parece a un meme de OpenAI). Los lectores deberían abordar esto con cautela.