Autor: David & Goliath
Compilado por: Shen Chao TechFlow
Actualmente, el ámbito de la computación y el entrenamiento en la industria de la IA está dominado principalmente por gigantes centralizados de Web2. Estas empresas, gracias a su fuerte poder capital, hardware de última generación y vastos recursos de datos, ocupan una posición dominante. Aunque esta situación puede persistir al desarrollar los modelos de aprendizaje automático (ML) más potentes, para modelos de gama media o personalizados, la red Web3 podría convertirse gradualmente en una fuente de recursos computacionales más económica y accesible.
Del mismo modo, cuando la demanda de inferencia supera la capacidad de los dispositivos de borde personales, algunos consumidores pueden optar por la red Web3 para obtener salidas más diversas y con menos censura. En lugar de intentar desmantelar por completo toda la pila tecnológica de IA, los participantes de Web3 deberían centrarse en estos escenarios de nicho y aprovechar al máximo sus ventajas únicas en resistencia a la censura, transparencia y verificabilidad social.
Los recursos de hardware necesarios para entrenar modelos fundamentales de próxima generación (como GPT o BERT) son escasos y costosos, y la demanda de chips de alto rendimiento continuará superando la oferta. Esta escasez de recursos conduce a que el hardware se concentre en unas pocas empresas líderes con suficiente capital, que utilizan este hardware para entrenar y comercializar los modelos fundamentales más óptimos en rendimiento y complejidad.
Sin embargo, la velocidad a la que se actualiza el hardware es extremadamente rápida. Entonces, ¿cómo se utilizará el hardware de gama media o de bajo rendimiento que ya está obsoleto?
Este hardware probablemente se utilizará para entrenar modelos más simples o específicos. Al emparejar diferentes categorías de modelos con hardware de diferentes rendimientos, se puede lograr una configuración óptima de recursos. En este caso, el protocolo Web3 puede desempeñar un papel clave al coordinar el acceso a recursos computacionales diversos y de bajo costo. Por ejemplo, los consumidores pueden utilizar modelos de gama media entrenados con conjuntos de datos personales y solo optar por modelos de alta gama entrenados y alojados por empresas centralizadas cuando se enfrentan a tareas más complejas, asegurando al mismo tiempo que la identidad del usuario esté oculta y los datos sean encriptados.
Además de los problemas de eficiencia, las preocupaciones sobre los sesgos y la posible censura en los modelos centralizados están aumentando. El entorno de Web3 es conocido por su transparencia y verificabilidad, lo que puede proporcionar apoyo en el entrenamiento de modelos que han sido ignorados o considerados demasiado sensibles por Web2. Aunque estos modelos pueden no ser competitivos en rendimiento e innovación, todavía tienen un valor importante para ciertos grupos en la sociedad. Por lo tanto, el protocolo Web3 puede abrir un mercado único en este ámbito al ofrecer servicios de entrenamiento de modelos más abiertos, confiables y resistentes a la censura.
Al principio, los enfoques centralizados y descentralizados pueden coexistir, cada uno sirviendo a diferentes casos de uso. Sin embargo, a medida que Web3 mejora continuamente la experiencia del desarrollador y la compatibilidad de la plataforma, y a medida que los efectos de red de la IA de código abierto comienzan a hacerse evidentes, Web3 puede eventualmente competir en el núcleo de las empresas centralizadas. Especialmente cuando los consumidores se vuelven cada vez más conscientes de las limitaciones de los modelos centralizados, las ventajas de Web3 se volverán más evidentes.
Además del entrenamiento de modelos de gama media o específicos, los participantes de Web3 también tienen la ventaja de ofrecer soluciones de inferencia más transparentes y flexibles. Los servicios de inferencia descentralizados pueden traer múltiples beneficios, como cero tiempo de inactividad, combinaciones modulares de modelos, evaluaciones de rendimiento de modelos públicas y salidas más diversas y sin censura. Estos servicios también pueden evitar eficazmente el problema de "bloqueo de proveedores" que enfrentan los consumidores al depender de un puñado de proveedores centralizados. Al igual que con el entrenamiento de modelos, la ventaja competitiva de la capa de inferencia descentralizada no radica en la capacidad de computación en sí, sino en resolver problemas de larga data, como la transparencia de los parámetros de ajuste de código cerrado, la falta de verificabilidad y los altos costos.
Dan Olshansky propuso una idea prometedora: crear más oportunidades para investigadores e ingenieros de IA a través de la red de enrutamiento de inferencia de POKT, permitiéndoles llevar sus hallazgos de investigación a la práctica y obtener ingresos adicionales a través de modelos de aprendizaje automático (ML) o inteligencia artificial (IA) personalizados. Más importante aún, esta red puede facilitar una competencia más justa en el mercado de servicios de inferencia al integrar resultados de inferencia de diferentes fuentes, incluidos proveedores descentralizados y centralizados.
A pesar de las optimistas proyecciones que sugieren que toda la pila tecnológica de IA podría trasladarse completamente a la cadena en el futuro, desde la perspectiva actual, este objetivo aún enfrenta enormes desafíos relacionados con la concentración de datos y recursos computacionales, ya que estos recursos brindan una ventaja competitiva significativa a los gigantes existentes. Sin embargo, las redes de coordinación y computación descentralizadas muestran un valor único en la provisión de servicios de IA más personalizados, económicos, competitivos y resistentes a la censura. Al centrarse en estos mercados de nicho donde estos valores son más críticos, Web3 puede establecer sus propias barreras competitivas, asegurando que la tecnología más impactante de esta era pueda evolucionar en múltiples direcciones, beneficiando a un espectro más amplio de partes interesadas, en lugar de ser monopolizada por un puñado de gigantes tradicionales.
Por último, me gustaría agradecer especialmente a todos los miembros del equipo de Placeholder Investment, así como a Kyle Samani de Multicoin Capital, Anand Iyer de Canonical VC, Keccak Wong de Nectar AI, Alpin Yukseloglu de Osmosis Labs y Cameron Dennis de NEAR Foundation, quienes proporcionaron revisiones y valiosos comentarios durante la redacción de este documento.