Los participantes de Web3 deberían centrarse más en escenarios específicos y aprovechar al máximo sus ventajas únicas en términos de resistencia a la censura, transparencia y verificabilidad social.
Autor: David & Goliath
Compilado: TechFlow de Shenchao
Actualmente, los segmentos de computación y entrenamiento en la industria de IA son dominados principalmente por los gigantes centralizados de Web2. Estas empresas, con su fuerte poder de capital, hardware de última generación y enormes recursos de datos, tienen una posición dominante. Aunque esta situación puede persistir en el desarrollo de modelos de aprendizaje automático (ML) más poderosos, para modelos de gama media o personalizados, la red Web3 podría convertirse gradualmente en una fuente de recursos computacionales más económica y accesible.
Del mismo modo, cuando la demanda de inferencia supera la capacidad de los dispositivos de borde personales, algunos consumidores pueden optar por redes Web3 para obtener una salida menos censurada y más diversa. En lugar de intentar desmantelar todo el stack tecnológico de IA, los participantes de Web3 deberían centrarse en estos escenarios específicos y aprovechar al máximo sus ventajas únicas en términos de resistencia a la censura, transparencia y verificabilidad social.
Los recursos de hardware necesarios para entrenar modelos básicos de próxima generación (como GPT o BERT) son escasos y costosos, y la demanda de chips de alto rendimiento seguirá superando la oferta. Esta escasez de recursos ha llevado a que el hardware se concentre en unas pocas empresas con suficiente capital, que utilizan ese hardware para entrenar y comercializar modelos básicos de alto rendimiento y alta complejidad.
Sin embargo, la velocidad de actualización del hardware es extremadamente rápida. Entonces, ¿cómo se aprovechará ese hardware de gama media o de bajo rendimiento que está desactualizado?
Es muy probable que este hardware se use para entrenar modelos más simples o más específicos. Al emparejar diferentes tipos de modelos con hardware de diferentes niveles de rendimiento, se puede lograr una configuración óptima de recursos. En este caso, el protocolo Web3 puede desempeñar un papel clave al coordinar el acceso a recursos computacionales diversos y de bajo costo. Por ejemplo, los consumidores pueden usar modelos de gama media entrenados en conjuntos de datos personales simples y solo optar por modelos de gama alta entrenados y alojados por empresas centralizadas al abordar tareas más complejas, asegurando al mismo tiempo que la identidad del usuario esté oculta y los datos de entrada estén cifrados.
Además de las cuestiones de eficiencia, también están aumentando las preocupaciones sobre los sesgos y la posible censura en los modelos centralizados. El entorno de Web3 es conocido por su transparencia y verificabilidad, y puede proporcionar soporte de entrenamiento a modelos que han sido ignorados por Web2 o considerados demasiado sensibles. Aunque estos modelos pueden no ser competitivos en rendimiento e innovación, aún tienen un valor significativo para ciertos grupos de la sociedad. Por lo tanto, los protocolos de Web3 pueden abrir un mercado único en este ámbito al ofrecer servicios de entrenamiento de modelos que sean más abiertos, confiables y resistentes a la censura.
Al principio, los enfoques centralizados y descentralizados pueden coexistir, sirviendo a diferentes casos de uso. Sin embargo, a medida que Web3 continúe mejorando la experiencia del desarrollador y la compatibilidad de la plataforma, y a medida que los efectos de red de la IA de código abierto se hagan más evidentes, Web3 podría finalmente competir en los dominios centrales de las empresas centralizadas. Especialmente cuando los consumidores se vuelven más conscientes de las limitaciones de los modelos centralizados, las ventajas de Web3 se harán más evidentes.
Además del entrenamiento de modelos de gama media o específicos, los participantes de Web3 también tienen la ventaja de ofrecer soluciones de inferencia más transparentes y flexibles. Los servicios de inferencia descentralizados pueden traer múltiples beneficios, como tiempo de inactividad cero, combinaciones modulares de modelos, evaluaciones de rendimiento de modelos públicas y salidas más diversas y sin censura. Estos servicios también pueden evitar efectivamente el problema de 'bloqueo de proveedor' que enfrentan los consumidores al depender de unos pocos proveedores centralizados. Al igual que en el entrenamiento de modelos, la ventaja competitiva de la capa de inferencia descentralizada no radica en la capacidad de cómputo en sí, sino en la solución de algunos problemas de larga data, como la transparencia de los parámetros de ajuste de código cerrado, la falta de verificabilidad y los altos costos.
Dan Olshansky propuso una idea prometedora: crear más oportunidades para los investigadores y ingenieros de IA a través de la red de enrutamiento de inferencia de POKT, permitiéndoles llevar sus hallazgos de investigación a la práctica y obtener ingresos adicionales a través de modelos de aprendizaje automático (ML) o inteligencia artificial (IA) personalizados. Más importante aún, esta red puede promover una competencia más justa en el mercado de servicios de inferencia al integrar resultados de inferencia de diversas fuentes (incluidos proveedores descentralizados y centralizados).
Aunque las predicciones optimistas sugieren que todo el stack tecnológico de IA podría migrar completamente a la cadena en el futuro, este objetivo todavía enfrenta enormes desafíos de centralización de datos y recursos computacionales, ya que estos recursos otorgan una ventaja competitiva significativa a los gigantes existentes. Sin embargo, la coordinación y las redes computacionales descentralizadas muestran un valor único en la provisión de servicios de IA más personalizados, económicos, competitivos y resistentes a la censura. Al centrarse en estos mercados específicos donde estos valores son más críticos, Web3 puede construir sus propias barreras competitivas y garantizar que la tecnología más influyente de esta era evolucione en múltiples direcciones, beneficiando a una gama más amplia de partes interesadas en lugar de ser monopolizada por unos pocos gigantes tradicionales.
Finalmente, quiero agradecer especialmente a todos los miembros del equipo de Placeholder Investment, así como a Kyle Samani de Multicoin Capital, Anand Iyer de Canonical VC, Keccak Wong de Nectar AI, Alpin Yukseloglu de Osmosis Labs y Cameron Dennis de NEAR Foundation, quienes proporcionaron revisión y valiosos comentarios durante la redacción de este artículo.