Divulgación: Los puntos de vista y opiniones expresados ​​aquí pertenecen únicamente al autor y no representan los puntos de vista y opiniones del editorial de crypto.news.

Elon Musk demandó a OpenAI por su supuesta desviación de la misión de desarrollar AGI "en beneficio de la humanidad". Carlos E. Pérez sospecha que la demanda podría convertir al actual líder del mercado de IA generativa en el próximo WeWork. 

También te puede interesar: La IA descentralizada creará la próxima ola de unicornios de Silicon Valley | Opinión

La transformación con fines de lucro de OpenAI es el foco de esta batalla legal. Sin embargo, el énfasis excesivo en las ganancias delata intereses corporativos creados. También desvía la atención de preocupaciones más críticas para los usuarios finales, es decir, la formación ética en IA y la gestión de datos. 

Grok, la creación de Elon y competidor de ChatGPT, puede acceder a "información en tiempo real" desde los tweets. De todos modos, OpenAI es famoso por extraer datos protegidos por derechos de autor de izquierda a derecha y de centro. Ahora, Google ha llegado a un acuerdo de 60 millones de dólares para acceder a los datos de los usuarios de Reddit para entrenar Gemini y Cloud AI. 

Simplemente impulsar el código abierto no sirve a los intereses del usuario en este entorno. Necesitan formas de garantizar un consentimiento y una compensación significativos para ayudar a formar a los LLM. En este sentido, son fundamentales las plataformas emergentes que crean herramientas para obtener datos de entrenamiento de IA mediante crowdsourcing. Más sobre eso más adelante. 

Es principalmente sin fines de lucro para los usuarios.

Más de 5.300 millones de personas utilizan Internet en todo el mundo, y aproximadamente el 93% de ellas utiliza redes sociales centralizadas. Por lo tanto, es probable que la mayor parte de los 147 mil millones de terabytes de datos producidos en línea en 2023 hayan sido generados por los usuarios. Se espera que el volumen supere los 180 mil millones para 2025. 

Si bien este conjunto masivo de datos o “información disponible públicamente” impulsa el entrenamiento y la evolución de la IA, los usuarios no obtienen los beneficios en la mayoría de los casos. No tienen control ni propiedad real. La forma de dar consentimiento “Estoy de acuerdo” tampoco tiene sentido; en el mejor de los casos, es un engaño y, en el peor, una coerción. 

Los datos son el nuevo petróleo. A las grandes tecnológicas no les interesa dar a los usuarios finales más control sobre sus datos. Por un lado, pagar a los usuarios por los datos aumentaría significativamente los costos de formación de LLM, que de todos modos superan los 100 millones de dólares. Sin embargo, como sostiene Chris Dixon en “Read, Write, Own”, cinco grandes empresas controlando y potencialmente “arruinando todo” es la vía rápida hacia la distopía. 

Sin embargo, dada la evolución de las cadenas de bloques como capa de datos distribuidos y fuente de verdad, la mejor era para los usuarios apenas ha comenzado. Lo más importante es que, a diferencia de las grandes corporaciones, las empresas de IA de la nueva era adoptan este tipo de alternativas para lograr un mejor rendimiento, rentabilidad y, en última instancia, el mejoramiento de la humanidad. 

Datos de crowdsourcing para una formación ética en IA

El modelo de confianza de lectura-escritura de Web2 se basa en que las entidades y las partes interesadas no sean malvadas. Pero la codicia humana no conoce límites: todos somos un grupo de “bribones egoístas”, según el filósofo del siglo XVIII David Hume. 

Por lo tanto, el modelo de lectura-escritura-propia de Web3 utiliza blockchain, criptografía, etc., para que los participantes de la red distribuida no puedan ser malvados. Chris explora esta idea ampliamente en su libro.

La pila tecnológica web3 está fundamentalmente orientada a la comunidad y dirigida por los usuarios. Proporcionar el conjunto de herramientas que permita a los usuarios recuperar el control sobre sus datos (financieros, sociales, creativos y de otro tipo) es una premisa central en este ámbito. Las cadenas de bloques, por ejemplo, sirven como capas de datos distribuidas y verificables para liquidar transacciones y establecer de forma inmutable su procedencia. 

Además, en los últimos años han evolucionado mecanismos viables de privacidad y seguridad, como las pruebas de conocimiento cero (zkProofs) o la computación multipartita (MPC). Abren nuevas vías en la validación, el intercambio y la gestión de datos al permitir que las contrapartes establezcan verdades sin revelar el contenido. 

Estas amplias capacidades son muy relevantes desde un punto de vista de entrenamiento de IA. Ahora es posible obtener datos confiables sin depender de validadores o proveedores centralizados. Pero lo más importante es que la naturaleza descentralizada y no intermediada de web3 ayuda a conectar directamente a quienes producen datos (es decir, los usuarios) y los proyectos que los necesitan para entrenar modelos de IA. 

Eliminar los “intermediarios confiables” y los guardianes reduce significativamente los costos. También alinea incentivos para que los proyectos puedan compensar a los usuarios por sus esfuerzos y contribuciones. Por ejemplo, los usuarios pueden ganar criptomonedas completando microtareas como grabar guiones en su dialecto nativo, reconocer y etiquetar objetos, ordenar y categorizar imágenes, estructurar datos no estructurados, etc. 

Las empresas, por otro lado, pueden construir modelos más precisos utilizando datos de alta calidad validados por humanos en el circuito y a un precio justo. Es una situación en la que todos ganan. 

Avances ascendentes, no simplemente de código abierto

Los marcos tradicionales están tan cargados contra los individuos y las comunidades de usuarios que el mero código abierto no significa nada como tal. Es necesario realizar cambios radicales en los modelos de negocio y los marcos de formación existentes para garantizar una formación ética en IA. 

Reemplazar los sistemas de arriba hacia abajo con un enfoque de base y de abajo hacia arriba es el camino a seguir. También se trata de establecer un orden meritocrático que tenga en alta estima la propiedad, la autonomía y la colaboración. En este mundo, la distribución equitativa es lo más rentable, no la maximización. 

Curiosamente, estos sistemas beneficiarán a las grandes corporaciones al mismo tiempo que empoderan a las empresas más pequeñas y a los usuarios individuales. Porque, después de todo, datos de alta calidad, precios justos y modelos de IA precisos son cosas que todo el mundo necesita. 

Ahora, con los incentivos alineados, es de interés compartido de la industria abrazar y adoptar modelos de la nueva era. Aferrarse a ganancias estrechas y miopes no ayudará en el largo plazo. El futuro tiene demandas diferentes a las del pasado. 

Leer más: ¿Qué es mejor que ser dueño de sus activos? Ser dueño de tus datos | Opinión

Autor: William Simonin

William Simonin es el presidente de Ta-da, un mercado de datos de inteligencia artificial que aprovecha blockchain para ludificar la verificación de datos. Anteriormente trabajó como ingeniero de software e investigador para el Ministerio de Defensa francés durante unos seis años y con la Asociación de Seguridad de Epitech Nancy, donde se desempeñó como presidente y luego como profesor de programación funcional. Es un empresario francés y cofundador de múltiples empresas de inteligencia artificial, tecnología y criptomonedas.