La IA justa es la única solución viable para combatir los crecientes riesgos de la IA a gran escala. En este momento, las empresas tecnológicas más grandes del mundo están creando potentes aplicaciones basadas en IA. Por supuesto, la IA está llena de oportunidades económicas, pero también presenta amenazas existenciales inminentes. El mercado está dominado por empresas como Google, OpenAI, Microsoft, Meta y Nvidia, muchas de las cuales tienen un largo historial de explotación de datos de usuarios.

Estas empresas se beneficiarán económicamente de las enormes cantidades de datos de los usuarios que alimentarán sus LLM. Los usuarios finales (usted y yo) no verán ni un centavo de esa ganancia financiera. A medida que la IA reemplace los trabajos cotidianos a un ritmo acelerado, la compensación de los usuarios por sus contribuciones de datos será cada vez más importante.

La oportunidad financiera que ofrece la IA debe distribuirse de manera que esté disponible, equilibrada y equitativa, pero que siga siendo competitiva. En otras palabras, es hora de una IA justa.

La gran IA es excluyente y explotadora

En esencia, la IA es una actividad basada en datos. Quien posee los datos posee el futuro de la IA. Durante los últimos 25 años, las mayores empresas tecnológicas del mundo han obtenido nuestros datos, en gran medida con libertad para usarlos como quieran, con términos y condiciones vagos que nos cuelgan convenientemente justo antes de la dosis de dopamina que supone la compra de un producto. Ahora, las grandes tecnológicas se están transformando en grandes empresas de IA.

La IA ha dado ahora un valor especial a los datos. Ahora, la recopilación, el raspado y la explotación de los datos de los usuarios por parte de estos gigantes tecnológicos son más valiosos que nunca y no harán más que acelerarse. Hace poco, Adobe se enfrentó a una reacción negativa a nivel mundial tras instituir unos “Términos y Condiciones” que le otorgaban el derecho a utilizar todo el trabajo creativo de los usuarios de sus productos, y ahora está dando marcha atrás urgentemente (PCMag). Es importante destacar que Adobe no tenía planes de compensar a un creador si su trabajo era utilizado por un LLM para informar un resultado de IA generativa.

Este mundo, en el que las oportunidades financieras que ofrecen los datos incentivan a las empresas a acumular cada vez más sin tener en cuenta la privacidad del usuario ni la soberanía creativa, es innegablemente peligroso. Es un mundo en el que todos los problemas de los monopolios tecnológicos actuales se amplifican cien veces bajo las fuerzas económicas de la IA y los datos.

La reacción instintiva podría ser la de “cerrar el grifo” y prohibir a cualquier empresa utilizar los datos de los usuarios, pero el futuro no es uno en el que nunca se vayan a utilizar los datos de los usuarios. La IA es inevitable y es imperativo que, en lugar de detenerla, redirijamos su curso hacia algo más sostenible, equitativo, centrado en el usuario y con los incentivos adecuados.

Los datos con los que se entrena a la IA provienen de millones de personas que interactúan diariamente con aplicaciones y servicios en línea. Estos datos deberían ser monetizados por esos contribuyentes, es decir, por usted. A esto lo llamamos Fair AI (IA justa), y creemos que no solo es algo bueno para la IA, sino que es fundamental para garantizar que, a medida que la IA transforma nuestra sociedad, lo haga en beneficio de todos.

El mundo necesita una IA justa

La IA justa es la amalgama de tecnologías e incentivos económicos que, en conjunto, garantizan que la IA evolucione de una manera que sea beneficiosa para todos los que la habilitan o la usan. Hay algunos principios básicos para la IA justa: propiedad, permiso y compensación justa. Específicamente, compensación justa por la contribución de datos, computación y contenido a los conjuntos de datos. Considere este ejemplo: un usuario podría dar permiso para contribuir con sus datos desde su perfil social, digamos, Twitter/X. Esto no es muy diferente del proceso que ocurre cuando le da acceso a ciertas aplicaciones a su calendario. Estas contribuciones crean nuevos conjuntos de datos para que los desarrolladores los usen que pertenecen fuera de lo que está disponible públicamente y, debido a esto, esa persona que contribuye con sus datos para luego construir un ecosistema de IA más sólido, recibiría una compensación en forma de un activo en cadena. Este tipo de contribución es claramente diferente de la dirección actual de Big AI. No recibe compensación cuando Gemini usa las décadas de su actividad de búsqueda de Google para informar un resultado generativo para otro servicio.

La tecnología descentralizada es fundamental para lograr una IA justa. Solo a través de una red abierta y segura como una cadena de bloques podemos garantizar que los datos de los usuarios puedan ser autorizados, rastreados, revocados y, aun así, utilizados por potentes LLM. Cuando se tiene en cuenta la incentivación nativa de las redes de cadena de bloques, se introduce la característica más poderosa y resistente de la IA justa: devolver valor a las personas responsables de contribuir con esos datos en primer lugar. Ya se están creando aplicaciones sobre la cadena de bloques que permiten a los usuarios contribuir con sus datos a LLM descentralizados y ganar dinero en el proceso.

Existen muchas soluciones de blockchain que están impulsando la IA descentralizada a medida que cobra impulso, como lo destaca el reciente informe de VanEck que afirma que se espera que el mercado global de IA descentralizada crezca a $10,2 mil millones para 2030. Las soluciones criptográficas como los mercados de datos en cadena, la identidad descentralizada, las pruebas de conocimiento cero y la gobernanza de IA en cadena están impulsando el crecimiento proyectado de este espacio, lo que refleja la creciente demanda de sistemas descentralizados que brinden a los usuarios mayores beneficios económicos por sus contribuciones. Cuando se implementan, estas soluciones ayudan a crear una economía de IA más equitativa y justa.

Sin embargo, la IA justa no solo hace que la IA actual sea más equitativa, sino que también la hace más poderosa para la era de la IA. A diferencia de los datos obtenidos de aplicaciones cerradas o almacenados en LLM cerrados, los datos de las redes abiertas no están separados por silos. Se pueden aprovechar todos los datos que el colaborador haya puesto a disposición, lo que significa que, en teoría, los desarrolladores de IA pueden acceder a cantidades aún mayores de datos para capacitar a los LLM. En efecto, tienen a su disposición los datos del mundo, en lugar de solo el conjunto de datos de una comunidad de usuarios de aplicaciones.

La naturaleza no permisionada de las cadenas de bloques también impulsa una mayor innovación en materia de IA a nivel global, porque cualquier desarrollador puede acceder a cualquier conjunto de datos no permisionado. Por último, el elemento de monetización de Fair AI incentiva la creación de conjuntos de datos de mayor calidad y valor en tiempo real. Si las personas saben que ciertos datos son más valorados por el mercado, se esforzarán por entregarlos al mercado abierto, creando en última instancia un ecosistema de datos más sólido, completo y equilibrado.

La IA es inevitable, pero su explotación no tiene por qué serlo. La IA justa es la única vía viable y realista para que sigamos innovando en IA y, al mismo tiempo, reducimos los riesgos más siniestros que plantea cuando sigue en manos de unos pocos gigantes tecnológicos. Al apoyar la IA justa y a quienes la promueven, podemos crear un futuro no solo en el que los beneficios económicos de los avances de la IA sean accesibles para todos, sino en el que las soluciones de IA sean incluso más poderosas que las que imaginamos hoy.

Nota: Las opiniones expresadas en esta columna son las del autor y no reflejan necesariamente las de CoinDesk, Inc. o sus propietarios y afiliados.