Los personajes principales de la industria de la inteligencia artificial son máquinas de autoaprendizaje, pero el debate que se ha generado en torno a sus comportamientos suena de naturaleza muy humana. Términos como “ética” e “infracción” tienen todas las características de un caso judicial temprano sobre propiedad intelectual y la búsqueda incesante de la humanidad por recibir crédito cuando se lo merece y, cuando no se recibe debidamente, compensación.

No sorprende, por lo tanto, que las mismas controversias que han estancado el progreso humano desde los albores de Internet pasen a primer plano a medida que la revolución de la IA se acelera. En todo el mundo, hay casos de prueba pendientes por supuestas infracciones de propiedad intelectual, no por parte de humanos, sino de máquinas que han sido entrenadas con datos extraídos de la web sin la atribución ni la licencia adecuadas. Por supuesto, no son las máquinas las que se espera que se presenten ante el tribunal y se defiendan: son sus amos humanos los que están en el apuro.

Sin embargo, aquí hay más en juego que dinero: el progreso mismo de los sistemas de inteligencia artificial y aprendizaje automático se ve amenazado si el modelo de capacitación actual se vuelve insostenible. Al sentir en qué dirección sopla el viento, algunos desarrolladores de IA ya han comenzado a crear soluciones más compatibles que respetan los derechos de los titulares de propiedad intelectual, y están utilizando blockchain para facilitar esto.

La ética se encuentra con la IA

Hay una serie de cuestiones éticas relacionadas con la infracción de la propiedad intelectual (PI) en la IA, particularmente cuando los modelos se entrenan utilizando datos obtenidos sin la atribución adecuada. Cuando los modelos de IA utilizan datos extraídos de la web sin atribución, los creadores originales no reciben crédito ni reconocimiento. Esta falta de reconocimiento puede ser particularmente problemática en los campos académicos, artísticos y creativos donde las citas adecuadas son cruciales.

Los creadores de contenido, como escritores, artistas y desarrolladores de software, pueden perder ingresos cuando su trabajo se utiliza sin permiso. Esto puede devaluar sus creaciones y afectar su sustento, ya que los sistemas de inteligencia artificial replican o incluso reemplazan la necesidad de su trabajo original. La legislación sobre derechos de autor es compleja (hay una razón por la que los abogados especialistas la practican), pero parece haber un amplio consenso en que existe un caso prima facie de infracción de la propiedad intelectual por parte de la IA.

Sin embargo, desde la perspectiva del demandante, la dificultad es demostrar que una obra específica protegida por derechos de autor formaba parte de los datos de formación. Ha habido algunas excepciones (Getty Images localizó su marca de agua en imágenes generadas por Stable Diffusion), pero a menudo no hay prueba irrefutable. Todo lo cual deja a los desarrolladores de IA bajo una nube de sospecha, aunque no hayan cometido ninguna infracción de derechos de autor.

Esto está claro: antes de que el debate sobre la infracción de la propiedad intelectual se aclare de una manera u otra, existe el riesgo de que la innovación en IA se desacelere y la industria se empanture en demandas de varios años. Basta mirar la demanda de Napster por la música digital para ver ecos del pasado, una batalla prolongada que hizo retroceder el acceso multimedia a Internet hace años. Entonces, ¿cuál es la solución al actual debate sobre la ética de la IA?

Atribución para la Inteligencia Artificial

Dado que existen implicaciones legales por el uso de material protegido por derechos de autor sin autorización, lo que puede dar lugar a demandas, multas y otras sanciones, las empresas que desarrollan modelos de IA deben cumplir con las leyes de propiedad intelectual para evitar tales consecuencias. ¿Pero cómo? Independientemente de lo que decidan los tribunales en el exceso de casos de infracción actualmente en curso, está claro que los “modelos sucios” que se han utilizado para impulsar la industria hasta ahora tienen una vida útil limitada. 

Una cosa es segura es que la solución no radica en reducir el tamaño del conjunto de datos que se alimenta a los modelos de IA: su existencia misma está correlacionada con la cantidad (y la calidad) de los datos que reciben. Pero una solución a este enigma ha surgido de un sector que ahora funciona en paralelo a la industria de la IA convencional: blockchain. En el mundo de la IA impulsada por blockchain, los mercados centrados en el suministro de modelos, conjuntos de datos y la computación necesaria para procesarlos operan en redes descentralizadas.

La empresa de tecnología blockchain droppGroup es la desarrolladora de droppLink, una solución que defiende la IA ética y el desarrollo responsable de modelos. droppLink permite que los "modelos sucios" se vuelvan limpios mediante el uso de tokenización. Esto proporciona un sistema para rastrear y rastrear la actividad del modelo. También proporciona un mecanismo para que los propietarios de propiedad intelectual ofrezcan su propiedad intelectual a empresas de inteligencia artificial en condiciones comerciales específicas, implementadas a través de contratos inteligentes.

Como muestra el rastreador de casos de IA generativa de Mishcon de Reya, hay decenas de casos de infracción de derechos de autor pendientes en los EE. UU. relacionados con datos de entrenamiento. Este es un problema que claramente no desaparecerá a menos que los desarrolladores de IA puedan proporcionar pruebas de que sus modelos están utilizando datos que están libres de propiedad intelectual comercial o que han pagado por la propiedad intelectual que utilizan completamente con atribución total.

¿Un mejor trato para todos?

Si el debate sobre la ética de la IA falla a favor de los demandantes que alegan infracción de derechos de autor, podría resultar una bendición disfrazada para la industria de la inteligencia artificial. Los datos extraídos de la web pueden variar mucho en calidad y pueden introducir sesgos en los modelos de IA. El uso de conjuntos de datos seleccionados y de alta calidad con la atribución adecuada puede garantizar una mayor confiabilidad de los sistemas de IA.

El desarrollo de marcos que permitan la innovación y al mismo tiempo protejan la propiedad intelectual tiene el potencial de crear un ecosistema de IA más equitativo y sostenible. Abordar estos problemas requiere una combinación de marcos legales sólidos, directrices éticas y soluciones tecnológicas para garantizar que el desarrollo de la IA respete los derechos de propiedad intelectual y fomente un entorno justo e innovador.

Si bien blockchain no puede arreglar todo lo que está mal en la industria actual de la IA, el uso de la tokenización tiene una clara utilidad cuando se trata de automatizar flujos de pago y proporcionar una atribución completa. Si se adopta a escala, este marco garantizará que los propietarios de propiedad intelectual reciban una remuneración justa y, al mismo tiempo, permitirá que florezca la innovación en IA.