La Unión Europea está avanzando hacia el futuro de la inteligencia artificial con el desarrollo del primer “Código de prácticas de IA de propósito general” para modelos de IA en virtud de su Ley de IA.

Según un anuncio del 30 de septiembre, la iniciativa está encabezada por la Oficina Europea de IA y reúne a cientos de expertos globales del mundo académico, la industria y la sociedad civil para redactar en colaboración un marco que abordará cuestiones clave como la transparencia, los derechos de autor, la evaluación de riesgos y la gobernanza interna.

Casi 1.000 participantes en la configuración del futuro de la inteligencia artificial de la UE

La sesión plenaria inaugural, celebrada en línea con casi 1.000 participantes, marcó el inicio de un proceso que durará meses y que concluirá con el borrador final en abril de 2025.

El Código de Prácticas se convertirá en una piedra angular para la aplicación de la Ley de IA a modelos de IA de propósito general, como los modelos de lenguaje grande (LLM) y los sistemas de IA integrados en varios sectores.

En esta sesión también se presentaron cuatro grupos de trabajo, dirigidos por distinguidos presidentes y vicepresidentes de la industria, que impulsarán el desarrollo del Código de prácticas.

Entre ellos, destacan expertos como Nuria Oliver, investigadora de inteligencia artificial, y Alexander Peukert, especialista alemán en derecho de autor. Estos grupos se centrarán en la transparencia y los derechos de autor, la identificación de riesgos, la mitigación de riesgos técnicos y la gestión de riesgos internos.

Según la Oficina Europea de IA, estos grupos de trabajo se reunirán entre octubre de 2024 y abril de 2025 para redactar disposiciones, recabar aportaciones de las partes interesadas y perfeccionar el Código de prácticas mediante consultas continuas.

Preparando el escenario para la gobernanza global de la IA


La Ley de Inteligencia Artificial de la UE, aprobada por el Parlamento Europeo en marzo de 2024, es una pieza legislativa histórica que busca regular la tecnología en todo el bloque.

Se creó para establecer un enfoque basado en el riesgo para la gobernanza de la IA. Clasifica los sistemas en diferentes niveles de riesgo (que van desde mínimo a inaceptable) y exige medidas de cumplimiento específicas.

La ley es especialmente relevante para los modelos de IA de propósito general debido a sus amplias aplicaciones y su potencial de impacto social significativo, lo que a menudo los coloca en las categorías de mayor riesgo delineadas por la legislación.

Sin embargo, algunas de las principales empresas de inteligencia artificial, incluida Meta, han criticado las regulaciones por ser demasiado restrictivas y argumentan que podrían sofocar la innovación. En respuesta, el enfoque colaborativo de la UE para redactar el Código de prácticas tiene como objetivo equilibrar la seguridad y la ética con el fomento de la innovación.

La consulta de múltiples partes interesadas ya ha obtenido más de 430 presentaciones, que ayudarán a influir en la redacción del código.

El objetivo de la UE es que, para abril del año próximo, la culminación de estos esfuerzos siente un precedente sobre cómo se pueden desarrollar, implementar y gestionar de manera responsable modelos de IA de propósito general, con un fuerte énfasis en minimizar los riesgos y maximizar los beneficios sociales.

A medida que el panorama mundial de la IA evoluciona rápidamente, este esfuerzo probablemente influirá en las políticas de IA en todo el mundo, especialmente a medida que más países recurren a la UE en busca de orientación sobre la regulación de las tecnologías emergentes.

Revista: El sistema avanzado de inteligencia artificial ya es “autoconsciente”, dice el fundador de ASI Alliance