Según Cointelegraph, la Unión Europea está avanzando en sus esfuerzos por dar forma al futuro de la inteligencia artificial con la creación del primer "Código de prácticas de inteligencia artificial de propósito general" en virtud de su Ley de IA. Esta iniciativa, liderada por la Oficina Europea de Inteligencia Artificial, involucra a cientos de expertos globales del mundo académico, la industria y la sociedad civil para redactar de manera colaborativa un marco que aborde cuestiones clave como la transparencia, los derechos de autor, la evaluación de riesgos y la gobernanza interna.

El proceso comenzó con una sesión plenaria en línea el 30 de septiembre, en la que participaron casi 1.000 personas. Esto marca el inicio de un esfuerzo que durará meses y que culminará con un borrador final en abril de 2025. El Código de Prácticas pretende ser una piedra angular para la aplicación de la Ley de IA a los modelos de IA de propósito general, incluidos los modelos de lenguaje extenso (LLM) y los sistemas de IA utilizados en varios sectores.

Se han creado cuatro grupos de trabajo, dirigidos por destacados presidentes y vicepresidentes de la industria, para impulsar el desarrollo del Código de Prácticas. Estos grupos incluyen a expertos como Nuria Oliver, investigadora de inteligencia artificial, y Alexander Peukert, especialista alemán en derecho de autor. Se centrarán en la transparencia y los derechos de autor, la identificación de riesgos, la mitigación de riesgos técnicos y la gestión interna de riesgos. La Oficina Europea de Inteligencia Artificial indicó que estos grupos se reunirán entre octubre de 2024 y abril de 2025 para redactar disposiciones, recabar las aportaciones de las partes interesadas y perfeccionar el Código de Prácticas mediante consultas continuas.

La Ley de IA de la UE, aprobada por el Parlamento Europeo en marzo de 2024, es una pieza legislativa histórica destinada a regular la tecnología de IA en todo el bloque. Establece un enfoque basado en el riesgo para la gobernanza de la IA, categorizando los sistemas en diferentes niveles de riesgo y exigiendo medidas de cumplimiento específicas. Esta ley es particularmente relevante para los modelos de IA de propósito general debido a sus amplias aplicaciones y su potencial de impacto social significativo, a menudo ubicándolos en categorías de mayor riesgo.

Sin embargo, algunas de las principales empresas de inteligencia artificial, incluida Meta, han criticado las regulaciones por ser demasiado restrictivas y argumentan que podrían sofocar la innovación. En respuesta, el enfoque colaborativo de la UE para redactar el Código de Prácticas tiene como objetivo equilibrar la seguridad y la ética con el fomento de la innovación. La consulta de múltiples partes interesadas ya ha obtenido más de 430 propuestas, que ayudarán a dar forma a la redacción del código.

La UE aspira a sentar un precedente para el desarrollo, la implementación y la gestión responsables de modelos de IA de uso general para abril de 2025, haciendo hincapié en la minimización de riesgos y la maximización de beneficios sociales. A medida que evolucione el panorama mundial de la IA, es probable que este esfuerzo influya en las políticas de IA en todo el mundo, y cada vez más países recurran a la UE en busca de orientación para regular las tecnologías emergentes.