La Unión Europea ha publicado el texto final de la Ley de Inteligencia Artificial, que describe los plazos críticos para cumplir con el primer reglamento integral de IA del mundo. Tras la aprobación del Consejo de la UE en mayo, la legislación entrará en vigor el 1 de agosto de 2024.

La Ley de IA tiene como objetivo prevenir las amenazas de la IA de “alto riesgo” a la democracia, los derechos humanos, el medio ambiente y el estado de derecho. Sin embargo, las empresas chinas prevén invertir más tiempo y dinero para cumplir con las nuevas regulaciones de IA. Partick Tu, cofundador y director ejecutivo de Dayta AI, con sede en Hong Kong, anticipa que los costos de su empresa aumentarán entre un 20% y un 40%.

La UE exige entornos de pruebas regulatorios para la IA

La Ley exige que los desarrolladores de IA con sede en la UE implementen sus disposiciones antes del 2 de agosto de 2026. Cada estado miembro de la UE debe cumplir con este requisito antes de esta fecha, y cada uno debe crear al menos un entorno de pruebas regulatorio de IA a nivel nacional. Estos sandboxes permitirán a los desarrolladores probar los sistemas de IA dentro del marco legal establecido para que no obstaculicen el desarrollo de la tecnología. 

Los desarrolladores, proveedores y usuarios de biometría deben cumplir con la nueva fecha límite del 2 de febrero de 2025. Esta fecha límite prohíbe el uso de aplicaciones de IA de “riesgo inaceptable”, como la clasificación biométrica basada en rasgos sensibles, el reconocimiento de emociones en entornos de trabajo y establecimientos educativos y extracción masiva de imágenes faciales para bases de datos de reconocimiento facial. Sin embargo, existen exenciones en el caso de la policía bajo ciertas condiciones. 

Lea también: El CTO de Microsoft defiende las leyes de escalamiento de la IA

Antes del 2 de mayo de 2025, la recién creada Oficina de IA debería haber emitido códigos de práctica para los proveedores de IA. Los siguientes códigos ilustrarán la manera en que los proveedores pueden demostrar su cumplimiento de la Ley. Los sistemas de inteligencia artificial de uso general, incluido ChatGPT, deberán observar las normas de transparencia y derechos de autor a partir de agosto de 2025. 

Además, los desarrolladores de sistemas de IA de alto riesgo tienen hasta el 27 de agosto de 2027, un año después de que la Ley de IA entre en vigor, para cumplir con los requisitos adicionales establecidos en el Anexo I de la Ley de IA. Aplicaciones de IA de alto riesgo como la identificación biométrica remota están permitidas en el mercado de la UE, siempre que se cumplan las siguientes condiciones. 

La ley impone fuertes sanciones por infracciones

Según la ley, cualquier empresa que no cumpla las disposiciones de la ley estará sujeta a duras sanciones. Las multas varían desde 35 millones de euros (38 millones de dólares estadounidenses) hasta hasta el 7% de los ingresos totales de las empresas durante el año anterior, lo que sea mayor que las sanciones administrativas. 

Emma Wright, del bufete de abogados Harbottle and Lewis, comentó sobre la aparición de la ley y dijo: “La Ley de IA de la UE es el primer intento significativo de regular la IA en el mundo; aún está por verse si el costo de su cumplimiento sofoca la innovación o si la IA El modelo de gobernanza que establece es una exportación emblemática para la UE”.

El ritmo de avance de la IA, particularmente con el reciente lanzamiento de IA generativa como ChatGPT, ha superado con creces el ritmo de regulación. Varios países y bloques comerciales han estado trabajando en marcos legales para regular el uso de la IA.