La Ley de Inteligencia Artificial (IA) de la Unión Europea, que entró en vigor el 1 de agosto, exige que los desarrolladores de IA cumplan con medidas estrictas e impone fuertes multas por infracciones.
La Unión Europea ha publicado el texto final de la Ley de Inteligencia Artificial (IA), que constituye el primer conjunto completo de normas sobre IA del mundo. Tras ser aprobada por el Consejo de la UE en mayo de 2024, la Ley entrará en vigor a partir del 1 de agosto de 2024. La ley tiene como objetivo minimizar los riesgos derivados de aplicaciones de IA de "alto riesgo", protegiendo la democracia, los derechos humanos, el medio ambiente y el Estado de derecho.
Sin embargo, las nuevas regulaciones sobre IA plantean grandes desafíos para las empresas de todo el mundo, especialmente las chinas. Patrick Tu, cofundador y director ejecutivo de Dayta AI, con sede en Hong Kong, predice que los costos operativos aumentarán entre un 20% y un 40% para cumplir con las estrictas normas de la UE. Esto representa un impacto financiero y operativo más amplio para los desarrolladores globales de IA.
La Ley de IA exige que los desarrolladores de IA con sede en la UE implementen sus regulaciones antes del 2 de agosto de 2026. Cada estado miembro de la UE debe crear al menos un mecanismo de prueba controlado para la tecnología de IA (zona de pruebas de regulación), proporcionando un entorno para que los desarrolladores prueben los sistemas de IA dentro de los límites legales sin obstáculos para el desarrollo tecnológico.
Para los desarrolladores, proveedores y usuarios de IA biométrica, la fecha límite es el 2 de febrero de 2025. La ley prohíbe las aplicaciones de IA que plantean “riesgos inaceptables”, incluida la clasificación biométrica basada en características sensibles, el reconocimiento de emociones en entornos laborales y escolares y la recopilación masiva de fotografías de rostros para bases de datos de reconocimiento facial. En particular, existen exenciones específicas para la aplicación de la ley bajo ciertas condiciones.
Para el 2 de mayo de 2025, la recién creada Oficina de IA publicará códigos de práctica para orientar a los proveedores de IA sobre el cumplimiento. Los sistemas de inteligencia artificial de uso general, como ChatGPT, deben cumplir con los estándares de transparencia y derechos de autor a partir de agosto de 2025. Los desarrolladores de sistemas de IA de alto riesgo tienen hasta el 27 de agosto de 2027 para cumplir con los requisitos adicionales establecidos en el Anexo I de la Ley de IA.
Sanciones e implicaciones legales por violaciones de la Ley de IA
La Ley de IA impone sanciones estrictas si las empresas no cumplen, que van desde 35 millones de euros (38 millones de dólares) hasta el 7% de los ingresos totales de una empresa en el año anterior, lo que sea mayor. Emma Wright, del bufete de abogados Harbottle and Lewis, comentó: “La Ley de IA de la UE es el primer gran intento de regular la IA a nivel mundial. Queda por ver si los costos de cumplimiento sofocarán la innovación o si el modelo de gobernanza de la IA se convertirá en una exportación clave para la UE”.
El rápido desarrollo de la tecnología de IA, especialmente la IA generativa como ChatGPT, ha superado los esfuerzos regulatorios. Los países y bloques comerciales de todo el mundo están tratando de establecer marcos legales para regular el uso de la IA, lo que refleja una creciente conciencia de la necesidad de una gobernanza de la IA.