La Unión Europea (UE) dio un paso importante el miércoles al darle al mundo su primer conjunto de reglas de gobernanza en torno a la inteligencia artificial (IA), cuando el Parlamento Europeo aprobó un proyecto de ley conocido como A.I. Acto.

La IA La ley, que fue propuesta por primera vez por la UE el 21 de abril de 2021, ha sido promocionada como el primer y más completo marco regulatorio del mundo. Desde su propuesta, la Comisión Europea, el Consejo de la Unión Europea y el Parlamento Europeo han estado trabajando para modificar y perfeccionar su borrador inicial, y no se espera una versión final hasta finales de este año.

Si bien el borrador inicial se produjo antes del surgimiento de la IA generativa, incluidos los chatbots, este nuevo proyecto de ley ciertamente toma en consideración los sistemas de IA generativa como ChatGPT de OpenAI y las implicaciones que traen.

Pruebas antes de la implementación

La ley, que se aplica a todos los países miembros de la UE, exige que los estados miembros de la UE establezcan al menos un “sandbox” regulatorio para probar los sistemas de inteligencia artificial antes de su implementación.

"Lo único que queríamos lograr con este texto es el equilibrio", dijo a los periodistas Dragoș Tudorache, miembro del Parlamento Europeo. La Ley protege a los ciudadanos y al mismo tiempo “promueve la innovación, sin obstaculizar la creatividad, y el despliegue y desarrollo de la IA en Europa”, añadió.

Mayor potencial de daño humano

En el centro del proyecto de ley aprobado el miércoles, la IA generativa estaría sujeta a nuevos requisitos de transparencia, que incluyen la publicación de resúmenes de material protegido por derechos de autor utilizado para entrenar el sistema, así como la implementación de salvaguardas para evitar que la IA genere contenido ilegal.

El enfoque “basado en el riesgo” del proyecto de ley para regular la IA se centra en los casos de uso con mayor potencial de daño humano, incluida la utilización de sistemas de IA para operar infraestructuras críticas como el agua o la energía, nuestro sistema de justicia legal y la determinación del acceso a los servicios públicos y beneficios del gobierno.

Los desarrolladores de esta tecnología deberían realizar evaluaciones de riesgos antes de incorporarla a la corriente principal, de forma similar a como funciona actualmente el proceso de aprobación de medicamentos.

Prohibición del reconocimiento facial

Otro acalorado área de debate gira en torno al uso de la tecnología de reconocimiento facial. El Parlamento Europeo votó a favor de prohibir el uso del reconocimiento facial en vivo, pero aún está abierto a si debería haber una excepción para su uso en casos de seguridad nacional y otros fines policiales.

Además de eso, otra disposición de la A.I. La ley prohibiría a las empresas extraer datos biométricos de las redes sociales para ayudar a crear bases de datos, algo que fue un problema importante después de que la autoridad francesa de protección de datos (CNIL) multara a la empresa de reconocimiento facial Clearview AI con 20 millones de dólares por la recopilación y el procesamiento ilegal de datos. datos biométricos pertenecientes a ciudadanos franceses, además de una multa vencida de 5,2 millones de dólares.

¿La IA generativa añadirá 4,4 billones de dólares a la economía global?

Se estima que la IA generativa agregará 4,4 billones de dólares a la economía global, según un informe del miércoles publicado por McKinsey & Company.

Si bien esa cifra se encuentra en el extremo superior del rango proyectado por McKinsey para el valor de la IA generativa, el informe titulado "El potencial económico de la IA generativa" también proporciona el extremo inferior del rango que se sitúa en 2,6 billones de dólares.

Durante la Conferencia Viva en París el miércoles, el científico jefe de IA de Meta, Yann LeCun, habló sobre las limitaciones actuales de la IA generativa, específicamente aquellas que se entrenan en grandes modelos de lenguaje.

Según LeCun, la IA generativa que se entrena únicamente en el lenguaje no es muy inteligente.

"Esos sistemas son muy limitados, no tienen ninguna comprensión de la realidad subyacente del mundo real, porque están entrenados exclusivamente en texto, cantidades masivas de texto", dijo LeCun. "La mayor parte del conocimiento humano no tiene nada que ver con el lenguaje... por lo que la IA no captura parte de la experiencia humana".

“Hoy hemos hecho historia”, dijo a los periodistas Brando Benifei, miembro del Parlamento Europeo que trabaja en la Ley de IA de la UE.

"Mientras las grandes empresas tecnológicas hacen sonar la alarma sobre sus propias creaciones, Europa ha seguido adelante y ha propuesto una respuesta concreta a los riesgos que la IA está empezando a plantear", añadió Benifei.

Esta semana, más del 40% de los líderes empresariales en la Cumbre de CEO de Yale, incluido el jefe de Walmart, Doug McMillion, y el CEO de Coca-Cola, James Quincy, compartieron su creencia de que la IA tiene el potencial de destruir a la humanidad dentro de cinco a diez años.

La Ley de IA lleva un paso más allá las sanciones que hemos visto en el marco de privacidad GDPR de Europa, donde las empresas involucradas en prácticas prohibidas de IA podrían recibir multas de hasta 43 millones de dólares o una cantidad equivalente al 7% de la facturación anual mundial de una empresa, lo que sea es más alto.

Actualmente, el GDPR estructura sus multas hasta $10,8 millones de dólares, o hasta el 2% de la facturación global de una empresa, lo que sea mayor.

En otras noticias, lea sobre la computación hiperdimensional y por qué es posible que estemos viendo mal la IA.

Haga clic aquí para ver la galería completa en Hypemoon