El Departamento de Comercio de la administración Biden apunta a una nueva iniciativa de cumplimiento para restringir aún más la exportación de modelos de inteligencia artificial de código abierto o cerrado. La iniciativa es un esfuerzo por salvaguardar los intereses estadounidenses y la tecnología de inteligencia artificial de Rusia y China y complementará las medidas adoptadas en los últimos dos años para bloquear el acceso chino a los últimos chips informáticos avanzados.

El esfuerzo de Estados Unidos es poner barreras protectoras más estrictas alrededor del software central de grandes modelos de lenguaje que impulsan aplicaciones como ChatGPT, informó Reuters, citando tres fuentes familiarizadas con el asunto. Mientras que el proveedor de noticias ha afirmado que los investigadores del sector privado y del gobierno están preocupados por el hecho de que los adversarios estadounidenses puedan utilizar la tecnología para ataques cibernéticos agresivos y desarrollar armas biológicas, la embajada china se ha opuesto a la medida y la ha descrito como intimidación unilateral y económica. coerción.

Los deepfakes son un arma letal de desinformación

Las amenazas que teme Estados Unidos son muchas y pueden ser utilizadas por actores no estatales que cuentan con el respaldo de los estados. Los deepfakes pueden utilizarse como un arma eficaz de propaganda, ya que implican vídeos realistas pero falsos creados por herramientas de inteligencia artificial. 

Este tipo de vídeos ya están surgiendo en las redes sociales. Si bien este tipo de contenido mediático ha existido durante los últimos años, desarrollado con software de animación y renderizado, las herramientas de inteligencia artificial generativa han hecho que sea fácil de producir para cualquier persona, y los actores deshonestos pueden aprovecharlos más fácilmente que nunca para manipular la opinión pública sobre temas delicados. , especialmente durante las campañas electorales.

Las plataformas de redes sociales como YouTube, Facebook y Twitter ya han tomado medidas para limitar los deepfakes, pero las tácticas para desarrollarlos y publicarlos también están cambiando con el desarrollo de la tecnología. Por el momento, se pueden utilizar herramientas de empresas como Microsoft y OpenAI para crear contenidos destinados a difundir desinformación.

Una preocupación mucho mayor es que los modelos de IA puedan filtrar información para el desarrollo de armas biológicas, según investigadores de Rand Corporation y Gryphon Scientific, y las agencias de inteligencia, expertos académicos y grupos de expertos de EE. UU. están preocupados por la posibilidad de que la IA caiga en manos de delincuentes. elementos.

El estudio Gryphon identificó cómo los LLM pueden generar conocimientos expertos y de nivel doctoral que pueden ayudar a desarrollar virus que tienen capacidades pandémicas, y esto puede ser utilizado por actores no estatales como armas biológicas.

Ciberataques amplificados con modelos de IA

El Departamento de Seguridad Nacional también ha expresado su preocupación de que los ataques cibernéticos a infraestructuras cruciales como ferrocarriles y oleoductos puedan ejecutarse con IA mediante el desarrollo de nuevas herramientas que sean capaces de realizar ataques cibernéticos más complejos y a mayor escala y más rápidamente.

La agencia también dijo que China está desarrollando software de inteligencia artificial que puede usarse para ataques de malware y también está trabajando en tecnologías de inteligencia artificial que podrían sabotear las defensas cibernéticas del país.

Funciones y entidades que forman el ecosistema del Partido Comunista Chino. Fuente: Microsoft.

En febrero, Microsoft emitió un informe en el que señaló que había identificado grupos cibernéticos involucrados en actividades de piratería informática que están perfeccionando sus campañas de piratería mediante el uso de LLM y que tienen afiliaciones con la inteligencia militar de Rusia, los gobiernos de Corea del Norte y China. y la Guardia Revolucionaria de Irán.

La compañía anunció la prohibición de los grupos cibernéticos financiados por el estado que utilicen sus productos y servicios de inteligencia artificial. El miércoles, un grupo de estadistas propuso un proyecto de ley que ayudará al gobierno de Biden a imponer controles a la exportación de modelos de IA para evitar su exposición a posibles adversarios.

Expertos en el tema han dicho que Washington está tratando de evitar regulaciones excesivas que podrían suprimir la innovación mientras intentan fomentar la innovación junto con posibles soluciones a los riesgos asociados con la IA. También destacaron que hacer cumplir regulaciones estrictas mediante la regulación estricta del avance de la IA creará un vacío para los competidores extranjeros e impactará negativamente en los campos de la infraestructura, la seguridad nacional y el descubrimiento de fármacos.