Un grupo de científicos en inteligencia artificial está instando a las naciones a crear un sistema de supervisión global para evitar posibles “resultados catastróficos” si los humanos pierden el control de la IA.

En una declaración publicada el 16 de septiembre, un grupo de influyentes científicos de IA expresó su preocupación de que la tecnología que ayudaron a desarrollar podría causar daños graves si se pierde el control humano.

“La pérdida del control humano o el uso malintencionado de estos sistemas de IA podrían llevar a resultados catastróficos para toda la humanidad”, se lee en el comunicado antes de continuar:

“Desafortunadamente, aún no hemos desarrollado la ciencia necesaria para controlar y salvaguardar el uso de una inteligencia tan avanzada”.

Los científicos coincidieron en que las naciones necesitan desarrollar autoridades para detectar y responder a incidentes de IA y riesgos catastróficos dentro de sus jurisdicciones y que es necesario desarrollar un “plan de contingencia global”.

“A largo plazo, los Estados deberían desarrollar un régimen de gobernanza internacional para evitar el desarrollo de modelos que puedan plantear riesgos catastróficos globales”.

La declaración se basa en las conclusiones del Diálogo internacional sobre seguridad de la IA celebrado en Venecia a principios de septiembre, la tercera reunión de este tipo organizada por el grupo de investigación estadounidense sin fines de lucro Safe AI Forum.

La profesora de la Universidad Johns Hopkins, Gillian Hadfield, quien compartió la declaración en una publicación en X, dijo: “Si tuviéramos algún tipo de catástrofe dentro de seis meses, si detectamos que hay modelos que están comenzando a mejorar de manera autónoma, ¿a quién llamarías?”.

Fuente: Gillian Hadfield

Afirmaron que la seguridad de la IA se reconoce como un bien público global, que requiere cooperación y gobernanza internacionales.

Los desarrolladores de IA propusieron tres procesos clave: acuerdos e instituciones de preparación para emergencias, un marco de garantía de seguridad e investigación independiente a nivel mundial sobre seguridad y verificación de la IA.

La declaración contó con más de 30 firmantes de Estados Unidos, Canadá, China, Gran Bretaña, Singapur y otros países. El grupo estaba integrado por expertos de importantes instituciones de investigación en IA y universidades, y varios ganadores del premio Turing, el equivalente al premio Nobel de informática.

Los científicos dijeron que el diálogo era necesario debido a la disminución del intercambio científico entre las superpotencias y la creciente desconfianza entre Estados Unidos y China, lo que aumenta la dificultad de lograr un consenso sobre las amenazas de la IA.

A principios de septiembre, Estados Unidos, la UE y el Reino Unido firmaron el primer tratado internacional jurídicamente vinculante sobre IA del mundo, que prioriza los derechos humanos y la rendición de cuentas en la regulación de la IA.

Sin embargo, las corporaciones tecnológicas y sus ejecutivos han dicho que la regulación excesiva podría sofocar la innovación, especialmente en la Unión Europea.

Revista: Plan de 'infierno' para Taiwán con drones de IA: los LLM son demasiado tontos para destruir a la humanidad: AI Eye