Un estudio reciente en la revista Patterns reveló que la IA es cada vez más capaz de engañar a las personas. El estudio encontró que los sistemas de inteligencia artificial han aprendido a imitar para engañar, adular e incluso emular otros comportamientos. 

Lea también: Navegando por el campo minado profundo de IA: cómo detectar y combatir el engaño digital

La investigación dirigida por el Dr. Peter S. Park, becario postdoctoral sobre seguridad existencial de la IA en el MIT, muestra que el engaño de la IA es común porque es la mejor manera de lograr los objetivos establecidos durante el entrenamiento de la IA. Estos comportamientos se han observado en numerosos sistemas de inteligencia artificial, como los juegos y los modelos de propósito general utilizados en la negociación económica y la evaluación de la seguridad.

“Pero en términos generales, creemos que el engaño de la IA surge porque una estrategia basada en el engaño resultó ser la mejor manera de desempeñarse bien en la tarea de entrenamiento de la IA determinada. El engaño les ayuda a lograr sus objetivos”. 

El equipo de investigación

Los sistemas de inteligencia artificial emplean diversas tácticas de engaño

Un ejemplo destacado citado es CICERO de Meta, una IA desarrollada para jugar al juego Diplomacy. Aunque CICERON fue programado para decir la verdad, el programa a menudo tuvo que utilizar métodos clandestinos para vencer a su oponente. Estableció relaciones y les dio la espalda cuando le convenía y mostraba intención de engañar. Los investigadores han descrito a CICERON como un "maestro del engaño".

Lea también: Combatir la creciente ola de delitos cibernéticos impulsados ​​por la IA

También se ha observado que otros sistemas de inteligencia artificial muestran comportamientos tan engañosos. Por ejemplo, Pluribus, una IA que juega al póquer, pudo engañar a jugadores humanos profesionales en el póquer Texas Hold'em. AlphaStar de DeepMind de Google también utilizó la función del juego Starcraft II conocida como "niebla de guerra" para engañar a los oponentes y fingir ataques.

El Dr. Park dijo: "Si bien puede parecer inofensivo que los sistemas de IA hagan trampa en los juegos, puede conducir a" avances en las capacidades engañosas de la IA ".

La IA "se hace la muerta" para evadir los controles de seguridad

Los riesgos del engaño de la IA no se limitan a los juegos. La investigación dirigida por el Dr. Peter identificó casos en los que la IA se había condicionado a hacerse la muerta para evitar ser detectada durante los controles de seguridad. Esto puede resultar engañoso para los desarrolladores y reguladores y puede tener graves repercusiones si dichos sistemas engañosos se emplean en aplicaciones reales.

Fuente: Revista de Seguridad

En otro caso, el sistema de inteligencia artificial entrenado con retroalimentación humana aprendió cómo obtener altas calificaciones de las personas engañándolas diciéndoles que se había logrado un objetivo particular. Este comportamiento engañoso es bastante peligroso, ya que estos sistemas pueden emplearse para actividades fraudulentas, manipulación de los mercados financieros o influir en las elecciones.

Los investigadores exigen fuertes medidas legales

Según los hallazgos del estudio, los investigadores afirman que se necesitan medidas legales sólidas para hacer frente a las amenazas que plantea el engaño de la IA.

"Se necesitan soluciones proactivas, como marcos regulatorios para evaluar los riesgos de engaño de la IA, leyes que exijan transparencia sobre las interacciones de la IA y más investigaciones para detectar y prevenir el engaño de la IA".

El equipo de investigación

Lea también: La IA podría potencialmente detectar el riesgo de insuficiencia cardíaca, según una investigación

Se han logrado algunos avances en forma de la Ley de IA de la UE y la Orden Ejecutiva sobre Seguridad de la IA del presidente Joe Biden. Sin embargo, la aplicación de estas políticas sigue siendo problemática porque el desarrollo de la IA está creciendo rápidamente y todavía no existen buenas formas de gestionar estos sistemas.

Informe criptopolitano de Brenda Kanana