Según el secretario de Estado de Arizona, Adrián Fontes, la inteligencia artificial (IA) podría ser una “lupa” de la desinformación antes de las próximas elecciones estadounidenses. Fonte expresó sus temores el domingo en Meet the Press de NBC.

La declaración de Fontes se produjo después de la publicación del presidente Biden en X (anteriormente Twitter) de que “la IA y las empresas que trabajan en tecnología van a transformar el mundo, pero primero deben ganarse nuestra confianza”. El presidente dijo que está comprometido a hacer todo lo que esté a su alcance para promover la innovación segura y responsable. Instó a las empresas a sumarse a él en ese compromiso.

La desinformación de la IA es una lupa

Fontes recordó sus entrenamientos en la Infantería de Marina. Dijo que, en los campos de entrenamiento y otros entrenamientos militares, tenían que evaluar las armas de sus enemigos. Dijo que tenían que entrenar lo más que pudieran contra las armas enemigas.

Lea también: Microsoft advierte sobre campañas de desinformación impulsadas por IA en las próximas elecciones

El Secretario comparó la IA con las armas y dijo que la IA no es un arma; más bien, es una lupa y un amplificador de la información errónea y la desinformación. 

“Lo que quería hacer es asegurarme de que nuestros funcionarios electorales estuvieran familiarizados con esto, que tuviéramos procesos para abordarlo y abordarlo dentro de cada uno de nuestros condados, porque nuestras elecciones también se llevan a cabo a nivel de condado”.

Adrian Fontes

"También realizamos un ejercicio teórico entre varios funcionarios electorales y medios de comunicación para que nuestros socios de medios pudieran saber cómo reaccionar y reconocerlo", añadió.

La IA no fue la única parte; El Secretario, al mencionar el terrorismo interno, dijo que “el terrorismo se define como una amenaza o violencia para lograr un resultado político. Eso es lo que es esto”.

La llamada “falsa” de Joe Biden afirma la desinformación sobre IA

Las posibles amenazas de la IA a las elecciones no son nuevas. A principios de enero de este año, una llamada automática falsa con la voz del presidente estadounidense Joe Biden fue un tema candente de discusión en programas de televisión y artículos de noticias. La llamada falsa se diseñó cuidadosamente, comenzando con decir: “Qué montón de tonterías”, un término que Biden había usado anteriormente. 

Después de este toque personal, la llamada continuó diciendo:

“Votar este martes sólo permite a los republicanos en su búsqueda de elegir nuevamente a Donald Trump. Su voto marca la diferencia en noviembre, no este martes”.

Fue un claro intento de disuadir a los votantes de votar ese día en particular. El Robocall volvió a circular hace dos días, cuando el consultor político Steven Kramer, que estaba detrás de la llamada, fue acusado de 6 millones de dólares y 24 cargos penales en total.

Barack Obama anuncia a Biden como su compañero de fórmula para la vicepresidencia en Springfield, Illinois. Fuente: La Casa Blanca.

La multa impuesta a Kramer fue la primera por delitos relacionados con la IA generativa, dijo la Comisión Federal de Comunicaciones. La comisión también propuso una multa de 2 millones de dólares para Lingo Telecom, acusada de transmitir llamadas automáticas.

Si bien Lingo Telecom dijo que no participó en la producción de estas llamadas, las acciones que tomó estuvieron de acuerdo con los estándares de la industria y las regulaciones federales. Sin embargo, lo preocupante es que las llamadas provinieron del número personal de Kathy Sullivan, ex presidenta estatal del Partido Demócrata. 

Sullivan escribió en un correo electrónico el jueves que “hay un alto precio por intentar manipular una elección”, según Associated Press.

Las campañas de desinformación son más asequibles

La IA ha hecho que la estafa sea más barata y asequible para quienes quieren practicarla. Kramer, propietario de una empresa especializada en proyectos para conseguir el voto, dijo que pagó 500 dólares para enviar los llamamientos a los votantes para llamar su atención sobre el “problema de la IA”. Anteriormente le dijo a AP que le pagó 150 dólares a un mago para crear la grabación.

Lea también: Warren Buffett advierte sobre las estafas de IA que se convertirán en una industria en crecimiento

Wired informó el año pasado que crear una campaña de desinformación de IA cuesta sólo 400 dólares. Informó sobre un desarrollador que utilizó herramientas comunes de inteligencia artificial para generar tweets y artículos anti-Rusia, pero el proyecto tenía como objetivo resaltar cuán barato y fácil se podía hacer.

Según el medio de comunicación, la persona que se hace llamar Nea Paw diseñó la campaña para educar a la gente sobre los peligros y la desinformación de la IA. Paw dijo en un correo electrónico,

"No creo que exista una solución mágica para esto, de la misma manera que no existe una solución mágica para los ataques de phishing, spam o ingeniería social".

Los investigadores de desinformación dicen que la IA podría usarse para diseñar campañas altamente personalizadas para impulsar la desinformación y administrar cuentas de redes sociales. El punto a tener en cuenta es que Facebook e Instagram bloquearon recientemente miles de cuentas que de alguna manera estaban conectadas a las redes a menudo asociadas con el mecanismo de comunicación del Partido Comunista de China.

Warren Buffett dice que las estafas con IA serán la próxima gran “industria en crecimiento”.

Los investigadores dicen que las cuentas falsas ahora utilizan métodos más sofisticados para ejecutar sus campañas de desinformación, ya que ahora utilizan métodos orgánicos para aumentar su alcance y parecer auténticas. Sin olvidar las palabras del legendario inversor Warren Buffet, quien dijo que las estafas con IA podrían ser la “industria de más rápido crecimiento de todos los tiempos”. 

La estafa y la desinformación electoral tienen conexiones en el sentido de que ambas se utilizan para engañar a la gente. Como dice Buffet: "Tiene un enorme potencial para el bien y un enorme potencial para el daño, y simplemente no sé cómo se desarrolla eso".

Informe criptopolitano de Aamir Sheikh