En los últimos años, las preocupaciones morales y prácticas se han centrado en la IA debido a su enorme potencial para usos tanto beneficiosos como perjudiciales. Uno de los líderes de la industria, OpenAI, se dedica a implementar pautas estrictas para evitar que se abuse de sus modelos de IA.

Esta dedicación es especialmente importante para identificar y frustrar operaciones de influencia encubiertas (IO), que son esfuerzos para influir en la opinión pública o impactar los resultados políticos sin revelar las identidades o motivaciones reales de las partes involucradas. En los últimos tres meses, OpenAI ha interferido en cinco de estas actividades, lo que demuestra su compromiso de reducir el uso indebido de la tecnología de IA.

Fallos inesperados en las operaciones de influencia encubierta últimamente

El 30 de mayo de 2024, OpenAI hizo historia al revelar al mundo que había frustrado con éxito cinco campañas de influencia encubiertas provenientes de Irán, China, Rusia e incluso una empresa privada israelí. La empresa publicó un informe abierto que detalla las minuciosas investigaciones que expusieron estos esfuerzos maliciosos, cuyo objetivo era utilizar los modelos de lenguaje de última generación de OpenAI para el fraude en la web.

El director ejecutivo de OpenAI, Sam Altman, reafirmó la dedicación de la empresa a la creación de aplicaciones de inteligencia que sean confiables y seguras. También afirmó que la empresa está comprometida con la implementación de regulaciones que detengan el uso indebido y mejoren la apertura en torno a la información generada por la IA, con un enfoque particular en identificar y afectar las actividades de influencia oculta.

Una operación particular, denominada “Mala Gramática” por los analistas de OpenAI, provino de Rusia. En un esfuerzo por cambiar la percepción del público, las personas detrás de esta operación utilizaron bots de Telegram para ejecutar los modelos de OpenAI y producir breves comentarios sociales tanto en ruso como en inglés. Estos comentarios luego se compartieron en la conocida aplicación de chat.

Foto: Comentario público de Telegram que coincide con un texto generado por esta red. Informe Intel sobre amenazas

Otra organización llamada "Doppelganger" adoptó una estrategia más internacional, utilizando la IA de OpenAI para crear respuestas en diferentes idiomas de la UE.

El estudio también proporcionó información sobre un sistema chino conocido como "Spamouflage", que utilizaba modelos de OpenAI para una variedad de aplicaciones, incluida la creación de material multilingüe para sitios como X, Medium y Blogspot, así como la investigación de información pública. actividad en las redes sociales. Los investigadores incluso utilizaron la IA de OpenAI para depurar el código de administración de bases de datos y sitios web, en particular un dominio no revelado anteriormente, que es quizás el más preocupante de todos.

Foto: Captura de pantalla del sitio web revelacum[.]com, que muestra la página titulada “汉奸” (“traidor”). Informe Intel sobre amenazas

Los analistas de la organización también descubrieron la “Unión Internacional de Medios Virtuales” (IUVM), una organización iraní que utilizaba la IA de OpenAI para crear e interpretar documentos de formato largo, noticias y etiquetas web.

Foto: Etiquetas en un artículo publicado por iuvmpress[.]co. Tenga en cuenta las dos primeras etiquetas, que incluyen la respuesta del modelo. Informe Intel sobre amenazas

Inesperadamente, OpenAI también interfirió con las operaciones de una empresa israelí que se hacía llamar “Zero Zeno”. Utilizando los modelos de OpenAI, STOIC creó historias y respuestas que luego se compartieron en varias plataformas, como Facebook, Instagram, X y páginas corporativas. Esto puede haberse hecho en un esfuerzo por influir en la opinión pública o promover objetivos comerciales.

Foto: Comentarios en inglés generados por esta red y publicados en Instagram. Tanto la publicación original como las respuestas fueron generadas por esta campaña. Informe Intel sobre amenazas

La investigación destaca que la información distribuida por estas diferentes organizaciones cubrió una amplia gama de temas. Esta amplia gama de temas resalta cuán adaptables fueron estos actores de amenazas en sus intentos de utilizar los modelos de lenguaje de OpenAI para sus propios propósitos malvados.

OpenAI, sin embargo, afirma que a pesar de sus mejores esfuerzos, estas campañas secretas de influencia no ganaron mucho con el uso de sus servicios para aumentar la popularidad o el alcance. Al evaluar el impacto de las OI, se utilizó la “Escala de ruptura” de la Brookings Institution. Ninguna de las cinco iniciativas recibió una puntuación superior a 2, lo que significa que sus actividades se restringieron a unas pocas plataformas y no penetraron significativamente en grupos legítimos en línea.

Foto: Los investigadores identificaron el siguiente dominio como asociado con esta campaña. Informe Intel sobre amenazas

Examen de las estrategias del atacante

El artículo de OpenAI también identifica una serie de patrones significativos en la forma en que estos actores de amenazas intentaron abusar de los modelos de IA. Para crear la apariencia de participación en las redes sociales, todos utilizaron material generado por IA además de formatos más convencionales como cartas escritas a mano o memes reutilizados. Además, algunos actores demostraron la adaptabilidad de estas tecnologías mediante el uso de IA para aumentar su productividad mediante el análisis de publicaciones en las redes sociales o el código de resolución de problemas.

Curiosamente, la empresa destaca los beneficios que la IA proporciona a las defensas contra este tipo de ataques. Las medidas de seguridad de OpenAI, que priorizaron el despliegue ético de la IA, han causado constantemente inconvenientes a los actores de amenazas al negarse a proporcionar el material destructivo previsto. El estudio, por ejemplo, detalla situaciones en las que los modelos de la empresa se negaron a generar el texto o los gráficos deseados, impidiendo los intentos de los operadores de difundir información errónea o propaganda.

Además, para mejorar las habilidades de reconocimiento y evaluación y acelerar las investigaciones que podrían haber durado semanas o meses, OpenAI ha creado sus propias herramientas basadas en IA. La empresa ha demostrado cómo la IA puede fortalecer las salvaguardias contra su propio uso malévolo utilizando la tecnología exacta que pretende proteger.

OpenAI enfatiza cuán cruciales son la cooperación empresarial y el intercambio de inteligencia de código abierto para frustrar estas operaciones clandestinas. Como resultado de años de estudios de código abierto por parte de la comunidad de investigación en general, la corporación compartió indicadores de peligro precisos con sus pares en la industria y fortaleció la idea de que combatir la desinformación y la manipulación en línea es un esfuerzo de equipo que requiere colaboración entre industrias.

El curso futuro de OpenAI para la seguridad

Al utilizar esta estrategia, OpenAI busca fortalecer el efecto de sus disrupciones en estos malos actores, restringiendo su capacidad de utilizar la tecnología de IA para actividades ilícitas. Según el artículo, "La distribución importa: al igual que las formas tradicionales de contenido, el material generado por IA debe distribuirse para llegar a una audiencia".

En resumen, la investigación de OpenAI destaca que estas operaciones de influencia sigilosa todavía estaban limitadas por variables humanas, como errores de los operadores y defectos en la toma de decisiones, incluso aunque reconoce las amenazas potenciales que presenta el abuso de la tecnología de IA. El documento incluye ejemplos de operadores que publican por error señales de rechazo de los modelos de OpenAI en sus sitios web y redes sociales, exponiendo las fallas y restricciones incluso en los esfuerzos de desinformación más avanzados.

Por ahora, el desmantelamiento por parte de OpenAI de estas cinco campañas de influencia clandestinas es una prueba de la diligencia y el compromiso de la empresa para mantener la integridad de sus sistemas de inteligencia artificial. Sin embargo, la lucha contra la desinformación y la manipulación en línea está lejos de terminar y, a medida que se desarrollen las tecnologías de inteligencia artificial, habrá mucha más necesidad de cooperación, creatividad y preocupaciones éticas.

La publicación OpenAI expone y detiene cinco operaciones de influencia maliciosa que aprovechan la tecnología de inteligencia artificial apareció por primera vez en Metaverse Post.