La ola de popularidad de la IA ha afectado tanto a quienes tienen buenas intenciones como a quienes tienen intenciones que podrían ser más siniestras. Los especialistas en seguridad están dando la voz de alarma y señalan que el uso de este tipo de modelos, la generación de texto malicioso o "hackbots", es ahora famoso entre los actores de amenazas. Ha alcanzado el nivel de un servicio llave en mano en servicios basados ​​en suscripción.

Los ciberdelincuentes aprovechan las herramientas de inteligencia artificial

Por un lado, los expertos en ciberseguridad se dieron cuenta rápidamente del potencial de las herramientas basadas en IA para proteger mejor sus sistemas. Los actores de amenazas también han mostrado el mismo entusiasmo por utilizar estas tecnologías para aprovechar las brechas de seguridad dejadas por aquellos a quienes atacan. En los últimos años, ha habido un aumento exponencial en la cantidad de aplicaciones de IA utilizadas por actores malignos, lo que ha llamado la atención de los equipos de seguridad sobre un enfoque suficiente para reducir las amenazas relacionadas con la IA.

Por otra parte, los especialistas británicos en ciberseguridad también señalaron a la IA como un nuevo riesgo emergente que implica aguas desconocidas y su naturaleza en constante cambio. El NCSC predice que 2024, el primer trimestre, será el más grande y superó con éxito los récords de 2022 y 2023. Los astutos delincuentes también utilizaron modelos de lenguaje para la ingeniería social, que exigían colocar a celebridades en un entorno de video o audio mediante esquemas de phishing o dispositivos de reconocimiento de voz. Vascut Jakkal, vicepresidente de seguridad de Microsoft Corporation, asistió a la Conferencia RSA 2024. El problema no es el deterioro de estas herramientas, sino su creciente disponibilidad para descifrar contraseñas, que está vinculada diez veces al crecimiento de los ataques relacionados con la identidad.

Algunos expertos han llegado a la conclusión de que los chatbots utilizan una frase única para desarrollar activamente malware. De hecho, servicios disponibles públicamente como ChatGPT y Gemini han implementado salvaguardas para evitar su uso indebido con fines maliciosos. Sin embargo, los piratas informáticos han sorteado muchas protecciones mediante técnicas de ingeniería sofisticadas y rápidas.

Hackbot como servicio: la creciente tendencia en el cibercrimen

Según estudios recientes, los modelos de lenguaje visibles públicamente no suelen aprovechar las debilidades de seguridad del software. Sin embargo, solo GPT-4 de OpenAI ha mostrado características prometedoras, ya que podría producir ejecutables para fallas conocidas. Las restricciones anteriores parecen haber fomentado probablemente la producción de chatbots maliciosos prototípicos diseñados para ayudar a los perpetradores de delitos cibernéticos a llevar a cabo sus actividades maliciosas.

Se anuncian en foros y mercados de la dark web, que ofrecen la posibilidad de contratar y explotar a los atacantes, lo que alimenta un modelo de hackbot como servicio. Una de las publicaciones recientes del blog publicadas por el equipo de Trustwave SpiderLabs en agosto de 2023 ilustra el aumento del volumen de modelos de lenguaje malicioso alojados en múltiples foros de mensajes web ocultos con fines de lucro.

Trustwave publicó el modelo WormGPT en junio de 2021, uno de los modelos de lenguaje malicioso más conocidos de estos piratas informáticos. Este enfoque puede ocurrir en equipos donde los bots inyectan ciberataques mediante estructuras de piratería alojadas en la red oscura. FraudGPT, generado en julio de 2023, fue descubierto por los investigadores de amenazas de Netenrich antes de que llegara a Telegram.

Estas herramientas permiten a los atacantes diseñar activos que se utilizan en ataques de ingeniería social, como correos electrónicos de phishing, deepfakes y clonación de voz. Sin embargo, sus creadores afirman que su verdadero valor radica en explotar vulnerabilidades. Permiten a los piratas informáticos introducir código sobre vulnerabilidades específicas en estos modelos maliciosos, lo que, en teoría, podría producir varios exploits de prueba de concepto (PoC) para que un atacante los pruebe.

Estos productos se venden en los mercados encubiertos de la red oscura, donde a los piratas informáticos se les cobra una tarifa de licencia mensual para usar el hackbot, al igual que el ransomware se distribuye en el modelo ransomware-as-a-service (raas) que está directamente conectado a un complejo de ransomware al que se enfrentan muchas empresas hoy en día.

Si bien WormGPT es el primer modelo de lenguaje malicioso a gran escala introducido, pronto le siguieron otros modelos de lenguaje maliciosos y poco éticos como BlackHatGPT, XXXGPT y WolfGPT, formando un nuevo segmento de mercado del mercado negro cibernético.

La eficacia de los hackbots: ¿exageración o amenaza real?

A diferencia de la investigación realizada por Trustwave, que se realizó para probar la eficiencia de las herramientas recomendadas comparando sus resultados con los generados por chatbots legítimos, los hallazgos indicaron que ChatGPT podía crear malware de Python con las indicaciones adecuadas. Para ello, el mensaje debía enviarse al sujeto afirmando que el código era de sombrero blanco antes de la implementación, y el resultado del código también necesitaba modificaciones adicionales.

ChatGPT puede ser capaz de pasar mensajes de texto reales para ataques de phishing, pero el comando de instrucción debe ser muy específico a tal efecto. ChatGPT generalmente se basará en esto solo cuando los usuarios soliciten algo incorrecto. Debido a este hecho, estos chatbots pueden verse como un método más simple para que los cibercriminales o la IA ataquen a los usuarios del chat en lugar de trabajar tediosamente para crear una página o malware.

Si bien esta industria es nueva y las amenazas aún están en constante cambio, las empresas deben ser verdaderamente conscientes de sus niveles actuales de protección. El contenido y las características culturales con las que están inundados los sistemas de IA pueden ser utilizados de manera indebida para crear una brecha de desinformación que solo puede superarse mediante la creación de programas de seguridad de IA y herramientas de gestión de identidades más sólidos.

La legitimidad de las soluciones para este problema creciente aún se debate. Sin embargo, las cepas recientes de ransomware han demostrado que los cibercriminales pueden igualar, o incluso superar, la velocidad de desarrollo de los desarrolladores de software.