La IA puede ser una herramienta útil para los delincuentes en el ecosistema de las criptomonedas, y comprender las nuevas tendencias delictivas es fundamental para proteger la industria.

Con el rápido desarrollo de la inteligencia artificial (IA), se han producido muchas innovaciones que han traído grandes beneficios en muchas industrias, especialmente en el sector de las criptomonedas. Sin embargo, como cualquier tecnología nueva, la IA también conlleva el riesgo de ser utilizada con fines maliciosos. Según un informe realizado por Elliptic, la organización ha identificado cinco tipos de delitos emergentes en el ecosistema de criptomonedas impulsado por IA.

La IA crea estafas deepfake en criptomonedas

La IA se utiliza para crear estafas con criptomonedas. Específicamente, los videos deepfake que se hacen pasar por celebridades o líderes empresariales promueven proyectos de inversión en criptomonedas, creando la impresión de que el proyecto cuenta con apoyo oficial. Por ejemplo, los videos que se hacen pasar por el CEO de Ripple, Brad Garlinghouse, parecen engañar a los usuarios para que participen en estafas de obsequios de criptomonedas.

Estas estafas suelen utilizar imágenes, vídeos y voces generados por IA para hacer que los sitios web fraudulentos parezcan más convincentes. Un ejemplo típico es el ataque a Twitter de julio de 2020, cuando las cuentas de muchas celebridades fueron pirateadas para publicar enlaces fraudulentos que regalaban Bitcoin. En muchos casos, los estafadores también utilizan cuentas de administrador en los canales de Discord de proyectos de criptomonedas para publicar enlaces fraudulentos y robar criptomonedas o tokens no fungibles (NFT).

Crear tokens de IA fraudulentos o esquemas de manipulación del mercado

Se ha creado una gran cantidad de tokens fraudulentos con palabras clave relacionadas con la IA, como “GPT”, “CryptoGPT” y “GPT Coin”. Estos tokens a menudo se promocionan en foros comerciales de aficionados, lo que crea un entusiasmo falso y, en última instancia, defrauda a los usuarios al vender los tokens y desaparecer con las ganancias. Estas estafas incluyen “estafas de salida” y “pump and dump” (manipulación del mercado).

Según el informe de Elliptic, en muchas cadenas de bloques, crear un token es muy fácil y los estafadores se han aprovechado de esto para crear tokens relacionados con la inteligencia artificial para crear un entusiasmo falso. Estos tokens suelen promocionarse en foros comerciales de aficionados, donde los estafadores afirman tener una afiliación oficial con empresas legítimas de inteligencia artificial, como ChatGPT u otras empresas de inteligencia artificial. Estas estafas van más allá de la creación de tokens e incluyen plataformas de inversión falsas, robots comerciales de IA falsos y estafas de salida.

Un buen ejemplo es la estafa del robot de comercio de IA “iEarn” de 6 millones de dólares, en la que los estafadores crearon una plataforma de comercio de IA falsa y luego desaparecieron con los fondos invertidos de la víctima. Estos estafadores a menudo reaparecen con diferentes nombres y sitios web y continúan estafando a nuevas víctimas. Otro ejemplo destacado es Mirror Trading International (MTI), un esquema Ponzi que obtuvo más de 1.700 millones de dólares en criptomonedas de víctimas de todo el mundo.

Uso de modelos en lenguaje grande para realizar ataques cibernéticos

Las herramientas de inteligencia artificial como ChatGPT tienen la capacidad de probar y detectar vulnerabilidades en el código, que por lo tanto pueden ser aprovechadas por piratas informáticos para encontrar y atacar contratos inteligentes de protocolos de finanzas descentralizadas (DeFi). En foros de la web oscura se han promocionado algunas herramientas de inteligencia artificial "poco éticas" con la capacidad de automatizar correos electrónicos de phishing, escribir códigos maliciosos y encontrar vulnerabilidades.

Por ejemplo, los piratas informáticos pueden utilizar la IA para examinar el código fuente abierto de muchos protocolos DeFi en un corto período de tiempo para encontrar vulnerabilidades de seguridad. En foros de la dark web se han promocionado una serie de herramientas de inteligencia artificial “poco éticas”, como WormGPT, DarkBard, FraudGPT y HackerGPT, con la capacidad de automatizar actividades de ciberdelincuencia, como el envío de correos electrónicos de phishing, la escritura de códigos maliciosos y la búsqueda de agujeros de seguridad. Estas herramientas suelen venderse entre 70 y 1700 dólares.

Un ejemplo específico es WormGPT, una herramienta de inteligencia artificial diseñada para generar correos electrónicos de phishing, malware y encontrar vulnerabilidades de seguridad. WormGPT se promociona en foros de la web oscura con la capacidad de automatizar actividades de delitos cibernéticos, incluido el envío de correos electrónicos de phishing y la escritura de códigos maliciosos. Uno de los clientes de WormGPT lo utilizó para falsificar bancos y recopilar códigos OTP de las víctimas.

Despliegue de estafas e información errónea sobre criptomonedas a gran escala

La IA puede crear y difundir sitios web de phishing de forma rápida y sencilla. Servicios como NovaDrainer, que ofrece sitios web fraudulentos para afiliados y participación en las ganancias, recibieron más de 2.400 tokens de más de 10.000 billeteras diferentes, probablemente de víctimas de estafas. Además, la IA también se utiliza para generar automáticamente publicaciones en las redes sociales, lo que ayuda a difundir información falsa sobre proyectos de criptomonedas.

Un ejemplo específico es el servicio NovaDrainer, una plataforma que ofrece fraude como servicio a afiliados y comparte ganancias. NovaDrainer afirma utilizar IA para procesar transacciones y crear nuevos diseños de sitios web, optimizados para SEO y metaetiquetas. El servicio recibió más de 2.400 tokens de más de 10.000 billeteras diferentes, probablemente de víctimas de estafas.

Además, los robots de redes sociales también se utilizan para difundir información errónea sobre proyectos de criptomonedas. Un buen ejemplo es la red de bots FOX8, una red de bots de Twitter que utilizaba ChatGPT para generar publicaciones y respuestas automatizadas. Esta red de bots incluye más de 1.100 cuentas y ha difundido información errónea sobre las criptomonedas, con el hashtag#cryptoapareciendo más de 3.000 veces en sus publicaciones.

Ampliando el mercado ilegal

En los mercados de la web oscura, han aparecido servicios de inteligencia artificial que crean imágenes falsas de desnudos de celebridades y brindan herramientas de inteligencia artificial para crear estas imágenes a bajo costo. Los servicios de generación de documentos falsos como "OnlyFake Document Generator" utilizan IA para crear documentos de identificación falsos para eludir los controles KYC en los intercambios de criptomonedas. Además, las herramientas de inteligencia artificial también se utilizan para filtrar y analizar datos robados en ciberataques.

Un buen ejemplo es OnlyFake Document Generator, un servicio de creación de documentos falsos que utiliza inteligencia artificial para crear documentos de identificación falsos para pasar los controles KYC en los intercambios de criptomonedas. Este servicio ofrece paquetes de servicios que van desde 15 USD (crear un documento falso) hasta 1500 USD (crear 1000 documentos falsos). En sólo un mes, el servicio vendió suficientes licencias para crear aproximadamente 4.935 documentos falsos.

También han aparecido en los mercados de la web oscura servicios que crean imágenes falsas de desnudos de celebridades. Un ejemplo es un servicio de inteligencia artificial que creó imágenes falsas de desnudos de al menos 13 celebridades de la industria del entretenimiento de Hong Kong, que se vendieron por 2 dólares. Además, otros servicios de inteligencia artificial también brindan la capacidad de crear imágenes de desnudos a partir de imágenes cargadas por el usuario a bajo costo, generalmente menos de 1 dólar por imagen.

Consecuencias y medidas preventivas

La combinación de IA y actividades ilegales en la web oscura plantea un gran desafío para las fuerzas del orden y los expertos en ciberseguridad. Detectar y prevenir estas actividades requiere un conocimiento profundo de la tecnología de inteligencia artificial y los nuevos métodos delictivos.

Para hacer frente a las amenazas criminales impulsadas por la IA en el ecosistema de las criptomonedas, es necesario establecer medidas preventivas integrales. Uno de estos enfoques es DECODE, que incluye los siguientes elementos:

1. Detección: uso de tecnología de inteligencia artificial para detectar tempranamente actividades inusuales y signos de fraude. Los sistemas de monitoreo automatizados pueden escanear transacciones y actividades en blockchain para buscar patrones de comportamiento sospechosos.

2. Educación: aumentar la conciencia y educar a los usuarios y partes interesadas sobre los riesgos asociados con los delitos de IA en criptomonedas. Deben implementarse campañas de comunicación y formación para ayudar a los usuarios a reconocer los signos de fraude y adoptar medidas de protección personal.

3. Colaboración: Promover la cooperación entre organismos encargados de hacer cumplir la ley, empresas de tecnología e instituciones financieras para compartir información y coordinarse en la respuesta a los delitos de IA. La cooperación internacional también es importante para hacer frente a las amenazas transnacionales.

4. Supervisión: Establecer mecanismos de seguimiento y regulación para asegurar que las empresas y organizaciones cumplan con los estándares de seguridad y prevención de delitos. Los reguladores deberían actualizar periódicamente las regulaciones para reflejar las nuevas tendencias delictivas.

5. Defensa: aplique medidas de seguridad avanzadas, incluido el cifrado, la autenticación de dos factores y otras soluciones de seguridad para proteger los sistemas de ataques. Estas medidas deben actualizarse continuamente para hacer frente a nuevas amenazas.

6. Evaluación: Realizar auditorías y evaluaciones periódicas de las medidas de prevención del delito y los sistemas de seguridad para garantizar su eficacia. Estas evaluaciones deben incluir pruebas de sistemas contra ataques simulados para detectar y remediar debilidades.

Concluir

La IA está abriendo nuevas oportunidades tanto de beneficios como de riesgos en el ecosistema de las criptomonedas. Comprender y gestionar los riesgos involucrados es fundamental para proteger a los usuarios y mantener la ciberseguridad. Los esfuerzos coordinados y las medidas de prevención eficaces ayudarán a minimizar el impacto de estas actividades delictivas y proteger el desarrollo sostenible de la tecnología de inteligencia artificial y las criptomonedas.

El informe de Elliptic no sólo proporciona información sobre las tendencias delictivas relacionadas con la IA, sino que también recomienda estrategias específicas para hacer frente a estos desafíos. La investigación continua y una mayor conciencia sobre las amenazas potenciales son un paso importante para garantizar un entorno digital seguro y confiable.

A medida que la tecnología continúa avanzando, mantener un equilibrio entre innovación y seguridad será un desafío. Las partes interesadas en las industrias de las criptomonedas y de TI deben trabajar en estrecha colaboración para desarrollar soluciones de seguridad de vanguardia, al tiempo que mejoran la conciencia y las habilidades para hacer frente a las nuevas amenazas. El desarrollo sostenible y seguro de la tecnología de IA y las criptomonedas depende no solo de medidas técnicas sino también de la cooperación global y el compromiso de todas las partes interesadas.