La inteligencia artificial (IA), aunque está en su infancia como tecnología, ya se está aprovechando para actos delictivos en el criptoespacio, según un informe de la firma británica de análisis de blockchain Elliptic.

Si bien los criptodelitos potenciados por la IA pueden no ser todavía una amenaza generalizada, identificar las tendencias emergentes es importante para la innovación sostenible, según el informe.

Recientemente, las estafas de inversión en criptomonedas han utilizado deepfakes de celebridades y figuras de autoridad para promocionarse.

Entre otras cosas, en este tipo de estafas se han utilizado imágenes de vídeo de Elon Musk y del ex primer ministro de Singapur, Lee Hsien Loong.

DL News informó a principios de este mes que un anuncio en las redes sociales que mostraba un video de Lee promocionando inversiones en criptomonedas era un deepfake que superponía audio falso sobre el video de un discurso que pronunció a principios de este año.

"Esto es extremadamente preocupante: las personas que ven el video pueden ser engañadas y pensar que realmente dije esas palabras", dijo Lee en una publicación de Facebook. "¡El vídeo no es real!"

La IA también genera publicidad para los tokens de estafa, según el informe de Elliptic.

Por ejemplo, hay cientos de tokens listados en blockchains que tienen alguna variante del término "GPT" en su nombre. Algunas pueden ser producto de empresas legítimas, pero Elliptic dijo que ha identificado numerosas estafas entre ellas.

Actores de amenazas

El informe señaló que existe un debate sobre si las herramientas de inteligencia artificial pueden usarse para auditar códigos y verificar errores, y si los hackers de sombrero negro pueden usar esas capacidades para identificar e idear hacks.

Aunque Microsoft y OpenAI han informado de casos de actores de amenazas rusos y norcoreanos que han participado en tales intentos, otros sugieren que su tecnología aún no está completamente desarrollada, según el informe de Elliptic.