L’intégration précoce de l’IA dans la cryptographie présente des opportunités d’efficacité, ainsi que des escroqueries. Selon un rapport d’Elliptic, l’IA aide les fraudeurs à accélérer et à augmenter leurs escroqueries cryptographiques cycliques.

Nous avons tous déjà entendu parler de l’IA et de ses nombreux cas d’utilisation. Certains cas d'utilisation sont légitimes et utiles pour les entreprises de cryptographie, tandis que d'autres permettent à de mauvais acteurs et à des escrocs de s'attaquer aux victimes. L’IA peut améliorer les sociétés de cryptographie légitimes en générant du texte, des images, des sites Web, des vidéos et d’autres contenus. Cela ouvre également de nouvelles voies aux activités illicites. 

Selon un récent rapport d’Elliptic, l’IA peut accélérer le déploiement et la durabilité des escroqueries cryptographiques, posant ainsi une menace substantielle pour la crédibilité de l’intelligence artificielle et de l’industrie de la cryptographie.

Escroqueries impliquant des influenceurs des réseaux sociaux et des sites Web de cryptographie

Les influenceurs crypto qui tirent parti de leur audience et de leur personnalité pour proposer des produits cryptographiques spécifiques peuvent exercer leur influence pour manipuler les prix de plusieurs manières. Les influenceurs utilisent souvent une tactique connue sous le nom de « pump and dump », dans laquelle ils font la promotion d’une crypto-monnaie particulière pour augmenter artificiellement son prix. Les influenceurs incitent leurs abonnés à investir, ce qui fait monter le prix. Ils vendent ensuite, ce qui entraîne une chute libre et profite aux dépens de leurs abonnés.

Les influenceurs peuvent utiliser leurs plateformes pour diffuser des allégations exagérées ou fausses, provoquant ainsi la peur et la panique sur le marché. Ils peuvent ensuite acheter des crypto-monnaies à des prix inférieurs.

Comme les influenceurs, les fraudeurs crypto fonctionnent de manière cyclique. Ils créent des investissements frauduleux, des parachutages ou des sites de cadeaux largement promus sur les réseaux sociaux et les applications de messagerie. Une fois que ces sites suscitent suffisamment de popularité et suscitent suffisamment de controverses, les escrocs exécutent un « tirage de tapis », disparaissant avec les fonds des victimes et les laissant les mains vides. Le processus est cyclique, donc après le tirage du tapis, ils recommencent souvent avec un nouveau jeton, un site différent et de nouvelles stratégies marketing.

La création de tous ces documents frauduleux – des comptes de réseaux sociaux aux sites Web et interfaces utilisateur – prend beaucoup de temps, nécessite beaucoup de ressources et est coûteuse. Les outils d’IA peuvent désormais rationaliser considérablement ce processus.

Par exemple, selon le rapport Elliptic, l’IA peut générer de fausses images d’employés et d’autres supports marketing, rendant les escroqueries plus légitimes et plus professionnelles. Cela permet non seulement de gagner du temps, mais améliore également la sophistication des escroqueries, les rendant plus difficiles à détecter.

Afin de gagner le plus d’argent possible, les escrocs doivent établir des opérations frauduleuses et se connecter avec un grand nombre de personnes. En règle générale, ils ont utilisé des robots de réseaux sociaux pour diffuser de faux marketing et messages à grande échelle. Cependant, grâce à l’IA, les fraudeurs peuvent automatiser et rationaliser les publications sur les réseaux sociaux et mettre en place l’infrastructure nécessaire à leur distribution efficace, faisant ainsi passer cette approche au niveau supérieur.

Exemples d'arnaque

Selon un utilisateur de Reddit, une personne nommée Jessica, vraisemblablement un robot alimenté par l'IA, a affirmé offrir d'énormes rendements grâce au trading crypto alimenté par l'IA après que l'utilisateur ait cliqué sur une annonce d'investissement. Après une série de demandes d’augmentation d’Ethereum (ETH) sous couvert de frais et d’investissements, l’utilisateur a donné à Jessica plus de 1 300 $. Le robot a promis des rendements de plus de 6 000 $, mais n'a jamais restitué les gains. Jessica a disparu après avoir reçu un dernier paiement.

Un autre exemple concerne NovaDrainer, une plateforme d'affiliation crypto basée au Canada et au Royaume-Uni qui propose une arnaque en tant que service qui crée des sites d'investissement crypto pour les affiliés, partageant les bénéfices. Il prétend utiliser l'IA pour traiter les jetons et générer des conceptions de sites Web optimisées pour le référencement. Bien qu’il promeuve des projets légitimes, il commercialise ouvertement son utilisation à des fins de phishing et d’épuisement des crypto-monnaies des victimes.

Au cours de l’année écoulée, la plateforme a reçu 2 400 variantes de jetons cryptographiques provenant de plus de 10 000 portefeuilles, probablement des victimes d’escroquerie. L'analyse d'Elliptic révèle que NovaDrainer utilise une stratégie complexe d'obscurcissement entre chaînes impliquant des échanges décentralisés, des ponts entre chaînes et des services d'échange de pièces pour gérer les fonds volés. Cependant, les transactions ne sont pas automatisées via l’IA.

Mesures et réglementations de prévention

Relever ces défis nécessite une approche proactive. L’industrie de la cryptographie doit investir dans des mesures de sécurité avancées et collaborer avec les développeurs d’IA pour créer des technologies capables de détecter et de contrer les escroqueries. De plus, il est crucial de sensibiliser les utilisateurs de crypto aux risques potentiels et de les éduquer sur la façon d’identifier et d’éviter les escroqueries.

Le rapport elliptique recommande d’utiliser le cadre DECODE (détecter, éduquer, coopérer, défendre, appliquer) pour atténuer les tendances émergentes en matière de criminalité. 

Détecter

  1. Utiliser l'analyse de la blockchain pour identifier les paiements destinés à des services illicites liés à l'IA 

  2. Utilisez l’analyse blockchain améliorée par l’IA pour détecter la criminalité

Éduquer

  1. Sensibiliser les utilisateurs de crypto et d’IA aux indicateurs d’alerte existants et récents en matière d’escroquerie 

  2. Éduquer les utilisateurs et les employés sur les méthodes permettant d’identifier les deep fakes

Coopérer

  1. Partage de données pour étendre les capacités des parties prenantes concernées à atténuer la criminalité cryptographique améliorée par l'IA 

  2. Partager les meilleures pratiques entre les parties prenantes 

Défendre

  1. Veiller à ce que les nouvelles technologies d'IA et de cryptographie soient à l'épreuve de la criminalité pendant le développement 

  2. Équiper les équipes de conformité

Imposer

  1. Prioriser les interventions contre les services illicites expérimentant l’IA 

  2. Veiller à ce que les innovations nouvelles et rapides en matière d’IA soient intégrées au renforcement des capacités et à la formation.