Alors que les escroqueries deepfake alimentées par l’IA deviennent de plus en plus courantes, les sociétés de sécurité préviennent que cette méthode d’attaque pourrait s’étendre au-delà des simples vidéos et audios.

Le 4 septembre, la société de logiciels Gen Digital a signalé que des acteurs malveillants utilisant des escroqueries deepfake alimentées par l'IA pour frauder les détenteurs de crypto-monnaies ont intensifié leurs opérations au deuxième trimestre 2024.

La société a déclaré que le groupe d'escrocs appelé « CryptoCore » avait déjà escroqué plus de 5 millions de dollars en crypto-monnaie en utilisant des deepfakes IA.

Bien que le montant semble faible par rapport aux autres attaques dans l'espace crypto, les professionnels de la sécurité estiment que les attaques deepfake d'IA peuvent s'étendre davantage, menaçant la sécurité des actifs numériques.

Les deepfakes de l'IA menacent la sécurité des portefeuilles

CertiK, une société de sécurité Web3, estime que les escroqueries deepfake alimentées par l'IA deviendront plus sophistiquées. Un porte-parole de CertiK a déclaré à Cointelegraph qu'elle pourrait également s'étendre au-delà des vidéos et des enregistrements audio à l'avenir.

CertiK a expliqué que le vecteur d'attaque pourrait être utilisé pour tromper les portefeuilles qui utilisent la reconnaissance faciale pour donner accès aux pirates. Le porte-parole a déclaré :

« Par exemple, si un portefeuille s’appuie sur la reconnaissance faciale pour sécuriser des informations critiques, il doit évaluer la robustesse de sa solution face aux menaces générées par l’IA. »

Pour ces raisons, le porte-parole a déclaré qu’il était important que les membres de la communauté crypto soient de plus en plus conscients du fonctionnement de cette attaque.

Les deepfakes de l'IA continueront de menacer les crypto-monnaies

Luis Corrons, évangéliste en sécurité pour la société de cybersécurité Norton, estime que les attaques alimentées par l'IA continueront de cibler les détenteurs de crypto-monnaies. Corrons a noté que les crypto-monnaies rapportent des récompenses financières importantes et présentent des risques moindres pour les pirates informatiques. Il a déclaré :

« Les transactions en cryptomonnaies sont souvent très importantes et peuvent être effectuées de manière anonyme, ce qui en fait une cible plus attrayante pour les cybercriminels, car les attaques réussies génèrent des récompenses financières plus importantes et un risque de détection plus faible. »

De plus, Corrons estime que la cryptographie manque toujours de réglementation, ce qui donne aux cybercriminels moins de conséquences juridiques et plus de possibilités d'attaquer.

Comment détecter les attaques deepfake alimentées par l'IA

Bien que les attaques basées sur l'IA puissent constituer une menace importante pour les utilisateurs de crypto-monnaies, les professionnels de la sécurité estiment qu'il existe des moyens pour les utilisateurs de se protéger contre ce type de menace. Selon CertiK, l'éducation serait un bon point de départ.

Un ingénieur de CertiK a expliqué qu’il est important de connaître les menaces ainsi que les outils et services disponibles pour les combattre. En outre, le professionnel a également ajouté qu’il est également important de se méfier des demandes non sollicitées. CertiK a déclaré :

« Il est essentiel de se méfier des demandes non sollicitées d’argent ou d’informations personnelles, et l’activation de l’authentification multifactorielle pour les comptes sensibles peut contribuer à ajouter une couche de protection supplémentaire contre de telles escroqueries. »

En attendant, Corrons estime qu'il existe des « signaux d'alarme » que les utilisateurs peuvent essayer de repérer pour éviter les escroqueries deepfake par IA. Cela inclut les mouvements oculaires, les expressions faciales et les mouvements corporels non naturels.

De plus, un manque d’émotion peut également être un indicateur important. « Vous pouvez également repérer un morphing facial ou des points d’image si le visage d’une personne ne semble pas exprimer l’émotion qui devrait accompagner ce qu’elle est censée dire », a expliqué Corrons.

En plus de cela, le responsable a déclaré que les formes corporelles étranges, les mauvais alignements et les incohérences dans l'audio devraient aider les utilisateurs à déterminer s'ils regardent un deepfake IA ou non.

Magazine : L'exploit préféré du groupe Lazarus révélé — Analyse des piratages cryptographiques