• Ripple Labs met en garde contre les escroqueries améliorées par l'IA se faisant passer pour des dirigeants.

  • Les tactiques de deepfake consistent à imiter des voix et des gestes à des fins de fraude.

  • La vigilance est de mise dans la vérification des communications Ripple, car les progrès de l'IA rendent les escroqueries plus difficiles à repérer.

Ripple Labs Inc., acteur important de l'industrie des cryptomonnaies, vient d'alerter sa communauté d'utilisateurs sur la tendance croissante des escroqueries récentes. L'entreprise a insisté sur le problème des tricheurs qui déploient des outils d'IA avancés pour produire des mentions et des cadeaux contrefaits d'apparence authentique.

Le cœur de cet avertissement de Ripple Labs se concentre sur l’utilisation dangereuse de l’intelligence artificielle pour imiter l’apparence et la voix de ses dirigeants, dont le PDG Brad Garlinghouse.

Les démonstrations fournies par Ripple sur la plateforme anciennement connue sous le nom de Twitter ont montré comment les escrocs pouvaient cloner des manières même subtiles pour tromper les gens sans méfiance. Ces deepfakes attirent souvent les victimes avec des promesses de cadeaux XRP lucratifs, prétendant doubler leurs jetons, avec des valeurs potentielles comprises entre 500 et 1 000 XRP.

RUPTURE : @Ripple ne vous demandera jamais de nous envoyer du XRP. Jamais. Ni Brad, David, Monica, Stu ou quiconque de Ripple. Apprenez à vous protéger contre les escroqueries : https://t.co/ikEFe4uf3r pic.twitter.com/No20jwLh9g

– Ondulation (@Ripple) 11 avril 2024

Ripple Labs souligne que de telles offres sont frauduleuses, car ni l'entreprise ni ses dirigeants ne lanceraient de tels cadeaux. Les communications officielles concernant les offres et promotions légitimes proviennent uniquement des canaux Ripple vérifiés.

Tactiques avancées d’IA et d’usurpation d’identité

Le problème est persistant, Garlinghouse lui-même s'adressant à la communauté au sujet de la montée des vidéos deepfakes qui le représentent faussement faisant la promotion de cadeaux inexistants. Ces vidéos montrent souvent des défauts mineurs, tels que des mouvements irréguliers de la bouche, qui peuvent alerter un spectateur vigilant sur leur fausseté.

Cependant, compte tenu des progrès rapides de la technologie de l’IA, la détection de ces escroqueries nécessite plus que la simple détection d’anomalies visuelles. Les modèles d’IA tels que le moteur vocal d’OpenAI et le nouvel outil vidéo Sora rendent de plus en plus difficile la distinction entre le vrai et le faux sans un examen minutieux.

Ripple Labs conseille à sa communauté de rester vigilante et de donner la priorité à la vérification avant de répondre à toute réclamation promotionnelle ou de transférer des fonds. Ces conseils font partie des efforts continus de Ripple pour éduquer et protéger ses utilisateurs contre les cybermenaces potentielles facilitées par l’utilisation abusive des technologies émergentes.

Lire aussi :

  • Michael Saylor met en garde les détenteurs de Bitcoin contre les escroqueries profondes

  • Magnate Finance exposé comme une arnaque à la sortie au milieu de signes avant-coureurs

  • L'arnaque cryptographique sévit sur YouTube, méfiez-vous d'Amazon Coin – AMZTR

  • Méfiez-vous des escroqueries par empoisonnement d’adresse : avertissement du grand livre

  • Le PDG de Ripple expose les escroqueries Deepfake croissantes sur YouTube et protégez vos fonds

Le message Ripple Labs met en garde contre l'augmentation des risques d'arnaque alimentés par l'IA apparaît en premier sur Crypto News Land.