L'article Comment les escroqueries crypto alimentées par l'IA changent le paysage de la sécurité blockchain est apparu en premier sur Coinpedia Fintech News

Le premier attaque documentée de poisoning AI sur le marché des cryptomonnaies a eu lieu : un portefeuille Solana a été empoisonné, et la perte approximative est de 2 500 USD. L'incident montre qu'un outil d'intelligence artificielle tel que ChatGPT fournit des contributions utiles pour les tâches de développement Web3 et peut promouvoir l'utilisation d'actifs compromis.

L'incident : Exploit du portefeuille Solana

Le 21 novembre 2024, un utilisateur a essayé de lancer un bot de sniping de token meme spécifiquement pour la plateforme basée sur Solana, Pump.fun, avec l'aide de ChatGPT. Cependant, le chatbot AI a fourni un lien faux contenant une API pour les services Solana. Il a été initialement développé par les auteurs de l'API pour siphonner SOL, USDC et plusieurs tokens meme ; la porte dérobée a exposé les clés privées du portefeuille avant de piller les fonds à l'intérieur.

L'attaque a pu transférer les actifs volés directement vers un portefeuille lié à la fraude qui, selon les dires, a exécuté 281 autres transactions similaires à partir d'autres portefeuilles compromis. L'API malveillante serait issue de dépôts GitHub, les escrocs ayant intentionnellement planté des trojans dans des fichiers Python ciblant la naïveté des développeurs.

Comprendre le poisoning AI

Le poisoning AI fait référence à l'acte de fournir de mauvaises données aux modèles AI dans le processus d'entraînement des modèles AI. Dans ce cas, il semble que des dépôts malveillants aient déformé les sorties de ChatGPT qui sont destinées aux API sécurisées. Bien qu'il n'y ait pas eu de rapport direct d'intégration effectuée délibérément par OpenAI, l'événement discuté révèle les dangers que les systèmes AI ont et peuvent présenter dans des domaines hautement spécialisés comme la blockchain.

Des initiés de la sécurité tels que le fondateur de SlowMist, Yu Xian, ont décrit cela comme un appel au réveil pour les développeurs. Xian a souligné que les données d'entraînement AI accrues sont maintenant menacées par la contamination, les escrocs exploitant des applications populaires comme ChatGPT pour étendre leurs opérations.

Mesures de protection pour les développeurs et les utilisateurs

Pour prévenir des incidents similaires, il est conseillé aux développeurs et aux utilisateurs de crypto de :

  • Vérifier tout le code et les API : Ne pas se fier uniquement aux sorties générées par l'IA et effectuer des audits de la même manière.

  • Séparer les portefeuilles : Les mêmes portefeuilles devraient être utilisés pour les tests, tandis que les actifs substantiels ne devraient pas être liés aux bots expérimentaux ou aux outils non vérifiés.

  • Surveiller l'activité de la blockchain : Engager des entreprises fiables traitant de la sécurité blockchain comme SlowMist pour suivre les dernières menaces.

  • Lire aussi :

  • Upbit rembourse 6,07 millions de dollars à 380 victimes d'escroqueries crypto

  • ,

Conclusion

Ce premier cas documenté de poisoning AI dans l'espace crypto indique la nécessité d'accorder plus d'attention. Bien que l'utilisation de l'intelligence artificielle offre de grandes possibilités, utiliser les recommandations générées uniquement par l'IA présente de nouveaux risques énormes pour les utilisateurs. Avec le développement existant du domaine blockchain, il faudra une vigilance accrue pour protéger les développeurs et les investisseurs contre ces fraudes complexes.