Auteur : Azuma, Odaily Planet Daily
Le matin du 22 novembre, Yuxian, fondateur de Slow Mist, a posté sur son compte personnel X un cas étrange - le portefeuille d'un utilisateur a été 'piraté' par l'IA...
Voici les tenants et aboutissants de l'affaire.
Dans la nuit du 22 novembre, l'internaute r_ocky.eth a révélé qu'il avait précédemment espéré utiliser ChatGPT pour créer un bot d'assistance pour le trading pump.fun.
r_ocky.eth a donné ses besoins à ChatGPT, qui lui a renvoyé un morceau de code, ce code pouvant effectivement aider r_ocky.eth à déployer un bot répondant à ses besoins, mais il ne s'attendait pas à ce que du contenu de phishing soit caché dans le code - r_ocky.eth a connecté son portefeuille principal et a perdu 2500 dollars.
D'après la capture d'écran publiée par r_ocky.eth, le code fourni par ChatGPT envoie une clé privée d'adresse à un site API de phishing, ce qui est également la cause directe du vol.
Alors que r_ocky.eth est tombé dans le piège, l'attaquant a réagi très rapidement, transférant tous les actifs du portefeuille de r_ocky.eth vers une autre adresse (FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX) en moins de trente minutes. Ensuite, r_ocky.eth a également trouvé une adresse qui semble être le portefeuille principal de l'attaquant (2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC) grâce à une traçabilité en chaîne.
Les informations en chaîne montrent que cette adresse a actuellement accumulé plus de 100 000 dollars de 'biens volés', r_ocky.eth soupçonne donc que ce type d'attaque pourrait ne pas être un cas isolé, mais un événement d'attaque d'une certaine ampleur.
Après coup, r_ocky.eth a exprimé sa déception en disant qu'il avait perdu confiance en OpenAI (la société qui développe ChatGPT) et a appelé OpenAI à agir rapidement pour nettoyer le contenu de phishing anormal.
Alors, en tant qu'application IA la plus populaire du moment, pourquoi ChatGPT fournirait-il un contenu de phishing ?
À cet égard, Yuxian a qualifié la cause fondamentale de cet événement de « cyberattaque par empoisonnement d'IA », et a souligné l'existence de comportements trompeurs généralisés dans les LLM comme ChatGPT et Claude.
Les « attaques par empoisonnement d'IA » désignent des actes de sabotage délibéré des données d'entraînement de l'IA ou de manipulation des algorithmes de l'IA. Les attaquants peuvent être des initiés, comme des employés actuels ou anciens mécontents, ou des hackers externes, dont les motivations peuvent inclure des dommages à la réputation et à la marque, la manipulation de la crédibilité des décisions de l'IA, ou encore le ralentissement ou la destruction des processus d'IA, etc. Les attaquants peuvent tromper le modèle en insérant des données avec des étiquettes ou des caractéristiques trompeuses, déformant ainsi le processus d'apprentissage du modèle et entraînant des résultats erronés lors de son déploiement et de son utilisation.
En considérant cet événement, la raison pour laquelle ChatGPT a fourni à r_ocky.eth un code de phishing est probablement parce que le modèle d'IA avait 'absorbée' des données contenant du contenu de phishing lors de son entraînement, mais l'IA n'a pas réussi à identifier le contenu de phishing caché sous des données normales. Après avoir appris, l'IA a ensuite fourni ce contenu de phishing à l'utilisateur, entraînant ainsi la survenue de cet événement.
Avec le développement rapide de l'IA et son adoption généralisée, la menace des « attaques par empoisonnement » devient de plus en plus grande. Dans cet événement, bien que le montant absolu de la perte ne soit pas élevé, les conséquences potentielles de ce type de risque suffisent à susciter l'alerte - supposons que cela se produise dans d'autres domaines, comme la conduite assistée par IA...
En répondant aux questions des internautes, Yuxian a évoqué une mesure potentielle pour éviter ce type de risque, à savoir que ChatGPT ajoute un certain mécanisme de vérification du code.
La victime r_ocky.eth a également indiqué qu'il avait contacté OpenAI à ce sujet, bien qu'il n'ait pas encore reçu de réponse, il espère que cette affaire pourra inciter OpenAI à prendre au sérieux ce type de risque et à proposer des solutions potentielles.
(Le contenu ci-dessus est extrait et reproduit avec l'autorisation de notre partenaire PANews, lien original | Source : Odaily Planet Daily)
Déclaration : L'article ne représente que l'opinion personnelle de l'auteur, ne représentant pas les points de vue et la position de Block客, tous les contenus et opinions sont à titre de référence uniquement et ne constituent pas un conseil en investissement. Les investisseurs doivent prendre leurs propres décisions et transactions, et l'auteur ainsi que Block客 ne seront pas responsables des pertes directes ou indirectes résultant des transactions des investisseurs.
"Écrire du code avec l'IA cache des 'pièges' : un utilisateur demande de l'aide à ChatGPT et est ensuite victime d'un phishing 'vol de crypto'" cet article a été initialement publié sur (Block客).