Le 22 novembre à 11h00, heure de Taipei, Yu Xian, fondateur de Slow Mist, a publié un cas étrange sur son X personnel - un utilisateur a vu son portefeuille « piraté » par une IA...
Source de l'image : X
Voici le contexte de cette affaire.
Ce matin, l'utilisateur X r_ocky.eth a révélé qu'il avait précédemment espéré utiliser ChatGPT pour créer un bot d'assistance pour le trading sur pump.fun.
r_ocky.eth a donné à ChatGPT ses besoins, et ChatGPT lui a renvoyé un code, ce code peut effectivement aider r_ocky.eth à déployer un bot correspondant à ses besoins, mais il ne s'attendait absolument pas à ce qu'une partie du code contienne un contenu de phishing - r_ocky.eth a connecté son portefeuille principal et a donc perdu 2 500 dollars.
Source de l'image : Odaily Planet Daily
D'après la capture d'écran publiée par r_ocky.eth, le code fourni par ChatGPT envoie une clé privée d'adresse à un site API de phishing, ce qui est la cause directe du vol.
Alors que r_ocky.eth était piégé, l'attaquant a réagi très rapidement et a transféré tous les actifs du portefeuille de r_ocky.eth vers une autre adresse en une demi-heure.
FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX
r_ocky.eth a ensuite trouvé une adresse suspecte correspondant au portefeuille principal de l'attaquant grâce à un suivi on-chain.
2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC
Source de l'image : Odaily Planet Daily
Les informations on-chain montrent que cette adresse a actuellement accumulé plus de 100 000 dollars de « fonds volés », r_ocky.eth suspecte donc que ce type d'attaque n'est peut-être pas un cas isolé, mais plutôt un événement d'attaque de grande envergure.
Après coup, r_ocky.eth a exprimé sa déception en déclarant avoir perdu confiance en OpenAI (la société qui développe ChatGPT) et a appelé OpenAI à nettoyer rapidement le contenu de phishing anormal.
Alors, pourquoi, en tant qu'application IA la plus populaire du moment, ChatGPT fournirait-il un contenu de phishing ?
À cet égard, Yu Xian a qualifié la cause fondamentale de cet incident de « attaque de contamination d'IA », en soulignant qu'il existe des comportements trompeurs généralisés dans les LLM tels que ChatGPT, Claude, etc.
La soi-disant « attaque de contamination d'IA » fait référence à des comportements visant à détruire les données d'entraînement de l'IA ou à manipuler l'algorithme de l'IA. Les attaquants peuvent être des personnes internes, comme des employés mécontents actuels ou anciens, ou des hackers externes, dont les motivations peuvent inclure causer des dommages à la réputation et à la marque, altérer la crédibilité des décisions de l'IA, ralentir ou détruire les processus de l'IA, etc. Les attaquants peuvent distordre le processus d'apprentissage du modèle en implantant des données avec des étiquettes ou caractéristiques trompeuses, entraînant des résultats erronés lors du déploiement et de l'exécution du modèle.
Vu cet incident, il est très probable que ChatGPT ait fourni du code de phishing à r_ocky.eth parce que le modèle AI a été contaminé par des données contenant du contenu de phishing lors de son entraînement, mais l'IA n'a apparemment pas réussi à identifier le contenu de phishing caché sous des données normales, et après avoir appris, elle a fourni ce contenu de phishing aux utilisateurs, ce qui a conduit à cet incident.
Avec le développement rapide de l'IA et son adoption généralisée, la menace des « attaques de contamination » est devenue de plus en plus grande. Dans cet incident, bien que le montant absolu des pertes ne soit pas élevé, les impacts potentiels de ce type de risque sont suffisamment préoccupants - supposons que cela se produise dans d'autres industries, par exemple dans la conduite assistée par IA...
Source de l'image : Odaily Planet Daily
En répondant à une question d'un internaute, Yu Xian a mentionné une mesure potentielle pour éviter ce type de risque, à savoir que ChatGPT ajoute un certain mécanisme d'audit de code.
La victime r_ocky.eth a également déclaré avoir contacté OpenAI à ce sujet, bien qu'elle n'ait pas encore reçu de réponse, elle espère que ce cas pourra devenir une occasion pour OpenAI de prendre conscience de ce type de risque et de proposer des solutions potentielles.
【Avertissement】Le marché comporte des risques, l'investissement doit être prudent. Cet article ne constitue pas un conseil d'investissement, les utilisateurs doivent considérer si les opinions, points de vue ou conclusions de cet article correspondent à leur situation particulière. Investir sur cette base, en assumez la responsabilité.
Cet article est reproduit avec l'autorisation de : (Shenchao TechFlow)
Auteur de l'original : Azuma, Odaily Planet Daily
‘Je ne m'y attendais pas du tout ! Comment un portefeuille cryptographique d'internaute a-t-il été volé par l'IA, comment ce cas de piratage étrange s'est-il produit ?’ Cet article a été initialement publié sur ‘Crypto City’