Un usuario compartió la tragedia que ocurrió al utilizar el modelo de lenguaje ChatGPT. @r_cky0 indicó que al principio usó ChatGPT para ayudar a escribir un bot de aumento, pero en las sugerencias de código proporcionadas por ChatGPT había un sitio web de phishing oculto. Después de utilizar la API de este sitio, descubrió que todo el dinero en su billetera de criptomonedas había sido transferido, perdiendo 2500 dólares. Una investigación posterior reveló que el código de la API enviaba su clave privada al sitio de phishing, y @r_cky0 comenzó a dudar de la credibilidad de ChatGPT.
El fundador de la empresa de ciberseguridad SlowMist, Yu Xian, comentó: "Al jugar con LLM como GPT/Claude, es importante tener en cuenta que estos LLM presentan comportamientos de engaño generalizados. Anteriormente se mencionó el ataque de envenenamiento de IA, y este caso se considera un ataque real dirigido a la industria de las criptomonedas."
ChatGPT busca información en línea, la analiza y la organiza para proporcionársela a los usuarios, pero aún es difícil realizar verificación de hechos, auditorías de seguridad, etc. Si personas malintencionadas atraen deliberadamente la base de datos de IA y ocultan información dañina en ella, esto podría generar riesgos una vez que la IA se vuelva más común.
¡Este artículo alerta sobre un ataque de IA a la industria de las criptomonedas! El código de ChatGPT oculta trampas, escribir un bot de memes resultó en ser víctima de phishing. Apareció por primera vez en Chain News ABMedia.