Según PANews, un usuario de Twitter identificado como @r_cky0 informó de una importante vulneración de seguridad al utilizar ChatGPT para desarrollar un bot de comercio automatizado basado en blockchain. El usuario descubrió que el código recomendado por la IA contenía una puerta trasera oculta que transmitía claves privadas a un sitio web de phishing, lo que provocó una pérdida de aproximadamente 2500 dólares. Este incidente fue confirmado posteriormente por el fundador de SlowMist, Yu Jian, conocido como @evilcos, quien reconoció la existencia de dichas vulnerabilidades en el código generado por la IA.

Los expertos han destacado que este tipo de ataques pueden deberse a que los modelos de IA aprenden patrones maliciosos a partir de publicaciones de phishing o contenido inseguro. Los modelos de IA actuales enfrentan desafíos para detectar puertas traseras dentro del código, lo que genera inquietudes sobre la confiabilidad de las soluciones de programación generadas por IA. Los profesionales del sector instan a los usuarios a tener cuidado y evitar confiar ciegamente en el código generado por IA. También recomiendan que las plataformas de IA mejoren sus mecanismos de revisión de contenido para identificar y alertar a los usuarios sobre posibles riesgos de seguridad. Este llamado a una mayor vigilancia y mejores medidas de seguridad subraya la necesidad de un enfoque más seguro para integrar la IA en el desarrollo de software.