Según informes de PANews, el usuario de Twitter @r_cky0 reveló que al usar ChatGPT para generar código para desarrollar un robot de trading automático de blockchain, el código contenía una puerta trasera oculta, lo que resultó en una pérdida de aproximadamente 2500 dólares.
El fundador de Slow Fog, Yu Xian, ha confirmado que efectivamente existen casos de uso de código generado por IA que han sido 'hackeados'. Los expertos señalan que este tipo de ataques puede originarse en patrones maliciosos que la IA ha aprendido de contenido no seguro.
La industria advierte a los usuarios que sean cautelosos y eviten confiar ciegamente en el código generado por IA, y sugiere que las plataformas de IA refuercen los mecanismos de revisión de contenido en el futuro para identificar y advertir sobre riesgos de seguridad potenciales.