По данным PANews, пользователь твиттера @r_cky0 сообщил, что при использовании ChatGPT для генерации кода для разработки автоматизированного блокчейн-торгового робота в коде был скрыт бэкдор, что привело к убыткам около 2500 долларов.
Основатель Slow Mist Юй Сян подтвердил, что действительно существуют случаи использования кода, сгенерированного ИИ, с целью «взлома». Эксперты указывают, что такие атаки могут возникать из-за того, что ИИ обучается вредоносным моделям на небезопасном контенте.
В отрасли призывают пользователей быть настороженными, избегать слепого доверия к коду, сгенерированному ИИ, и советуют будущим ИИ-платформам усилить механизмы проверки контента, чтобы выявлять и предупреждать о потенциальных рисках безопасности.