По данным PANews, пользователь Twitter, идентифицированный как @r_cky0, сообщил о существенном нарушении безопасности при использовании ChatGPT для разработки автоматизированного торгового бота на основе блокчейна. Пользователь обнаружил, что рекомендованный ИИ код содержит скрытый бэкдор, который передает закрытые ключи на фишинговый сайт, что приводит к потере примерно 2500 долларов. Этот инцидент позже подтвердил основатель SlowMist Ю Цзянь, известный как @evilcos, который признал существование таких уязвимостей в коде, сгенерированном ИИ.
Эксперты подчеркивают, что эти типы атак могут возникать из-за того, что модели ИИ изучают вредоносные шаблоны из фишинговых сообщений или небезопасного контента. Текущие модели ИИ сталкиваются с трудностями при обнаружении бэкдоров в коде, что вызывает опасения относительно надежности программных решений, созданных ИИ. Профессионалы отрасли призывают пользователей проявлять осторожность и избегать слепого доверия коду, созданному ИИ. Они также рекомендуют платформам ИИ улучшить свои механизмы проверки контента для выявления и оповещения пользователей о потенциальных рисках безопасности. Этот призыв к повышению бдительности и улучшению мер безопасности подчеркивает необходимость более безопасного подхода к интеграции ИИ в разработку программного обеспечения.