PANewsによると、@r_cky0というTwitterユーザーが、ChatGPTを使用してブロックチェーン自動取引ボットを開発中に重大なセキュリティ侵害を報告しました。ユーザーは、AIが推奨したコードに隠れたバックドアが含まれており、プライベートキーがフィッシングウェブサイトに送信されることを発見し、約2,500ドルの損失を被りました。この事件は後にSlowMistの創設者である@evilcosとして知られる余健によって確認され、AI生成コードにこのような脆弱性が存在することが認められました。

専門家は、これらの攻撃がフィッシング投稿や不安定なコンテンツから悪意のあるパターンを学習するAIモデルに起因する可能性があることを指摘しています。現在のAIモデルはコード内のバックドアを検出する際に課題に直面しており、AI生成プログラミングソリューションの信頼性について懸念が高まっています。業界の専門家は、ユーザーに注意を払うよう促し、AI生成コードを盲目的に信頼しないよう呼びかけています。また、AIプラットフォームはコンテンツレビューの仕組みを強化し、潜在的なセキュリティリスクを特定してユーザーに警告することを推奨しています。この警戒の強化と安全対策の改善を求める呼びかけは、ソフトウェア開発におけるAI統合のより安全なアプローチの必要性を強調しています。