Podle PANews uživatel Twitteru identifikovaný jako @r_cky0 oznámil významné bezpečnostní porušení při používání ChatGPT k vývoji automatizovaného obchodního bota na blockchainu. Uživatel zjistil, že kód doporučený AI obsahoval skryté zadní vrátka, která přenášela soukromé klíče na phishingovou webovou stránku, což vedlo k ztrátě přibližně 2 500 dolarů. Tento incident později potvrdil zakladatel SlowMist Yu Jian, známý jako @evilcos, který uznal existenci takových zranitelností v kódu generovaném AI.

Odborníci zdůraznili, že tyto typy útoků mohou vycházet z toho, jak se modely AI učí škodlivé vzory z phishingových příspěvků nebo nebezpečného obsahu. Současné modely AI čelí výzvám při detekci zadních vrátek v kódu, což vyvolává obavy o spolehlivost programovacích řešení generovaných AI. Odborníci v oboru vyzývají uživatele, aby byli obezřetní a vyhýbali se bezmyšlenkovitému důvěřování kódu generovanému AI. Také doporučují, aby platformy AI zlepšily své mechanismy kontroly obsahu, aby identifikovaly a upozornily uživatele na potenciální bezpečnostní rizika. Tato výzva k větší bdělosti a zlepšení bezpečnostních opatření podtrhuje potřebu bezpečnějšího přístupu k integraci AI do vývoje softwaru.