Podle PANews nahlásil uživatel Twitteru identifikovaný jako @r_cky0 významné narušení bezpečnosti při používání ChatGPT k vývoji robota pro automatizované obchodování s blockchainem. Uživatel zjistil, že kód doporučovaný umělou inteligencí obsahuje skrytá zadní vrátka, která přenáší soukromé klíče na phishingovou webovou stránku, což má za následek ztrátu přibližně 2 500 $. Tento incident později potvrdil zakladatel SlowMist Yu Jian, známý jako @evilcos, který uznal existenci takových zranitelností v kódu generovaném AI.
Odborníci zdůraznili, že tyto typy útoků mohou pocházet z modelů umělé inteligence, které se učí škodlivé vzorce z phishingových příspěvků nebo nezabezpečeného obsahu. Současné modely umělé inteligence čelí problémům při odhalování zadních vrátek v kódu, což vyvolává obavy ohledně spolehlivosti programovacích řešení generovaných umělou inteligencí. Profesionálové nabádají uživatele, aby byli opatrní a vyhýbali se slepé důvěře kódu generovanému umělou inteligencí. Doporučují také, aby platformy umělé inteligence zlepšily své mechanismy kontroly obsahu, aby identifikovaly a upozornily uživatele na potenciální bezpečnostní rizika. Tato výzva ke zvýšené ostražitosti a zlepšeným bezpečnostním opatřením podtrhuje potřebu bezpečnějšího přístupu k integraci umělé inteligence do vývoje softwaru.