Według PANews użytkownik Twittera zidentyfikowany jako @r_cky0 zgłosił poważne naruszenie bezpieczeństwa podczas korzystania z ChatGPT w celu opracowania zautomatyzowanego bota handlowego blockchain. Użytkownik odkrył, że zalecany przez AI kod zawierał ukryte tylne wejście, które przesyłało klucze prywatne do witryny phishingowej, co spowodowało stratę około 2500 USD. Incydent ten został później potwierdzony przez założyciela SlowMist Yu Jiana, znanego jako @evilcos, który przyznał, że takie luki w zabezpieczeniach występują w kodzie generowanym przez AI.

Eksperci podkreślili, że tego typu ataki mogą wynikać z uczenia się przez modele AI złośliwych wzorców z postów phishingowych lub niezabezpieczonych treści. Obecne modele AI mają problemy z wykrywaniem tylnych drzwi w kodzie, co budzi obawy o niezawodność rozwiązań programistycznych generowanych przez AI. Profesjonaliści z branży wzywają użytkowników do zachowania ostrożności i unikania ślepego zaufania kodowi generowanemu przez AI. Zalecają również, aby platformy AI udoskonaliły swoje mechanizmy przeglądu treści w celu identyfikowania i ostrzegania użytkowników o potencjalnych zagrożeniach bezpieczeństwa. To wezwanie do zwiększonej czujności i ulepszonych środków bezpieczeństwa podkreśla potrzebę bezpieczniejszego podejścia do integracji AI w rozwoju oprogramowania.