Potrivit PANews, un utilizator Twitter identificat ca @r_cky0 a raportat o breșă semnificativă de securitate în timp ce folosea ChatGPT pentru a dezvolta un bot de tranzacționare automatizat blockchain. Utilizatorul a descoperit că codul recomandat de AI conținea o ușă ascunsă, care transmitea chei private către un site web de phishing, rezultând o pierdere de aproximativ 2.500 USD. Acest incident a fost confirmat ulterior de fondatorul SlowMist, Yu Jian, cunoscut sub numele de @evilcos, care a recunoscut existența unor astfel de vulnerabilități în codul generat de AI.

Experții au subliniat că aceste tipuri de atacuri pot proveni din modelele AI care învață modele rău intenționate din postări de phishing sau conținut nesigur. Modelele actuale de AI se confruntă cu provocări în detectarea ușilor din spate în cod, ridicând îngrijorări cu privire la fiabilitatea soluțiilor de programare generate de AI. Profesioniștii din industrie îndeamnă utilizatorii să fie precauți și să evite să aibă încredere orbită în codul generat de AI. De asemenea, ei recomandă ca platformele AI să își îmbunătățească mecanismele de revizuire a conținutului pentru a identifica și a alerta utilizatorii cu privire la potențiale riscuri de securitate. Acest apel pentru o vigilență sporită și măsuri de siguranță îmbunătățite subliniază necesitatea unei abordări mai sigure pentru integrarea inteligenței artificiale în dezvoltarea de software.