Yu Xian, fondatorul Slowmist, o firmă de securitate blockchain, a subliniat pericolul emergent al otrăvirii codului AI. Această tactică malițioasă implică inserarea de cod dăunător în datele de antrenament ale modelelor AI, punând în pericol utilizatorii care se bazează pe aceste instrumente în scopuri tehnice. Problema a ieșit la iveală în urma unui incident cu ChatGPT de la OpenAI, unde un utilizator a pierdut 2.500 de dolari în active digitale din cauza unei recomandări de API frauduloase. În ciuda suspiciunilor, se pare că otrăvirea nu a fost intenționată, ci o eșec în a detecta linkurile de înșelătorie în rezultatele căutării. Înregistrarea domeniului API-ului fraudulos cu două luni înainte sugerează premeditare. Scam Sniffer a observat, de asemenea, cum escrocii manipulează datele de antrenament AI pentru a genera rezultate frauduloase. Odată cu utilizarea tot mai crescută a instrumentelor AI, cum ar fi ChatGPT, utilizatorii se confruntă cu riscuri sporite. Xian avertizează asupra amenințării reale reprezentate de otrăvirea AI, îndemnând la apărarea mai puternică pentru a preveni pierderile financiare suplimentare și a menține încrederea în tehnologiile bazate pe AI. Citiți mai multe știri generate de AI pe: https://app.chaingpt.org/news