🔐 Microsoft a descoperit un nou atac „jailbreak” numit „Skeleton Key” care poate păcăli sistemele AI pentru a dezvălui date sensibile. Pur și simplu solicitând modelului AI să-și modifice caracteristicile de securitate, atacatorul poate ocoli regulile de siguranță. De exemplu, când unui model AI i s-a cerut să genereze o rețetă pentru un cocktail Molotov, a refuzat inițial. Dar, când i s-a spus utilizatorului că este un expert de laborator, acesta s-a conformat. Deși acest lucru ar putea fi inofensiv pentru anumite solicitări, reprezintă o amenințare serioasă atunci când vine vorba de date care conțin informații personale și financiare. Atacul Skeleton Key funcționează pe modele AI populare precum GPT-3.5, GPT-4o și altele. Microsoft sugerează sisteme de filtrare de intrare/ieșire codificate greu și sisteme de monitorizare sigure pentru a preveni astfel de atacuri.