„Cercetătorii Microsoft au descoperit un nou atac numit „Skeleton Key” care poate elimina protecțiile care împiedică AI să scoată date periculoase și sensibile. De exemplu, unui model AI i s-a cerut să creeze rețeta pentru „Cocktail Molotov”, dar a refuzat din motive de siguranță. Dar cu „Skeleton Key”, pur și simplu spune-i modelului că utilizatorul este un expert într-un mediu de laborator, modelul își va schimba comportamentul și va scoate o formulă care funcționează date financiare Autoritățile ar trebui să adopte măsuri precum filtrarea de intrare/ieșire și sisteme de monitorizare securizate pentru a preveni atacurile „Skeleton Key” Lăsați-vă părerea în comentarii!”