🔐 Cercetătorii Microsoft au descoperit un nou tip de atac asupra inteligenței artificiale numit „Skeleton Key”. Acest atac poate elimina protecția care împiedică ieșirea de date periculoase și sensibile.

- Atacul Skeleton Key funcționează prin simpla solicitare a modelului AI generativ cu text care îl determină să-și schimbe funcțiile defensive.

- De exemplu, un model AI poate crea o rețetă Molotov dacă i se spune că utilizatorul este un expert într-un cadru de laborator.

- Acest lucru ar putea fi catastrofal dacă un astfel de atac este aplicat datelor care conțin informații personale și financiare.

- Microsoft susține că atacul Skeleton Key funcționează pe cele mai populare modele AI generative, inclusiv GPT-3.5, GPT-4o, Claude 3, Gemini Pro și Meta Llama-3 70B.

Organizațiile pot lua o serie de măsuri pentru a preveni astfel de atacuri, inclusiv filtrarea strictă a I/O și sistemele de monitorizare securizate.