🔐 I ricercatori Microsoft hanno scoperto un nuovo tipo di attacco all'intelligenza artificiale chiamato “Skeleton Key”. Questo attacco può rimuovere la protezione che impedisce l'output di dati pericolosi e sensibili.

- L'attacco Skeleton Key funziona semplicemente stimolando il modello IA generativo con un testo che gli fa cambiare le sue funzioni difensive.

- Ad esempio, un modello di intelligenza artificiale può creare una ricetta Molotov se gli viene detto che l'utente è un esperto in un ambiente di laboratorio.

- Ciò potrebbe essere catastrofico se un simile attacco venisse applicato ai dati contenenti informazioni personali e finanziarie.

- Microsoft afferma che l'attacco Skeleton Key funziona sui modelli di intelligenza artificiale generativa più popolari, tra cui GPT-3.5, GPT-4o, Claude 3, Gemini Pro e Meta Llama-3 70B.

Le organizzazioni possono adottare una serie di misure per prevenire tali attacchi, tra cui un rigoroso filtraggio I/O e sistemi di monitoraggio sicuri.