🔐 Des chercheurs de Microsoft ont dĂ©couvert un nouveau type d'attaque contre l'intelligence artificielle appelĂ© « Skeleton Key ». Cette attaque peut supprimer la protection qui empĂȘche la sortie de donnĂ©es dangereuses et sensibles.

- L'attaque Skeleton Key fonctionne simplement en invitant le modÚle d'IA génératif avec un texte qui l'amÚne à modifier ses fonctions défensives.

- Par exemple, un modÚle d'IA peut créer une recette Molotov s'il est indiqué que l'utilisateur est un expert en laboratoire.

- Cela pourrait ĂȘtre catastrophique si une telle attaque Ă©tait appliquĂ©e Ă  des donnĂ©es contenant des informations personnelles et financiĂšres.

- Microsoft affirme que l'attaque Skeleton Key fonctionne sur les modÚles d'IA générative les plus populaires, notamment GPT-3.5, GPT-4o, Claude 3, Gemini Pro et Meta Llama-3 70B.

Les organisations peuvent prendre un certain nombre de mesures pour prévenir de telles attaques, notamment un filtrage strict des E/S et des systÚmes de surveillance sécurisés.