🔐 Investigadores de Microsoft han descubierto un nuevo tipo de ataque a la inteligencia artificial llamado “Skeleton Key”. Este ataque puede eliminar la protección que impide la salida de datos peligrosos y confidenciales.

- El ataque Skeleton Key funciona simplemente solicitando al modelo de IA generativa un texto que hace que cambie sus funciones defensivas.

- Por ejemplo, un modelo de IA puede crear una receta Molotov si se le dice que el usuario es un experto en un laboratorio.

- Esto podría ser catastrófico si dicho ataque se aplica a datos que contienen información personal y financiera.

- Microsoft afirma que el ataque Skeleton Key funciona en los modelos de IA generativa más populares, incluidos GPT-3.5, GPT-4o, Claude 3, Gemini Pro y Meta Llama-3 70B.

Las organizaciones pueden tomar una serie de medidas para prevenir este tipo de ataques, incluido un filtrado de E/S estricto y sistemas de monitoreo seguros.