🔐 Microsoft ha descubierto un nuevo ataque de "jailbreak" llamado "Skeleton Key" que puede engañar a los sistemas de inteligencia artificial para que revelen datos confidenciales. Simplemente solicitando al modelo de IA que modifique sus características de seguridad, el atacante puede eludir las pautas de seguridad. Por ejemplo, cuando se pidió a un modelo de IA que generara una receta para un cóctel Molotov, inicialmente se negó. Pero, cuando le dijeron que el usuario era un experto de laboratorio, cumplió. Si bien esto podría ser inofensivo para ciertas solicitudes, representa una seria amenaza cuando se trata de datos que contienen información personal y financiera. El ataque Skeleton Key funciona en modelos de IA populares como GPT-3.5, GPT-4o y otros. Microsoft sugiere filtrado de entrada/salida codificado y sistemas de monitoreo seguros para prevenir tales ataques.