🔐 Pesquisadores da Microsoft descobriram um novo tipo de ataque à inteligência artificial chamado “Skeleton Key”. Este ataque pode remover a proteção que impede a saída de dados perigosos e confidenciais.

- O ataque Skeleton Key funciona simplesmente solicitando ao modelo generativo de IA um texto que faz com que ele altere suas funções defensivas.

- Por exemplo, um modelo de IA pode criar uma receita Molotov se for informado que o usuário é um especialista em laboratório.

- Isto poderá ser catastrófico se tal ataque for aplicado a dados que contenham informações pessoais e financeiras.

- A Microsoft afirma que o ataque Skeleton Key funciona nos modelos de IA generativos mais populares, incluindo GPT-3.5, GPT-4o, Claude 3, Gemini Pro e Meta Llama-3 70B.

As organizações podem tomar uma série de medidas para evitar tais ataques, incluindo filtragem rigorosa de E/S e sistemas de monitoramento seguros.