"Pesquisadores da Microsoft descobriram um novo ataque chamado 'Skeleton Key' que pode remover proteções que impedem a IA de produzir dados perigosos e confidenciais. Por exemplo, um modelo de IA foi solicitado a criar a receita do 'Coquetel Molotov', mas recusou devido a razões de segurança Mas com o 'Skeleton Key', basta dizer experimentalmente ao modelo que o usuário é um especialista em um ambiente de laboratório, o modelo mudará seu comportamento e produzirá uma fórmula que funciona. dados financeiros As autoridades devem adotar medidas como filtragem rigorosa de entradas/saídas e sistemas de monitoramento seguros para evitar ataques de 'chave mestra' Deixe sua opinião nos comentários!"