šŸ” Microsoft ir atklājis jaunu "jailbreak" uzbrukumu ar nosaukumu "Skeleton Key", kas var viltot AI sistēmas atklāt sensitÄ«vus datus. VienkārÅ”i pamudinot AI modeli modificēt tā droŔības elementus, uzbrucējs var apiet droŔības vadlÄ«nijas. Piemēram, kad AI modelim tika lÅ«gts Ä£enerēt Molotova kokteiļa recepti, tas sākotnēji atteicās. Taču, kad lietotājam tika paziņots, ka viņŔ ir laboratorijas eksperts, tas ievēroja prasÄ«bas. Lai gan tas var bÅ«t nekaitÄ«gs noteiktiem pieprasÄ«jumiem, tas rada nopietnus draudus, ja runa ir par datiem, kas satur personas un finanÅ”u informāciju. Skeleton Key uzbrukums darbojas populāros AI modeļos, piemēram, GPT-3.5, GPT-4o un citos. Lai novērstu Ŕādus uzbrukumus, Microsoft iesaka kodētas ievades/izvades filtrÄ“Å”anas un droÅ”as uzraudzÄ«bas sistēmas.