š Microsoft ir atklÄjis jaunu "jailbreak" uzbrukumu ar nosaukumu "Skeleton Key", kas var viltot AI sistÄmas atklÄt sensitÄ«vus datus. VienkÄrÅ”i pamudinot AI modeli modificÄt tÄ droŔības elementus, uzbrucÄjs var apiet droŔības vadlÄ«nijas. PiemÄram, kad AI modelim tika lÅ«gts Ä£enerÄt Molotova kokteiļa recepti, tas sÄkotnÄji atteicÄs. TaÄu, kad lietotÄjam tika paziÅots, ka viÅÅ” ir laboratorijas eksperts, tas ievÄroja prasÄ«bas. Lai gan tas var bÅ«t nekaitÄ«gs noteiktiem pieprasÄ«jumiem, tas rada nopietnus draudus, ja runa ir par datiem, kas satur personas un finanÅ”u informÄciju. Skeleton Key uzbrukums darbojas populÄros AI modeļos, piemÄram, GPT-3.5, GPT-4o un citos. Lai novÄrstu Å”Ädus uzbrukumus, Microsoft iesaka kodÄtas ievades/izvades filtrÄÅ”anas un droÅ”as uzraudzÄ«bas sistÄmas.