„Microsoft-Forscher haben einen neuen Angriff namens „Skeleton Key“ entdeckt, der Schutzmaßnahmen aufheben kann, die verhindern, dass KI gefährliche und sensible Daten ausgibt. Beispielsweise wurde ein KI-Modell gebeten, das Rezept für „Molotowcocktail“ zu erstellen, lehnte dies jedoch aus Sicherheitsgründen ab Aber mit „Skeleton Key“ sagen Sie dem Modell einfach, dass der Benutzer experimentell ein Experte in einer Laborumgebung ist, das Modell wird sein Verhalten ändern und eine Formel ausgeben, die funktioniert Finanzdatenbehörden sollten Maßnahmen wie harte Eingabe-/Ausgabefilterung und sichere Überwachungssysteme ergreifen, um „Skeleton Key“-Angriffe zu verhindern. Hinterlassen Sie Ihre Meinung in den Kommentaren!“