🔐 Microsoft-Forscher haben eine neue Art von Angriff auf künstliche Intelligenz namens „Skeleton Key“ entdeckt. Dieser Angriff kann den Schutz aufheben, der die Ausgabe gefährlicher und sensibler Daten verhindert.

– Der Skeleton-Key-Angriff funktioniert, indem er das generative KI-Modell einfach mit Text auffordert, der es dazu veranlasst, seine Verteidigungsfunktionen zu ändern.

– Beispielsweise kann ein KI-Modell ein Molotow-Rezept erstellen, wenn ihm mitgeteilt wird, dass der Benutzer ein Experte in einer Laborumgebung ist.

– Dies könnte katastrophal sein, wenn ein solcher Angriff auf Daten angewendet wird, die persönliche und finanzielle Informationen enthalten.

– Microsoft behauptet, dass der Skeleton Key-Angriff auf den meisten gängigen generativen KI-Modellen funktioniert, darunter GPT-3.5, GPT-4o, Claude 3, Gemini Pro und Meta Llama-3 70B.

Unternehmen können eine Reihe von Maßnahmen ergreifen, um solche Angriffe zu verhindern, einschließlich strenger I/O-Filterung und sicherer Überwachungssysteme.