82 Prozent der C-Suite-Führungskräfte glauben, dass sichere und vertrauenswürdige KI von entscheidender Bedeutung ist. Allerdings integrieren nur 24 Prozent von ihnen Sicherheit in ihre Initiativen im Zusammenhang mit GenAI. Das geht aus einer neuen Studie von IBM und Amazon Web Services hervor, die gemeinsam auf der RSA-Konferenz 2024 vorgestellt wurde und die detaillierte Ergebnisse einer Umfrage enthielt, die sich auf die Ansichten von C-Suite-Führungskräften hinsichtlich der Förderung sicherer Anwendungsfälle für KI konzentrierte, mit einem starken Fokus auf generativer KI. IBM berichtet, dass nur 24 Prozent der Befragten eine Sicherheitsdimension in ihren Initiativen für generative KI berücksichtigten, während fast 70 Prozent sagen, dass Innovation Vorrang vor Sicherheit hat.

Kompromiss zwischen Innovation und Sicherheit

Während die meisten Führungskräfte befürchten, dass unvorhersehbare Risiken KI-Initiativen beeinträchtigen könnten, räumen sie der Sicherheit keine Priorität ein. Obwohl die Bedrohungslandschaft für KI noch nicht vollständig ausgereift ist, wurden in einigen Anwendungsfällen ChatGPT oder ähnliches verwendet, um Phishing-E-Mail-Skripte und Deepfake-Audio zu generieren. Sicherheitsforscher von IBM X-Force haben gewarnt, dass KI-Systeme wie ausgereiftere Technologien zunehmend in größerem Umfang angegriffen werden könnten.

Während sich eine konsolidierte KI-Bedrohungsfläche gerade erst herausbildet, gehen die Forscher von IBM X-Force davon aus, dass Bedrohungsakteure diese KI-Systeme breiter ins Visier nehmen werden, sobald die Branchenlandschaft um gemeinsame Technologien und Aktivierungsmodelle herum ausgereift ist, heißt es in dem Bericht. Tatsächlich ist diese Konvergenz im Gange, da der Markt schnell reift und führende Anbieter bereits in den Bereichen Hardware, Software und Dienstleistungen auftauchen.

Noch besorgniserregender seien laut dem IBM-Bericht jene Unternehmen, die die KI-Modelle, die sie entwickeln und im Rahmen ihrer Geschäftstätigkeit verwenden, nicht ausreichend absichern. Eine unsachgemäße Anwendung von GenAI-Tools kann zu einer falschen Handhabung oder Weitergabe vertraulicher Daten führen. Laut dem Bericht nimmt die Nutzung von „Schatten-KI“ in Unternehmen zu, da Mitarbeiter GenAI-Tools verwenden, die nicht von den Sicherheitsteams des Unternehmens genehmigt und abgesichert wurden.

Zu diesem Zweck hat IBM im Januar ein Framework zur Sicherung von GenAI angekündigt. Dessen Grundprinzipien sind die Zentralisierung von Daten, die zum Trainieren von KI-Modellen verwendet werden, die Sicherung von Modellen durch eine Kombination aus dem Scannen von Entwicklungspipelines auf Schwachstellen, der Durchsetzung von Richtlinien und Zugriffskontrollen für die KI-Nutzung und der Sicherung der Nutzung gegen Live-Angriffe auf KI-Modelle.

Sicherung der KI-Pipeline

Am Montag hat IBMs offensives Sicherheitsteam X-Force Red einen Testservice für künstliche Intelligenz eingeführt, der darauf abzielt, KI-Anwendungen, KI-Modelle und MLSecOps-Pipelines durch Red Teaming zu evaluieren. Am Mittwoch wird IBM auf der RSA-Konferenz 2024 „Innovate Now, Secure Later? Decisions, Decision…“ zur Sicherung und Etablierung der Governance für die KI-Pipeline präsentieren.

Der zweite Redner war Ryan Dougherty, Programmdirektor für Sicherheitstechnologie bei IBM Security. Gegenüber TechTarget Editorial sagte er, dass die Sicherung von KI von Anfang an eines der Hauptanliegen von IBM Security im Technologiebereich sei. Er sagte: „Das ist es, was diesen Bereich so wichtig macht, insbesondere im Fall der generativen KI: Sie wird tief in Geschäftsanwendungen und -prozesse eingebettet. Die Integration in die Geschäftsstruktur hebt sie über die potenziellen Risiken und Bedrohungen hinaus.“

Aus geschäftlicher Sicht muss KI seiner Meinung nach in ihrer wahren Natur verwurzelt sein. „Generative KI wird anhand riesiger Mengen sensibler Geschäftsdaten trainiert und operationalisiert, und wir müssen diese neuen Kronjuwelen schützen, denn hier liegt der Wettbewerbsvorteil. Es geht um die Daten, über die diese Organisationen verfügen, und die Erkenntnisse, die sie durch die Nutzung der generativen KI und deren Integration in ihre Anwendungen gewinnen, um ihr Geschäft zu verbessern“, sagte er. Dougherty fügte hinzu, dass sie viel Geld für die Modelle zahlen, die sehr teuer sind. In die Operationalisierung dieser generativen KI-Anwendungen fließen viel geistiges Eigentum und Investitionen, und Unternehmen können es sich einfach nicht leisten, sie zu schützen.