Insight

2025 AI Cyber Benchmark

Veröffentlicht am 31. März 2025

  • Cyber Security
  • Daten & Künstliche Intelligenz

Sind große Organisationen bereit, mit den Sicherheitsrisiken von KI umzugehen?

In den letzten zwei Jahren, seit der Veröffentlichung effizienter generativer KI-Systeme, haben große Organisationen die Einführung von Künstlicher Intelligenz beschleunigt und vielversprechende Anwendungsfälle entwickelt, um ihre Geschäftsprozesse zu unterstützen. KI-Systeme, die sich in vielerlei Hinsicht von herkömmlichen IT-Anwendungen unterscheiden (nicht-deterministisch, nicht erklärbar, Nutzung einer Vielzahl von Daten usw.), bringen jedoch neue Sicherheitsrisiken mit sich. Organisationen müssen daher ihre Governance, Methoden und Tools an diese neue Realität anpassen.

In diesem Kontext hat Wavestone seinen AI Cyber Benchmark entwickelt, um Organisationen bei der Identifizierung ihrer Prioritäten und Fokusbereiche zu unterstützen und Einblicke in die Marktreife zu gewinnen. Diese Initiative bewertet die Reife einer Organisation in Bezug auf ihre KI-Sicherheitspraktiken anhand der fünf Säulen des NIST Cybersecurity Framework: Govern, Identify, Protect, Detect und Respond.

Diese Bewertung richtet sich an alle Organisationen, die KI-Anwendungsfälle übernommen haben, von einfachen Anwendungsfällen, die öffentliche KI-Tools oder SaaS-Lösungen verwenden, bis hin zu denen, die proprietäre Modelle entwickeln und ihren Kunden anbieten.

Diese Organisationen nutzen KI-Funktionen, die in der Software integriert sind, die sie bereits verwenden. Ihre Hauptsicherheitsrisiken hängen mit der Datensicherheit und der Auswahl von Drittanbieterdiensten zusammen. Fast alle Unternehmen sind von dieser Nutzung betroffen, sei es durch „Shadow AI“ oder die geplante Integration neuer KI-Funktionen, und müssen sicherstellen, dass geeignete Governance-Rahmenbedingungen vorhanden sind.

Jeder dieser Ansätze birgt unterschiedliche Risikoniveaus und erfordert maßgeschneiderte Risikominderungsstrategien. Nach der Durchführung einer ersten Reihe von Bewertungen mit über 20 Organisationen präsentieren wir hier die Ergebnisse und wichtigen Erkenntnisse, die wir gewonnen haben. Dies kombinieren wir mit unserer Erfahrung aus AI-Sicherheitsengagements, die in den letzten zwei Jahren durchgeführt wurden.

Der Cyber-Benchmark ist in fünf zentrale Säulen gegliedert, die jeweils anhand eines Fragenkatalogs bewertet werden, um den Reifegrad einer Organisation zu ermitteln (von 0 bis 100 %). Zur effektiven Visualisierung der Ergebnisse verwenden wir eine „Boxplot“-Darstellung. Für jede Säule zeigen die horizontalen Linien (von unten nach oben) folgendes an: das Minimum, die Trennung zwischen erstem und zweitem Quartil, den Median, die Trennung zwischen drittem und viertem Quartil sowie das Maximum – was dabei hilft zu erkennen, ob die Ergebnisse eng beieinander liegen oder stark streuen. Das Kreuz steht für den Durchschnitt.

Wichtige Erkenntnisse aus unserem AI Cyber Benchmark

  • Die Risiken von GenAI sind vielfältig (Cybersicherheit, Datenschutz, Verzerrung, Transparenz, Leistung) und sehr spezifisch.
  • Neue KI-Technologien führen zu drei neuen Angriffstypen: Poisoning-, Oracle- und Evasion-Angriffen.
  • Als Reaktion darauf vervielfachen sich internationale Vorschriften, was für multinationale Unternehmen zusätzliche Komplexität schafft.
  • Sicherheitsmaßnahmen variieren je nach KI-Anwendungsfällen, die in drei Typen unterteilt werden: Nutzer, Orchestratoren und fortgeschrittene Entwickler.
  • Während 87 % der Unternehmen in unserem Panel Governance-Elemente definiert haben, haben nur 7 % über die notwendige Expertise, um auf aufkommende Risiken zu reagieren.
  • Die reifsten Unternehmen gehen die Herausforderung der fehlenden Fachkompetenz an, indem sie ein integriertes Governance-Modell übernehmen.
  • 64 % der Unternehmen haben eine KI-Sicherheitsrichtlinie implementiert, um ein grundlegendes Sicherheitsniveau für KI-Projekte zu etablieren.
  • 72 % haben ihre Sicherheitsprozesse in Projekten angepasst, um KI-spezifische Risiken zu adressieren.
  • 40 % der Unternehmen haben ihre Prozesse zur Bewertung der Reife von Drittanbietern für KI-gestützte Lösungen angepasst.
  • 43 % der Unternehmen haben Sicherheitskriterien in die Modellwahl für Anwendungsfälle aufgenommen.
  • Nur 7 % der Unternehmen sind richtig ausgestattet (intern oder mit Unterstützung von Anbietern), um sich gegen modellbezogene Angriffe zu verteidigen.
  • Um Vertrauensniveaus zu validieren, bleiben KI-Red-Teams der bevorzugte Ansatz. Nur 7 % der Unternehmen verfügen über die interne Expertise, um diese durchzuführen, und müssen auf externe Spezialisten zurückgreifen.
  • KI-Anwendungen werden selten über das SOC überwacht. Infrastruktur- und Anwendungsprotokolle werden jedoch in der Regel gut gesammelt (71 %), um Ermittlungen im Falle von Vorfällen zu unterstützen. Die forensische Analyse von KI-Modellen bleibt technisch sehr komplex, und nur wenige Organisationen weltweit sind in der Lage, sie durchzuführen.

KI beeinflusst die Cybersicherheit auf zwei weitere Weise: Sie stärkt die Verteidigung, indem sie bestimmte Aufgaben automatisiert, wird jedoch auch von Cyberkriminellen ausgenutzt, mit einem Anstieg von Deepfakes, KI-unterstütztem Phishing und KI-mitgeschriebenem Malware im Jahr 2024. Organisationen müssen diese Bedrohungen in ihre Überwachung integrieren und KI-Tools einsetzen, um diesen neuen Angriffen entgegenzuwirken. Weitere Informationen finden Sie hier: The industrialization of AI by cybercriminals.

  • Cyber Security
  • Daten & Künstliche Intelligenz

Entdecken Sie die vollständige Analyse in unserem ausführlichen Bericht

2025 AI Cyber Benchmark

Unser Feedback aus der Praxis  

Welche Trends haben wir bei der Absicherung von KI identifiziert?

Der Markt hat schnell auf das Aufkommen von KI reagiert. Heute haben 87 % der Organisationen in der Benchmark eine Governance definiert, um das Thema Vertrauenswürdige KI anzugehen. Cybersicherheit ist in der Tat nur ein Aspekt von vertrauenswürdiger KI, neben Datenschutz, Bias-Management, Robustheit, Genauigkeit…

Hauptsächlich haben wir zwei Ansätze beobachtet:

  • Integriertes Modell bei rund 60 % unserer Kunden, mit einem „AI-Hub“ als Schlüsselkompetenzen rund um KI (Recht, Sicherheit, Datenschutz, CSR), um Kommunikation zu erleichtern und eine schnelle Einführung von Themen zu ermöglichen. Dies hilft, die Bewertung von Anwendungsfällen zu zentralisieren, eine vertrauenswürdige KI-Community aufzubauen und die Weiterbildung der Teams zu beschleunigen.
  • Dezentralisiertes Modell bei rund 10 % unserer Kunden, bei dem die KI-Spezifika über bestehende Teams und Prozesse angegangen werden. Obwohl die Umsetzung langsamer erfolgt, hilft es, eine dedizierte Governance-Struktur zu schaffen und Redundanzen mit bestehenden Prozessen zu vermeiden.

Aber wie kann man KI-Risiken in der Praxis effektiv managen?

71 % der Organisationen in unserer Benchmark haben ihren Projektlebenszyklusprozess an die Risiken von KI angepasst. 64 % haben ein KI-Sicherheitsframework definiert, entweder durch die Etablierung einer dedizierten Sicherheitsrichtlinie oder durch die Anpassung ihres gesamten Sicherheitskorpus. Und dies sollte der erste Schritt für jedes Unternehmen sein, das versucht, ein KI-Sicherheitsframework aufzubauen.

Ein wichtiger Erfolgsfaktor ist es, nicht das Rad neu zu erfinden, sondern auf bestehenden Prozessen und Dokumenten aufzubauen und, wo relevant, Risiken, Maßnahmen, Kontrollen und Verifizierungsschritte spezifisch für KI hinzuzufügen. Zum Beispiel könnte der Risikobewertungsfragebogen spezifische Fragen zu KI enthalten, wie:

  • Was ist der Kontext und der beabsichtigte Zweck dieser KI?
  • Würde das Ergebnis von einem Menschen genutzt oder direkt als Eingabe in einen automatisierten Prozess verwendet?
  • Was ist das erwartete Leistungsniveau des KI-Systems?
  • Was wären die Auswirkungen einer Fehlfunktion auf Einzelpersonen?

Das Thema der Fachkompetenz bleibt jedoch eine Schlüsselherausforderung: KI ist ein spezialisiertes Thema, und Expertise kann knapp sein. Nur 57 % der Organisationen in unserem Panel haben interne oder externe Experten für KI-Sicherheitsthemen identifiziert. Daher wird Schulung, Sensibilisierung und die Identifizierung fehlender Expertise zur Anpassung dieser Rekrutierungsstrategien entscheidend sein.

  • Cyber Security
  • Daten & Künstliche Intelligenz

Discover the full analysis in our detailed report

2025 AI Cyber Benchmark

Authors

  • gerome billois

    Gérôme Billois

    Partner – Frankreich, Paris

    Wavestone

    LinkedIn
  • Thomas Argheria