KI in der Cyberabwehr: Was funktioniert, was nicht – und wo die Grenzen liegen

Künstliche Intelligenz ist das aktuelle Buzzword in der IT-Sicherheit. Kaum ein Produkt kommt ohne «AI-powered» im Marketing aus. Doch was leistet KI in der Cyberabwehr tatsächlich – und wo endet der Nutzen?

Wo KI echten Mehrwert liefert

Machine Learning und statistische Modelle haben in bestimmten Bereichen der IT-Sicherheit nachweisbare Fortschritte gebracht. Nicht weil sie magisch sind, sondern weil sie gut darin sind, Muster in grossen Datenmengen zu erkennen.

Anomalieerkennung in Netzwerken und Benutzerverhalten (UEBA): User and Entity Behavior Analytics erstellen Baseline-Profile für normales Verhalten – Anmeldezeiten, Zugriffspatterns, Datenvolumen. Abweichungen werden automatisch erkannt. Wenn ein Buchhaltungskonto plötzlich nachts auf Entwicklerserver zugreift, schlägt das System an. ENISA stuft UEBA als eine der vielversprechendsten KI-Anwendungen in der Cybersicherheit ein.

Malware-Klassifikation: Signaturbasierte Erkennung allein reicht gegen polymorphe Malware nicht mehr aus. ML-Modelle analysieren Verhaltensmerkmale von Dateien – API-Aufrufe, Speicherzugriffe, Netzwerkverbindungen – und klassifizieren auch bisher unbekannte Varianten. Moderne EDR-Lösungen nutzen diese Technik seit Jahren produktiv.

Phishing-Erkennung: NLP-Modelle analysieren E-Mail-Inhalte auf sprachliche Muster, die typisch für Phishing sind: Dringlichkeit, Autoritätsappelle, verdächtige URLs. In Kombination mit Absenderreputation und Header-Analyse erreichen diese Systeme Erkennungsraten über 95 Prozent.

Alert Triage: Ein durchschnittliches SOC verarbeitet tausende Alarme pro Tag. ML-basierte Priorisierung reduziert die «Alert Fatigue», indem Fehlalarme automatisch heruntergestuft und kritische Ereignisse nach oben sortiert werden. Das entlastet Analysten für die Fälle, die wirklich zählen.

Vulnerability Prioritization: Nicht jede CVE ist gleich kritisch. KI-gestützte Systeme bewerten Schwachstellen im Kontext der eigenen Infrastruktur: Ist der betroffene Dienst extern erreichbar? Gibt es aktive Exploits? Wie geschäftskritisch ist das System? Das ist effizienter als reine CVSS-Scores.

Wo KI an Grenzen stösst

Die Limitierungen sind ebenso real wie der Nutzen – und werden in der Vermarktung gerne verschwiegen.

Hohe False-Positive-Raten: Ohne sorgfältiges Tuning und kontextspezifisches Training produzieren ML-Modelle eine Flut von Fehlalarmen. Ein System, das jeden ungewöhnlichen Login als Angriff meldet, wird schnell ignoriert. Die Kalibrierungsphase dauert Wochen bis Monate und erfordert Fachwissen.

Adversarial Attacks: ML-Modelle lassen sich gezielt täuschen. Angreifer können Inputs so manipulieren, dass Malware als gutartig klassifiziert wird. Forschungsarbeiten zeigen, dass selbst kleine Modifikationen an PE-Dateien die Erkennung durch ML-basierte Scanner umgehen können.

Das Cold-Start-Problem: ML braucht Daten – viele, gute Daten. Ein frisch installiertes System kennt weder das Netzwerk noch die Nutzer. Bis die Modelle aussagekräftig sind, vergehen Wochen. Für KMU mit kleinen Umgebungen fehlt oft die Datenbasis für zuverlässige Modelle.

«AI Washing»: Ein erheblicher Teil der als «KI-gestützt» vermarkteten Sicherheitsprodukte nutzt einfache regelbasierte Automatisierung oder statistische Schwellwerte. Das ist nützlich, aber keine künstliche Intelligenz. Die Grenze zwischen Marketing und Realität ist fliessend.

Kein Ersatz für menschliches Urteil: Komplexe Vorfälle erfordern Kontextwissen, das kein Modell hat: Geschäftsprozesse, politische Zusammenhänge, aktuelle Projekte. Ein erfahrener Analyst erkennt, dass der nächtliche Datentransfer eine geplante Migration ist – das ML-Modell sieht nur die Anomalie.

Erklärbarkeit: Viele ML-Modelle sind Black Boxes. Wenn ein System einen Alarm auslöst, ist oft unklar, warum. Für regulierte Branchen und für die Nachvollziehbarkeit in Incident Reports ist das ein echtes Problem. Das NIST AI Risk Management Framework (AI RMF) fordert explizit Transparenz und Erklärbarkeit.

KI gegen KI: Das Wettrüsten

Angreifer nutzen dieselbe Technologie. Generative KI erstellt überzeugende Phishing-Mails ohne die typischen Rechtschreibfehler. Deepfakes ermöglichen CEO-Fraud per Videoanruf. Automatisierte Tools scannen im grossen Stil nach Schwachstellen und generieren massgeschneiderte Exploits. Die Verteidiger müssen mitziehen – aber das Wettrüsten hat keine Ziellinie.

Praktische Empfehlungen für KMU

  • Hype hinterfragen: Fragen Sie Anbieter konkret, welche ML-Methoden eingesetzt werden und auf welchen Daten die Modelle trainiert wurden. «KI-basiert» allein ist keine Aussage.
  • Etablierte Tools nutzen: Moderne EDR-Lösungen und E-Mail-Security-Gateways nutzen ML seit Jahren produktiv. Das sind keine Experimente mehr, sondern bewährte Werkzeuge.
  • Augmentation statt Ersatz: KI macht Analysten effizienter, ersetzt sie aber nicht. Planen Sie Personal für die Bewertung von Alarmen ein, auch wenn das System «intelligent» filtert.
  • Grundlagen zuerst: Bevor Sie in KI-Tools investieren, stellen Sie sicher, dass Patching, MFA, Netzwerksegmentierung und Backup-Prozesse funktionieren. Kein ML-Modell kompensiert fehlende Grundlagen.
  • Realistisch bleiben: KI ist ein Werkzeug mit Stärken und Schwächen. Wer sie als Wunderwaffe betrachtet, wird enttäuscht. Wer sie gezielt einsetzt, gewinnt einen echten Vorteil.

Wie Zerberos unterstützt

KI-gestützte Tools erkennen Muster und Anomalien. Was sie nicht leisten: Logikfehler in Geschäftsprozessen finden, Fehlkonfigurationen im Kontext bewerten oder kreative Angriffspfade durchspielen. Genau das ist die Stärke manueller Penetration Tests. Zerberos kombiniert automatisierte Analysen mit der Erfahrung menschlicher Tester – für Ergebnisse, die über das hinausgehen, was ein Scanner liefert.

Kontaktieren Sie uns für eine unverbindliche Beratung.

Quellen

  • ENISA – AI and Cybersecurity: Challenges and Recommendations (2024)
  • NIST – AI Risk Management Framework (AI RMF 1.0)
  • MIT Technology Review – The AI-Cybersecurity Arms Race (2024)
  • Gartner – Market Guide for Security Orchestration, Automation and Response (2024)
  • MITRE ATLAS – Adversarial Threat Landscape for AI Systems