Künstliche Intelligenz verändert die Geschäftswelt fundamental – und bringt neue Risiken mit sich, die klassische IT-Security-Frameworks nicht abdecken. Das NIST AI Risk Management Framework (AI RMF) schliesst diese Lücke mit einem strukturierten Ansatz für den verantwortungsvollen Umgang mit KI-Systemen.

Was ist das NIST AI RMF?

Das AI Risk Management Framework wurde am 26. Januar 2023 vom National Institute of Standards and Technology (NIST) veröffentlicht. Es ist ein freiwilliges Framework, das Organisationen dabei unterstützt, Vertrauenswürdigkeit und Verantwortung in die Entwicklung, den Einsatz und die Bewertung von KI-Systemen zu integrieren.

Im Gegensatz zu regulatorischen Vorgaben wie dem EU AI Act ist das NIST AI RMF nicht verpflichtend – es bietet jedoch einen praxisnahen Rahmen, der zunehmend als De-facto-Standard gilt.

Die vier Kernfunktionen

Das Framework organisiert das KI-Risikomanagement um vier Funktionen:

1. Govern (Steuern)

Organisatorische Strukturen, Richtlinien und Prozesse für den verantwortungsvollen Umgang mit KI etablieren. Dazu gehören klare Verantwortlichkeiten, Governance-Strukturen und eine KI-Risikostrategie auf Führungsebene.

2. Map (Erfassen)

KI-Risiken systematisch identifizieren und kategorisieren. Welche KI-Systeme werden eingesetzt? In welchem Kontext? Wer ist betroffen? Welche Daten fliessen ein? Diese Phase schafft Transparenz über die eigene KI-Landschaft.

3. Measure (Messen)

Identifizierte Risiken quantifizieren und bewerten. Das umfasst die Evaluation von Modellgenauigkeit, Bias, Robustheit und Erklärbarkeit – mit definierten Metriken und Schwellenwerten.

4. Manage (Behandeln)

Konkrete Massnahmen zur Risikominderung implementieren: Monitoring, Incident Response, regelmässige Überprüfungen und kontinuierliche Verbesserung der eingesetzten KI-Systeme.

Generative AI Profile (NIST AI 600-1)

Mit der explosionsartigen Verbreitung von Large Language Models (LLMs) und generativer KI hat NIST im Juli 2024 das Generative AI Profile (AI 600-1) veröffentlicht. Dieses Ergänzungsdokument adressiert die spezifischen Risiken generativer KI:

  • Content Provenance – Nachverfolgbarkeit, woher KI-generierte Inhalte stammen
  • Halluzinationen – Umgang mit faktisch falschen KI-Ausgaben
  • Data Privacy – Schutz persönlicher Daten in Trainingsdaten und Ausgaben
  • Intellectual Property – Urheberrechtliche Risiken bei generierten Inhalten
  • CBRN-Risiken – Missbrauchspotenzial für chemische, biologische, radiologische und nukleare Informationen

Das Profil definiert über 200 zusätzliche Massnahmen, die spezifisch auf LLM- und GenAI-Risiken zugeschnitten sind.

Updates 2025: Neue Bedrohungskategorien

Die Aktualisierungen von 2025 erweitern das Framework um praxisrelevante Schwerpunkte:

  • Model Provenance – Nachvollziehbarkeit der Herkunft und Trainingshistorie von KI-Modellen, insbesondere bei Open-Source- und Drittanbieter-Modellen
  • Data Integrity – Sicherstellung der Qualität und Unverfälschtheit von Trainingsdaten
  • Third-Party Model Assessment – Bewertung von extern bezogenen KI-Modellen und -Komponenten
  • Erweiterte Bedrohungskategorien – Poisoning Attacks (Vergiftung der Trainingsdaten), Evasion Attacks (Umgehung der Modelllogik), Data Extraction (Abgriff von Trainingsdaten) und Model Manipulation

Besonders relevant: Die meisten Unternehmen nutzen keine selbst trainierten Modelle, sondern setzen auf externe oder Open-Source-Komponenten. Die neuen Anforderungen zur Third-Party-Bewertung adressieren genau dieses Szenario.

Relevanz für Schweizer Unternehmen

Auch wenn das NIST AI RMF ein US-amerikanisches Framework ist, hat es direkte Relevanz für Schweizer Organisationen:

  • Internationale Anerkennung – Das Framework wird weltweit als Referenz für KI-Governance herangezogen und ist kompatibel mit dem EU AI Act
  • nDSG-Ergänzung – Das Schweizer Datenschutzgesetz regelt den Umgang mit Personendaten, schweigt aber weitgehend zu KI-spezifischen Risiken wie Bias oder Halluzinationen. Das NIST AI RMF füllt diese Lücke
  • FINMA-Anforderungen – Regulierte Finanzinstitute, die KI einsetzen, profitieren von einem strukturierten Risikomanagement-Ansatz
  • Audit-Readiness – Ein dokumentiertes KI-Risikomanagement nach NIST-Standard stärkt die Position bei internen und externen Audits

Praktische Umsetzung: Wo anfangen?

Der Einstieg muss nicht komplex sein. Drei pragmatische Schritte für den Anfang:

  1. KI-Inventar erstellen – Welche KI-Systeme und -Tools werden in der Organisation eingesetzt? Von ChatGPT über Copilot bis zu branchenspezifischen ML-Modellen. Viele Unternehmen haben keinen vollständigen Überblick
  2. Risikobewertung durchführen – Für jedes identifizierte System: Welche Daten verarbeitet es? Welche Entscheidungen beeinflusst es? Was passiert bei Fehlfunktion? Die NIST-Funktionen Map und Measure geben hier eine klare Struktur vor
  3. Governance definieren – Wer ist verantwortlich? Welche Nutzungsrichtlinien gelten? Wie werden Vorfälle gehandhabt? Die Govern-Funktion des Frameworks liefert den Rahmen

Fazit

Das NIST AI Risk Management Framework bietet einen ausgereiften, praxisorientierten Ansatz für den verantwortungsvollen Umgang mit KI. Mit dem Generative AI Profile und den Updates von 2025 adressiert es auch die neusten Herausforderungen rund um LLMs und Drittanbieter-Modelle. Für Schweizer Unternehmen, die KI einsetzen oder planen, ist es ein wertvoller Kompass – unabhängig davon, ob regulatorischer Druck besteht oder nicht.

Die vollständige Dokumentation des NIST AI RMF ist verfügbar auf nist.gov und dem AI Resource Center (AIRC).