L’intelligenza artificiale sta trasformando radicalmente il mondo degli affari – e porta con sé nuovi rischi che i tradizionali framework di sicurezza informatica non coprono. Il NIST AI Risk Management Framework (AI RMF) colma questa lacuna con un approccio strutturato alla gestione responsabile dell’IA.

Cos’è il NIST AI RMF?

L’AI Risk Management Framework è stato pubblicato il 26 gennaio 2023 dal National Institute of Standards and Technology (NIST). Si tratta di un framework volontario che aiuta le organizzazioni a integrare affidabilità e responsabilità nello sviluppo, nell’implementazione e nella valutazione dei sistemi di IA.

A differenza dei requisiti normativi come l’EU AI Act, il NIST AI RMF non è obbligatorio – ma fornisce un quadro pratico che viene sempre più considerato come lo standard de facto per la gestione dei rischi dell’IA.

Le quattro funzioni principali

Il framework organizza la gestione dei rischi IA attorno a quattro funzioni:

1. Govern (Governare)

Stabilire strutture organizzative, politiche e processi per l’uso responsabile dell’IA. Questo include responsabilità chiare, strutture di governance e una strategia di gestione dei rischi IA a livello dirigenziale.

2. Map (Mappare)

Identificare e categorizzare sistematicamente i rischi dell’IA. Quali sistemi di IA sono in uso? In quale contesto? Chi è coinvolto? Quali dati sono interessati? Questa fase crea trasparenza sul panorama IA dell’organizzazione.

3. Measure (Misurare)

Quantificare e valutare i rischi identificati. Questo include la valutazione dell’accuratezza del modello, dei bias, della robustezza e della spiegabilità – con metriche e soglie definite.

4. Manage (Gestire)

Implementare misure concrete di mitigazione dei rischi: monitoraggio, risposta agli incidenti, revisioni regolari e miglioramento continuo dei sistemi di IA implementati.

Profilo IA Generativa (NIST AI 600-1)

Con l’adozione esplosiva dei Large Language Models (LLMs) e dell’IA generativa, il NIST ha pubblicato nel luglio 2024 il Generative AI Profile (AI 600-1). Questo documento complementare affronta i rischi specifici dell’IA generativa:

  • Content Provenance – Tracciabilità dell’origine dei contenuti generati dall’IA
  • Allucinazioni – Gestione degli output IA fattualmente errati
  • Protezione dei dati – Protezione dei dati personali nei dati di addestramento e negli output
  • Proprietà intellettuale – Rischi di copyright con i contenuti generati
  • Rischi CBRN – Potenziale di abuso per informazioni chimiche, biologiche, radiologiche e nucleari

Il profilo definisce oltre 200 azioni aggiuntive specificamente adattate ai rischi dei LLM e dell’IA generativa.

Aggiornamenti 2025: nuove categorie di minacce

Gli aggiornamenti del 2025 ampliano il framework con aree di interesse praticamente rilevanti:

  • Model Provenance – Tracciabilità dell’origine e della storia di addestramento dei modelli, specialmente per modelli open source e di terze parti
  • Integrità dei dati – Garanzia della qualità e autenticità dei dati di addestramento
  • Valutazione dei modelli di terze parti – Valutazione di modelli e componenti IA di provenienza esterna
  • Categorie di minacce estese – Attacchi di avvelenamento (corruzione dei dati di addestramento), attacchi di evasione (aggiramento della logica del modello), estrazione dei dati e manipolazione del modello

Particolarmente rilevante: la maggior parte delle organizzazioni non utilizza modelli addestrati internamente ma si affida a componenti esterni o open source. I nuovi requisiti di valutazione delle terze parti affrontano esattamente questo scenario.

Rilevanza per le aziende svizzere

Sebbene il NIST AI RMF sia un framework statunitense, ha una rilevanza diretta per le organizzazioni svizzere:

  • Riconoscimento internazionale – Il framework è usato a livello globale come riferimento per la governance IA ed è compatibile con l’EU AI Act
  • Complemento alla nLPD – La legge svizzera sulla protezione dei dati regola il trattamento dei dati personali ma tace in gran parte sui rischi specifici dell’IA come bias o allucinazioni. Il NIST AI RMF colma questa lacuna
  • Requisiti FINMA – Le istituzioni finanziarie regolamentate che utilizzano l’IA beneficiano di un approccio strutturato alla gestione dei rischi
  • Preparazione agli audit – Una gestione documentata dei rischi IA secondo gli standard NIST rafforza la posizione negli audit interni ed esterni

Implementazione pratica: da dove iniziare?

L’inizio non deve essere complesso. Tre passi pragmatici per cominciare:

  1. Creare un inventario IA – Quali sistemi e strumenti IA sono utilizzati nell’organizzazione? Da ChatGPT a Copilot fino ai modelli ML specifici del settore. Molte aziende non hanno una panoramica completa
  2. Effettuare una valutazione dei rischi – Per ogni sistema identificato: quali dati elabora? Quali decisioni influenza? Cosa succede in caso di malfunzionamento? Le funzioni Map e Measure del NIST forniscono una struttura chiara
  3. Definire la governance – Chi è responsabile? Quali politiche d’uso si applicano? Come vengono gestiti gli incidenti? La funzione Govern del framework fornisce il quadro

Conclusione

Il NIST AI Risk Management Framework offre un approccio maturo e orientato alla pratica per una governance responsabile dell’IA. Con il Generative AI Profile e gli aggiornamenti del 2025, affronta le ultime sfide relative ai LLM e ai modelli di terze parti. Per le aziende svizzere che utilizzano o pianificano di utilizzare l’IA, è una bussola preziosa – indipendentemente dalla pressione normativa.

La documentazione completa del NIST AI RMF è disponibile su nist.gov e l’AI Resource Center (AIRC).