Standard per l’AI generativa, gli USA dettano le regole del gioco

NIST, National Institute of Standards and Technology, Foto di J. Stoughton
NIST, National Institute of Standards and Technology, Foto di J. Stoughton

Il National Institute of Standards and Technology (NIST) americano, l’ente federale incaricato di sviluppare standard tecnologici, ha avviato consultazioni pubbliche su tre proposte di standard legati all’intelligenza artificiale generativa. L’iniziativa fa seguito al recente ordine esecutivo del presidente Biden sull’AI, che richiede al NIST di definire linee guida in questo ambito. Proposte che nelle intenzioni di Washington dovrebbero diventare il punto di riferimento non solo negli USA, ma a livello globale.

AI Risk Management Framework: Generative Artificial Intelligence Profile

La prima proposta stilata dal NIST, “AI Risk Management Framework: Generative Artificial Intelligence Profile“, è una tassonomia dei principali rischi associati all’AI generativa (nel testo indicata con l’acronimo GAI, Generative Artificial Intelligence), con oltre 400 suggerimenti su come mitigarli. Questi rischi vanno dall’integrità delle informazioni — la facilità con cui questa forma di AI può generare false informazioni indistinguibili dalla realtà, creando seri problemi di disinformazione — a questioni di sicurezza delle informazioni, dove gli attacchi cyber diventano più sofisticati, sfruttando le capacità di automazione dell’AI per scoprire vulnerabilità o creare malware ad hoc. Altri rischi includono la violazione della privacy dei dati, poiché l’intelligenza artificiale generativa può inferire dati personali sensibili da dataset apparentemente anonimi, e le sfide legate alla proprietà intellettuale, visto che può facilmente replicare e adattare contenuti protetti da copyright.

Per ogni rischio identificato, il NIST propone una serie di azioni strutturate attorno a quattro pilastri principali: governance, mappatura, misurazione e gestione. Questi consigli vanno dalla definizione di politiche rigorose per la verifica dei dati e l’adozione di modelli di feedback, al garantire che le informazioni generate siano accuratamente verificate prima della loro diffusione.

Il framework del NIST non è solo un compendio teorico, esso fornisce indicazioni dettagliate su come le organizzazioni possono implementare efficacemente queste raccomandazioni. Suggerisce, per esempio, che le politiche di gestione dei rischi dovrebbero essere integrate nei processi aziendali esistenti per assicurare una transizione fluida e una migliore aderenza alle normative vigenti, con un forte accento sulla personalizzazione delle strategie in base alle specificità dell’organizzazione e del settore di appartenenza.

Secure Software Development Practices for Generative AI and Dual-Use Foundation Models

Il secondo documento, “Secure Software Development Practices for Generative AI and Dual-Use Foundation Models“, rappresenta un’estensione del precedente framework SSDF (Secure Software Development Framework) del NIST, aggiornandolo con specifiche raccomandazioni per lo sviluppo di modelli AI. Questo documento entra nel merito della qualità dei dati usati per addestrare i modelli di AI generativa. L’obiettivo è creare un linguaggio comune e standard condivisi tra tutti gli attori della filiera: dai produttori dei modelli fino agli acquirenti finali, passando per gli sviluppatori dei sistemi. Tra le principali novità introdotte troviamo una maggiore attenzione all’integrità e alla provenienza dei dati utilizzati per addestrare gli algoritmi, la protezione dei parametri dei modelli da accessi non autorizzati, l’utilizzo di tecniche “adversarial” per rendere i sistemi più robusti agli attacchi. Viene poi suggerito di effettuare scansioni approfondite del codice dei modelli e un monitoraggio continuo del loro comportamento una volta messi in produzione.

L’idea è che “dataset” non puliti o distorti si tradurranno inevitabilmente in risultati inaffidabili e dannosi. Per questo il NIST raccomanda una scrupolosa “igiene” dei dati, dalla verifica della loro provenienza all’eliminazione di bias e contenuti inappropriati, dalla protezione della privacy al monitoraggio continuo anche dopo il rilascio dei modelli. Si tratta di pratiche che dovranno essere integrate nei processi di MLOps e DevOps già consolidati in azienda, secondo una logica di “responsabilità condivisa” tra tutti i soggetti coinvolti.

Reducing Risks Posed by Synthetic Content

Infine, la terza proposta, “Reducing Risks Posed by Synthetic Content“, affronta il problema spinoso di come identificare i contenuti generati dall’AI distinguendoli da quelli autentici. Un compito sempre più arduo anche per gli esperti, visto il realismo raggiunto dai modelli più evoluti. L’idea è quella di fornire degli strumenti, anche a livello normativo, per stabilire un clima di fiducia tra chi produce contenuti, chi li distribuisce e il pubblico che ne fruisce.

Ma quali sono queste tecniche “anti-fake”? Il NIST individua sostanzialmente due categorie. La prima riguarda il tracciamento della provenienza dei dati e include soluzioni come il digital watermarking, che inserisce nei contenuti delle “filigrane” digitali difficili da rimuovere, oltre alla registrazione di metadati che “raccontano” la storia di quel contenuto.

La seconda categoria comprende invece tecniche di rilevamento dei contenuti sintetici. Si va da sistemi automatizzati che analizzano determinate caratteristiche del contenuto, a quelli che cercano le tracce di watermark e metadati “incriminati”, fino al contributo di esperti umani che danno una mano agli algoritmi.

Attenzione però a pensare che sia una partita facile. Gli esperti del NIST tengono a sottolineare che nessuna di queste tecniche è infallibile o risolutiva. Ad esempio, i watermark visibili possono essere facilmente rimossi se applicati solo a piccole porzioni del contenuto. Quelli invisibili sono più sicuri ma hanno il problema dei falsi positivi/negativi nel rilevamento, mentre i metadati possono essere manipolati. In generale, nessuna tecnica rappresenta una soluzione definitiva.

Il rapporto fornisce anche una guida su come testare e valutare l’efficacia di queste tecniche, sottolineando l’importanza di considerare fattori come la robustezza agli attacchi, la generalizzabilità a diversi scenari, la riproducibilità dei risultati. Viene poi dedicata una sezione specifica alle misure tecniche per prevenire la generazione e diffusione di materiale pedopornografico (CSAM) e immagini intime non consensuali (NCII) tramite AI.

La strada indicata dal NIST è quella di sviluppare standard tecnologici condivisi a livello globale, per far sì che questi strumenti anti-fake siano sempre più adottati ed efficaci. Una sfida non da poco, che richiede le forze congiunte di governo, industria e ricerca.

Fin qui le proposte nel merito. Ma la vera partita si gioca a livello geopolitico. L’amministrazione Biden punta infatti a fare di questi standard la norma a livello internazionale, attraverso accordi bilaterali e multilaterali. Una mossa che riflette la consapevolezza di come l’AI generativa rappresenti uno snodo cruciale nella competizione tecnologica ed economica globale.

Chi detterà gli standard in questo campo, infatti, potrà influenzare pesantemente i futuri sviluppi e le applicazioni della tecnologia. Con enormi ricadute sul piano industriale e della sicurezza, ma anche su quello sociale ed etico. La battaglia per gli standard dell’AI generativa è dunque appena iniziata e si preannuncia molto serrata.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.