I red team alla prova dell’AI

Red team, immaginato da L. Sambucci e da Claude v3 Opus, realizzato da Ideogram

L’intelligenza artificiale è ovunque, si sta facendo strada in ogni angolo delle nostre vite, promettendo di renderle più facili, più efficienti, più smart. Siamo pronti ad affidare così tanto del nostro mondo a complessi sistemi che, in fondo, sono ancora delle black box?

Bias, deepfake, vulnerabilità invisibili, usi malevoli: sono solo alcune delle ombre che si allungano sul radioso futuro potenziato dall’AI. E mentre i giganti della Silicon Valley si affannano a sviluppare modelli sempre più potenti e sorprendenti, cresce l’urgenza di trovare modi per rendere questi sistemi più trasparenti, affidabili e sicuri.

È qui che entra in gioco il red teaming, o almeno così sperano molti nell’industria. Nata come tecnica di war-gaming e poi adottata nel mondo della cybersecurity, l’idea del red teaming è semplice: mettersi nei panni dell’avversario per scovare le debolezze del proprio sistema. E ora, aziende come OpenAI, Google e Microsoft stanno iniziando a usarla per testare i loro modelli di AI più avanzati.

Ma siamo sicuri che basti giocare a guardie e ladri per addomesticare una tecnologia che potrebbe ridefinire cosa significa essere umani? Adattare il red teaming all’AI non è una passeggiata: stiamo parlando di sistemi in costante evoluzione, che imparano e si trasformano a ritmi molto sostenuti.

Vi è poi la questione dell’affidabilità: finora, come vedremo più avanti, sono proprio le aziende produttrici dei grandi modelli di intelligenza artificiale ad aver messo in piedi red team per mettere alla prova i loro modelli, mentre i ricercatori esterni devono vedersela con termini di servizio spesso troppo restrittivi che non fanno grandi distinzioni fra ricerca indipendente e hacking. Ma possiamo davvero dormire sonni tranquilli sapendo che a vegliare sulla sicurezza delle nostre AI sono le stesse aziende che le sviluppano? O forse, come suggeriscono alcuni esperti, è ora di iniziare a pensare a un approccio più ampio e indipendente, che coinvolga enti regolatori, mondo accademico e società civile.

Con l’AI non possiamo permetterci di essere reattivi. Dobbiamo anticipare le minacce, prevenire i rischi, immaginare l’inimmaginabile. Il red teaming è un inizio, ma la strada verso un’AI sicura e affidabile è ancora lunga e il raggiungimento dell’obiettivo una prospettiva tutt’altro che certa.

Applicare il red teaming all’AI

Il red teaming non è una novità. Nato come tecnica di addestramento militare, si è fatto strada nel mondo della cybersecurity negli anni ’90, quando aziende e organizzazioni hanno iniziato a ingaggiare “hacker etici” per testare le difese dei loro sistemi. L’idea è sempre la stessa: pensare come l’avversario per scovare le proprie debolezze prima che lo faccia qualcun altro.

Oggi questa metodologia sta trovando una nuova frontiera nell’intelligenza artificiale. I giganti della Silicon Valley, da Microsoft a Google, da NVIDIA a OpenAI, stanno mettendo i loro sistemi di AI più avanzati sotto il microscopio dei red team, ognuno con il proprio approccio unico per garantire la sicurezza e l’uso etico di queste tecnologie.

Microsoft ha un team dedicato, l’AI Red Team, che si concentra sull’emulazione di avversari reali per identificare rischi, scoprire punti ciechi e migliorare la postura di sicurezza generale dei sistemi di AI. Questo team è coinvolto nell’indagine delle vulnerabilità e di altri potenziali pericoli, come la generazione di contenuti potenzialmente dannosi, e ha recentemente rilasciato il framework PyRIT (Python Risk Identification Tool for generative AI). Microsoft enfatizza un approccio di difesa in profondità e già nel 2021 rilasciò uno strumento come Counterfit per il risk assessment di sicurezza dell’AI, collaborando anche con organizzazioni come MITRE per sviluppare framework per affrontare i rischi dell’intelligenza artificiale.

Google ha creato un AI Red Team che lavora insieme al loro Secure AI Framework (SAIF), con l’obiettivo di affrontare i rischi per i sistemi di AI e guidare responsabilmente gli standard di sicurezza. Il loro approccio al red teaming prevede la simulazione di una varietà di scenari avversariali per prepararsi ad attacchi ai sistemi di AI, come parte di un’iniziativa più ampia per garantire l’implementazione etica delle tecnologie di intelligenza artificiale.

NVIDIA affronta il red teaming dell’AI considerando l’intero ciclo di vita dei sistemi di machine learning, dall’ideazione all’implementazione e alla fine vita. La loro metodologia copre una vasta gamma di problematiche, tra cui vulnerabilità tecniche e dei modelli, e scenari di abuso e danno. Il red team di NVIDIA aggrega competenze di sicurezza offensiva, AI responsabile e ricerca nel machine learning per affrontare questi problemi in modo completo.

OpenAI ha formato l’OpenAI Red Teaming Network, una comunità di esperti che collabora su esercizi di red teaming per rendere i modelli più sicuri, ed è al momento forse l’unico importante player che ha ampliato gli orizzonti di questo concetto per applicarlo alle nuove sfide dei sistemi AI. Questa rete, infatti, si estende oltre i test avversariali interni per includere esperti esterni che aiutano a sviluppare tassonomie di rischio specifiche per dominio e a valutare capacità potenzialmente dannose nei nuovi sistemi. OpenAI, inoltre, sottolinea l’importanza di competenze e prospettive diverse nella valutazione dei sistemi di AI.

Se da una parte questi esempi illustrano quanto sia rilevante adottare un approccio proattivo e completo alla sicurezza, dall’altra trapiantare il red teaming dalla cybersecurity al mondo dell’AI non è un’operazione priva di insidie. I modelli di AI sono per certi versi “bestie” complesse e mutevoli, che evolvono e si adattano a una velocità che nessun red team può sperare di eguagliare. Poi c’è la questione delle competenze: trovare bug in un codice è una cosa, valutare l’impatto sociale ed etico di un’AI un’altra.

Eppure, nonostante le sfide, il red teaming rimane uno strumento fondamentale per rendere l’AI più sicura e affidabile. Con la giusta dose di creatività e rigore i red team possono far emergere vulnerabilità nascoste e guidare lo sviluppo di modelli più robusti.

Adattarsi all’AI: squadre esterne e multi-stakeholder

In che modo possiamo massimizzare i benefici del red teaming nell’AI? Le due parole chiave sono indipendenza e multidisciplinarietà. Quando si tratta di sistemi di AI ad uso generale come ad esempio i LLM, che saranno utilizzati da una molteplicità di persone per una varietà di scopi, i red team esterni possono offrire prospettive uniche che potrebbero sfuggire a un team interno. Mentre un red team interno potrebbe concentrarsi principalmente su bug e vulnerabilità nel codice, un team esterno può considerare le implicazioni più ampie dell’uso improprio dell’AI, dalle conseguenze etiche agli impatti sociali. Ecco perché i red team dell’AI dovranno includere non solo esperti di sicurezza informatica, ma anche psicologi, sociologi, giuristi… più prospettive diverse ci sono, più sarà completo il risultato degli stress-test.

Ma l’indipendenza e la molteplicità di vedute non basta. Servono anche standard e linee guida condivise per assicurare che il red teaming dell’AI sia condotto in modo etico e sistematico. È qui che entrano in gioco organizzazioni internazionali e di settore, ai quali dovrà essere dato il compito di sviluppare framework per guidare le aziende in questo processo. Negli Stati Uniti il NIST, con il suo AI Safety Institute, se ne sta già occupando.

Non dimentichiamo, tuttavia, che il red teaming è solo una parte del puzzle. Per rendere l’AI davvero sicura dobbiamo combinarlo con altre tecniche, come i test automatici e le revisioni periodiche del codice, oltre che spingere il più possibile affinché anche il mondo dell’intelligenza artificiale adotti il paradigma della security by design, oggi più uno slogan che un vero proposito. Infine – ma questo è già uno dei temi più sollecitati del momento – dobbiamo promuovere la collaborazione tra industria, regolatori e accademia per creare un quadro normativo che incoraggi l’innovazione responsabile. In altre parole, gli sforzi e le risorse destinate a rendere l’AI più sicura devono essere commisurati alla portata e all’impatto di questa tecnologia sulla società.

Guardando al futuro, il red teaming diventerà sempre più cruciale man mano che l’AI si fa più potente e pervasiva. Potremmo persino vedere l’emergere di AI progettate specificamente per il red teaming. E con l’aumento della consapevolezza, anche le startup e le PMI dell’AI inizieranno ad abbracciare questa pratica.

Conclusioni

L’intelligenza artificiale sta ridefinendo il nostro mondo a una velocità vertiginosa. Ma mentre corriamo verso un futuro plasmato dall’AI, non possiamo permetterci di trascurare la questione della sicurezza e dell’affidabilità. Il red teaming, con il suo approccio proattivo e multidisciplinare, emerge come uno strumento indispensabile in questo viaggio.

Non sarà un percorso facile poiché le sfide poste dall’AI sono complesse e in continua evoluzione. Il red teaming, poi, non è una bacchetta magica, ma semplicemente un passo nella giusta direzione. Un modo per anticipare i pericoli e agire preventivamente, per costruire la fiducia in un mondo che si affiderà con crescente insistenza a modelli di machine learning sempre più veloci, complessi e opachi.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.