Da DeepMind un framework per gestire i rischi dell’intelligenza artificiale del futuro

AIsec14, by synthage

DeepMind, l’azienda di Google che si occupa di ricerca fondamentale sull’intelligenza artificiale, ha annunciato un insieme di protocolli per identificare e mitigare i potenziali pericoli dei futuri modelli di AI molto avanzati, che potrebbero avere un’autonomia d’azione quasi umana o capacità informatiche sofisticate.

Il Frontier Safety Framework è un quadro di riferimento per la sicurezza dell’AI di frontiera. Si tratta di una serie di linee guida e processi per cercare di individuare e gestire in anticipo i rischi che potrebbero derivare in futuro da modelli di AI con capacità molto elevate, più avanzate di quelle attuali.

Il nuovo framework si concentra in particolare sui rischi di danni gravi che potrebbero scaturire da abilità fuori dal comune a livello di singolo modello di AI, per esempio un’eccezionale autonomia nel prendere decisioni e agire senza supervisione umana, o capacità informatiche paragonabili o superiori a quelle di hacker esperti. Queste linee guida vanno ad aggiungersi alle altre misure di sicurezza e uso responsabile dell’AI che Google e DeepMind già adottano.

Il framework, almeno inizialmente, si basa su tre elementi principali:

  1. Definire i livelli di capacità critici (CCL) di un modello di AI, cioè le soglie oltre le quali potrebbe causare danni seri, analizzando i modi in cui potrebbe agire negativamente in settori ad alto rischio.
  2. Testare regolarmente i modelli più avanzati per verificare se e quando raggiungono questi livelli critici, con una serie di valutazioni di “allarme preventivo”.
  3. Applicare misure di mitigazione dei rischi quando un modello supera le soglie di allarme, considerando sia i benefici che i rischi e come verrà utilizzato. Queste misure riguardano soprattutto la sicurezza per evitare la diffusione incontrollata dei modelli e le limitazioni al loro utilizzo per prevenirne usi impropri.

I settori considerati più a rischio al momento sono l’autonomia dei sistemi, la biosicurezza, la cybersecurity e lo sviluppo di nuovi modelli di AI. Sono previsti diversi livelli di intervento, da una maggiore protezione dei modelli a restrizioni sul loro utilizzo, che però potrebbero anche rallentare l’innovazione in questo campo.

L’obiettivo dichiarato da DeepMind è bilanciare la riduzione dei rischi con i benefici dello sviluppo dell’AI. Il framework per ora è in fase esplorativa e si basa su conoscenze scientifiche ancora in evoluzione. Un team dedicato di DeepMind sta portando avanti la ricerca necessaria, ad esempio per creare strumenti di valutazione delle capacità più rischiose dei modelli di AI.

L’azienda punta ad avere una prima versione completa del framework operativa entro l’inizio del 2025 e si impegna ad aggiornarlo e affinarlo nel tempo, coerentemente con i principi di Google sull’uso etico dell’AI. Sarà fondamentale, scrive DeepMind, collaborare con il resto dell’industria tecnologica, il mondo della ricerca e i governi per sviluppare standard e buone pratiche condivise per garantire la sicurezza dei modelli di AI del futuro.

Il Frontier Safety Framework rappresenta quindi un tentativo ambizioso di affrontare in modo sistematico e lungimirante i potenziali pericoli dell’intelligenza artificiale sempre più potente ed autonoma, con l’obiettivo di metterne a frutto le grandi potenzialità positive riducendo al minimo i rischi. Da nessuna parte nel report tecnico o nel post si fa accenno all’AGI, l’intelligenza artificiale generale, ma è facile ipotizzare che i ricercatori di DeepMind si stiano preparando a questa eventualità.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.