Importanti misure sull’AI nella legge finanziaria della Difesa USA

Cyber war

Il National Defense Authorization Act (NDAA) statunitense è la legge federale che determina il budget e le spese della Difesa USA. Si tratta di una legge emanata ogni anno, ovviamente nella sua versione aggiornata, che per le sue implicazioni è considerata troppo importante da rifiutare. Basti pensare che il Congresso USA è arrivato ad annullare il veto messo dal presidente Trump (pare che vi fossero alcuni passaggi politici che il presidente non approvava), una mossa senza precedenti per l’attuale amministrazione.

La legge per il 2021 contiene delle novità importanti per quanto riguarda l’adozione, lo sviluppo e l’acquisizione di tecnologie di intelligenza artificiale da parte del Pentagono. Tra queste disposizioni si può evidenziare la creazione del National Artificial Intelligence Initiative Office sotto il controllo della Casa Bianca, che potrà disporre che la Difesa statunitense acquisisca tecnologie AI sviluppate tenendo in considerazione questioni etiche, e l’istituzione di un National Research Cloud che metta a disposizione dei ricercatori non solo dataset pubblici robusti, ma anche risorse computazionali al passo con le richieste delle reti neurali moderne.

Lo Stanford Institute for Human-Centered Artificial Intelligence ha passato in rassegna tutti gli interventi relativi all’AI contenuti nelle 4.517 pagine della legge, che andiamo a riassumere.

In questo articolo analizziamo le misure di esclusiva pertinenza militare. Il NDAA, infatti, essendo paragonabile a una nostra “finanziaria”, viene preso d’assalto anche per leggi che di militare non hanno nulla e che vedremo in un prossimo articolo.

Le prime tre riguardano il Joint Artificial Intelligence Center (JAIC) del Pentagono, una sotto-divisione delle forze armate USA creata nel 2018 per accelerare l’adozione dell’AI sul campo di battaglia. Da notare che solo pochi mesi fa il JAIC ha ottenuto il via libera per ingaggiare l’azienda di consulenza Booz Allen Hamilton, pagandola 800 milioni di dollari in 5 anni, per lo sviluppo di tecnologie AI da usare in ambito militare.

Si inizia con il Titolo II, sezione 231, che apporta modifiche al rapporto semestrale sul JAIC. Tale rapporto in futuro dovrà includere informazioni su come il suo operato contribuisca allo sviluppo di standard nel settore dell’intelligenza artificiale e i modi con cui il JAIC collabora con le agenzie interne ed esterne al Pentagono, nonché con la intelligence community (con questo si intendono tutte le agenzie di intelligence federali) per lo sviluppo di detti standard. Il rapporto dovrà inoltre riferire sullo stato del personale militare in servizio attivo assegnato al JAIC.

La sezione successiva (Titolo II, sezione 232) è un passaggio fondamentale poiché modifica la struttura organizzativa del JAIC ponendo il centro direttamente sotto il Vice Segretario della Difesa anziché il Chief Information Officer (CIO) del Pentagono. Si tratta di una modifica non di poco conto, visto che aumenta considerevolmente l’importanza del JAIC togliendolo da un controllo tutto sommato “tecnico”, come quello che poteva operare il CIO, per portarlo alle dipendenze di un ruolo molto più senior (oltre che politico). Questo conferma la visione strategica che il Pentagono sta adottando per l’intelligenza artificiale, che consentirà ai vertici della Difesa di avere maggiori margini di manovra per quanto riguarda decisioni sul personale di ricerca, sviluppo e approvvigionamento del centro. La disposizione pone inoltre l’accento sull’acquisizione e lo sviluppo di tecnologie di AI “mature” da parte del JAIC.

L’ultima disposizione che concerne direttamente il JAIC è presente sempre nel Titolo II, sezione 233, e affianca al centro un comitato di consulenti esterni affinché questi forniscano consulenza strategica indipendente, offrendo al contempo le loro competenze tecniche al Segretario e al Direttore del JAIC. Questo comitato condurrà inoltre studi di ampio respiro sull’AI e aiuterà la leadership del Pentagono nello sviluppo di una strategia sull’approvvigionamento di hardware specifico per l’AI, oltre che su questioni relative alla supply chain, alle assunzioni di personale qualificato e all’etica. Il consiglio sarà nominato dal Segretario del JAIC e sarà composto da esperti provenienti dal mondo accademico e dal settore privato.

La seguente sezione, 234, chiede che il Segretario alla Difesa usufruisca dell’intelligenza artificiale, individuando come minimo cinque casi d’uso di sistemi AI già esistenti, per impiegarli a sostegno di una migliore gestione delle funzioni di acquisizione, di gestione del personale, di revisione contabile o di amministrazione finanziaria. Il tutto dovrà essere coerente con le riforme della National Defense Strategy (la Strategia di Difesa Nazionale). Inoltre, il Segretario della Difesa dovrà condurre attività pilota di sviluppo tecnologico e di prototipazione, facendo leva sulle tecnologie e sui sistemi già disponibili in commercio, per dimostrare che le nuove funzioni dell’intelligenza artificiale sono in grado di supportare i casi d’uso individuati.

Particolarmente importante la sezione 235, sempre del Titolo II, che dà al Segretario della Difesa 180 giorni di tempo per valutare se il Pentagono sia in grado di garantire che le tecnologie di intelligenza artificiale da esso acquisite sono sviluppate in modo etico e responsabile. Da notare che non si chiede al Dipartimento della Difesa di usare solo tecnologie AI etiche, ma di determinare se i militari abbiano le risorse necessarie e le competenze sufficienti (si considerano anche le consulenze esterne) per condurre tale analisi. Oltre a determinare come il Pentagono possa implementare nel modo più efficace gli standard etici di AI nei processi di acquisizione e nelle catene di fornitura, il Segretario dovrà fornire agli appositi comitati del Congresso un briefing sui risultati di questa analisi entro 30 giorni dal suo completamento.

La sezione 236 dà vita allo “Steering committee on emerging technology and national security threats” (Comitato direttivo sulle tecnologie emergenti e sulle minacce alla sicurezza nazionale), istituito dal Segretario della Difesa, che sviluppi una strategia per aiutare a mantenere la superiorità tecnologica delle forze armate degli Stati Uniti, come delineato nella National Defense Strategy. Il comitato fornirà allo stesso Segretario della Difesa raccomandazioni in merito alla strategia che svilupperà, sulle misure da adottare per affrontare le minacce identificate e su eventuali modifiche alla Defense Planning Guidance (una guida che illustra gli obiettivi e le priorità della Difesa).

L’ultima disposizione che interessa l’uso delle tecnologie di intelligenza artificiale per l’apparato militare riguarda i processi di assunzione diretta dei professionisti AI, dei data scientist e degli sviluppatori software (Titolo XVII, sezione 1751). La legge darebbe al Segretario della Difesa 180 giorni per rivedere le linee guida sull’uso dei processi di assunzione diretta dei lavoratori nei ruoli menzionati sopra, nonché per rilasciare nuove linee guida ai dirigenti affinché si assumano maggiori responsabilità riguardo ai risultati derivanti dall’assunzione di personale civile.

Dagli articoli fin qui analizzati si può evincere una crescente attenzione della Difesa USA verso l’intelligenza artificiale, intesa come elemento strategico che abbraccia un insieme di discipline e competenze. Lo si nota anzitutto nell’assegnazione al centro di riferimento del Pentagono di una vera e propria “promozione sul campo”, affidandolo alle dipendenze del Vice Segretario della Difesa. Poi – e non è affatto scontato – incentivando lo sviluppo e l’acquisizione di tecnologie AI etiche e responsabili da parte delle forze armate, chiedendo peraltro che il personale destinato a determinare la sussistenza di tali requisiti abbia competenze “etiche, legali e tecniche”.

Nella strategia militare USA – almeno per quanto concerne la supervisione politica – si comincia a intravedere un cambio di passo sull’intelligenza artificiale, che da mero vantaggio competitivo (utile magari per potenziare o velocizzare certe procedure) inizia a essere considerata come un framework pervasivo che condizionerà tutti i livelli del comparto Difesa. Da qui una maggiore attenzione per il giusto inquadramento politico, i collegamenti con il settore accademico e con quello privato, oltre a un crescente interesse verso l’approccio etico e responsabile.

Sono partner e fondatore di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti l'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI), della Association for Computing Machinery (ACM) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.