Il Pentagono adotta principi etici per l’intelligenza artificiale, anche per usi bellici

Pentagono

Le decisioni prese dai sistemi di intelligenza artificiale usati per scopi bellici dovrebbero essere “tracciabili” e “governabili”, queste le indicazioni del Joint Artificial Intelligence Center del Pentagono.

Se i sistemi automatizzati danno dimostrazione di comportamenti inattesi “deve esserci un modo per disimpegnarli o disattivarli”, queste le parole del Lt. Gen. Jack Shanahan, direttore del centro che ha pubblicato i nuovi principi etici sull’uso dei sistemi di intelligenza artificiale. Tali principi prevedono che le persone “esercitino livelli appropriati di giudizio e cura” nell’implementazione e utilizzo dei sistemi di intelligenza artificiale, come ad esempio quelli che scansionano le immagini aeree per cercare obiettivi.

Una direttiva militare del 2012 prevede che gli umani detengano il controllo delle armi automatizzate, in altre parole la decisione se fare fuoco o meno dovrà spettare a una persona. Tuttavia questo non comprende gli usi più ampi dell’AI, che possono comunque influire su decisioni belliche. Come ad esempio un sistema automatizzato che da un’immagine aerea confonde un edificio civile per una base militare. Davvero l’umano che dovrà dare l’ok all’azione cinetica ripercorrerà a ritroso tutte le decisioni dei sistemi artificiali per assicurarsi che siano corrette?

Probabilmente no. Per questo motivo i principi etici del Department of Defense si applicheranno sia al software AI usato in combattimento sia a quello usato per altri scopi, come la raccolta di informazioni e sorveglianza, oppure gli algoritmi che ottimizzano gli interventi manutenzione su navi o aerei.

In tutto i principi da seguire sono cinque:

Responsabile. Il personale umano sarà responsabile dello sviluppo, della distribuzione e dell’uso delle tecnologie di intelligenza artificiale.

Equo. Il Pentagono ridurrà al minimo il bias dell’AI.

Tracciabile. Gli algoritmi di intelligenza artificiale saranno sviluppati in modo tale che il personale umano abbia una conoscenza adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi. In pratica si cercherà di evitare il più possibile il fenomeno della “black box”, ovvero dell’intelligenza artificiale che giunge a conclusioni difficilmente spiegabili.

Affidabile. L’AI usata dal Pentagono avrà compiti ben specifici e definiti, la sua sicurezza sarà sottoposta a test.

Governabile. Gli esseri umani saranno in grado di spegnere o disattivare l’AI se noteranno comportamenti inattesi.

L’approccio segue le raccomandazioni formulate lo scorso anno dal Defense Innovation Board, un gruppo consultivo guidato dall’ex CEO di Google Eric Schmidt.

Per approfondire: The Pentagon now has 5 principles for artificial intelligence

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.