Il Pentagono adotta principi etici per l’intelligenza artificiale, anche per usi bellici

Pentagono

Le decisioni prese dai sistemi di intelligenza artificiale usati per scopi bellici dovrebbero essere “tracciabili” e “governabili”, queste le indicazioni del Joint Artificial Intelligence Center del Pentagono.

Se i sistemi automatizzati danno dimostrazione di comportamenti inattesi “deve esserci un modo per disimpegnarli o disattivarli”, queste le parole del Lt. Gen. Jack Shanahan, direttore del centro che ha pubblicato i nuovi principi etici sull’uso dei sistemi di intelligenza artificiale. Tali principi prevedono che le persone “esercitino livelli appropriati di giudizio e cura” nell’implementazione e utilizzo dei sistemi di intelligenza artificiale, come ad esempio quelli che scansionano le immagini aeree per cercare obiettivi.

Una direttiva militare del 2012 prevede che gli umani detengano il controllo delle armi automatizzate, in altre parole la decisione se fare fuoco o meno dovrà spettare a una persona. Tuttavia questo non comprende gli usi più ampi dell’AI, che possono comunque influire su decisioni belliche. Come ad esempio un sistema automatizzato che da un’immagine aerea confonde un edificio civile per una base militare. Davvero l’umano che dovrà dare l’ok all’azione cinetica ripercorrerà a ritroso tutte le decisioni dei sistemi artificiali per assicurarsi che siano corrette?

Probabilmente no. Per questo motivo i principi etici del Department of Defense si applicheranno sia al software AI usato in combattimento sia a quello usato per altri scopi, come la raccolta di informazioni e sorveglianza, oppure gli algoritmi che ottimizzano gli interventi manutenzione su navi o aerei.

In tutto i principi da seguire sono cinque:

Responsabile. Il personale umano sarà responsabile dello sviluppo, della distribuzione e dell’uso delle tecnologie di intelligenza artificiale.

Equo. Il Pentagono ridurrà al minimo il bias dell’AI.

Tracciabile. Gli algoritmi di intelligenza artificiale saranno sviluppati in modo tale che il personale umano abbia una conoscenza adeguata della tecnologia, dei processi di sviluppo e dei metodi operativi. In pratica si cercherà di evitare il più possibile il fenomeno della “black box”, ovvero dell’intelligenza artificiale che giunge a conclusioni difficilmente spiegabili.

Affidabile. L’AI usata dal Pentagono avrà compiti ben specifici e definiti, la sua sicurezza sarà sottoposta a test.

Governabile. Gli esseri umani saranno in grado di spegnere o disattivare l’AI se noteranno comportamenti inattesi.

L’approccio segue le raccomandazioni formulate lo scorso anno dal Defense Innovation Board, un gruppo consultivo guidato dall’ex CEO di Google Eric Schmidt.

Per approfondire: The Pentagon now has 5 principles for artificial intelligence

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.