Possiamo lasciare all’intelligenza artificiale il controllo della risposta nucleare?

Una strategia militare, riferita in particolare alla guerra nucleare, prevede una risposta automatica in caso di primo attacco nemico (‘first strike’). Tale risposta (‘second strike’) verrebbe attivata automaticamente nel caso in cui l’attacco nemico avesse annientato la leadership politica e militare. In gergo si chiama “fail deadly” o “uomo morto”.

In seno alla comunità militare USA sta nascendo nuovamente una discussione se dotarsi o meno di tale sistema, anche alla luce dei progressi compiuti dalla Russia con le sue armi ipersoniche, che lasciano agli Stati Uniti solo 6 minuti di tempo (dal lancio all’esplosione) per decidere cosa fare. C’è chi dice che 6 minuti siano troppo pochi, e che quindi bisognerebbe dotarsi di programmi basati sull’intelligenza artificiale che aiutino a decidere le misure più appropriate nel più breve tempo possibile.

Nel caso la leadership umana non fosse disponibile, l’intelligenza artificiale potrebbe anche essere lasciata sola a decidere la rappresaglia nucleare. Un “dispositivo dell’uomo morto” in chiave moderna, che spaventa molti ma che inizia a essere visto come valida alternativa al non fare nulla.

In ambito militare mi sembra si stia guardando all’intelligenza artificiale non solo come un modo per agevolare il lavoro delle truppe o per ottenere risparmi nella logistica, ma anche per demandare agli algoritmi decisioni spesso controverse.

Qualche mese fa mi trovavo a una cena con diverso personale militare, e arrivato puntualmente l’argomento dell’intelligenza artificiale un ufficiale straniero mi disse che la tendenza era quella di inserire processi decisionali autonomi nelle armi solo dentro aree geografiche ben definite. Per fare un esempio, se prima lanciavi un missile verso un obiettivo e quello — facendo il suo lavoro di missile — arrivato all’obiettivo esplodeva, ora si sta pensando di dotare il missile di un suo “cervello” autonomo: arrivato all’obiettivo, e solo nell’area geografica che delimita l’obiettivo, il missile compie una serie di (velocissime) considerazioni addizionali che lo portano a decidere autonomamente se esplodere o meno.

Sempre per proseguire l’esempio (e qui sto ipotizzando io), se il missile nota sul posto dei bambini potrebbe “decidere” di non esplodere. In questo caso è un bene che la cosiddetta arma autonoma sia andata a sostituire l’arma stupida che invece sarebbe esplosa e basta.

Ovviamente messo così sembra un cambiamento vantaggioso, visto che l’arma compie un ultimo controllo prima di radere al suolo l’obiettivo, a tutto vantaggio della popolazione e per scongiurare morti civili. Vista da quest’ottica l’idea di autorizzare l’uso di armi autonome (che siano però autonome solo vicino al loro target) sembrerebbe un netto miglioramento rispetto al passato.

In pratica però dobbiamo sempre prendere in considerazione diversi problemi, fra cui l’interazione uomo-macchina, in particolar modo i cambiamenti comportamentali dell’uomo a seguito di uno sbilanciamento decisionale a favore delle macchine. In altre parole, se oggi posso immaginare che l’ordine di lanciare un attacco verso un luogo potenzialmente civile sia dato solo dopo innumerevoli controlli e con mille attenzioni, un domani — quando i missili decideranno da soli se esplodere o meno — questi potranno essere lanciati con molta più disinvoltura, poiché gli operatori avranno la possibilità di accollare la responsabilità di eventuali errori agli algoritmi.

Ricordiamo che nel 1983 i satelliti sovietici scambiarono i riflessi del sole su nuvole ad alta quota come dei missili balistici americani, segnalando un attacco nucleare che in realtà non stava avvenendo. Solo la presenza di spirito dell’ufficiale sovietico Stanislav Petrov — che decise di seguire la sua “intelligenza umana” anziché le indicazioni dei sistemi automatici — scongiurò la risposta di Mosca a un attacco inesistente, e con sé una possibile guerra nucleare.

Ma quella era un’epoca in cui dei computer ancora ci si fidava poco. Oggi lo “scaricabarile tecnologico” è una eventualità tutt’altro che remota, verosimile a tutti i livelli della catena di comando, e da tenere presente quando gli strateghi prepareranno i passi procedurali uomo-IA all’interno di una risposta militare. A maggior ragione se di tipo nucleare.

Per approfondire: America needs a “dead hand”

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.