Armi autonome in Libia, come stanno davvero le cose?

Il drone turco Kargu

In questi giorni si parla insistentemente di un’azione militare, avvenuta in Libia nella primavera dello scorso anno, che avrebbe visto per la prima volta delle armi autonome uccidere esseri umani.

Tutto è nato da un rapporto di un team indipendente incaricato dalle Nazioni Unite di indagare sugli scontri in Libia. In particolare due paragrafi, a pagina 17, descrivendo le attività militari dopo il 27 marzo del 2020, così recitano:

“Logistics convoys and retreating Hafter Affiliated Forces (HAF) were subsequently hunted down and remotely engaged by the unmanned combat aerial vehicles or the lethal autonomous weapons systems such as the STM Kargu-2 (see annex 30) and other loitering munitions. The lethal autonomous weapons systems were programmed to attack targets without requiring data connectivity between the operator and the munition: in effect, a true “fire, forget and find” capability.”
[…]
“Once in retreat, [HAF] were subject to continual harassment from the unmanned combat aerial vehicles and lethal autonomous weapons systems, which were proving to be a highly effective combination in defeating the United Arab Emirates-delivered Pantsir S-1 surface-to air missile systems. These suffered significant casualties, even when used in a passive electro-optical role to avoid Government of National Accord Affiliated Forces (GNA-AF) jamming. With the Pantsir S-1 threat negated, HAF units had no real protection from remote air attacks.”

Traduzione: I convogli logistici e le forze affiliate ad Haftar (Hafter Affiliated Forces, HAF) in ritirata venivano successivamente inseguiti e ingaggiati a distanza da veicoli aerei da combattimento senza equipaggio o da sistemi d’arma letali autonomi come l’STM Kargu-2 (vedi allegato 30) e altre “munizioni vaganti”. I sistemi d’arma letali autonomi erano programmati per attaccare gli obiettivi senza richiedere connettività dati tra l’operatore e la munizione: a tutti gli effetti, una vera capacità di “sparare, dimenticare e trovare”.
[…]
Una volta in ritirata, [le HAF] erano soggette a continue persecuzioni da parte di veicoli aerei da combattimento senza equipaggio e sistemi d’arma letali autonomi, che si stavano dimostrando una combinazione altamente efficace per sconfiggere i sistemi missilistici superficie-aria Pantsir S-1 consegnati dagli Emirati Arabi Uniti. Questi hanno subito perdite significative, anche quando sono stati utilizzati in un ruolo elettro-ottico passivo per evitare il jamming delle Forze Affiliate al Governo di Accordo Nazionale (GNA-AF).

La traduzione è un po’ macchinosa, ma non ho voluto mettere o togliere parole da quella che è effettivamente una descrizione molto stringata e per certi versi nebulosa dell’accaduto.

La storia avrebbe potuto restare sepolta nelle oltre 500 pagine del rapporto ONU, ma l’uso dei droni Kargu-2 è saltato all’occhio a diversi osservatori, come Zachary Kallenborn, un ricercatore della divisione “armi e tecnologie non convenzionali” del National Consortium for the Study of Terrorism and Responses to Terrorism, che ha scritto un articolo il 20 maggio dove già nel titolo si poneva una domanda e si dava una risposta: Was a flying killer robot used in Libya? Quite possibly

Ma l’eco mediatica è partita il 3 giugno, quando il New York Times ha deciso di amplificare la notizia: A.I. Drone May Have Acted on Its Own in Attacking Fighters, U.N. Says

Tutti a chiedersi, quindi, se davvero in Libia l’anno scorso dei droni turchi abbiano ucciso autonomamente soldati del generale Haftar in ritirata. Il rapporto ONU non lo esplicita, ma lo suggerisce quando dice che le forze di Haftar “hanno subito perdite significative” di fronte agli attacchi dei droni e dei “sistemi d’arma letali autonomi”.

Ma andiamo a vedere più da vicino questo temibile Kargu-2, il drone turco capace di inseguire autonomamente l’obiettivo e distruggerlo senza intervento umano (“fire and forget”). Il drone è fabbricato dalla Savunma Teknolojileri, Mühendislik ve Ticaret A.Ş. (Tecnologie per la difesa, ingegneria e commercio) o STM, un’azienda di Stato turca. Alla pagina prodotto il Kargu viene presentato come un’arma che può funzionare in modalità autonoma, capace di elaborazione delle immagini in tempo reale, in grado di essere utilizzato contro obiettivi statici o in movimento.

Il materiale marketing include un paio di video, di quelli generalmente indirizzati a un pubblico di militari e che molti civili trovano agghiaccianti, dove il sistema d’arma dimostra quanto è bravo a far saltare in aria automezzi o a bucherellare sagome umane.

In questo video si può vedere come il drone sia perfettamente in grado di attaccare la posizione di un’automobile (identificata manualmente da un operatore).

Mentre in quest’altro video, più recente, è possibile vedere come l’esplosione in aria consenta di fare fuori l’obiettivo indicato, assieme a qualche manichino che si trovava evidentemente al posto sbagliato nel momento sbagliato.

Quindi è abbastanza ovvio che il drone in questione possa essere usato, come tanti altri droni del resto, per portare attacchi al nemico. Ma la questione è un’altra: mentre sferravano i loro attacchi, i droni operavano autonomamente o erano guidati da soldati umani? Il rapporto dell’ONU qui è meno vago: I sistemi d’arma letali autonomi erano programmati per attaccare gli obiettivi senza richiedere connettività dati tra l’operatore e la munizione. Quel “erano programmati” lascia intendere che siano stati mandati all’attacco con istruzioni sull’obiettivo, ma senza che l’intenzione di esplodere sia stata confermata da un operatore umano. Armi autonome, dunque.

Ed è qui che si apre il vero vaso di Pandora, quello delle definizioni. Cos’è davvero “autonomia”? Già le mine possono essere considerate armi autonome molto basilari. Oppure le bombe che esplodono in base a determinate condizioni prestabilite, tipo la pressione atmosferica. Andando avanti con la tecnologia, già trent’anni fa esistevano droni in grado di decidere autonomamente se esplodere o meno sull’obiettivo. Di solito per questi casi si porta l’esempio dell’israeliano Harpy, un’arma vagante (datemi una traduzione migliore per loitering munition) in grado di riconoscere le emissioni di un radar e distruggerlo senza il bisogno che vi sia un soldato a puntare l’obiettivo.

Questo tipo di armi, a metà fra un drone e un missile, sono in grado di vagare in aria all’interno di un’area geografica prestabilita anche per molte ore, quindi scendere ed esplodere al verificarsi di determinate condizioni. Nel caso dell’Harpy questa condizione è l’emissione di segnali radar, nel caso del Kargu può essere qualcosa che viene riconosciuto dal sistema di visione artificiale: un mezzo meccanico dalle caratteristiche ben definite, una sagoma umana con un certo colore di divisa, ecc. È per questo che oggi non è facile definire con precisione cosa siano le armi autonome, perché la definizione risente dei problemi che abbiamo nel definire cosa sia o cosa non sia l’intelligenza artificiale. È intelligente un sistema che riesce a discernere segnali radar da altri tipi di segnali radio, e che è in grado di puntare la fonte di tali segnali, scendere ed esplodere per distruggere l’installazione? Nessuno negli anni Novanta considerava l’Harpy un’arma dotata di intelligenza artificiale. Ma se vi sembra intelligenza, allora le armi autonome intelligenti esistono, vengono usate da trent’anni e nessuno le ha mai equiparate a Terminator.

Oppure è la discriminante umana che fa paura? Quindi va bene se un drone punta e distrugge un’installazione, e va male se punta e distrugge un soldato (come se l’installazione radar non avesse persone al suo interno)? Che dire di un drone che punta autonomamente e distrugge solo mezzi meccanici in movimento, che abbiano però una forma ben specifica in modo da colpire solo i carri armati ed evitare i trattori. Sarebbe moralmente accettabile? E qual è il tasso di errore che riusciamo a farci andar bene, un trattore colpito per sbaglio ogni cento carri armati distrutti?

Si fa presto a dire arma autonoma. La realtà della tecnologia bellica è che l’ingegneria degli armamenti ha corso molto in questi decenni, e noi ce ne stiamo accorgendo solo ora perché solo ora iniziamo a intravedere cosa potrebbe portare il futuro, con scenari raccapriccianti di droni che si avvicinano ed esplodono in base a quello che registrano i loro sensori e alle classificazioni che fanno, come ad esempio il colore della pelle o altre caratteristiche della persona (qui c’è un bel cortometraggio non vero ma che illustra dove si potrà arrivare fra pochi anni).

La realtà è che le armi autonome già esistono; la vera novità (e non sono l’unico a pensarlo) è che c’è un rapporto dell’ONU che le ha finalmente descritte con questa definizione.

Naturalmente esistono molte organizzazioni e movimenti che chiedono il divieto dell’uso e della produzione di armi autonome, la più famosa è Stop Killer Robots di Human Rights Watch.

Secondo me però chiedere di vietare le armi autonome tout-court non porterà a nulla (e questa è ovviamente solo la mia opinione) perché l’autonomia è già presente a livelli diversi da moltissimi anni. Le forze armate non avranno intenzione di smantellare armi già acquisite, e per molti è sufficiente che da qualche parte della procedura vi sia una decisione umana, il classico human-in-the-loop (poi bisogna vedere a che punto del loop sta questo human) per evitare di definire un’arma con caratteristiche di autonomia “arma autonoma”.

Questa fra l’altro è proprio la posizione del Governo italiano, che per bocca dell’Amb. Gianfranco Incarnato nel 2018 scriveva (il neretto è mio):

“It is our view that in order to ensure compliance with international humanitarian law, which continues to apply fully to all weapons systems, including the potential development and use of LAWS, it is paramount that the ultimate decision to use lethal force and to produce lethal effects fully remains in the hands of human beings.

Based on the above, we believe that existing automated weapons systems, governed by prescriptive rules and whose functioning is entirely predictable and intended, are not LAWS. Typically, these weapon systems act on the basis of criteria pre-programmed by human operators. Such criteria determine the rules relating to the type of target, length and geographic scope of operation, and modalities of engagement.

Also, weapons systems with some fully autonomous functions are not LAWS. In this regard, it could be useful to separate weapons themselves from the many other functions that the component technologies might be capable of. Those related technologies very often have a dual-use nature. Thus, due attention has to be paid to the need not to hamper progress in civilian research, development and use of these technologies.”

Traduzione: È nostra opinione che al fine di garantire il rispetto del diritto umanitario internazionale, che continua ad applicarsi pienamente a tutti i sistemi di armi, compreso il potenziale sviluppo e l’uso di LAWS (Lethal Autonomous Weapon Systems, sistemi d’arma autonomi letali, n.d.T.), è fondamentale che la decisione finale di utilizzare la forza letale e di produrre effetti letali rimanga completamente nelle mani degli esseri umani.

Sulla base di quanto sopra, riteniamo che i sistemi d’arma automatizzati esistenti, governati da regole prescrittive e il cui funzionamento è interamente prevedibile e previsto, non sono LAWS. Tipicamente, questi sistemi d’arma agiscono sulla base di criteri pre-programmati da operatori umani. Tali criteri determinano le regole relative al tipo di bersaglio, alla durata e alla portata geografica delle operazioni, e alle modalità di ingaggio.

Inoltre, i sistemi d’arma con alcune funzioni completamente autonome non sono LAWS. A questo proposito, potrebbe essere utile separare le armi stesse dalle molte altre funzioni di cui le tecnologie componenti potrebbero essere capaci. Queste tecnologie correlate molto spesso hanno una natura a doppio uso. Pertanto, si deve prestare la dovuta attenzione alla necessità di non ostacolare il progresso nella ricerca civile, lo sviluppo e l’uso di queste tecnologie.

Come vedete, non tutti i governi, incluso quello italiano, sono pronti a considerare le armi autonome come “armi autonome”. La questione potrebbe sembrare di lana caprina, invece fa parte del bagaglio di complessità che portano con sé le nuove tecnologie, non ultima l’intelligenza artificiale.

Quello che si deve fare è decidere con lucidità quale è il livello di autonomia che vogliamo consentire e quale livello invece non vogliamo oltrepassare. Dire semplicemente che va bene se a un certo punto del processo ci sia stato un ordine umano non è sufficiente, del resto anche i droni autonomi turchi sono stati lanciati da un ufficiale: è “l’ultimo miglio” di autonomia che fa la differenza fra la vita e la morte, ed è lì che dovremo concentrarci.

Se l’argomento vi interessa, consiglio due letture di approfondimento:

Uso e sviluppo delle armi autonome. Prospettive per un controllo a livello internazionale, di Natalino Ronzitti dell’Istituto Affari Internazionali – IAI. Il testo è un po’ datato (2018), ma fornisce una panoramica delle prese di posizione dei vari Paesi, inclusa l’Italia.

La questione delle armi letali autonome e le possibili azioni italiane ed europee per un accordo internazionale, scritto nel 2020 da diversi autori afferenti all’Istituto di Ricerche Internazionali Archivio Disarmo e all’Unione degli Scienziati Per Il Disarmo ONLUS (USPID).

Sono partner e fondatore di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti l'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI), della Association for Computing Machinery (ACM) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.