Il Parlamento europeo approva un testo su AI e diritti umani, armi autonome, deepfakes

Unione Europea

La scorsa settimana il Parlamento europeo ha adottato un rapporto sull’intelligenza artificiale, presentato dal francese Gilles Lebreton, che sottolinea la funzione di controllo e supervisione degli esseri umani, che devono essere in ogni momento in grado di correggere o disabilitare i sistemi AI in caso di comportamento imprevisto.

Il rapporto, adottato mercoledì con 364 voti a favore, 274 contro e 52 astensioni, chiede che si stabilisca un quadro giuridico dell’UE sull’intelligenza artificiale, con definizioni e principi etici, compreso il suo uso militare. Il testo chiede inoltre all’UE e ai suoi stati membri di garantire che l’IA e le tecnologie correlate siano destinate al servizio dell’umanità e del bene comune.

I parlamentari europei sottolineano che la dignità umana e i diritti umani devono essere rispettati in tutte le attività di difesa dell’UE. I sistemi abilitati dall’AI devono permettere agli esseri umani di esercitare un controllo significativo, in modo da potersi assumere la responsabilità e l’obbligo di rendere conto del loro utilizzo.

Il testo affronta anche la questione delle armi autonome, o LAWS (lethal autonomous weapon systems). L’uso di tali sistemi d’arma solleva questioni etiche e legali fondamentali sul controllo umano, dicono i deputati, ribadendo la loro richiesta di una strategia dell’UE per proibirli così come il divieto dei cosiddetti “robot killer”. La decisione di selezionare un bersaglio e intraprendere un’azione letale utilizzando un sistema d’arma autonomo deve sempre essere presa da un uomo che esercita un controllo e un giudizio significativi, in linea con i principi di proporzionalità e necessità.

In realtà, e apro una parentesi su questo punto, la situazione è più complessa di quel che sembra. Elementi di autonomia sono presenti in molte procedure militari, dal targeting automatico fino alla “decisione” se esplodere o meno. Affermare che debba essere una persona a prendere la decisione di sparare è limitativo e non tiene conto di molti altri livelli di automazione, come ad esempio tutto il processo decisionale che ha portato alla scelta ultima se sparare o meno. Già quei passaggi potrebbero condizionare fortemente la decisione dell’essere umano.

Inoltre, dopo la “pressione del tasto” a opera dell’essere umano in certi casi possono trascorrere molti minuti (pensiamo a un missile che vola per raggiungere il bersaglio), durante i quali automatizzare la decisione se esplodere o meno basandola su determinati parametri (ad esempio il mutamento di determinate condizioni al suolo, come la presenza di movimento) potrebbe addirittura salvare vite.

Insomma, è facile parlare di “human-in-the-loop”, molto meno facile stabilire dove e come mettere questo “human”. Il discorso è complesso e andrebbe affrontato senza pregiudizi.

Il testo prosegue con richieste riguardanti l’uso dell’intelligenza artificiale nel settore pubblico, in particolare nella sanità e nella giustizia. I deputati affermano che l’AI non dovrebbe sostituire il contatto umano (quindi aboliamo i chatbot?) o portare alla discriminazione. Inoltre, le persone dovrebbero sempre essere informate se sono soggette a una decisione basata sull’AI e avere la possibilità di fare ricorso.

Il documento affronta anche la questione dei deepfakes e della sorveglianza di massa. Gli eurodeputati mettono in guardia dalle minacce ai diritti umani e alla sovranità dello stato derivanti dall’uso delle tecnologie AI nella sorveglianza di massa. Essi sollevano infine preoccupazioni per le “tecnologie deepfake” che hanno il potenziale per “destabilizzare i paesi, diffondere disinformazione e influenzare le elezioni”. I creatori dovrebbero essere obbligati a etichettare tale materiale come “non originale” e si dovrebbe fare più ricerca sulla tecnologia per contrastare questo fenomeno.

Il testo completo approvato dal Parlamento europeo è disponibile qui: Intelligenza artificiale: questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.