
La scorsa settimana il Parlamento europeo ha adottato un rapporto sull’intelligenza artificiale, presentato dal francese Gilles Lebreton, che sottolinea la funzione di controllo e supervisione degli esseri umani, che devono essere in ogni momento in grado di correggere o disabilitare i sistemi AI in caso di comportamento imprevisto.
Il rapporto, adottato mercoledì con 364 voti a favore, 274 contro e 52 astensioni, chiede che si stabilisca un quadro giuridico dell’UE sull’intelligenza artificiale, con definizioni e principi etici, compreso il suo uso militare. Il testo chiede inoltre all’UE e ai suoi stati membri di garantire che l’IA e le tecnologie correlate siano destinate al servizio dell’umanità e del bene comune.
I parlamentari europei sottolineano che la dignità umana e i diritti umani devono essere rispettati in tutte le attività di difesa dell’UE. I sistemi abilitati dall’AI devono permettere agli esseri umani di esercitare un controllo significativo, in modo da potersi assumere la responsabilità e l’obbligo di rendere conto del loro utilizzo.
Il testo affronta anche la questione delle armi autonome, o LAWS (lethal autonomous weapon systems). L’uso di tali sistemi d’arma solleva questioni etiche e legali fondamentali sul controllo umano, dicono i deputati, ribadendo la loro richiesta di una strategia dell’UE per proibirli così come il divieto dei cosiddetti “robot killer”. La decisione di selezionare un bersaglio e intraprendere un’azione letale utilizzando un sistema d’arma autonomo deve sempre essere presa da un uomo che esercita un controllo e un giudizio significativi, in linea con i principi di proporzionalità e necessità.
In realtà, e apro una parentesi su questo punto, la situazione è più complessa di quel che sembra. Elementi di autonomia sono presenti in molte procedure militari, dal targeting automatico fino alla “decisione” se esplodere o meno. Affermare che debba essere una persona a prendere la decisione di sparare è limitativo e non tiene conto di molti altri livelli di automazione, come ad esempio tutto il processo decisionale che ha portato alla scelta ultima se sparare o meno. Già quei passaggi potrebbero condizionare fortemente la decisione dell’essere umano.
Inoltre, dopo la “pressione del tasto” a opera dell’essere umano in certi casi possono trascorrere molti minuti (pensiamo a un missile che vola per raggiungere il bersaglio), durante i quali automatizzare la decisione se esplodere o meno basandola su determinati parametri (ad esempio il mutamento di determinate condizioni al suolo, come la presenza di movimento) potrebbe addirittura salvare vite.
Insomma, è facile parlare di “human-in-the-loop”, molto meno facile stabilire dove e come mettere questo “human”. Il discorso è complesso e andrebbe affrontato senza pregiudizi.
Il testo prosegue con richieste riguardanti l’uso dell’intelligenza artificiale nel settore pubblico, in particolare nella sanità e nella giustizia. I deputati affermano che l’AI non dovrebbe sostituire il contatto umano (quindi aboliamo i chatbot?) o portare alla discriminazione. Inoltre, le persone dovrebbero sempre essere informate se sono soggette a una decisione basata sull’AI e avere la possibilità di fare ricorso.
Il documento affronta anche la questione dei deepfakes e della sorveglianza di massa. Gli eurodeputati mettono in guardia dalle minacce ai diritti umani e alla sovranità dello stato derivanti dall’uso delle tecnologie AI nella sorveglianza di massa. Essi sollevano infine preoccupazioni per le “tecnologie deepfake” che hanno il potenziale per “destabilizzare i paesi, diffondere disinformazione e influenzare le elezioni”. I creatori dovrebbero essere obbligati a etichettare tale materiale come “non originale” e si dovrebbe fare più ricerca sulla tecnologia per contrastare questo fenomeno.
Il testo completo approvato dal Parlamento europeo è disponibile qui: Intelligenza artificiale: questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale