Il Parlamento europeo approva un testo su AI e diritti umani, armi autonome, deepfakes

Unione Europea

La scorsa settimana il Parlamento europeo ha adottato un rapporto sull’intelligenza artificiale, presentato dal francese Gilles Lebreton, che sottolinea la funzione di controllo e supervisione degli esseri umani, che devono essere in ogni momento in grado di correggere o disabilitare i sistemi AI in caso di comportamento imprevisto.

Il rapporto, adottato mercoledì con 364 voti a favore, 274 contro e 52 astensioni, chiede che si stabilisca un quadro giuridico dell’UE sull’intelligenza artificiale, con definizioni e principi etici, compreso il suo uso militare. Il testo chiede inoltre all’UE e ai suoi stati membri di garantire che l’IA e le tecnologie correlate siano destinate al servizio dell’umanità e del bene comune.

I parlamentari europei sottolineano che la dignità umana e i diritti umani devono essere rispettati in tutte le attività di difesa dell’UE. I sistemi abilitati dall’AI devono permettere agli esseri umani di esercitare un controllo significativo, in modo da potersi assumere la responsabilità e l’obbligo di rendere conto del loro utilizzo.

Il testo affronta anche la questione delle armi autonome, o LAWS (lethal autonomous weapon systems). L’uso di tali sistemi d’arma solleva questioni etiche e legali fondamentali sul controllo umano, dicono i deputati, ribadendo la loro richiesta di una strategia dell’UE per proibirli così come il divieto dei cosiddetti “robot killer”. La decisione di selezionare un bersaglio e intraprendere un’azione letale utilizzando un sistema d’arma autonomo deve sempre essere presa da un uomo che esercita un controllo e un giudizio significativi, in linea con i principi di proporzionalità e necessità.

In realtà, e apro una parentesi su questo punto, la situazione è più complessa di quel che sembra. Elementi di autonomia sono presenti in molte procedure militari, dal targeting automatico fino alla “decisione” se esplodere o meno. Affermare che debba essere una persona a prendere la decisione di sparare è limitativo e non tiene conto di molti altri livelli di automazione, come ad esempio tutto il processo decisionale che ha portato alla scelta ultima se sparare o meno. Già quei passaggi potrebbero condizionare fortemente la decisione dell’essere umano.

Inoltre, dopo la “pressione del tasto” a opera dell’essere umano in certi casi possono trascorrere molti minuti (pensiamo a un missile che vola per raggiungere il bersaglio), durante i quali automatizzare la decisione se esplodere o meno basandola su determinati parametri (ad esempio il mutamento di determinate condizioni al suolo, come la presenza di movimento) potrebbe addirittura salvare vite.

Insomma, è facile parlare di “human-in-the-loop”, molto meno facile stabilire dove e come mettere questo “human”. Il discorso è complesso e andrebbe affrontato senza pregiudizi.

Il testo prosegue con richieste riguardanti l’uso dell’intelligenza artificiale nel settore pubblico, in particolare nella sanità e nella giustizia. I deputati affermano che l’AI non dovrebbe sostituire il contatto umano (quindi aboliamo i chatbot?) o portare alla discriminazione. Inoltre, le persone dovrebbero sempre essere informate se sono soggette a una decisione basata sull’AI e avere la possibilità di fare ricorso.

Il documento affronta anche la questione dei deepfakes e della sorveglianza di massa. Gli eurodeputati mettono in guardia dalle minacce ai diritti umani e alla sovranità dello stato derivanti dall’uso delle tecnologie AI nella sorveglianza di massa. Essi sollevano infine preoccupazioni per le “tecnologie deepfake” che hanno il potenziale per “destabilizzare i paesi, diffondere disinformazione e influenzare le elezioni”. I creatori dovrebbero essere obbligati a etichettare tale materiale come “non originale” e si dovrebbe fare più ricerca sulla tecnologia per contrastare questo fenomeno.

Il testo completo approvato dal Parlamento europeo è disponibile qui: Intelligenza artificiale: questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale

Sono partner e fondatore di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti l'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI), della Association for Computing Machinery (ACM) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.