Al Parlamento europeo è iniziata la grande battaglia per l’intelligenza artificiale

Parlamento Europeo

Strasburgo (Contexte): I due co-relatori del Parlamento europeo sulla legge sull’intelligenza artificiale, Dragoș Tudorache (Renew) e Brando Benifei (S&D), cercheranno di far votare la loro relazione in plenaria entro la fine dell’anno. Ma con poche certezze di successo.

I 3.003 emendamenti presentati nel progetto di relazione congiunta promettono lunghi negoziati e un noioso lavoro di compromesso tra i sette gruppi politici e i loro 14 relatori, che provengono da commissioni parlamentari con interessi molto diversi: le commissioni Libertà civili (Libe) e Mercato interno (Imco).

Chi, come Sergey Lagodinsky (Verdi), relatore ombra della Commissione per le libertà civili, è ovviamente “a favore dell’innovazione” promessa dall’IA, ma si batte affinché “questa innovazione dia più potere agli individui e alla società“, dovrà accontentarsi. E accontentare chi, come la liberale Svenja Hahn (Renew), relatrice ombra della Commissione per il mercato interno, vede soprattutto in questo testo “un’enorme opportunità per accelerare l’innovazione” nel continente e quindi mette in guardia contro “la tendenza di alcuni colleghi a regolamentare eccessivamente” senza preoccuparsi dei “costi di conformità“.

Gli emendamenti presentati, spesso contraddittori, sposano queste due tendenze, tipiche della divisione tra sinistra e destra del Parlamento. La prima è sostenuta, con alcune sfumature, dai relatori di S&D, dei Verdi e della Sinistra. La seconda è difesa, quasi all’unisono, dai relatori del PPE e da Svenja Hahn, e tra i due oscilla il cuore di Dragoș Tudorache, che proviene dalle file di Renew e del comitato Libe.

Questo è almeno l’equilibrio che emerge dalla lettura degli emendamenti, soprattutto per quanto riguarda i pochi punti di maggiore contestazione, ovvero il campo di applicazione, i divieti, la classificazione dei sistemi ad alto rischio, le valutazioni e la governance.

Trattare allo stesso modo l’IA a uso generico?

Per quanto riguarda l’ambito di applicazione, innanzitutto i due correlatori ritengono che debba rimanere il più ampio possibile: Brando Benifei e Dragoș Tudorache non vedono alcun motivo per escludere a priori alcuni sistemi. Una posizione che il PPE non condivide. In particolare, il gruppo chiede di “chiarire la situazione legale” per i sistemi general purpose.

Secondo il PPE, questi sistemi “in grado di svolgere funzioni di uso generale” – come riconoscimento di immagini, generazione di audio, traduzione, ecc. dovrebbero essere soggetti alla Legge solo nei casi in cui siano stati adattati “per un uso specifico”. Il PPE propone che in questi casi spetti al “nuovo fornitore” – colui che ha adattato il sistema per un uso generale o ne ha cambiato lo scopo – conformarsi al regolamento, con l’aiuto del “fornitore originale”. La proposta è sostenuta anche da Kosma Złotowski, relatore del CRE, e da Svenja Hahn (Renew) per quanto riguarda l’Imco, e fa eco alle modifiche previste per gli Stati membri. Come loro, il PPE vorrebbe che il “fornitore originale” fosse comunque costretto a rispettare i requisiti di gestione del rischio.

Gli stessi gruppi – PPE, CRE, Svenja Hahn – sostengono inoltre che il regolamento non dovrebbe applicarsi alle IA sviluppate specificamente per scopi di ricerca scientifica. Un’eccezione simile era già prevista per i sistemi di IA utilizzati per scopi militari: il PPE propone di rafforzarla, i Verdi non vogliono sentirne parlare, i Socialisti la manterrebbero a condizione che il regolamento continui ad applicarsi ai sistemi promessi per uso sia civile che militare. Allo stesso modo, i partiti di sinistra e dell’ID sono uniti nell’opposizione all’esclusione dal regolamento dei sistemi utilizzati da un Paese terzo nel quadro della cooperazione giudiziaria e di polizia con l’Unione.

Quali tecnologie vietare e perché l’identificazione biometrica?

L’elenco dei sistemi di intelligenza artificiale che l’UE vieterà sul proprio territorio potrebbe anche crescere, nonostante i disaccordi ancora più radicali su questo tema. L’identificazione biometrica sarà un negoziato particolarmente difficile.

La Commissione ha proposto di vietare l’uso di sistemi di identificazione biometrica a distanza “in tempo reale in aree accessibili al pubblico a fini di applicazione della legge”, tranne nei casi in cui tali sistemi siano utilizzati per cercare vittime, “prevenire una minaccia specifica, sostanziale e imminente alla vita o alla sicurezza” dei cittadini, o identificare o perseguire l’autore di un reato.

S&D, Verdi e Sinistra sostengono il divieto di tutti i sistemi di identificazione biometrica utilizzati a distanza, in spazi pubblici e privati, online e offline. I relatori di Renew sono favorevoli a vietare i sistemi di identificazione biometrica se utilizzati a distanza “in tempo reale” in spazi accessibili al pubblico, e non tollerano alcuna eccezione. Il PPE, invece, assume una posizione in linea con quella della Commissione, sostiene le eccezioni proposte e sostiene che l’uso di tali sistemi “a posteriori” dovrebbe essere semplicemente considerato “ad alto rischio”.

Come i correlatori, anche i Verdi e La Gauche vorrebbero vietare la “polizia predittiva“, che il PPE preferirebbe mantenere nella categoria “ad alto rischio”. S&D, Verdi, Sinistra, ID e RCE vogliono inoltre vietare i sistemi in grado di rilevare lo stato emotivo, l’affidabilità degli individui e varie caratteristiche fisiche. Diversi gruppi di sinistra vogliono anche vietare i sistemi utilizzati per la gestione dell’immigrazione e delle richieste di asilo.

Per quanto riguarda le sanzioni amministrative da applicare a chi viola questi divieti, le posizioni sono altrettanto disparate. I socialisti chiedono multe fino a 50.000.000 di euro o, se il trasgressore è un’azienda, fino al 10% del suo fatturato mondiale annuo. Il PPE e Svenja Hahn sostengono un massimo di 20.000 euro, il 4% del fatturato o addirittura il 3% per le PMI e le start-up. Gli stessi dibattiti sorgono per la mancata osservanza dell’articolo 10 o per la fornitura di informazioni inesatte.

I giocattoli sono sistemi ad alto rischio?

Un’altra grande battaglia è in corso sui sistemi ad alto rischio, il cui elenco nell’Allegato III è oggetto di un centinaio di pagine di emendamenti. I correlatori avevano già individuato una serie di sistemi da aggiungere. Ciò non ha impedito a tutti i gruppi di tornare con nuove proposte.

Oltre ai sistemi elencati nell’Allegato III, la Commissione ha suggerito che qualsiasi AI debba essere considerata, per default, un sistema ad alto rischio in due casi: quando costituisce un prodotto che richiede una valutazione di conformità o quando è utilizzato come componente di sicurezza in uno di questi prodotti – giocattoli, ascensori, imbarcazioni da diporto, macchine e altri “apparecchi che bruciano combustibili gassosi” (Allegato II, A).

Anche questo approccio sarà probabilmente oggetto di un intenso dibattito. Si oppone Svenja Hahn, che sostiene l’istituzione di una procedura di valutazione, al fine di definire quale sistema costituisce un rischio elevato e in quale contesto.

Dragoș Tudorache e i relatori del PPE sostengono la proposta della Commissione, ma vogliono che i sistemi elencati nell’allegato III siano considerati ad alto rischio solo se utilizzano dati biometrici, se sono destinati a influenzare le decisioni, se mettono in serio pericolo la salute, ecc. Una posizione ben diversa da quella molto più forte dell’S&D e dei Verdi.

Valutare l’impatto e la conformità, sì, ma fino a che punto?

Anche il flusso di requisiti per i produttori, i fornitori e gli utenti di sistemi ad alto rischio è stato modificato in modo sostanziale. Le linee guida per la valutazione della conformità e le valutazioni d’impatto saranno probabilmente al centro del dibattito.

I Verdi e la Sinistra chiedono che le valutazioni di conformità siano effettuate da una terza parte indipendente in ogni circostanza. I Verdi insistono addirittura sul fatto che un’autovalutazione dovrebbe precedere la valutazione di conformità. Brando Benifei chiede semplicemente di imporre un organismo indipendente di valutazione della conformità – un “organismo notificato” – ai fornitori che non hanno applicato standard armonizzati e specifiche comuni.

I gruppi di sinistra, così come la RCE, chiedono inoltre che gli utenti di sistemi ad alto rischio analizzino gli effetti prevedibili di tali sistemi sui diritti fondamentali e si “astengano” dal mettere in servizio un sistema di cui non sono in grado di mitigare i rischi. Dragoș Tudorache propone di applicare questa istruzione solo alle autorità pubbliche o alle istituzioni dell’Unione.

Tutte queste proposte sono valse agli eurodeputati alcuni avvertimenti da parte di Irina Orssich, responsabile delle politiche di IA presso la Commissione europea (DG Connect). L’aggiunta di nuove procedure di analisi e valutazione “porterà a una mancanza di chiarezza giuridica”, ha dichiarato ai deputati.

« Chi può permettersi un esercito di avvocati ed esperti potrà giocare facilmente con queste regole, mentre per gli altri potrebbero essere un deterrente”, ha continuato il rappresentante della Commissione, aggiungendo che tutte queste procedure dovrebbero essere messe in atto rapidamente e “sottrarrebbero molte risorse al mercato”. ».

Sarà inoltre necessario trovare un compromesso sulle condizioni di deroga a questa valutazione: la Commissione propone che le autorità di vigilanza del mercato possano autorizzare l’immissione sul mercato di sistemi ad alto rischio senza valutazione “per motivi eccezionali di sicurezza pubblica”. La sinistra e i socialisti del Comitato Libe sono contrari, i Verdi sono scettici, mentre il PPE vorrebbe concedere questa possibilità anche alle autorità di polizia.

Verso un supercomitato per l’IA?

Infine, si prevede che i dibattiti saranno intensi sugli aspetti legati alla governance, in particolare sulla futura commissione AI, di cui diversi grandi gruppi (PPE, Renew, La Gauche e parte dei socialisti) vorrebbero fare un “organo europeo indipendente”. Nel complesso, tutti i gruppi vogliono dare maggiore importanza a questo comitato: più membri (Agenzia europea per i diritti fondamentali, Agenzia dell’UE per la sicurezza informatica, ecc) e più compiti.

Alcuni gruppi chiedono che il comitato esamini annualmente i reclami e i rapporti sugli incidenti (PPE, Renew, La Sinistra), che garantisca un dialogo e un monitoraggio regolari dei fornitori di sistemi di IA (PPE), che organizzi consultazioni con le parti interessate due volte l’anno (Renew, S&D) o che definisca le modalità di partecipazione alle sandbox di regolamentazione (Verdi). I relatori dovranno anche concordare le modalità di voto e la presidenza della commissione, poiché i Verdi, la Sinistra, alcuni socialisti, l’ID e i RCE si rifiutano di cedere questo ruolo alla Commissione.

Non è escluso che tutti questi dibattiti, che dovranno essere risolti con 14 relatori intorno al tavolo, si trascinino a oltranza. Diversi osservatori, sia in Parlamento che nella DG Connect, temono che la posizione degli eurodeputati non sarà decisa prima del 2023 e che quindi il dossier non sarà completato durante questa legislatura. Infatti, in Parlamento come in Consiglio, ci si aspettano in seguito dialoghi a tre altrettanto duri.

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.