AI Act al voto: nelle commissioni l’11 maggio, poi in assemblea

Parlamento europeo

Giovedì 27 aprile il gruppo negoziale sull’AI Act ha concordato un testo di compromesso che sarà sottoposto al voto delle commissioni parlamentari competenti l’11 maggio a Strasburgo.

Dopo molti rinvii e una serie di riunioni quasi ininterrotte, giovedì 27 aprile il gruppo di negoziatori ha raggiunto un accordo provvisorio sul regolamento per l’intelligenza artificiale. Il testo di compromesso include la questione esplosiva dell’intelligenza artificiale generativa, che non era stata inclusa nella proposta iniziale. Inoltre, va contro il Consiglio e la Commissione vietando il riconoscimento facciale, rendendo questo tema centrale nei prossimi negoziati inter-istituzionali.

L’agenzia francese Contexte ha pubblicato una bozza della versione, una raccolta dei quattordici pacchetti di compromesso che incorporano i testi diffusi dai correlatori nelle ultime settimane. Il segretariato del Parlamento pubblicherà una versione ufficiale prima del voto.

Regolamentare o vietare?

La bozza di accordo mantiene l’approccio della Commissione che regolamenta i sistemi di intelligenza artificiale in base a diversi livelli di rischio. Tuttavia, essa estende l’elenco delle pratiche vietate, una richiesta degli eurodeputati di centro-sinistra, e limita le condizioni in base alle quali un sistema può essere identificato come ad alto rischio (questi ultimi sarano autorizzati solo solo se rispetteranno rigorosi requisiti).

Abbiamo costruito un’architettura che rende i nostri colleghi ugualmente felici e infelici“, ha sintetizzato al Politico’s tech summit del 26 aprile il co-relatore della commissione Mercato interno, Brando Benifei, riconoscendo che avrebbe preso una strada diversa se non fosse stato per i negoziati con altri gruppi.

L’elenco delle pratiche considerate inaccettabili comprende ora la categorizzazione biometrica (assegnare persone a determinate categorie in base ai loro dati biometrici), l’estrazione di dati biometrici dai social network per alimentare i database e la polizia predittiva. Ma il cambiamento più drastico riguarda i sistemi di identificazione biometrica, che la Commissione e il Consiglio vogliono vietare – salvo alcune deroghe – nel settore della giustizia. In questo caso, il Parlamento propone un divieto assoluto, in tutti i settori e indipendentemente dal fatto che si tratti di identificazione in tempo reale o a posteriori (a meno che non sia autorizzata in anticipo da un giudice).

Un filtro aggiuntivo per gli usi ad alto rischio

Contrariamente alle apparenze, la bozza di accordo limita le disposizioni sui sistemi ad alto rischio. Il gruppo di negoziatori ha ampliato l’elenco degli usi ad alto rischio nell’Allegato III per includere, ad esempio, i sistemi di raccomandazione da parte delle piattaforme di grandi dimensioni, come definiti dal Digital Services Act. Tuttavia, aggiunge un “filtro” nel corpo del regolamento per individuare, all’interno di questo elenco, solo i sistemi che presentano un “rischio significativo”. Ciò è simile all’esclusione de facto da parte del Consiglio dei sistemi che svolgono un ruolo “puramente ausiliario”.

L’approccio del Parlamento si baserà sull’autovalutazione. Pertanto, il fornitore di un sistema di intelligenza artificiale dovrà verificare se esso rientra nei casi d’uso dell’Allegato III, come ad esempio l’AI per le risorse umane. In caso affermativo, dovrà valutare se il suo algoritmo presenta un “rischio significativo”. In caso contrario, dovrà informare l’autorità competente e, se questa non solleva obiezioni, il sistema sarà considerato conforme.

Se tuttavia il sistema – dopo l’autovalutazione del fornitore – ponesse un rischio significativo, dovranno essere svolti una serie di compiti, come una valutazione di conformità o la garanzia che i dataset su cui si basa siano di buona qualità. Gli installatori del sistema considerato ad alto rischio, inoltre, saranno tenuti a eseguire una valutazione dell’impatto sui diritti fondamentali (articolo 29a) prima di utilizzarlo per la prima volta.

I sistemi come ChatGPT avranno una categoria a sé

Gli eurodeputati si sono visti costretti a prendere provvedimenti anche per quei sistemi di intelligenza artificiale che possono svolgere più funzioni, i cosiddetti “sistemi di AI per scopi generali” (GPAI, General Purpose AI).

Secondo un documento di Digital Europe pubblicato a inizio marzo, l’industria avrebbe voluto che i fornitori di questo tipo di sistemi AI fossero soggetti solo agli obblighi di condivisione delle informazioni e ad alcuni obblighi più leggeri legati ai sistemi ad alto rischio (documentazione tecnica e istruzioni per l’uso). Il gruppo di negoziatori si è basato inizialmente su questo, aggiungendo però obblighi più severi per i modelli più potenti. Nel dettaglio, il testo si basa su tre punti fondamentali:

  • In primo luogo, esso prevede un trasferimento di responsabilità dal fornitore all’installatore quando l’AI per uso generale viene utilizzata in un’area ad alto rischio dell’allegato III. In questi casi, chi implementa il sistema diventerà “fornitore” ai sensi del regolamento.
  • Il regolamento stabilisce poi una serie di regole per i “modelli fondazionali“, ovvero quei modelli che usano un numero enorme di dati e che possono essere utilizzati per vari compiti. I fornitori di tali modelli, come OpenAI, dovranno adottare una strategia di gestione del rischio e garantire la qualità dei loro dati, oltre a fornire una documentazione tecnica e istruzioni comprensibili. Il testo prevede anche una valutazione per tutta la durata del modello, fra le altre cose sugli aspetti di sicurezza e di prevedibilità del modello, nonché la conservazione della documentazione tecnica per 10 anni.
  • Infine, il testo prevede obblighi specifici per i modelli di AI generativa, come ChatGPT, Dall-E o Midjourney, come l’obbligo di informare le persone esposte o di pubblicare un “riassunto sufficientemente dettagliato” dell’uso dei dati di addestramento soggetti a copyright.

Negoziati difficili in vista

I negoziati al Parlamento europeo sono stati difficili fino all’ultimo momento, come riferiscono diverse fonti parlamentari. Le discussioni del 27 aprile si sono concentrate in particolare sull’impatto ambientale dell’AI, tema caro ai Verdi. Sebbene l’accordo provvisorio non includa l’idea di un articolo autonomo, criticato dal PPE, le disposizioni ricompaiono attraverso gli obblighi dei fornitori di AI ad alto rischio (articolo 12) e i modelli fondazionali.

Una volta risolte queste questioni, la votazione avverrà in commissione l’11 maggio a Strasburgo. L’intera Assemblea dovrà poi esprimersi prima che i negoziati inter-istituzionali possano iniziare, affinché il testo assuma quindi la sua forma definitiva sotto la Presidenza spagnola del Consiglio dell’UE, nel secondo semestre di quest’anno.

Per Brando Benifei, la principale difficoltà nei negoziati sarà rappresentata dalla parte sulle pratiche vietate. Anche altre fonti parlamentari hanno individuato la questione della governance come potenzialmente problematica.

I correlatori avrebbero voluto trasformare il comitato AI della proposta in un’agenzia dell’UE, ma la maggioranza del PPE si è opposta, così come una minoranza di Renew. Per la Commissione e il Consiglio, l’ufficio così com’è nell’accordo provvisorio rappresenta già un problema: la Commissione non vuole essere gravata di ulteriori responsabilità senza ottenere nuove risorse, mentre il Consiglio – molto semplicemente – non vuole delegare.

Il Parlamento dovrebbe in ogni caso spingere per negoziati rapidi, al fine di ottenere un accordo durante il presente mandato, prima delle elezioni europee del maggio 2024.