L’AI Act è passato al voto delle commissioni, ora andrà in aula

Bandiera dell'Unione Europea

Le commissioni Libertà civili e Mercato interno del Parlamento europeo hanno approvato il regolamento europeo sull’intelligenza artificiale, segnando una tappa fondamentale nella regolamentazione dell’AI nell’Unione Europea. La legge attende ora l’adozione in plenaria, prevista per il 14 giugno, prima di passare alla fase dei triloghi, dove verranno negoziati i dettagli più precisi con il Consiglio e la Commissione dell’UE.

Il correlatore della legge, Brando Benifei, ha salutato questo sviluppo affermando: “Siamo sul punto di costruire una vera e propria legislazione di riferimento per il paesaggio digitale, non solo per l’Europa ma anche per il mondo intero”.

Il punto cruciale della legge è la definizione di AI. Nella versione approvata, la definizione si allinea a quella dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE), un cambiamento significativo previsto per soddisfare la futura formulazione dell’organizzazione.

La legislazione estende i divieti ad alcune applicazioni di AI, tra cui le tecniche di manipolazione, il social scoring, i modelli di AI per la categorizzazione biometrica, la polizia predittiva e il riconoscimento delle emozioni in determinati contesti. Nonostante le resistenze, la maggioranza si è espressa a favore del divieto dei sistemi di identificazione biometrica, tranne che in situazioni specifiche come rapimenti o attacchi terroristici.

La legge approvata incorpora anche un approccio graduale ai sistemi AI per scopi generali (GPAI), come ChatGPT. Inizialmente esclusi, il loro rapido successo ha richiesto un approccio normativo che impone obblighi agli operatori economici che integrano questi sistemi in applicazioni ad alto rischio.

La normativa prevede ora una determinazione più completa delle applicazioni di AI ad alto rischio. Per essere classificato come ad alto rischio, un sistema AI deve rappresentare un rischio significativo per la salute, la sicurezza o i diritti fondamentali. I fornitori AI possono rilasciare i loro sistemi se ritengono che non ci sia un rischio significativo, ma devono notificarlo all’autorità competente e sono soggetti a sanzioni in caso di classificazione errata.

I fornitori di intelligenza artificiale ad alto rischio sono ora soggetti a obblighi più severi in materia di gestione del rischio, governance dei dati, documentazione tecnica e conservazione dei documenti. Gli utenti di queste soluzioni devono inoltre effettuare una valutazione dell’impatto sui diritti fondamentali.

Il meccanismo di applicazione della legge sull’AI è stato centralizzato, soprattutto per i casi transfrontalieri. Il proposto “Ufficio AI” fornirà indicazioni e coordinerà indagini congiunte, anche se il suo ruolo è stato notevolmente ridotto a causa dei vincoli di bilancio. La Commissione si occuperà invece di dirimere le controversie tra le autorità nazionali in merito ai sistemi AI pericolosi.

Per approfondire: AI Act moves ahead in EU Parliament with key committee vote