
L’orologio dell’intelligenza artificiale europea ticchetta inesorabile mentre a Strasburgo si tenta di delineare i contorni di una regolamentazione che possa bilanciare innovazione e sicurezza. Il trilogo del 3 ottobre ha visto i negoziatori europei confrontarsi su principi e direttive, cercando di gettare le basi per un quadro normativo che possa identificare e gestire i sistemi AI ad alto rischio, senza però giungere a una visione d’insieme sul testo.
In un contesto dove Věra Jourová, Vicepresidente della Commissione Europea, si esprime contro la sovraregolamentazione dell’AI generativa sulle pagine del Financial Times, il dibattito si fa sempre più acceso. La riunione, che ha visto la luce su principi fondamentali, ha anche aperto un dialogo, seppur ancora in fase embrionale, sull’AI a uso generale, con un occhio attento alle questioni legate al riconoscimento facciale, punto di frizione tra le istituzioni.
Il Parlamento europeo spinge per obblighi severi sui cosiddetti “modelli di fondazione”, tra cui ChatGPT, anche in termini di diritto d’autore, mentre gli Stati membri propendono per obblighi calibrati sul rischio presentato dai vari sistemi AI. La Commissione, nel tentativo di mediare, propone una soluzione di compromesso a due livelli, che prevede l’applicazione di buone pratiche ai modelli di fondazione e obblighi più stringenti, come valutazioni e audit di terze parti, per i modelli e i sistemi AI a uso generale che hanno un impatto significativo.
Il diritto d’autore emerge come un nodo cruciale nel dibattito: la riapertura della direttiva sul diritto d’autore non sembra trovare consensi, mentre l’idea di obbligare i fornitori di modelli di fondazione a pubblicare un sommario dei dati utilizzati è stata accolta con scetticismo dalla Commissione, che esprime preoccupazioni circa la sua effettiva utilità e l’onere amministrativo correlato.
La questione della governance non è da meno. Un “documento non ufficiale” circolato a metà settembre, sottoscritto da sette paesi (Belgio, Bulgaria, Danimarca, Ungheria, Lettonia, Paesi Bassi e Slovacchia) propone un meccanismo di supervisione europeo per casi transfrontalieri di grande portata che coinvolgono sistemi non integrati, promuovendo un’implementazione e una governance efficaci del futuro regolamento. Tuttavia, la creazione di una nuova agenzia rimane un confine che né la Commissione né molti Stati membri sono disposti ad attraversare.
Il terzo trilogo ha portato a concreti passi avanti sui sistemi AI ad alto rischio, validando obblighi per i fornitori di questa categoria di intelligenza artificiale, come l’addestramento dei sistemi su dati quanto più possibile esenti da errori e l’implementazione di un sistema di gestione dei rischi per l’intero ciclo di vita del sistema. La procedura per identificare questi sistemi si baserà su un “filtro aggiuntivo”, ovvero un’autovalutazione dei fornitori, sebbene la lista dei casi d’uso ad alto rischio non sia ancora stata definita.
In un panorama dove la corsa tecnologica si scontra con la necessità di creare un quadro normativo solido e condiviso, l’Europa cerca la sua strada, con lo sguardo fisso al prossimo trilogo del 25 ottobre e, in subordine, a quello “jolly” del 6 dicembre, mentre il dibattito tra innovazione e regolamentazione continua a infervorare gli animi e le pagine dei giornali.