
L’Unione Europea sta affinando la sua posizione sui modelli di intelligenza artificiale, in particolare quelli denominati “modelli di fondazione” (foundation models), grandi architetture di machine learning capaci di svolgere una vasta gamma di compiti. Il quarto trilogo, che si terrà la sera del 24 ottobre (dalle 19 alle 23), dovrebbe consentire di raggiungere un accordo sugli ultimi punti in sospeso riguardanti la classificazione dei sistemi ad alto rischio.
Secondo Euractiv, i negoziatori si stanno infatti orientando verso una soluzione a “quattro criteri” per consentire le deroghe, nonostante uno studio del servizio giuridico del Parlamento abbia giudicato tale “filtro” troppo incerto e soggettivo.
Nella proposta originale, tutte le soluzioni AI incluse in una lista predefinita di casi d’uso critici venivano automaticamente classificate come ad alto rischio. Tuttavia, nelle ultime settimane, i policymaker dell’UE hanno esaminato una serie di condizioni di esenzione per permettere agli sviluppatori AI di evitare tale stringente classificazione.
Tale metodo è stato fortemente criticato dall’ufficio legale del Parlamento Europeo, ritenendo che contraddicesse l’obiettivo principale dell’AI Act e generasse incertezza legale. Secondo gli esperti legali, le condizioni di esenzione dovrebbero essere più circoscritte e specifiche per ciascun caso d’uso critico, invece di lasciare che siano i fornitori AI a valutare autonomamente i propri modelli.
Nonostante ciò, lo scorso venerdì è circolata una nuova versione del testo, che mantiene le condizioni di esenzione trasversali, trascurando sostanzialmente l’opinione legale avversa. Questo testo è stato poi discusso in una riunione con i rappresentanti degli altri gruppi politici, in vista di una sessione di negoziato con il Consiglio e la Commissione UE.
Sono stati apportati alcuni aggiustamenti ai criteri di esenzione. Ad esempio, è stato specificato che i criteri si applicano anche quando il modello AI non influisce materialmente sull’esito del processo decisionale. Uno dei criteri si applica quando il sistema AI ha lo scopo di eseguire un compito procedurale ristretto, come trasformare dati non strutturati in dati strutturati. Un altro permette di evitare la classificazione ad alto rischio se l’AI serve a migliorare il risultato di un’attività umana già completata o a rilevare schemi decisionali, come potrebbe essere il modello di valutazione di un insegnante.
Contemporaneamente, è stata mantenuta l’idea che qualsiasi sistema AI che effettua la profilazione delle persone sarà considerato ad alto rischio, indipendentemente da questi criteri.
Una novità importante riguarda l’autorità di sorveglianza del mercato, la quale dovrebbe essere in grado di effettuare valutazioni del sistema AI se ritiene che questo debba essere considerato ad alto rischio. Se un sistema viene effettivamente classificato come tale, l’autorità potrebbe richiedere che esso sia messo in conformità con la normativa. Inoltre, può essere comminata una sanzione se l’autorità dispone di “prove sufficienti” che il fornitore AI ha classificato il suo sistema in maniera differente per eludere la legge.
Il trilogo del 24 ottobre dovrebbe anche avviare un “dibattito politico” sugli altri temi caldi del regolamento, tra cui i modelli di fondazione e i sistemi AI generici. Su questo tema, il 20 ottobre la presidenza spagnola ha ricevuto un mandato dai vice ambasciatori per difendere un “approccio a tre livelli“, con obblighi separati per i modelli di fondazione, i modelli di fondazione ad alte prestazioni e i sistemi AI generici utilizzati su larga scala nell’UE.
Approccio a tre livelli
1. Tutti i Modelli di Fondazione (Foundation Models):
Tutti i modelli AI di fondazione saranno soggetti a requisiti di trasparenza prima di essere immessi sul mercato. Le aziende dovranno documentare il modello, il suo processo di formazione e i risultati degli sforzi di “red-teaming”, ossia tentativi da parte di esperti indipendenti di esporre potenziali vulnerabilità. Una volta sul mercato, le aziende dovranno fornire informazioni dettagliate alle aziende che utilizzano la tecnologia e consentire loro di testare i modelli. Questi modelli devono essere in grado di eseguire competentemente una vasta gamma di compiti distinti.
2. Modelli di Fondazione a capacità elevate:
I modelli di fondazione a capacità elevate rappresentano una nuova frontiera nell’ambito dell’AI, distinguendosi per le loro capacità avanzate che superano lo stato dell’arte attuale e che potrebbero non essere ancora completamente comprese. Questi modelli si presentano come strutture complesse e potenti, e uno degli aspetti più sfidanti nella gestione di questi modelli è la mancanza di strumenti e metodologie attuali per prevedere e misurare accuratamente le loro capacità. Di fronte a tale incertezza, i ricercatori hanno cercato di individuare dei “proxy”, ovvero dei parametri di riferimento, per cercare di quantificare la potenza di questi modelli. Un esempio di proxy utilizzato è l’ammontare di calcolo utilizzato per l’addestramento del modello, misurato in FLOPs (Floating Point Operations Per Second). In termini concreti, si potrebbe considerare un determinato valore di FLOPs come soglia indicativa per identificare i modelli AI più avanzati previsti per il 2024/25. Questo valore soglia rappresenta un tentativo di anticipare quali saranno i modelli di punta al momento dell’entrata in vigore dell’AI Act. Tuttavia, è importante sottolineare che questo parametro deriva da ricerche e calcoli molto recenti, focalizzati principalmente sui grandi modelli di linguaggio e influenzato da molteplici fattori.
Per le aziende che producono questa tipologia di tecnologia, le regole saranno più rigorose. Prima di essere immessi sul mercato, questi modelli dovranno essere sottoposti regolarmente a test da parte di esperti esterni, approvati dalla nuova Agenzia AI dell’UE. Inoltre, dovranno introdurre sistemi per identificare rischi sistemici. La classificazione di questi modelli si baserà sulla potenza di calcolo utilizzata per la loro formazione, misurata in FLOPS (operazioni in virgola mobile al secondo). La Commissione determinerà la soglia esatta in una fase successiva.
3. Sistemi AI Generali su Larga Scala:
Questi sistemi dovranno essere sottoposti a test da esperti esterni per identificare vulnerabilità. Un sistema verrà considerato di questa categoria se avrà 10.000 utenti aziendali registrati o 45 milioni di utenti finali registrati. La Commissione stabilirà in seguito come calcolare questi numeri.
Durante la discussione, i negoziatori dovranno discutere delle soglie, del copyright e del watermarking per l’AI generativa. Altre questioni delicate sul tavolo sono i divieti (compreso il riconoscimento facciale) e le esenzioni per le forze dell’ordine e la sicurezza nazionale. Si discuterà anche dello status, della composizione e dei poteri dell’Ufficio AI.