L’AI Act adotterà una definizione di AI in linea con l’OCSE

Parlamento europeo

Il Parlamento si muove verso una definizione di AI in linea con quella dell’OCSE. Come il Consiglio, anche i negoziatori del Parlamento sono intenzionati a restringere il campo di applicazione della definizione di “sistema AI” proposta dalla Commissione, una questione molto delicata in quanto la definizione rappresenta il primo passo per identificare i sistemi di intelligenza artificiale ad alto rischio che devono essere rigorosamente regolamentati.

Secondo le informazioni rivelate da Euractiv e confermate da diverse fonti all’agenzia francese Contexte, per il momento viene mantenuto un “sistema basato su macchine, progettato per operare con diversi livelli di autonomia e che, per scopi impliciti o espliciti, genera risultati quali previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali“.

Come previsto, viene eliminato l’Allegato I della proposta della Commissione, che elencava tecniche specifiche di AI, come l’apprendimento automatico, la logica, la conoscenza o la statistica. Questo testo deve ancora essere rielaborato a margine per tenere conto delle preoccupazioni dei Verdi (che contestano in particolare l’aver mantenuto il riferimento al “basato su macchine” quando il riferimento alla progettazione umana è scomparso, così come il riferimento agli obiettivi impliciti o espliciti).

La prossima discussione su questo tema, forse alla riunione tecnica del 13 marzo, dovrebbe portare a un accordo provvisorio. In occasione della conferenza Euroconsumers del 2 marzo, la Commissione ha spiegato per la prima volta le principali differenze tra la sua proposta e la definizione dell’OCSE. Ha sottolineato il riferimento al “software” sviluppato mediante una o più “tecniche” elencate nell’allegato I e in grado di “generare contenuti”. Quest’ultimo riferimento è stato ripreso dal Consiglio nel suo orientamento generale, ma non dal Parlamento nel suo accordo provvisorio.