Intelligenza artificiale: i 10 dossier che finiranno sul tavolo del Governo

Italia

“L’art du sens politique consiste à prévoir l’inévitable et à en accélérer la réalisation.”

(attribuita a Charles-Maurice de Talleyrand-Périgord)

A governo fatto, più di un commentatore si è risentito quando Giorgia Meloni ha deciso di non nominare un ministro per l’innovazione, optando invece per un sottosegretario alla Presidenza del Consiglio. A qualcuno è sembrata una mancanza di sensibilità verso i temi del digitale e dello sviluppo tecnologico. In realtà, le cose sono l’esatto opposto, come si può intuire da un passaggio del libro “Io sono il potere, confessioni di un capo di gabinetto”:

Sempre evocato, il manuale Cencelli vale anche per noi capi di gabinetto. Il ministero degli Interni vale 3, la Funzione pubblica 2, l’Ambiente 1. Per i ministeri (e­ i ministri) minori, la scala di valore precipita. Il vaporoso ministero dell’Innovazione, introdotto nel governo Conte bis, vale 0,5, se non di meno. Ministero senza portafoglio, ministra sconosciuta, peso politico inesistente, visibilità ancor meno. Nessuno voleva diventare capo di gabinetto di un ministero così. Il presidente del Consiglio di Stato, Filippo Patroni Griffi, richiesto di un aiuto a trovare un magistrato disponibile, era in sincero imbarazzo.

Se queste erano le premesse, bene ha fatto Meloni a tenere l’innovazione vicina a sé, nominando un sottosegretario che abbia dietro tutta la forza della Presidenza del Consiglio, anziché un ministero periferico.

Delle numerose pratiche che dovrà gestire Alessio Butti, a cui vanno la nostra stima e i nostri auguri, quelle sul crescente impatto dell’intelligenza artificiale saranno probabilmente le più insidiose, perché oggi sembrano insignificanti, ma fra cinque/dieci anni saranno al centro di mutamenti sociali, economici e giuridici.

Ecco dieci dossier che il sottosegretario, nel corso del suo mandato, vedrà recapitare alla sua attenzione. Molti di questi potrebbero sembrare problemi da lasciar sbrogliare a tecnici e giuristi, ma la pervasività dei temi, oltre che i potenziali impatti in alcuni ambiti strategici, tireranno sicuramente dentro anche il Governo.

1. La responsabilità legale delle decisioni prese dall’AI

La responsabilità legale dell’intelligenza artificiale solleva questioni su chi debba essere responsabile delle azioni delle macchine “intelligenti”. Se una macchina prende una decisione che danneggia qualcuno, chi dovrebbe essere ritenuto responsabile? I progettisti della macchina, gli sviluppatori che hanno contribuito al codice, i data scientist che hanno creato o gestito i dataset su cui si basava la decisione, il proprietario della macchina? La filiera è spesso estremamente lunga e molto complessa e i problemi, i difetti e gli errori possono annidarsi in qualsiasi passaggio. Capita non di rado, poi, che i disastri siano figli di più errori che hanno interagito insieme, introdotti in vari punti della filiera, da team diversi e in diverse parti del mondo.

La questione si complica ulteriormente se consideriamo che le tecniche più avanzate di machine learning, parliamo ovviamente del deep learning, sono nella maggior parte dei casi scatole chiuse dove i motivi di una decisione sono imperscrutabili. Sempre più spesso sarà l’intelligenza artificiale che deciderà al posto nostro, a partire da situazioni innocue come la scelta del prossimo brano da ascoltare o del film da guardare, fino a situazioni critiche come il suggerire a un medico una diagnosi invece di un’altra. Per il bene di tutti, oltre che per consentire una rapida applicazione della tecnologia in quegli ambiti dove offre un concreto aiuto alle persone, sarà necessario fornire risposte chiare, complete e inequivocabili sulle responsabilità.

2. Posti di lavoro a rischio automazione

Call center senza esseri umani, veicoli (non necessariamente automobili) a guida autonoma, diagnosi radiologiche automatizzate, sistemi di marketing digitale, creazione di contenuti con interventi umani ridotti al minimo. Già oggi, se tutte le aziende implementassero da un giorno all’altro i software AI di ultima generazione, decine di milioni di persone si troverebbero senza lavoro. Secondo un vecchio studio del McKinsey Global Institute, entro il 2030 fra i 400 e gli 800 milioni di individui perderanno il lavoro a causa dell’automazione, e la ricerca del 2017 ancora non prendeva sufficientemente in considerazione la capacità dell’AI di generare opere di creatività. Presto saremo costretti a rivedere queste stime al rialzo.

Che impatto avranno l’automazione del lavoro e l’ascesa dell’intelligenza artificiale sull’occupazione? Esistono due scuole di pensiero. La prima è ottimista e sostiene che l’automazione creerà nuovi posti di lavoro come ha sempre fatto in passato. La seconda, invece, ritiene che questa volta sarà diverso, argomentando che la grande versatilità delle tecnologie di automazione porterà alla repentina scomparsa di più posti di lavoro di quanti non se ne riuscirà a creare. Senza contare che molti di questi posti di lavoro riguardano impieghi non specializzati, che qualsiasi essere umano non istruito può svolgere per guadagnarsi da vivere. Per fare un esempio, quando saranno i robot dotati di visione artificiale a raccogliere più velocemente frutta e ortaggi dai campi, quanti altri lavori saranno disponibili per i milioni di braccianti agricoli oggi impiegati in ogni parte del mondo?

Ma anche se, come speriamo, l’automazione dovesse creare più posti di lavoro di quanti ne distrugga, resterà da risolvere un problema squisitamente umano: nella maggior parte dei casi le persone che troveranno il lavoro grazie all’automazione non saranno le stesse che lo avranno perso. È qui che il governo dovrà intervenire per mettere in atto un imponente sistema di protezione sociale che aiuti le persone colpite dall’automazione, oltre ovviamente a investire in formazione per garantire a tutti i lavoratori la possibilità di acquisire nuove conoscenze, affinché possano dare il loro contributo anche in un mondo del lavoro profondamente cambiato.

3. La governance dei dati per garantire privacy e sicurezza anche nell’AI

La gestione dei dati è una delle questioni più complesse che il governo dovrà affrontare nei prossimi anni. Il problema non è solo l’enorme quantità di dati che vengono prodotti ogni giorno, ma anche il fatto che questi sono spesso molto sensibili e possono essere utilizzati per violare la nostra privacy o la nostra sicurezza. I dataset usati dagli algoritmi di intelligenza artificiale sono spesso enormi, scarsamente protetti, di provenienza non sempre chiara e comunque poco controllabile. Questo fa della gestione dei dati usati dall’AI una questione delicata, che coinvolge molti attori e che richiede una forte collaborazione tra il governo e il settore privato.

L’Agenzia per la Cybersicurezza Nazionale e il Garante per la Privacy già vigilano rispettivamente su sicurezza e privacy, ma le peculiarità dell’intelligenza artificiale sono spesso tali da sfuggire alle loro competenze. Gli attacchi portati ai dataset e agli algoritmi di machine learning sono nel loro genere molto innovativi e richiedono competenze specifiche costantemente aggiornate. Dovremo dunque fare i conti con questa realtà e cercare di adeguarci, collaborando strettamente con il settore privato e con quello della ricerca.

4. Sorveglianza, riconoscimento facciale, uso dell’AI nella pubblica sicurezza

L’intelligenza artificiale consente già oggi attività di sorveglianza così pervasive e accurate da rappresentare il sogno proibito di tutte le dittature sul pianeta. Oltre a tentare chi, pur non essendo dittatore, vuole comunque garantire una sicurezza più elevata ai suoi cittadini. Onnipresenti telecamere che riconoscono, tracciano e seguono le persone. Sistemi che controllano ogni singolo clic e ogni singola attività che conduciamo online. Algoritmi predittivi che segnalano a chi di dovere, con livelli di accuratezza variabili ma comunque in inesorabile ascesa, quello che probabilmente faremo in futuro.

Il governo Meloni dovrà trovare una non facile quadratura del cerchio, tenendo conto sia della elevata richiesta di sicurezza che si ravvisa spesso nei cittadini che votano a destra, sia della considerevole predilezione alla privacy che tradizionalmente manifesta l’elettorato conservatore. Cosa farà un governo di destra, lascerà campo libero ai sistemi di tracciamento della popolazione e di riconoscimento facciale per garantire un maggiore rispetto delle leggi, oppure riconoscerà il diritto alla riservatezza e alla privacy di tutti, nonostante questo scudo aiuti i criminali a restare nell’ombra? Ovviamente la risposta sarà una via di mezzo, ma verso quale di queste due estremità tenderà a oscillare è ancora tutto da vedere. Il regolamento europeo sull’intelligenza artificiale, tuttora in discussione al Parlamento europeo, consentirà alcuni usi e ne proibirà altri, ma nell’applicazione e nelle pratiche quotidiane i ministeri di riferimento avranno senz’altro voce in capitolo.

5. La manipolazione psicologica dell’AI

È sempre più evidente come con l’intelligenza artificiale sia possibile manipolare gli esseri umani, individualmente o in gruppo. Questo può avvenire grazie alla capacità dell’AI di raccogliere dati sulle persone e di elaborarli in modo da comprendere le loro preferenze e le loro abitudini, arrivando a un microtargeting così puntuale e personalizzato da rendere convincente qualsiasi tipo di messaggio, influenzando i comportamenti di chi lo riceve. Non serve un genio per capire come questo tipo di manipolazione possa avere conseguenze nefaste, come nel caso in cui venga utilizzata per diffondere fake news o per convincere le persone a compiere azioni contrarie al loro interesse.

Fra le manipolazioni più note vi sono le filter bubbles, che troviamo soprattutto sui social network e negli aggregatori di notizie. Una filter bubble è un fenomeno per cui l’algoritmo ci mostra esclusivamente contenuti che rientrano nelle nostre preferenze, ignorando tutto il resto. Questo può portare alla formazione di “bolle” in cui le persone sono esposte solo a idee e opinioni simili alle proprie, isolandosi dal resto del mondo e polarizzando o addirittura radicalizzando le proprie idee, con effetti deleteri sulla normale dialettica democratica e sulla percezione della realtà.

6. AI generativa e diritto d’autore

L’intelligenza artificiale generativa avrà un impatto enorme in numerosi settori. La capacità di generare testi coerenti, discorsi, suoni, immagini, video, modelli e ambienti 3D realistici e le loro inevitabili permutazioni in settori come l’arte, l’intrattenimento, l’istruzione, la produzione e il business è sbalorditiva. L’intelligenza artificiale generativa sta già creando nuovi lavori e attività, sconvolgendo allo stesso tempo settori consolidati come la pubblicità e il marketing. Nel prossimo futuro assisteremo all’ascesa di esperienze e prodotti creati dall’AI che avranno un impatto profondo sul nostro modo di vivere e lavorare. Vedremo videogiochi, film e libri creati dall’AI che saranno indistinguibili da quelli creati dagli esseri umani.

(e se la cosa non dovesse convincervi, sappiate che il paragrafo precedente è stato scritto da un modello di intelligenza artificiale, con solo un minimo “prompting” da parte dell’autore)

In tutto questo una delle “vittime” rischia di essere il diritto d’autore. L’intelligenza artificiale generativa può creare contenuti in cui il ruolo dell’essere umano è praticamente ridotto allo zero. Questo creerà una situazione complessa da gestire e da risolvere sul piano giuridico, ulteriormente complicata dal fatto che i dataset su cui questi modelli si basano per generare le loro opere sono a loro volta composti da materiale prodotto da esseri umani, in buona parte probabilmente coperto da copyright.

I detentori di questi diritti vorrebbero vederli riconosciuti quando l’AI fa uso, anche se in minima parte, delle loro opere per addestrare la rete neurale che ne svilupperà di nuove. Eppure questo principio non si applica agli stessi esseri umani: gli artisti non sviluppano le loro opere in un vuoto assoluto, bensì imparano e traggono ispirazione da altri artisti che li hanno preceduti, senza per questo riconoscere loro alcun diritto. Come fare per tutelare i diritti di tutti?

7. Diseguaglianze sociali accentuate dall’AI

L’intelligenza artificiale traccia un solco molto profondo fra chi controlla gli algoritmi e chi è da essi controllato. L’accesso ai tre “ingredienti” dell’AI, ovvero la capacità di raccogliere e aggregare ingenti quantità di dati, le risorse computazionali necessarie per gestirli ed elaborarli e la disponibilità di personale con adeguate competenze tecniche non è certo appannaggio di tutti. Inoltre, come dimostrano i risultati, i migliori sistemi di intelligenza artificiale necessitano di un’enorme disponibilità di dati e di altrettanto enormi risorse computazionali, cosa che restringe la platea dei “padroni degli algoritmi” a poche multinazionali e qualche grande Paese. Questo crea una situazione in cui i dati e gli algoritmi davvero dirompenti si concentrano nelle mani di pochi, lasciando alla maggioranza delle persone e alle piccole e medie imprese un ruolo progressivamente ridotto nell’ecosistema tecnologico.

Gli algoritmi di intelligenza artificiale sono sempre più applicati a molti rilevanti aspetti della nostra vita: dalla scelta delle assunzioni ai profili di credito, dalle diagnosi mediche ai trasporti, dai programmi di alta formazione all’accesso ai servizi pubblici. In una società in cui i dati sono l’oro di nuova generazione, il potere sarà concentrato nelle mani di coloro che li possiedono, che avranno quindi la possibilità di controllare l’accesso al lavoro, al credito, alle prestazioni sanitarie di qualità, ai servizi necessari. Un algorithmic divide che si farà sentire anche a livello internazionale, con aziende o Paesi in grado di pilotare dati e algoritmi, e altri Paesi che saranno costretti a subirne le conseguenze.

Da più parti vi sono iniziative per “democratizzare” l’AI, anzitutto con tentativi di rendere gli algoritmi meno ingordi di dati, quindi meno dispendiosi di risorse, e più trasparenti all’interpretazione. Si cerca anche di formare più gente possibile tramite l’erogazione di corsi sull’AI gratuiti e aperti a tutti, oltre che tutelare gli interessi umani con l’emanazione di leggi che pretendono un approccio etico alla materia. Il nuovo governo, se vorrà che i cittadini siano in grado di usare l’AI senza essere da questa usati, dovrà fare tutto questo e di più.

8. Deepfake, dal revenge porn alla fine della verità

I deepfake sono immagini e video iper-realistici generati al computer. Possono essere utilizzati per creare notizie false o per far sembrare che qualcuno stia facendo qualcosa che in realtà non ha mai fatto. A parte il loro limitato uso nell’intrattenimento, la maggior parte dei deepfake sono video che ritraggono persone note in situazioni compromettenti, soprattutto video pornografici, o che dicono cose che in realtà non hanno mai detto. Zelensky che annuncia di arrendersi ai Russi è uno dei più noti casi recenti.

La tecnologia alla base dei deepfake sta diventando sempre più sofisticata e accessibile, il che significa che in futuro ne vedremo sempre di più e sempre più realistici. Ciò solleva preoccupazioni circa il loro potenziale impatto sulla società. I deepfake potrebbero essere utilizzati per diffondere disinformazione o screditare persone, ad esempio con finti video di revenge porn.

Ma oltre i casi di cyber-molestie o cyber-bullismo, i deepfake sollevano importanti questioni sul futuro della verità. Quando chiunque potrà creare facilmente un’immagine o un video realistici di qualcuno che fa qualcosa che invece non ha mai fatto realmente, diventerà per noi sempre più difficile capire se un’immagine o un video sono reali o meno. Cosa faremo quando non potremo più fidarci di quello che vediamo o che sentiamo? Per non parlare dei deepfake audio, che saranno così indistinguibili da quelli reali da non poter più sapere con certezza se al telefono una voce a noi nota sia davvero la persona con cui crediamo di parlare.

Per affrontare i deepfake vi sarà bisogno di una risposta multidisciplinare, che comprenda ovviamente gli aspetti tecnici, legali, sociali e di pubblica sicurezza, ma che non dovrà trascurare la dimensione democratica e politica.

9. Sviluppo del settore

Nel settore dell’intelligenza artificiale il mondo accademico italiano è stato sempre all’avanguardia, con ricerche di alto livello già dagli anni Sessanta. Dove l’Italia perde è nell’offerta di posti di lavoro, cronicamente scarsi e mal retribuiti rispetto a quanto sia possibile trovare all’estero. Gli investimenti nelle start-up poi non sono paragonabili a quanto è disponibile in altri Paesi, anche presso i nostri vicini europei. Il risultato è una costante fuga di ingegneri, ricercatori ed esperti di AI verso i soliti Paesi e le solite multinazionali, oppure verso start-up straniere ben finanziate, disperdendo così in mille rivoli il buon lavoro svolto dalle università.

Manca, inoltre, un serio programma di sviluppo delle competenze AI nelle altre discipline, come quella giuridica, educativa, sociale e nell’ingegneria non informatica. La gestione dell’intelligenza artificiale ha bisogno dell’apporto di molte professionalità oltre agli informatici, con giuristi, amministratori, imprenditori, educatori che siano in grado di comprenderla, oltre che di guidarne gli sviluppi nei loro rispettivi ambiti di competenza.

10. Governance dell’AI italiana

L’ultimo elemento sarà forse il primo che arriverà sul tavolo del governo. C’è bisogno di creare in Italia un gruppo, un istituto, un ufficio, una authority, una agenzia che si occupi esclusivamente di intelligenza artificiale. Chiamiamola come vogliamo, diamole la forma che vogliamo, ma abbiamo urgente bisogno di una squadra che sappia intercettare i segnali, i problemi e le opportunità che riguardano l’AI, per proporre soluzioni e iniziative di governance in grado di massimizzare i benefici minimizzando i rischi.

Lo chiederà il futuro regolamento europeo sull’intelligenza artificiale, lo chiedono molti ricercatori ed esperti del settore e, onestamente, lo chiede il buon senso. Una rivoluzione così impattante e pervasiva come l’AI non può essere gestita da uno spezzatino di governance, con mini-competenze sparpagliate in altre autorità e gruppi di interesse. Serve un’unica regia, competente, multi-disciplinare, con la forza di proporre e portare a termine le iniziative opportune.

L’intelligenza artificiale è il grande spartiacque che separerà le generazioni che verranno da tutte quelle che sono venute prima di loro. E noi, la generazione di mezzo, ha la responsabilità di dover traghettare l’umanità verso il futuro. I governi dei prossimi 10/15 anni, in tutto il mondo, saranno quelli che dovranno gettare le basi per uno sviluppo etico e sostenibile delle tecnologie di intelligenza artificiale, affinché siano esse al servizio delle persone e non il contrario.