Non è possibile fermare l’AI, solo rincorrerla

Seguire l'AI, immaginato da L. Sambucci con l'aiuto di Midjourney
"Seguire l'AI", immaginato da L. Sambucci con l'aiuto di Midjourney

Negli ultimi giorni sono avvenuti due fatti che tradiscono un certo nervosismo generalizzato nei confronti dell’intelligenza artificiale. Avevamo iniziato a scrivere questo articolo prendendo in esame solo il primo, la lettera del Future of Life Institute che chiede di mettere in pausa per almeno sei mesi i progetti AI “più potenti di GPT-4”, ma nel frattempo è arrivato anche il provvedimento d’urgenza del Garante della Privacy italiano per bloccare ChatGPT, che ci offre lo spunto per commentare le posizioni del nostro Paese in merito al rapido sviluppo dell’intelligenza artificiale.

Partiamo dalla lettera aperta. Anzitutto, per comprendere bene il gioco, bisogna conoscere i giocatori.

Il Future of Life Institute

La lettera è stata redatta dal Future of Life Institute (FLI), un’organizzazione no-profit fondata nel 2014 con la missione di garantire che lo sviluppo delle tecnologie avanzate, in particolare l’intelligenza artificiale, sia sicuro e benefico per l’umanità. Il FLI non è nuovo a questo genere di iniziative, infatti questa è la quinta lettera aperta in meno di otto anni. Le altre lettere sono di tenore simile e riguardano lo sviluppo di sistemi AI sicuri, di principi etici per l’intelligenza artificiale, il bando delle armi autonome.

Fra i fondatori vi sono il cosmologo Max Tegmark (presidente) il fisico teorico Anthony Aguirre e l’informatica Viktoriya Krakovna. L’istituto ha guadagnato il sostegno di eminenti personalità, come il fisico teorico e cosmologo Stephen Hawking, l’imprenditore Elon Musk, lo scrittore e divulgatore scientifico Jaan Tallinn (uno dei primi sviluppatori di Skype) e l’esperto di intelligenza artificiale Stuart Russell.

Ma quando guardiamo chi finanzia il FLI il nome prominente è quello della “Musk Foundation“, che su quattro milioni di euro di bilancio complessivo gliene ha forniti tre e mezzo. Con Elon Musk a finanziare oltre l’86% dell’istituto, non è difficile intuire chi vi sia dietro le attività e le iniziative dell’organizzazione.

Lo stesso Musk che nel 2015 partecipò alla fondazione di OpenAI, che nel 2018 cercò di prendere le redini del laboratorio, ma che dietro l’opposizione dell’attuale CEO Sam Altman se ne andò sbattendo la porta. Nel board di OpenAI è rimasta fino a pochi giorni fa Shivon Zilis, una dirigente dell’azienda Neuralink (di proprietà di Musk), con cui il miliardario ha avuto due figli. Ma nello stesso momento in cui veniva pubblicata la lettera aperta del FLI,  che vede Elon Musk fra i primi firmatari, Zilis si è dimessa dal board di OpenAI evitando così una permanenza imbarazzante.

Cosa chiede la lettera

La lettera aperta chiede essenzialmente quattro cose:

  1. Sospendere per almeno sei mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4, rendendo questa pausa pubblica e verificabile, coinvolgendo tutti gli stakeholder.
    • Se i laboratori di sviluppo AI non sono in grado di attuare la pausa in tempi brevi, i governi dovrebbero intervenire istituendo una moratoria.
  2. Sviluppare e implementare una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di sistemi AI avanzati, con una supervisione indipendente.
  3. Rifocalizzare la ricerca e lo sviluppo dell’AI sul miglioramento dei sistemi esistenti per renderli più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.
  4. Accelerare lo sviluppo di solidi sistemi di governance dell’AI, tra cui autorità di regolamentazione, sorveglianza, tracciabilità, sistemi di provenienza, revisione e certificazione, responsabilità per i danni causati dall’AI, finanziamenti pubblici per la ricerca sulla sicurezza dell’AI e istituzioni per gestire le trasformazioni economiche e politiche causate dall’AI.

È interessante notare come le richieste della lettera si facciano più ragionevoli man mano che la si scorre, con la richiesta più assurda, impraticabile e inefficace posta proprio come condizione iniziale.

Sospendere per sei mesi?

La sospensione per sei mesi dell’addestramento di sistemi “più potenti di GPT-4” è stata criticata da molti esperti del settore, a partire dai ricercatori citati dalla stessa lettera. A parte il fatto che non si capisce perché la ricerca debba essere sospesa proprio per sei mesi e non per cinque mesi o per sette. In genere più è “tonda” una cifra, meno è stata ragionata e calcolata, segno che probabilmente si puntava più alla componente mediatica del messaggio che non a una vera efficacia della moratoria.

Inoltre, non si comprende bene cosa si intende per modelli “più potenti di GPT-4“, tenendo in considerazione che di GPT-4 non si conosce il numero di parametri né i dataset usati per l’addestramento. Ma pensiamo anche alla praticità dell’appello: come dovrebbe muoversi un laboratorio che sta addestrando un modello linguistico per le diagnosi mediche o una gigantesca rete neurale per la scoperta di nuovi corpi celesti? Dovrebbe fermare le macchine, restituire gli investimenti, licenziare i ricercatori? Ma prima di farlo, come fa a stabilire se i suoi modelli siano “più potenti” di quelli usati da OpenAI per creare GPT-4?

Per non parlare poi dell’ipotetico intervento governativo per imporre una moratoria sugli addestramenti delle reti neurali “più potenti di GPT-4”. Visto che in tutto il mondo sono proprio i governi e le istituzioni tradizionali a non essere in grado di comprendere o gestire quello che ruota intorno l’intelligenza artificiale più avanzata, come fanno i firmatari ad aspettarsi che un governo abbia le competenze per circoscrivere proprio quel tipo di ricerche che la lettera vorrebbe mettere al bando? Nel migliore dei casi i governi non saprebbero da dove iniziare, nel peggiore interverrebbero con la mano pesante tirando il freno a mano indiscriminatamente su tutta la ricerca.

Dimentichiamo poi che quella dell’intelligenza artificiale è anche una competizione fra Paesi, USA e Cina in primis. Nessuno negli Stati Uniti fermerà le proprie computazioni se non saranno tutti a farlo, proprio perché una corsa tecnologica non si vince facendo pause di riflessione. Se anche qualche grande laboratorio dovesse lasciarsi convincere e bloccare autonomamente l’addestramento dei suoi modelli, e non vi è indicazione che qualcuno sia disposto a farlo, i suoi concorrenti non potranno far altro che ringraziarlo e continuare a correre.

Infine, e forse l’aspetto più importante di tutti, l’intelligenza artificiale è un’immensa occasione per intervenire su molte questioni critiche del nostro mondo che rappresentano un rischio reale, come il cambiamento climatico, le crisi alimentari, la ricerca biologica, la medicina personalizzata. Forse troppa gente in questi mesi si è lasciata trasportare da una certa narrativa apocalittica, alimentata dalla sorpresa che tutti i non esperti hanno avuto con il rilascio di ChatGPT: il mondo si è accorto di quello che diversi di noi ormai dicevano da qualche anno, ovvero che l’intelligenza artificiale stava imparando a leggere e a scrivere estremamente bene (oltre che a parlare e ad ascoltare). E nella scoperta qualcuno si è spaventato, sia perché non si era accorto di quanto fosse avanzata la ricerca, sia perché ora ha paura che l’accelerazione possa portare a novità e cambiamenti negativi che non sarà in grado di prevedere né tanto meno di arginare.

Le altre richieste sono più ragionevoli

Una paura più che fondata: l’accelerazione della ricerca AI sta aumentando, e con essa il gap fra ciò che è possibile e ciò che le nostre istituzioni tradizionali sanno governare. In altre parole, le regole che le nostre società si sono date, e che finora hanno funzionato forse non meravigliosamente ma sufficientemente bene, non saranno adatte a quello che sta per arrivare. Lavoro, sicurezza, produzione di ricchezza, interazioni (sia fra persone, sia con aziende e istituzioni), intrattenimento, ricerca, democrazia, sono tutti ambiti che saranno rivoluzionati da tecnologie basate su tecniche di machine learning. I cambiamenti avverranno così rapidamente che chi è stato eletto ieri e governa con regole dell’altro ieri, non sarà in grado di gestire, né prevedere.

Servono quindi, e qui la lettera avanza delle richieste ragionevoli, maggiori sforzi lato nostro – ovvero lato ecosistema AI – per insistere su sistemi sicuri, trasparenti, governabili. Si potrebbero ad esempio adottare principi di security by design e di ethics by design per qualsiasi sistema AI si voglia mettere in produzione, grande o piccolo che sia. Di ethics by design, fra l’altro, parla anche la nostra Francesca Rossi, che pur facendo parte del comitato scientifico del FLI ha deciso di non firmare la lettera.

Quelli della sicurezza e dell’etica AI sono ambiti di ricerca che, è bene ricordarlo, si possono rafforzare anche senza mettere uno stop agli addestramenti attuali. Anzi, si può argomentare che sono proprio le grandi ricerche in corso a dare ai ricercatori linfa, contenuti e occasioni di mettere in pratica nuove tecniche per aumentare la robustezza e la sicurezza dei sistemi AI.

Ma servono anche allineamenti normativi, sia per incentivare il mondo privato e quello accademico a focalizzare le proprie risorse su caratteristiche di sicurezza e di etica (cosa che altrimenti molte aziende private non farebbero mai da sole), sia per creare sistemi flessibili e sandbox che consentano alle regole di adattarsi rapidamente al mondo che cambia. Servono inoltre, e qui la lettera è perfettamente in linea con il nostro pensiero, autorità regolamentari capaci e dedicate all’intelligenza artificiale. Enfasi su “capaci”, quindi con le giuste competenze specialistiche, e “dedicate”, ossia che non abbiano altre priorità nel loro statuto se non quella di governare con efficacia e sicurezza le politiche sull’intelligenza artificiale.

Il Garante italiano per la privacy blocca ChatGPT

Ed è qui che potremmo inserire la presa di posizione del nostro Garante per la protezione dei dati personali su ChatGPT, che con un provvedimento d’urgenza ha disposto per OpenAI il divieto a trattare i dati dei cittadini italiani. Cosa che ha spinto l’azienda statunitense a limitare l’accesso al servizio a chi si collega dall’Italia.

L’avv. Guido Scorza, che siede nel Collegio del Garante che ha assunto la decisione, ne ha spiegato le ragioni in molti articoli e interviste, oltre che in un post: Lo stop a ChatGPT, parla il Garante della Privacy: “Davvero dobbiamo scegliere tra progresso, diritti e libertà?”.

Posizioni ulteriormente chiarite in un’intervista a Repubblica e che si possono riassumere come segue:

  • OpenAI ha raccolto i dati personali di miliardi di persone per addestrare i propri algoritmi senza informarli di questa circostanza;
  • ha inoltre raccolto i dati personali degli utenti nel corso delle conversazioni senza informarli della sorte di questi dati;
  • ChatGPT genera contenuti, in risposta alle domande, che talvolta attribuiscono alle persone fatti e circostanze inesatte e non veritiere proponendo così una rappresentazione distorta della loro identità personale (quello che in gergo si chiama “allucinare”);
  • ChatGPT consente l’accesso anche ai minori (nonostante il servizio non sia pensato per chi ha meno di tredici anni) poiché mancano verifiche sull’età.

La mossa è stata criticata da molti, anche in punta di diritto, come l’avv. Andrea Monti che dal suo blog afferma che la decisione è “molto discutibile da un punto di vista tecnico, legale e culturale“.

Non ci pronunciamo sulle questioni legali: se confermate non farebbero che rafforzare l’idea di come le norme non stiano al passo con la realtà, poiché dal punto di vista tecnologico ormai tutti i grandi modelli linguistici sono addestrati con ciò che l’umanità mette online. Chiedere che il produttore di un LLM contatti miliardi di persone per raccogliere il consenso a usare i loro dati (intesi non solo come nome e indirizzo, ma anche e soprattutto come contenuti, post, foto, commenti, ecc) trovati online appare a prima vista irragionevole, soprattutto quando il sistema non è stato progettato per restituire quei dati tali e quali, bensì per usarli come base per generare contenuti nuovi.

Ed è anche sulla generazione di contenuti che si scaglia il Garante. L’esempio dell’avv. Scorza su Repubblica è eloquente: se qualcuno chiede a ChatGPT informazioni su una data persona e ChatGPT (iniziando ad “allucinare”) inventasse di sana pianta fatti mai avvenuti, che però gettano discredito sull’interessato, quest’ultimo sarebbe enormemente danneggiato.

Evidentemente il Garante ritiene che molti utenti scambiano ChatGPT per un motore di ricerca. Un errore che in effetti molte persone commettono, soprattutto dal momento in cui Microsoft non ha perso tempo a integrare GPT-4 in Bing, aumentando la confusione. Già questo potrebbe spingere più di una persona a pensare che ogni informazione restituita da un grande modello linguistico sia veritiera. Chi conosce i meccanismi dei LLM sa bene quanto possa essere sbagliato questo modo di usare un modello linguistico, una tecnologia che mal si adatta alle necessità dei motori di ricerca come spiega anche un recente articolo su Harvard Business Review. Ma è evidente che il Garante, che ricordiamo deve tutelare esclusivamente i cittadini, ritiene questa confusione sufficiente per chiedere a OpenAI di far sì che il suo sistema non restituisca fandonie inventate quando gli si chiedono informazioni su una persona.

È presumibile che ulteriori versioni dei LLM nel corso degli anni vedano una riduzione progressiva di queste allucinazioni, tale da rendere eventi di questo tipo così rari da non essere rilevanti. Se tuttavia, nonostante i correttivi tecnologici, i LLM continuassero ad allucinare fatti ed eventi anche nei prossimi anni, non dovrebbe essere difficile per i produttori mettere opportuni disclaimer per educare tutti gli utilizzatori su questa limitazione.

Cultura politica arretrata

L’idea generale è che siano state sollevate contro OpenAI obiezioni tecnologicamente non pertinenti, frutto forse non di una mancanza di competenze tecniche da parte di chi le ha formulate, bensì di un’arretratezza normativa che non è in grado di tenere conto di come cambia la società nel suo rapporto con la tecnologia. In altre parole, al Garante possono usare gli strumenti che hanno in dotazione e non possono inventarsene di nuovi. Questo è sintomo di una cultura politica reattiva e tattica, oltre che perennemente in rincorsa.

Appare quindi più urgente che mai la richiesta avanzata spesso da più parti – anche su queste pagine – e reiterata nella lettera aperta del FLI, ovvero far sì che gli esperti di AI lavorino a stretto contatto con i legislatori, affinché i primi siano più responsabilizzati nel creare sistemi sicuri e robusti, e i secondi consapevoli dell’imminente futuro tecnologico della nostra società e capaci di legiferare con cognizione di causa.