L’effetto Altman

In una recente audizione della Commissione Giudiziaria del Senato statunitense è risuonato un appello collettivo alla regolamentazione dell’intelligenza artificiale. I protagonisti, tra cui il CEO di OpenAI Sam Altman, il professore dell’Università di New York Gary Marcus e Christina Montgomery, Chief Privacy and Trust Officer di IBM, hanno espresso urgenti preoccupazioni per la crescita incontrollata dell’intelligenza artificiale.

L’audizione di Altman

Altman ha presentato un piano in tre punti che prevede l’istituzione di un’agenzia federale per la supervisione dei modelli AI che superino certi livelli di capacità, lo sviluppo di standard di sicurezza e la richiesta di verifiche indipendenti.

Nonostante l’assenza di consenso su proposte specifiche, i senatori hanno condiviso i principi alla base di queste osservazioni. Il mondo della politica, soprattutto negli Stati Uniti, sa bene di aver commesso numerosi errori anni fa nella gestione dei social media, ed è determinato a non ripetere gli stessi sbagli con l’intelligenza artificiale. Per sottolineare le loro preoccupazioni i senatori USA hanno evocato immagini molto potenti, paragonando il balzo tecnologico dell’AI all’invenzione della bomba atomica.

L’audizione di Altman ha avuto grande risalto sui media di tutto il mondo, evidenziando la necessità di regolamentare velocemente il settore dell’intelligenza artificiale.

Il post di Altman

Successivamente in un post sul blog di OpenAI, i leader dell’azienda, Sam Altman, Greg Brockman e Ilya Sutskever hanno ulteriormente discusso la necessità di una solida governance della superintelligenza. Essi ritengono che nel prossimo decennio i sistemi di intelligenza artificiale supereranno il livello di competenza degli esperti nella maggior parte dei settori, introducendo sia incredibili opportunità sia rischi significativi.

La leadership di OpenAI propone tre strategie per garantire uno sviluppo e una diffusione sicuri della superintelligenza:

1. Coordinamento tra i principali sviluppatori per garantire determinati standard di sicurezza e facilitare l’integrazione dell’AI nella società. Ciò potrebbe avvenire attraverso un progetto comune gestito dai principali governi o un accordo reciproco per limitare il tasso di crescita delle capacità dell’AI.

2. L’istituzione di un’autorità internazionale simile all’Agenzia internazionale per l’energia atomica per supervisionare la superintelligenza. L’agenzia avrebbe la responsabilità di ispezionare i sistemi, richiedere verifiche e testare la conformità agli standard di sicurezza.

3. Sviluppare le capacità tecniche per rendere sicura la superintelligenza. Una questione di ricerca aperta, come ammettono i tre, su cui OpenAI e altri stanno ancora lavorando.

Gli autori suggeriscono che i sistemi di AI meno potenti non dovrebbero essere soggetti alle stesse norme rigorose per evitare di soffocare l’innovazione, sostenendo la necessità di una supervisione pubblica e di un processo decisionale democratico per definire i limiti e le impostazioni predefinite dei sistemi AI. Nel post si osserva infine che i costi per sviluppare questa ipotetica superintelligenza stanno diminuendo, rendendo più difficile bloccarne la creazione.

I viaggi di Altman

Ma dopo gli Stati Uniti, Sam Altman ha deciso di iniziare un tour delle capitali europee per confrontarsi con gran parte dei leader del vecchio continente (ha però accuratamente evitato l’Italia). Durante il suo viaggio Altman ha visitato Spagna, Francia, Polonia, Germania e Regno Unito, conversando con leader nazionali come Pedro Sánchez, Emmanuel Macron, Mateusz Morawiecki, Olaf Scholz e Rishi Sunak, oltre che con la Presidente della Commissione Europea Ursula von der Leyen. I dialoghi si sono concentrati principalmente sulla prossima legge dell’Unione europea sull’intelligenza artificiale, l’AI Act attualmente in discussione al Parlamento europeo.

Il CEO di OpenAI, che negli Stati Uniti sembrava un paladino della regolamentazione, non ha gradito il passaggio dell’AI Act che impone agli sviluppatori di sistemi generali, come ChatGPT, di divulgare una sintesi dei materiali coperti da copyright usati per addestrare i modelli. L’intento dell’UE è chiaro: mira a proteggere i diritti di proprietà intellettuale, garantendo che le aziende AI non utilizzino contenuti protetti da copyright senza che vi sia un consenso o la consapevolezza da parte dei detentori dei diritti. Altman, tuttavia, sottolinea un dilemma pratico: date le modalità complesse e diffuse di raccolta e utilizzo dei dati, verificare ogni singolo contenuto protetto da copyright è praticamente impossibile. OpenAI ha proposto un approccio più pragmatico al tracciamento dei contenuti protetti da copyright: esaminare le richieste degli utenti nel prompt. Ad esempio, se un utente chiede a un sistema AI una canzone nello stile dei Beatles, è una chiara indicazione che il lavoro dei Beatles ha influenzato l’output.

Commentando questo problema Altman ha prima sollevato un polverone dichiarando che la sua azienda potrebbe prendere in considerazione l’idea di lasciare l’Europa a causa di un “eccesso di regolamentazione” da parte dell’UE, poi ha fatto una parziale retromarcia indicando che OpenAI è comunque intenzionata ad aprire una sede in uno dei Paesi europei.

La scelta di Altman

In realtà la necessità di aprire una sede nell’UE sarebbe imposta dal testo dell’AI Act attualmente in discussione, ma Altman è riuscito a trasformarla in un concorso di bellezza fra i Paesi visitati. Una fonte riservata ha descritto al sito Politico il Primo Ministro britannico Sunak “deferente” nei confronti di Sam Altman, mentre in Francia il ministro del Digitale Jean-Noël Barrot ha esaltato i meriti della Francia come “Paese dell’AI”, sottolineando la sua forza lavoro di talento, l’abbondante energia nucleare e il ricco patrimonio culturale.

Altman dal canto suo ha distribuito elogi un po’ a tutti, riconoscendo l’impressionante talento della ricerca AI in Francia, ma esprimendo ammirazione per il “talento e l’energia” presenti in tutti i Paesi che ha visitato. Alla fine però la scelta della sede sarà fortemente condizionata da quale sarà l’autorità designata dal Paese per il controllo degli algoritmi. In Spagna, ha affermato Altman, OpenAI intende partecipare alla prima “sandbox” normativa che sarà realizzata dalla nuova Agenzia per l’Intelligenza Artificiale.

L’effetto Altman

Dopo l’abbuffata di dichiarazioni e discorsi sulla regolamentazione dell’AI, sembrava quasi che il settore non si fosse mai posto la questione di come governare l’intelligenza artificiale prima che arrivasse il CEO di OpenAI. Quello della regolamentazione è in realtà un problema molto sentito già da diversi anni, che tuttavia non aveva mai trovato ascoltatori in nessuno degli ambiti che oggi maggiormente si affannano a rincorrere il problema, quello dei politici e quello dei giornalisti.

A chi faceva osservare che l’intelligenza artificiale un giorno sarebbe arrivata “col botto” a sconvolgere molte delle regole che la società riteneva intramontabili, l’atteggiamento di chi avrebbe dovuto ascoltare era per lo più di indifferenza, quando non proprio di derisione. Già solo il fatto di occuparsi di intelligenza artificiale era visto come uno stare fuori dal mondo, come quelli che studiano la vita su Marte o passano le notti all’aperto per cercare gli Ufo. I problemi erano altri e con l’intelligenza artificiale i politici non venivano eletti e i giornali non vendevano copie.

Forse ad Altman va riconosciuto il merito di aver dato evidenza alla questione della regolamentazione, cosa che finora nessuno era riuscito a portare con forza sulle prime pagine di tutti i giornali. Certo, Altman lo fa parlando di AGI e di superintelligenze, distraendo l’attenzione da altri problemi più attuali, come i bias, la privacy e la cybersecurity dei sistemi AI. Però ora i politici battono i pugni sul tavolo e tengono convegni sulla governance dell’AI, mentre i giornali fanno a gara a chi copre più notizie relative all’intelligenza artificiale.

Un “effetto Altman” magari esagerato, sicuramente un hype, ma almeno oggi chi parla della sicurezza dell’intelligenza artificiale finalmente ottiene subito l’attenzione di tutti i presenti. Almeno per un po’.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.