
Il 1 Novembre il Primo Ministro britannico Rishi Sunak ha inaugurato un vertice di alto livello sulla sicurezza dell’intelligenza artificiale, l’AI Safety Summit, con l’obiettivo di consolidare il ruolo guida della Gran Bretagna nella governance globale dell’AI.
La “Dichiarazione di Bletchley“, sottoscritta da rappresentanti di 28 nazioni, tra cui l’Italia, ha sottolineato i rischi potenziali associati ai sistemi AI avanzati. Nonostante l’accento sulla cooperazione internazionale, il documento non ha definito specifici obiettivi politici, rimandando ulteriori discussioni a futuri incontri che – il ministro britannico per il digitale Michelle Donelan ha poi specificato – si terranno in Corea del Sud e in Francia.
Ma come spesso accade, soprattutto quando si cerca rapidamente la massima adesione a un testo, il documento si propone con grandi ambizioni ma presenta notevoli carenze.
Partiamo da un punto fondamentale: la dichiarazione mette in evidenza l’importanza rivoluzionaria dell’AI nella nostra società – un aspetto sul quale possiamo tutti concordare. Ma si ferma qui, senza dare linee guida precise su come l’AI dovrebbe essere regolamentata. Menziona i rischi dei nuovi modelli di AI, la cosiddetta AI di frontiera, ma non spiega in dettaglio come riconoscerli o come gestirli.
Un esempio? La dichiarazione cita l’AI in relazione alla cybersecurity e alla biotecnologia, ma non specifica i rischi connessi. Quando segnala problemi, non indica soluzioni concrete su come affrontarli.
Un altro punto di riflessione riguarda l’affermazione che molti rischi dell’AI sono “internazionali per natura”. Se da un lato è vero che l’AI non si ferma ai confini nazionali, dall’altro questa dichiarazione potrebbe sembrare un tentativo di eludere responsabilità a livello di singoli Paesi.
Insomma, la dichiarazione sembra dire “dobbiamo fare qualcosa” e “dobbiamo farlo tutti insieme”, ma senza specificare cosa, quando, in che modo e – soprattutto – con quali compromessi. Perché quando si parla di innovazione e di regolamentazione vi sono sempre compromessi fra rischi e opportunità.
Ad ogni modo il vertice, tenutosi a Bletchley Park, luogo storico in cui Turing contribuì a decifrare il codice Enigma durante la Seconda Guerra Mondiale, ha avuto una forte connotazione simbolica. È un segnale dell’ambizione del Regno Unito di essere al centro di un’iniziativa mondiale nell’era dell’AI.
Un vertice che però è stato criticato, ancor prima che iniziasse, da una lista di importanti figure dell’ecosistema AI britannico come Neil Lawrence, Burkhard Schafer, Michael Katell, Tabitha Goldstaub (che fu a capo dell’AI Council, l’ormai disciolto comitato di esperti AI che consigliava il governo), oltre che da organizzazioni come Amnesty International, AI Now Institute, Mozilla, The Trade Union Advisory Committee to the OECD e l’influente European Trade Union Confederation. La colpa del governo sarebbe stata l’esclusione di importanti sigle della società civile, dei lavoratori e delle piccole imprese dai lavori del Summit.
Anche Mark Lee, noto accademico dell’Università di Birmingham, ha espresso preoccupazione per l’orientamento del vertice. Secondo Lee, si sta dando troppo peso a scenari ipotetici di rischio, trascurando questioni concrete e attuali, come le potenziali discriminazioni dell’AI in settori critici come la medicina, la giustizia penale e la finanza.
Del resto l’idea di questo Summit arrivò all’indomani della famigerata lettera sui rischi esistenziali firmata da molte note figure del settore (ma aspramente criticata da molte altre), che paragonava i rischi dell’intelligenza artificiale alla guerra nucleare o a una pandemia.
Paragoni che hanno fatto sobbalzare più di un governante sulla sedia. Fra questi il primo ministro britannico che, secondo il Washington Post, ha usato l’idea di un vertice sui rischi dell’AI per cercare di riparare un’immagine sempre meno brillante.
Un Summit sull’intelligenza artificiale che sembra dunque più indirizzato a rafforzare la posizione del Regno Unito nel palcoscenico mondiale dell’AI, anziché offrire rivoluzionarie strategie per la futura governance dell’intelligenza artificiale. Un compito invero non facile, considerando che da un lato gli Stati Uniti godono di una posizione dominante – e che solo pochi giorni fa hanno rubato la scena pubblicando l’ordine esecutivo sull’intelligenza artificiale – mentre dall’altro lato l’Unione Europea è in procinto di emanare l’AI Act, una misura che, una volta adottata, potrebbe avere un impatto significativo sul settore dell’AI a livello mondiale.
La sensazione, dunque, è quella di un Regno Unito che sgomita per non essere schiacciato dai suoi alleati, cercando di trovare un modo per continuare a essere rilevante, magari creando un consenso globale attorno alla sicurezza dell’AI con la creazione di un organismo a guida britannica.
Per raggiungere tale obiettivo, tuttavia, è fondamentale promuovere strategie e soluzioni fattibili e che abbiano un reale impatto nel settore, evitando di rifugiarsi dietro proclami generici e poco impegnativi.