È la cooperazione internazionale che porta avanti la ricerca AI

Connected world

Come suggeriscono Hwang e Pascal dalle colonne di Foreign Policy, l’intelligenza artificiale è uno dei test di Rorschach della nostra epoca: macchie dai contorni sfumati, che pochi capiscono, nelle quali ognuno vede quello che vuole vedere.

Ed è così che per molti governi l’AI assomiglia a una corsa agli armamenti, dove la ricerca va protetta dietro alte mura e spesse cortine fumogene. Gli Stati Uniti non fanno mistero di sposare questa linea, istigati probabilmente dalle dichiarazioni di Putin: “chiunque diventi leader [nell’AI] diventerà il padrone del mondo“, oltre che dai piani del governo cinese, che ha reso una delle sue priorità nazionali quella di diventare la potenza mondiale leader nell’intelligenza artificiale entro il 2030.

In realtà chiunque oggi faccia ricerca in ambito AI concorda su un aspetto: la libera cooperazione internazionale fra ricercatori è alla base della strada fatta fin qui.

La ricerca AI è per certi versi fragile. Ha difficoltà a offrire riproducibilità (uno dei capisaldi del metodo scientifico), è frammentata in ambiti distinti fra loro (machine learning, natural language processing, computer vision e robotica si intrecciano, ma hanno origini molto diverse), entra prepotentemente in ambiti quali la privacy, la difesa, i diritti umani, cosa che rende ogni scoperta una potenziale bomba etica.

Per non parlare poi del rischio esistenziale, per chi ci crede, ovvero l’eventualità che un giorno un’intelligenza artificiale generale diventi una super-intelligenza e metta fine al genere umano.

Il timore verso uno strumento così inafferrabile e imprevedibile tende a far accettare la narrativa che l’AI sia come un’arma, o che possa diventarlo, e che debba quindi essere regolamentata similmente a come si fa con la ricerca sul nucleare.

È vero che vedremo sempre più reti neurali all’interno delle armi, dei sistemi di puntamento, dei missili. Ma per farlo si usano le stesse tecnologie che consentono di predire il rischio di tumore, di aumentare il rendimento dei raccolti, di prevenire l’insorgenza di pandemie, di trovare nuovi farmaci. Costruire muri e impedire la cooperazione fra ricercatori di Paesi diversi non farà altro che rallentare gli sviluppi civili dell’AI, mentre quelli bellici continueranno senza troppi problemi.

Ecco perché mettere in blacklist aziende AI cinesi, o proporre cordate per evitare che determinate tecnologie arrivino a Pechino, o perfino negare il visto per una conferenza ai ricercatori africani sono iniziative mosse da una logica miope, che rischia di portare più danni che benefici.

Senza contare infine che per sviluppare regole sulla sicurezza e sull’etica dell’intelligenza artificiale, come stanno facendo ad esempio l’ONU, l’OCSE e il G20, serve la cooperazione e l’apporto di tutti. Inclusi Russi e Cinesi.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.