È la cooperazione internazionale che porta avanti la ricerca AI

Connected world

Come suggeriscono Hwang e Pascal dalle colonne di Foreign Policy, l’intelligenza artificiale è uno dei test di Rorschach della nostra epoca: macchie dai contorni sfumati, che pochi capiscono, nelle quali ognuno vede quello che vuole vedere.

Ed è così che per molti governi l’AI assomiglia a una corsa agli armamenti, dove la ricerca va protetta dietro alte mura e spesse cortine fumogene. Gli Stati Uniti non fanno mistero di sposare questa linea, istigati probabilmente dalle dichiarazioni di Putin: “chiunque diventi leader [nell’AI] diventerà il padrone del mondo“, oltre che dai piani del governo cinese, che ha reso una delle sue priorità nazionali quella di diventare la potenza mondiale leader nell’intelligenza artificiale entro il 2030.

In realtà chiunque oggi faccia ricerca in ambito AI concorda su un aspetto: la libera cooperazione internazionale fra ricercatori è alla base della strada fatta fin qui.

La ricerca AI è per certi versi fragile. Ha difficoltà a offrire riproducibilità (uno dei capisaldi del metodo scientifico), è frammentata in ambiti distinti fra loro (machine learning, natural language processing, computer vision e robotica si intrecciano, ma hanno origini molto diverse), entra prepotentemente in ambiti quali la privacy, la difesa, i diritti umani, cosa che rende ogni scoperta una potenziale bomba etica.

Per non parlare poi del rischio esistenziale, per chi ci crede, ovvero l’eventualità che un giorno un’intelligenza artificiale generale diventi una super-intelligenza e metta fine al genere umano.

Il timore verso uno strumento così inafferrabile e imprevedibile tende a far accettare la narrativa che l’AI sia come un’arma, o che possa diventarlo, e che debba quindi essere regolamentata similmente a come si fa con la ricerca sul nucleare.

È vero che vedremo sempre più reti neurali all’interno delle armi, dei sistemi di puntamento, dei missili. Ma per farlo si usano le stesse tecnologie che consentono di predire il rischio di tumore, di aumentare il rendimento dei raccolti, di prevenire l’insorgenza di pandemie, di trovare nuovi farmaci. Costruire muri e impedire la cooperazione fra ricercatori di Paesi diversi non farà altro che rallentare gli sviluppi civili dell’AI, mentre quelli bellici continueranno senza troppi problemi.

Ecco perché mettere in blacklist aziende AI cinesi, o proporre cordate per evitare che determinate tecnologie arrivino a Pechino, o perfino negare il visto per una conferenza ai ricercatori africani sono iniziative mosse da una logica miope, che rischia di portare più danni che benefici.

Senza contare infine che per sviluppare regole sulla sicurezza e sull’etica dell’intelligenza artificiale, come stanno facendo ad esempio l’ONU, l’OCSE e il G20, serve la cooperazione e l’apporto di tutti. Inclusi Russi e Cinesi.

Sono partner e fondatore di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti l'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI), della Association for Computing Machinery (ACM) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.