Intelligenza artificiale spiegabile, i primi passi dei robot

Un grafico di Explainable Artificial Intelligence (XAI), David Gunning, DARPA/I2O
Un grafico di Explainable Artificial Intelligence (XAI), David Gunning, DARPA/I2O

La Explainable AI (XAI) indica una serie di iniziative, progetti, metodi e tecniche per indurre l’intelligenza artificiale a spiegarsi, affinché il percorso che ha portato a una data decisione sia comprensibile agli esperti umani. Una delle maggiori preoccupazioni collegate al deep learning infatti è l’imperscrutabilità del processo decisionale all’interno della rete neurale, che rende il sistema una cosiddetta “black box“: si conosce il risultato finale ma non si sa come abbia fatto per raggiungerlo.

Per poter collaborare con l’intelligenza artificiale gli umani devono fidarsi di essa, e la black box rappresenta uno dei maggiori ostacoli. Anche DARPA (Defense Advanced Research Projects Agency, l’agenzia militare USA che in sessant’anni ha prodotto numerose innovazioni, fra le quali Internet) deve aver capito la gravità del problema, visto che ha lanciato il programma Explainable AI per creare sistemi in grado di spiegarsi in maniera comprensibile (pdf).

Ed è proprio grazie a questi finanziamenti che alla University of California, Los Angeles alcuni ricercatori si sono procurati un modello di robot Baxter e lo hanno dotato di un sistema che comunica comprensibilmente ogni azione che compie. In un video pubblicato su Youtube potete vedere il robot impegnato a descrivere minuziosamente tutti i passi che effettua per aprire la bottiglietta di un farmaco (quelle con tappo di sicurezza, dove serve la pressione oltre alla torsione).

Malgrado il sistema indichi con solerzia quello che fa, manca ancora la parte più importante, ovvero le motivazioni. Dichiarare che si sta eseguendo una pressione o una torsione è utile, ma sarebbe ancora più utile spiegare perché si effettua quella operazione proprio in quel momento. Su questo il robot ancora non è in grado di fornire spiegazioni, ma i ricercatori della UCLA ora sono al lavoro proprio su questo aspetto.

Per approfondire: A Robot That Explains Its Actions Is a First Step Towards AI We Can (Maybe) Trust

Sono partner e fondatore di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti l'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI), della Association for Computing Machinery (ACM) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.