Intelligenza artificiale spiegabile, i primi passi dei robot

Un grafico di Explainable Artificial Intelligence (XAI), David Gunning, DARPA/I2O
Un grafico di Explainable Artificial Intelligence (XAI), David Gunning, DARPA/I2O

La Explainable AI (XAI) indica una serie di iniziative, progetti, metodi e tecniche per indurre l’intelligenza artificiale a spiegarsi, affinché il percorso che ha portato a una data decisione sia comprensibile agli esperti umani. Una delle maggiori preoccupazioni collegate al deep learning infatti è l’imperscrutabilità del processo decisionale all’interno della rete neurale, che rende il sistema una cosiddetta “black box“: si conosce il risultato finale ma non si sa come abbia fatto per raggiungerlo.

Per poter collaborare con l’intelligenza artificiale gli umani devono fidarsi di essa, e la black box rappresenta uno dei maggiori ostacoli. Anche DARPA (Defense Advanced Research Projects Agency, l’agenzia militare USA che in sessant’anni ha prodotto numerose innovazioni, fra le quali Internet) deve aver capito la gravità del problema, visto che ha lanciato il programma Explainable AI per creare sistemi in grado di spiegarsi in maniera comprensibile (pdf).

Ed è proprio grazie a questi finanziamenti che alla University of California, Los Angeles alcuni ricercatori si sono procurati un modello di robot Baxter e lo hanno dotato di un sistema che comunica comprensibilmente ogni azione che compie. In un video pubblicato su Youtube potete vedere il robot impegnato a descrivere minuziosamente tutti i passi che effettua per aprire la bottiglietta di un farmaco (quelle con tappo di sicurezza, dove serve la pressione oltre alla torsione).

Malgrado il sistema indichi con solerzia quello che fa, manca ancora la parte più importante, ovvero le motivazioni. Dichiarare che si sta eseguendo una pressione o una torsione è utile, ma sarebbe ancora più utile spiegare perché si effettua quella operazione proprio in quel momento. Su questo il robot ancora non è in grado di fornire spiegazioni, ma i ricercatori della UCLA ora sono al lavoro proprio su questo aspetto.

Per approfondire: A Robot That Explains Its Actions Is a First Step Towards AI We Can (Maybe) Trust

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.