
La Explainable AI (XAI) indica una serie di iniziative, progetti, metodi e tecniche per indurre l’intelligenza artificiale a spiegarsi, affinché il percorso che ha portato a una data decisione sia comprensibile agli esperti umani. Una delle maggiori preoccupazioni collegate al deep learning infatti è l’imperscrutabilità del processo decisionale all’interno della rete neurale, che rende il sistema una cosiddetta “black box“: si conosce il risultato finale ma non si sa come abbia fatto per raggiungerlo.
Per poter collaborare con l’intelligenza artificiale gli umani devono fidarsi di essa, e la black box rappresenta uno dei maggiori ostacoli. Anche DARPA (Defense Advanced Research Projects Agency, l’agenzia militare USA che in sessant’anni ha prodotto numerose innovazioni, fra le quali Internet) deve aver capito la gravità del problema, visto che ha lanciato il programma Explainable AI per creare sistemi in grado di spiegarsi in maniera comprensibile (pdf).
Ed è proprio grazie a questi finanziamenti che alla University of California, Los Angeles alcuni ricercatori si sono procurati un modello di robot Baxter e lo hanno dotato di un sistema che comunica comprensibilmente ogni azione che compie. In un video pubblicato su Youtube potete vedere il robot impegnato a descrivere minuziosamente tutti i passi che effettua per aprire la bottiglietta di un farmaco (quelle con tappo di sicurezza, dove serve la pressione oltre alla torsione).
Malgrado il sistema indichi con solerzia quello che fa, manca ancora la parte più importante, ovvero le motivazioni. Dichiarare che si sta eseguendo una pressione o una torsione è utile, ma sarebbe ancora più utile spiegare perché si effettua quella operazione proprio in quel momento. Su questo il robot ancora non è in grado di fornire spiegazioni, ma i ricercatori della UCLA ora sono al lavoro proprio su questo aspetto.
Per approfondire: A Robot That Explains Its Actions Is a First Step Towards AI We Can (Maybe) Trust