Macchine e competenza emotiva

Riconoscimento emotivo su una bambina (fonte: CNN)

Vi sono molte soluzioni di visione artificiale che cercano di riconoscere le emozioni delle persone semplicemente guardandole in faccia.

Io generalmente sono scettico sulla loro efficacia, per diversi motivi. Anzitutto già per un essere umano non è sempre facile indovinare l’emozione di un’altra persona, ma spesso è il contesto che informa l’emozione: un volto austero durante un’importante riunione di lavoro può significare attenzione e rispetto, mentre al parco giochi può essere un segnale di pensieri preoccupati.

Poi ovviamente vi sono le emozioni più o meno forzate, che per motivi di coabitazione sociale facciamo tutti: il sorriso iniziale quando ci si incontra, il finto interesse mentre si ascolta (ma in realtà si pensa ad altro), il “mirroring” che si fa quando si vuole comunicare alla controparte che stiamo sulla sua stessa lunghezza d’onda.

Sorvoliamo su differenze culturali e di genere, perché il motivo principale che mi lascia poco convinto di questi sistemi è che ognuno di noi manifesta le emozioni in maniera leggermente differente, e senza avere prima una “baseline” dell’individuo non saremo davvero in grado di capire cosa prova.

Per questo motivo i sistemi AI che affermano di saper “leggere” le emozioni dal volto mi lasciano abbastanza perplesso. Va bene fare ricerca – prima o poi le macchine dovranno acquisire un buon livello di competenza emotiva e da qualche parte si deve pur iniziare – ma venderli pubblicizzando tassi di successo stellari, 85% o 90% come afferma un’azienda di Hong Kong, non fa che alimentare il mio scetticismo.

Certo, l’azienda misura le emozioni sui bambini, che si può immaginare abbiano emozioni più trasparenti e meno strutturate degli adulti (anche se chi lavora con i bambini non avrà problemi a smontare questa affermazione). Secondo l’articolo della CNN mentre i ragazzi studiano sulla piattaforma dell’azienda, l’AI misura i movimenti muscolari sui loro volti attraverso la fotocamera del loro computer o tablet e identifica diverse emozioni, tra cui felicità, tristezza, rabbia, sorpresa e paura. Con buona pace della privacy.

Io dico sempre che servirebbe più intelligenza artificiale nella scuola, ma non mi riferisco assolutamente a una telecamera puntata che osserva ogni muscolo del tuo volto per assegnarti un qualche tipo di punteggio. Il massimo che potrà ottenere saranno studenti che, col tempo, diventeranno più abili a mascherare le loro vere emozioni.

Per approfondire: This AI reads children’s emotions as they learn

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.