Riconoscimento facciale, arrivano i divieti

Telecamere ovunque

Il riconoscimento facciale è sotto molti aspetti la pecora nera dell’intelligenza artificiale. Più di qualsiasi altra tecnologia degli ultimi anni è stata colpita dal fuoco incrociato di esperti della privacy, attivisti per i diritti umani, organizzazioni non governative, inchieste stampa e – di conseguenza – cittadini preoccupati.

Dietro al riconoscimento facciale sono scoppiati scandali politici e talvolta geopolitici, come le accuse di profilazione razziale contro minoranze etniche che accomunano Paesi molto diversi come gli Stati Uniti e la Cina. Non è difficile trovare articoli su come un persone di colore siano state ingiustamente detenute negli Usa a seguito di un riconoscimento facciale automatico risultato poi errato. Viste le continue proteste molte amministrazioni statunitensi hanno deciso di vietare tout-court la tecnologia, come ad esempio Portland, San Francisco, Boston e fra pochi mesi anche lo Stato della Virginia. Diversi colossi tecnologici inoltre hanno preso le distanze, come Microsoft, Amazon o addirittura IBM che l’anno scorso ha dichiarato che non produrrà più soluzioni per il riconoscimento facciale.

Chi si preoccupa per gli abusi di questa tecnologia, e lo scrivo da tecnologo, non sempre ha torto. Il riconoscimento facciale è l’esempio classico della tecnologia con forti potenzialità dannose usata troppo disinvoltamente e pervasivamente, senza che sia stato dato al pubblico tempo per comprenderla, soppesarne pregi e difetti, imparare a gestirla. In un certo senso “metabolizzarla”.

Fino a pochi anni fa si trattava di prodotti inclini all’errore facile. Oggi invece l’efficacia non è più un problema: se solo nel 2014 il migliore algoritmo di riconoscimento facciale produceva oltre il 4% di errori (nel caso vi sembri poco, provate a metterlo in un punto trafficato come la stazione Termini di Roma, che in tempi pre-pandemia vedeva in media quasi mezzo milione di passeggeri al giorno), ai giorni nostri il tasso di errore è di appena lo 0,08%. Puntualizzo subito che il tasso di errore varia a seconda di vari fattori, come età, etnia, abiti, ma è pacifico che man mano che andremo avanti diminuirà per tutte le categorie fino ad arrivare a frazioni infinitesimali.

Ma forse la precisione sempre crescente non fa che aggravare il problema. Negli ultimi decenni abbiamo visto spuntare telecamere dappertutto, eppure – nonostante qualche mugugno –  la stragrande maggioranza di noi non se ne curava perché sapevamo che il feed sarebbe stato utilizzato solo in caso di reati. E comunque l’identificazione di un semplice passante non solo non era la priorità delle forze dell’ordine, ma poteva essere oggettivamente difficile con i mezzi di dieci o venti anni fa. Niente di grave, quindi, e ci siamo abituati ai freddi occhi meccanici.

Il passaggio da telecamere stupide a telecamere intelligenti tuttavia è stato repentino e pressoché impercettibile, non è stato annunciato da nessuno e ha ovviamente iniziato a scatenare una serie crescente di preoccupazioni e di resistenze fra il pubblico. Oggi ogni fotogramma può produrre dati precisi e puntuali, identificando indiscriminatamente chi entra, chi esce, chi sta semplicemente passando di là per caso. Le telecamere, dapprima occhi tutto sommato sonnacchiosi che avevamo accettato nella nostra quotidianità proprio per questa loro intrinseca inefficienza, ora ci vedono e ci riconoscono. La vasta infrastruttura di sorveglianza si è finalmente svegliata, e non abbiamo la minima idea di chi gestirà queste informazioni, né cosa ci farà.

I timori sono accentuati dal fatto che la repentina adozione di questa tecnologia non è stata adeguatamente spiegata ai cittadini. Un semplice passante, per fare un esempio, non sa la differenza che passa fra face detection e face recognition. Nel primo caso il sistema si accorge semplicemente che nell’inquadratura è presente un essere umano, senza tuttavia cercare di riconoscerlo, mentre nel secondo caso prende nota dei tratti somatici del volto per tentare di identificarlo. Una differenza importante: nel primo caso non si viola la privacy di nessuno, nel secondo caso la violazione è possibile, eppure entrambe le funzioni sono spesso erroneamente considerate riconoscimento facciale.

O ancora, certi sistemi effettuano un riconoscimento dei tratti somatici semplicemente per identificare le emozioni. Faccia sorpresa? Contenta? Arrabbiata? Il riconoscimento delle emozioni sta diventando sempre più importante per le aziende, per farlo serve raccogliere dati biometrici ed elaborarli, eppure neanche lì c’è identificazione della persona.

E anche in quei casi in cui dovesse avvenire un tentativo di identificazione, nessuno prova a spiegare al passante che il suo volto è stato controllato solo per verificare che assomigli a uno di quelli presenti in una lista che – banalizzando – possiamo ipotizzare essere una white list nel caso sia necessario riconoscere i volti delle persone che possono accedere a un dato luogo, o una black list nel caso sia necessario allertare gli addetti della presenza di determinate persone. Se il volto di Mario Rossi non è presente nella lista (chiamata anche watch list), egli potrà allontanarsi sicuro del fatto che i suoi tratti somatici, benché siano stati analizzati con precisione ed elaborati da un sistema automatizzato, non hanno portato ad alcuna identificazione, quindi nessuno saprà che è stato lì.

Ma poiché tutte queste spiegazioni non vengono date – e anche se venissero date molte persone non vogliono sentir ragione per questioni di principio – oggi qualsiasi telecamera puntata lascia spesso un senso di apprensione. In molti temono una violazione della privacy ogni volta che girano l’angolo o entrano in un negozio.

Per aggiungere benzina sul fuoco, poi, non aiuta il fatto che la stragrande maggioranza di queste telecamere – e dei relativi software di intelligenza artificiale – provenga dalla Cina. Paese che nell’immaginario collettivo, complici anche le continue inquietudini statunitensi, viene visto come bulimico di informazioni da sottrarre con qualsiasi mezzo.

Ecco perché ha fatto notizia il pronunciamento di un tribunale di Hangzhou, città a 140 chilometri da Shanghai, oltre che sede del colosso cinese dell’e-commerce Alibaba, che ha dato ragione a Guo Bing, professore di giurisprudenza presso l’Università Tecnica Zhejiang nonché cliente tutt’altro che soddisfatto del Safari Park cittadino.

Nel 2019 il professor Bing si lamentò perché il safari park chiedeva obbligatoriamente a tutti i clienti di essere ripresi dal sistema di riconoscimento facciale, pena il mancato ingresso allo zoo. Secondo il cliente tale requisito violava le norme cinesi a protezione dei consumatori, che pare richiedano il consenso esplicito di ogni individuo al trattamento della propria immagine. In questi giorni il tribunale cinese gli ha dato ragione, ha condannato il safari park al rimborso dell’abbonamento annuale e ha dichiarato illegale la cattura dei dati biometrici del volto senza il consenso degli interessati.

Non solo, nel Paese che molti immaginano come un monolite di istituzioni asservite all’oligarchia al potere, i media di Stato hanno dichiarato trionfanti – e cito il South China Morning Post – che i cittadini ora possono “coraggiosamente dire no al riconoscimento facciale”. Se anche in Cina non hanno paura a dare un calcio al riconoscimento facciale, figuriamoci quanti punti deve aver perso la tecnologia agli occhi della gente comune.

Per completare il giro non posso non citare il colpo che probabilmente metterà a tappeto il concorrente: da documenti inizialmente filtrati alla stampa e quindi pubblicati ufficialmente (pdf) è evidente che la Commissione Europea si stia preparando a limitare con regole ferree il riconoscimento facciale “a distanza” nelle aree accessibili al pubblico. Si considera “a distanza” la raccolta dei tratti somatici del volto quando l’utente non si pone volontariamente davanti a una telecamera (come avviene invece negli aeroporti quando si accede al controllo passaporti). La raccolta a distanza si attua di solito con telecamere di sorveglianza che monitorano un passaggio di persone, come nelle stazioni o nelle piazze. Per operare un servizio del genere serviranno autorizzazioni speciali, presumo rilasciate col contagocce e solo per scopi di pubblica utilità e sicurezza.

La Commissione Europea si è mossa dopo gli inequivocabili segnali provenienti dai propri cittadini. Nelle note che precedono il documento, infatti, si chiarisce che il periodo di consultazione pubblica al Libro Bianco dell’Unione Europea sull’AI ha visto la grande maggioranza di persone chiedere un divieto, una regolamentazione o altri limiti posti al riconoscimento facciale nei luoghi accessibili al pubblico. La gente non lo vuole e i politici non hanno fatto altro che prenderne atto.

Quindi potremo dire addio all’idea di un negozio che voglia riconoscere i clienti più assidui per proporgli uno sconto (o i taccheggiatori seriali per allertare subito le guardie). O al progetto di una università di misurare la frequentazione degli studenti per migliorare l’offerta formativa individuale. O a quella di un centro commerciale che voglia comprendere l’età o il genere delle persone che si fermano nei propri spazi per adeguare i propri servizi. O ad altri usi creativi o imprenditoriali che ora non mi vengono in mente, ma che avrebbero richiesto il riconoscomento dei nostri tratti facciali.

Il riconoscimento facciale, arrivato in fretta, mal comunicato, abusato oltre ogni limite e oggi comprensibilmente odiato, è un esempio da manuale di come certe innovazioni dell’intelligenza artificiale possano essere completamente rigettate dal pubblico se introdotte in maniera surrettizia, senza un minimo di criterio né di buon senso.

Sono partner e fondatore di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti l'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI), della Association for Computing Machinery (ACM) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.