Riconoscimento facciale a Londra, i primi dati della polizia

Polizia di Londra

Grande successo o montagna di errori? I pareri discordano i risultati del sistema di riconoscimento facciale della polizia di Londra, dopo la pubblicazione dei dati (pdf) a opera della stessa Met Police qualche giorno fa.

A febbraio il sistema è stato attivato in tre diverse giornate nella zona di Oxford Circus, un incrocio di Londra con elevato transito pedonale. Il 10 Febbraio sono stati controllati circa 4.600 volti, il 20 Febbraio il sistema si è guastato e non ha potuto funzionare, il 27 Febbraio è tornato a funzionare e ha controllato circa 8.600 volti.

Il riconoscimento facciale non identifica ogni singola persona che vede, bensì confronta i volti contro una lista di ricercati. Questo significa che quando passa una persona qualunque, non inclusa nel database della polizia, essa non verrà identificata e il suo passaggio non sarà registrato dal sistema. Ma se il passante ha un volto che per l’intelligenza artificiale corrisponde a una delle persone nella “blacklist”, il sistema allerterà gli agenti umani che procederanno all’intercettazione.

Il primo giorno di utilizzo fra i 4.600 volti controllati nessuno è risultato appartenente alla blacklist di 5.816 persone che la polizia stava cercando. Il 27 Febbraio invece su 8.600 persone il sistema ha allertato gli agenti ben otto volte, ma solo in una di queste è stata effettivamente confermata l’identificazione, portando a un arresto. Le altre 7 segnalazioni si sono rivelate errate.

Commentando i numeri, il Guardian ha fatto notare come il tasso di errore sfiorasse l’88%, poiché 7 segnalazioni su 8 erano sbagliate. Il sottinteso è che nessuno si fiderebbe di un sistema che sbaglia l’88% delle volte. La polizia invece ritiene che il tasso di errore sia solo lo 0,08% perché si devono considerare anche le restanti 8.600 persone che non hanno fatto scattare l’allarme. Se davvero il sistema sbagliasse nell’88% dei casi, i falsi positivi (le persone identificate per sbaglio) avrebbero dovute essere oltre 7.500 anziché solo 7.

Secondo me sbagliano entrambi. È ingeneroso considerare il sistema fallace quasi nove volte su dieci, come fa il Guardian, ma anche i dati della polizia dimenticano un importante dettaglio: i falsi negativi. Non sapremo mai quanti ricercati il sistema si sia lasciato sfuggire, mancando di riconoscerli e considerandoli come normali passanti.

Errori a parte, dobbiamo anche considerare il fatto che il 27 Febbraio la polizia metropolitana di Londra ha eseguito l’arresto di un ricercato grazie all’intelligenza artificiale dietro il riconoscimento facciale. Come società siamo pronti ad accettare un sistema che renda più agevole alle forze dell’ordine l’intercettazione dei ricercati, anche se questo significa che ogni tanto (nello 0,08% dei casi, prendendo per buoni i numeri della Met Police) qualche passante verrà fermato per sbaglio?

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.