Riconoscimento facciale sotto accusa, quando l’IA è in mano a governi repressivi

Videocamera

Anni fa leggevo che gli agenti che eseguivano i pedinamenti per conto della Stasi (i servizi segreti della Germania Est) imparavano a riconoscere la camminata di una persona, in modo da individuarla anche se cambiava aspetto o abito. Non mi sorprende quindi come oggi l’andatura sia una delle caratteristiche degli esseri umani che l’intelligenza artificiale riesce a distinguere, oltre ovviamente ai tratti somatici del viso.

Con l’occasione di una conferenza sull’IA organizzata a Dubai, una giornalista di BuzzFeed News ha fatto il punto sullo stato di adozione delle tecnologie di riconoscimento facciale da parte di Paesi non sempre rispettosi dei diritti umani.

Cina, Emirati Arabi Uniti, Arabia Saudita sono accusati di usare tecnologie sempre più avanzate per spiare sulla loro popolazione. Solo la Cina ha ben 250 milioni di telecamere sparse in tutto il Paese, e l’intenso uso da parte delle forze dell’ordine – come ha vantato all’evento un relatore cinese – consente al gigante asiatico di avere relativamente pochi poliziotti per abitante.

Ma anche Stati Uniti e Regno Unito non sono esenti da critiche, tanto che rappresentanti politici come Alexandria Ocasio-Cortez hanno paventato l’uso del riconoscimento facciale nel loro Paese come una sorta di controllo sociale. La realtà è che ora l’IA ha raggiunto livelli molto sofisticati nel riconoscimento delle persone, anche a partire da pochi fotogrammi o da alcune immagini sui social. È vero, telecamere dappertutto hanno sicuramente una loro utilità, non solo per riconoscere i criminali, ma anche per dare l’allarme quando qualcuno si accascia per strada (l’IA può riconoscere i segni di un malore) o per segnalare al supervisore se un operaio in un cantiere non indossa il casco di protezione.

Ma la possibilità che questo potere sfugga di mano è troppo pericolosa per essere messa in secondo piano. Anche in Paesi democratici la tentazione di usare tali tecnologie per compiti estranei al contrasto della criminalità è alta. Tuttavia un’opposizione neo-luddista non porterà a nulla, poiché questo genere di sorveglianza innovativa in un modo o l’altro arriverà. È quindi inutile cercare di impedirla, ma proprio per questo vi è bisogno di maggiore consapevolezza da parte di tutti e di un dialogo aperto per stabilire concretamente le “linee rosse“, non solo dello storage e dei termini di archiviazione dei filmati, ma anche degli usi dell’intelligenza artificiale nel riconoscimento e nella categorizzazione degli individui.

Gli usi deviati da parte dei governi però non sono l’unica fonte di rischio, un altro grande pericolo è rappresentato dalle società private. Una volta che Comuni ed enti locali avranno collegato il loro network di telecamere a un software di intelligenza artificiale, è possibile che siano avvicinati da aziende (magari le stesse che hanno approntato il progetto di sorveglianza) per concordare la cessione dei dati aggregati o anonimizzati. Alla cittadinanza sarà spiegato che i dati non conterranno i dettagli sugli individui, ma questo ovviamente non impedirà all’azienda di fare un “matching” del nostro volto con le foto che ad esempio abbiamo liberamente inserito sui social.

Ovviamente le intenzioni delle società private sono diverse da quelle dei governi. Le aziende sono lì per venderci prodotti e servizi, non per arrestarci o sequestrarci l’auto. La psicologa sociale Shoshana Zuboff parla di “capitalismo della sorveglianza“, dove le aziende vogliono sapere tutto di noi, per venderci cose di cui sono sicure abbiamo bisogno, oppure per creare nuovi bisogni. Il riconoscimento facciale darà ai tracciamenti già esistenti (ad es. la geolocalizzazione, la cronologia dei siti visitati e gli acquisti effettuati) quella profondità in più per offrirci beni e servizi sempre più mirati.

Ma anche la semplice cessione dei dati aggregati (senza le immagini dei volti o i nomi delle persone, ma solo informazioni generali, magari come sesso, età, etnìa) sarà potenzialmente pericolosa per il buon vivere civile. Per fare un esempio, sono sicuro che molti di voi pagherebbero per sapere, prima di acquistare casa, quanta è la percentuale di immigrati nel quartiere in cui state per andare a vivere. I feed delle telecamere e un buon algoritmo ce lo possono dire. Dati aggregati, certo, ma che fornirebbero spunti per incrementare le tensioni sociali o per “ghettizzare” chi è già ai margini.

L’intelligenza artificiale è una famiglia di tecnologie complesse con ramificazioni sociali difficili da comprendere nella loro interezza, oltre che ovviamente da prevedere. Applicarla alla vita dei cittadini dovrà essere fatto con cautela, soprattutto da chi nelle amministrazioni locali così come in quelle centrali non sempre ha a disposizione le competenze per conoscerne tutti gli aspetti.

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.