In Sud Africa l’AI “senza etica” favorisce la discriminazione razziale

Per avere un esempio concreto di cosa significhi non badare all’etica nell’implementazione dell’AI, Vice propone una panoramica della sorveglianza cittadina in Sud Africa.

A Johannesburg già da diversi anni hanno fatto la loro comparsa telecamere a circuito chiuso per monitorare la sicurezza delle strade. Da qualche tempo questi servizi si sono evoluti in “smart surveillance“, dove algoritmi di machine learning aiutano a riconoscere e segnalare situazioni “sospette”.

Per fare un esempio, in un ricco quartiere abitato soprattutto da bianchi qualche anno fa il software ha segnalato automaticamente 14 situazioni sospette (qui il rapporto in pdf) che coinvolgevano in tutto 28 persone. Fra cui: un elettricista che si allontana dal luogo di lavoro, cinque persone che camminano insieme, una persona che cammina sul marciapiede indossando una maglietta a righe, una persona che siede per strada, una persona che cammina con un borsone, due postini che consegnano pacchi.

Atteggiamenti tutto sommato innocui. L’unica caratteristica in comune è che tutte le persone avevano la pelle nera. Quel giorno nessun bianco è stato segnalato come sospetto dall’algoritmo.

Per approfondire: Smart CCTV Networks Are Driving an AI-Powered Apartheid in South Africa

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.