Los Angeles: un robot della polizia che non chiama la polizia

Assistendo a una violenta lite in un parcheggio nei pressi di un parco cittadino, una passante è corsa a chiedere aiuto al robot della polizia che pattuglia la zona. Ma per tutta risposta il robot le ha risposto di andarsene (“step out of the way“) e ha continuato il suo percorso come se niente fosse. Premere il pulsante per chiamare la polizia, quella vera, non ha sortito alcun effetto. Solo una (classica) chiamata al numero di emergenza ha finalmente allertato le forze dell’ordine.

È successo in California, in un centro poco a sud di Los Angeles, ed è un tipico esempio di come l’inserimento di nuovi elementi tecnologici senza un adeguato percorso di informazione ed educazione del pubblico può portare a problemi e a malintesi anche gravi.

L’unica cosa che il robot fa attualmente è andare in giro con una telecamera e dire alla gente di non sporcare il parco. La macchina (che costa alla città fra i 60.000 e i 70.000 dollari annui) ha solo una funzione di deterrenza, e in effetti i passanti si sentono generalmente più sicuri quando il robot è di pattuglia.

Ma se vede un robot che pattuglia una zona, con sopra la scritta “polizia”, un cittadino normale avrà probabilmente una serie di aspettative, fra le quali sicuramente la possibilità che il robot – autonomamente oppure sollecitato da una persona – possa chiamare una pattuglia.

Sia l’azienda che ha sviluppato il robot sia l’amministrazione cittadina sapevano che “HP RoboCop” (questo il nome) non era collegato con la polizia, eppure questo non era stato chiaramente comunicato alla cittadinanza. Al contrario, durante la cerimonia di entrata in funzione il robot era stato presentato come un “nuovo membro” delle forze dell’ordine.

L’evento in questo caso è marginale, e potrà far sorridere qualcuno, ma evidenzia un problema che diventerà sempre più frequente: la mancata comprensione fra uomo e macchina.

Troppo spesso, anche nei progetti di intelligenza artificiale, si trascura una fase importante del deployment, ovvero la giusta informazione agli umani che per qualsiasi motivo dovranno interagire con la macchina. Sono chiare le caratteristiche del prodotto artificiale? Vi è una marcata differenza fra aspettative e funzionalità? È stato testato l’uso del prodotto artificiale anche fuori dagli scopi? Con quali risultati?

Quello che per un progettista è un “uso scorretto” o “non previsto” della macchina, per un normale utilizzatore potrebbe essere una ragionevole aspettativa. Come, ad esempio, un robot della polizia che sia in grado di chiamare la polizia.

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.