IBM, Amazon e Microsoft prendono le distanze dal riconoscimento facciale

Riconoscimento facciale

Da molto tempo ormai il riconoscimento facciale viene visto come la parte minacciosa dell’intelligenza artificiale. Un argomento tossico, un fardello che ora, anche grazie all’ondata di protesta per il trattamento delle minoranze etniche da parte della polizia USA, più di un colosso tecnologico pare voglia scaricare.

Lunedì ha iniziato IBM, che con una lettera al Congresso degli Stati Uniti (qui in pdf) ha dichiarato che non offrirà più tecnologie di riconoscimento o analisi facciale general purpose. Inoltre l’azienda “si opporrà fermamente” all’uso di tali tecnologie – anche se prodotte da fornitori di terze parti – per la sorveglianza di massa, la profilazione razziale, la violazione dei diritti umani fondamentali.

La necessità da parte di IBM di specificare che a essere interrotto sarà il riconoscimento facciale “per scopi generali” lascia pensare che per altri scopi più specifici l’azienda continuerà a fornire la tecnologia, anche se al momento è difficile speculare su quali possano essere. Secondo The Verge IBM smetterà addirittura di effettuare ricerca sulla tecnologia, cosa che a me francamente sembra esagerato, ma capisco l’esigenza di rispettare le sensibilità di questi giorni.

Qualcuno ha l’impressione che IBM abbia deciso di uscire da un settore dell’AI poco remunerativo e troppo difficile da difendere, peraltro pesantemente insidiato da fortissimi player cinesi.

Ma al di là di tutto, IBM è l’azienda con la quota di mercato più grande nel settore dell’intelligenza artificiale (pdf), e una presa di posizione così determinata rischiava di lasciare altri importanti player “dalla parte sbagliata” della barricata. Ecco così che a stretto giro sia Amazon, sia Microsoft hanno ridotto o limitato la loro esposizione sul riconoscimento facciale, seppure con diversi distinguo.

Amazon ha deciso di far partire una moratoria di un anno su Rekognition, la soluzione di riconoscimento facciale dell’azienda attualmente venduta a molte forze di polizia negli Stati Uniti. Anche in questo caso i critici, come la Electronic Frontiers Foundation e Fight for the Future, hanno derubricato la scelta di Amazon a una mossa di marketing. C’è da dire che le associazioni per i diritti civili hanno dei conti aperti con la tecnologia per il riconoscimento facciale di Amazon, che secondo loro funziona male e accentua pregiudizi in un settore dove le forze di polizia non si fanno problemi ad abusarne.

Microsoft ha adottato una posizione simile a quella di Amazon, fermando le vendite della propria tecnologia di riconoscimento facciale alle forze di polizia statunitensi. A Redmond non si sono dati limiti temporali, ma hanno posto come condizione per la ripresa delle vendite la formulazione di una legge federale che regoli la tecnologia. Anche qui c’è chi pensa che la mossa non sia altro che un modo per pilotare le scelte politiche del legislatore a favore dell’azienda.

La decisione dei tre giganti può esser letta in chiave difensiva, ovvero come un tentativo di giocare la carta etica in un settore dove la tecnologia cinese – forte anche di una legislazione nazionale senza troppi vincoli – sta vincendo. Del resto il riconoscimento facciale è balzato agli onori delle cronache solo negli ultimi anni, con una tecnologia che è migliorata in silenzio diventando via via sempre più semplice da applicare, tanto da apparire con sorpresa in tutta una serie di dispositivi di uso comune come le piccole videocamere da negozio o i telefoni cellulari.

Quando una tecnologia percepita come invasiva fa una comparsa così improvvisa nella vita delle persone, prendendo alla sprovvista anche quegli enti che dovrebbero regolamentarne l’utilizzo, la società civile può avere una comprensibile reazione istintiva e iniziare a considerarla come una tecnologia avversaria, più minacciosa che utile, rifiutandola tout-court. Quando poi questa tecnologia viene abusata, come si legge spesso sui giornali o nei rapporti delle ONG, l’immagine che ne esce è seriamente compromessa.

Il riconoscimento facciale sta diventando l’esempio emblematico di come non si può implementare con forza una tecnologia invasiva all’interno della società senza prima aver seguito il necessario percorso, fatto di regolamentazioni, sperimentazioni, confronti con gli stakeholder pubblici. E anche dopo l’adozione vi devono essere verifiche serie su abusi e potenziali utilizzi irregolari, con necessarie azioni correttive.

Attività lente, che spesso non si vuole fare perché fuori dai palazzi il futuro corre veloce. Ma non farlo significa rischiare un rigetto, con reazioni impulsive dove alla fine si butta via il bambino con tutta l’acqua sporca. Oggi alcune aziende hanno deciso di pagare pegno, sospendendo o interrompendo progetti sui quali avevano investito molto, perdendo soldi per evitare di perdere reputazione. Riuscirà il nostro settore, quello della tecnologia e dell’intelligenza artificiale, a imparare la lezione?

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.