IBM, Amazon e Microsoft prendono le distanze dal riconoscimento facciale

Riconoscimento facciale

Da molto tempo ormai il riconoscimento facciale viene visto come la parte minacciosa dell’intelligenza artificiale. Un argomento tossico, un fardello che ora, anche grazie all’ondata di protesta per il trattamento delle minoranze etniche da parte della polizia USA, più di un colosso tecnologico pare voglia scaricare.

Lunedì ha iniziato IBM, che con una lettera al Congresso degli Stati Uniti (qui in pdf) ha dichiarato che non offrirà più tecnologie di riconoscimento o analisi facciale general purpose. Inoltre l’azienda “si opporrà fermamente” all’uso di tali tecnologie – anche se prodotte da fornitori di terze parti – per la sorveglianza di massa, la profilazione razziale, la violazione dei diritti umani fondamentali.

La necessità da parte di IBM di specificare che a essere interrotto sarà il riconoscimento facciale “per scopi generali” lascia pensare che per altri scopi più specifici l’azienda continuerà a fornire la tecnologia, anche se al momento è difficile speculare su quali possano essere. Secondo The Verge IBM smetterà addirittura di effettuare ricerca sulla tecnologia, cosa che a me francamente sembra esagerato, ma capisco l’esigenza di rispettare le sensibilità di questi giorni.

Qualcuno ha l’impressione che IBM abbia deciso di uscire da un settore dell’AI poco remunerativo e troppo difficile da difendere, peraltro pesantemente insidiato da fortissimi player cinesi.

Ma al di là di tutto, IBM è l’azienda con la quota di mercato più grande nel settore dell’intelligenza artificiale (pdf), e una presa di posizione così determinata rischiava di lasciare altri importanti player “dalla parte sbagliata” della barricata. Ecco così che a stretto giro sia Amazon, sia Microsoft hanno ridotto o limitato la loro esposizione sul riconoscimento facciale, seppure con diversi distinguo.

Amazon ha deciso di far partire una moratoria di un anno su Rekognition, la soluzione di riconoscimento facciale dell’azienda attualmente venduta a molte forze di polizia negli Stati Uniti. Anche in questo caso i critici, come la Electronic Frontiers Foundation e Fight for the Future, hanno derubricato la scelta di Amazon a una mossa di marketing. C’è da dire che le associazioni per i diritti civili hanno dei conti aperti con la tecnologia per il riconoscimento facciale di Amazon, che secondo loro funziona male e accentua pregiudizi in un settore dove le forze di polizia non si fanno problemi ad abusarne.

Microsoft ha adottato una posizione simile a quella di Amazon, fermando le vendite della propria tecnologia di riconoscimento facciale alle forze di polizia statunitensi. A Redmond non si sono dati limiti temporali, ma hanno posto come condizione per la ripresa delle vendite la formulazione di una legge federale che regoli la tecnologia. Anche qui c’è chi pensa che la mossa non sia altro che un modo per pilotare le scelte politiche del legislatore a favore dell’azienda.

La decisione dei tre giganti può esser letta in chiave difensiva, ovvero come un tentativo di giocare la carta etica in un settore dove la tecnologia cinese – forte anche di una legislazione nazionale senza troppi vincoli – sta vincendo. Del resto il riconoscimento facciale è balzato agli onori delle cronache solo negli ultimi anni, con una tecnologia che è migliorata in silenzio diventando via via sempre più semplice da applicare, tanto da apparire con sorpresa in tutta una serie di dispositivi di uso comune come le piccole videocamere da negozio o i telefoni cellulari.

Quando una tecnologia percepita come invasiva fa una comparsa così improvvisa nella vita delle persone, prendendo alla sprovvista anche quegli enti che dovrebbero regolamentarne l’utilizzo, la società civile può avere una comprensibile reazione istintiva e iniziare a considerarla come una tecnologia avversaria, più minacciosa che utile, rifiutandola tout-court. Quando poi questa tecnologia viene abusata, come si legge spesso sui giornali o nei rapporti delle ONG, l’immagine che ne esce è seriamente compromessa.

Il riconoscimento facciale sta diventando l’esempio emblematico di come non si può implementare con forza una tecnologia invasiva all’interno della società senza prima aver seguito il necessario percorso, fatto di regolamentazioni, sperimentazioni, confronti con gli stakeholder pubblici. E anche dopo l’adozione vi devono essere verifiche serie su abusi e potenziali utilizzi irregolari, con necessarie azioni correttive.

Attività lente, che spesso non si vuole fare perché fuori dai palazzi il futuro corre veloce. Ma non farlo significa rischiare un rigetto, con reazioni impulsive dove alla fine si butta via il bambino con tutta l’acqua sporca. Oggi alcune aziende hanno deciso di pagare pegno, sospendendo o interrompendo progetti sui quali avevano investito molto, perdendo soldi per evitare di perdere reputazione. Riuscirà il nostro settore, quello della tecnologia e dell’intelligenza artificiale, a imparare la lezione?

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.