
Un vero e proprio spartiacque ha rappresentato la recente pronuncia del Tribunale di Bologna, relativa all’applicazione di un sistema algoritmico di ranking reputazionale ai riders di Deliveroo: questo sistema di intelligenza artificiale, cui è anche stato dato un nome, “FRANK”, è stato giudicato, in primo grado, discriminatorio e “cieco”, in quanto non in grado di valutare i lavoratori della compagnia di delivery statunitense, i fattorini, come dotati di diritti oltre che di doveri.
NIdiL Cgil, Filcams Cgil e Filt Cgil hanno presentato ricorso proprio per denunciare la “sperequazione” dell’algoritmo, nel giudicare eventuali assenze dal lavoro, valutandole tutte negative e senza alcun riguardo alle cause di tali assenze. La Segretaria CGIL, Tania Sacchetti, in una nota, ha affermato: «Il Giudice ha ritenuto che il modello di valutazione adottato dalla piattaforma di food delivery era il frutto della “scelta consapevole” dell’azienda di privilegiare la disponibilità del rider, senza mai considerare le ragioni del suo possibile mancato collegamento alla piattaforma».
Questa pronuncia non solo si inserisce in una più ampia polemica sullo sfruttamento dei lavoratori in oggetto, “fagocitati” dalle multinazionali del comparto food delivery, ma rappresenta anche un primo passo verso una “consapevolezza”, sempre più matura, della non veridicità della cosiddetta neutralità tecnologica.
È pur vero che, se qui in Italia, cominciamo ora a fare concretamente i conti con gli strumenti dell’innovation technology, altrove, negli Stati Uniti, per esempio, il percorso è un pezzo avanti!
Michele Gilman, professore di diritto presso l’Università di Baltimora, ha stilato un interessante Rapporto su come questi sistemi di automazione vadano a pregiudicare proprio le classi dei ceti meno abbienti, sia perché meno preparati e meno informati, sia perché tali sistemi creano vere e proprie trappole, spesso invisibili.
La profilazione digitale è l’elaborazione automatizzata di dati personali, al fine di valutare le persone e/o per prevedere il loro comportamento. Gli algoritmi sono utilizzati nella profilazione.
Un punteggio di credito è un esempio di profilazione. Il Ranking Bancario, quel punteggio necessario a poter chiedere prestiti per l’acquisto di una macchina, di una casa o di qualsiasi altro bene, è talmente “cieco”, per usare l’espressione del Giudice di Bologna, da diventare, quando si supera la soglia in negativo, quasi impossibile, per il soggetto, recuperare un punteggio atto a fargli ottenere un prestito in futuro! A questo va aggiunto che spesso questi sistemi, appartenendo a società private, tengono ben nascosti i meccanismi con cui si arriva a determinare le decisioni concrete!
Come giustamente osserva Gilman, «..alcuni concetti regolarmente incorporati in legge, come ragionevole, necessario e credibile, richiedono un giudizio umano e sono quindi difficili, se non impossibili, da tradurre in codice. Un altro motivo di cautela è che i dati non sono neutrali.»
Per le persone che vivono ai margini economici, i rapporti di credito possono essere economicamente devastanti perché, come ha affermato l’avvocato dei consumatori Chi Chi Wu, penalizzano «i consumatori che sono caduti in disgrazia non per colpa loro — magari a causa di una malattia, della perdita del lavoro, o perché vittime di frode o di disastri naturali -, trattandoli invece come fannulloni irresponsabili». Questi consumatori possono trovarsi in un circolo vizioso in cui il mancato pagamento di una bolletta viene codificato nel loro profilo digitale, il che a sua volta rende difficile trovare un lavoro o pagare l’affitto, il che a sua volta peggiora la loro speranza di pagare le bollette e migliorare la loro solvibilità. Questi cicli ricadono più duramente sulle comunità di colore, a causa di svantaggi strutturali nell’economia.
Lo statuto principale che disciplina la segnalazione dei consumatori è il Fair Credit Reporting Act (FCRA), ai sensi del quale, le agenzie di segnalazione dei consumatori (CRA) devono adottare procedure ragionevoli per garantire l’accuratezza delle informazioni che segnalano. Le CRA, che includono le tre grandi agenzie di credito, Experian, Equifax e TransUnion sono società private, legate agli azionisti e i cui clienti sono principalmente creditori ed esattori; quindi, gli interessi dei consumatori a basso reddito non fanno parte del loro modello di business.
I diritti di azione privati sono essenziali perché l’inesattezza delle segnalazioni dei consumatori è un grave problema. La Federal Trade Commission (FTC) fornisce una guida di auto-assistenza ai consumatori per correggere le informazioni nel loro rapporto di credito. La FTC ha riferito che un americano su cinque ha un errore nel proprio rapporto di credito e che uno su venti ha errori abbastanza gravi da comportare la negazione del credito o costi di credito più elevati.
«Le persone rimangono in gran parte all’oscuro di questi sistemi di big data, creando un’asimmetria informativa le cui conseguenze dannose ricadono più duramente sulle persone a basso reddito. Le tecnologie incentrate sui dati aggiungono portata, scalabilità e velocità alle inferenze negative sui poveri.»
Le potenzialità degli strumenti tecnologici devono trovare un equilibrio con un uso corretto degli stessi, per poter farne uso senza danneggiare le categorie più a rischio! Questa consapevolezza può aiutare a valorizzare l’introduzione di sistemi di innovazione, ma che siano in grado di essere “guidati” verso una corretta ed equa applicazione.
Riproduzione Riservata
Avv. Raffaella Aghemo