Ancora su machine learning e bias: esempi nell’healthcare

Questo articolo su Nature racconta di alcuni casi in cui l’implementazione di un algoritmo di machine learning avrebbe portato all’introduzione di bias indesiderati.

Come nel caso dell’ospedale universitario di Chicago, dove alcuni ricercatori volevano creare un algoritmo che trovasse il modo di minimizzare le degenze facendo concentrare i medici su quei pazienti con maggiori probabilità di essere dimessi speditamente.

Durante lo studio però i ricercatori notarono che uno dei fattori più influenti nella decisione sarebbe stata la zona di residenza dei pazienti, poiché i pazienti provenienti da zone povere avevano in media degenze più lunghe. Concentrando gli sforzi dei medici sui pazienti con degenze più brevi, anche se con la lodevole intenzione di ottimizzare i tempi per tutti, avrebbero finito per avvantaggiare i pazienti provenienti da zone ricche a discapito di chi viveva in zone più popolari.

Per approfondire: A fairer way forward for AI in health care (Nature)

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.