Proteste contro l’AI medica “poco trasparente”​ di Google

Sanità e intelligenza artificiale

Vi è un interessante dibattito in corso sulla riproducibilità e quindi sulla trasparenza delle ricerche AI in ambito medico.

A inizio anno Google Health ha pubblicato International evaluation of an AI system for breast cancer screening, uno studio su un sistema di computer vision che secondo i risultati sarebbe più accurato dei radiologi umani nel riconoscere i tumori al seno dall’analisi delle mammografie.

A parte le obiezioni su come sia possa stabilire il ground truth per poter fare affermazioni del genere, argomento per il quale vi rimando alla sempre attualissima intervista di Federico Cabitza, la ricerca è stata accolta da numerose critiche perché impossibile da riprodurre.

Per i ricercatori che hanno fatto sentire la loro voce, provenienti da istituzioni come la Johns Hopkins University, l’Harvard University School of Public Health, il Massachusetts Institute of Technology, l’Università di Stanford, il Princess Margaret Cancer Centre e l’Università di Toronto solo per citarne alcune, Google Health avrebbe tenuto riservate le informazioni necessarie a consentire la riproducibilità della ricerca da parte di altri esperti, fra le quali il modello addestrato vero e proprio, dati fondamentali su come è stato eseguito l’addestramento di tale modello, nonché le tecniche per arricchire i dataset usati.

Fra i dati omessi vi sono anche quelli sui pazienti, che Google Health per ragioni di privacy considera riservati, ma che secondo i critici avrebbero potuto essere sostituiti da informazioni sulle analisi predittive dei modelli e sulle etichettature dei dati, cosa che avrebbe almeno consentito ad altri ricercatori di eseguire analisi statistiche.

Nella risposta alle critiche i ricercatori di Google (qui per i fortunati che riescono a oltrepassare il paywall di Nature), oltre a minimizzare l’importanza scientifica dei dati omessi, sottolineano quanto segue: “Inoltre, lo sviluppo di tecnologie mediche d’impatto deve rimanere un’impresa sostenibile per promuovere un ecosistema vivace che sostenga l’innovazione futura. Può essere utile prendere in considerazione a questo proposito parallelismi con i dispositivi medici e i prodotti farmaceutici.

In altre parole, se posso parafrasare: Ricerche del genere sono coperte da segreto perché generano profitto. Se pubblicassimo i nostri modelli per garantirne la riproducibilità, tutti ne potrebbero usufruire gratuitamente, e senza speranze di profitto crollerebbero i finanziamenti sulla ricerca medica in questo ambito.

Per i ricercatori che hanno protestato, studi come quello di Google Health hanno uno scarso valore scientifico se non forniscono codice, dataset e informazioni necessarie alla riproducibilità. Le riviste scientifiche, inoltre, dovrebbero adottare standard di trasparenza più elevati quando danno spazio a ricerche su AI e medicina.

Sull’argomento della riproducibilità dei “tool AI” ho voluto sentire il parere del Prof. Federico Cabitza, professore associato di Interazione Uomo-Machina per il Corso di Laurea in Informatica e docente titolare di Data Visualization per il Corso di Laurea Magistrale in Data Science presso l’Università degli Studi di Milano-Bicocca citato all’inizio, che ha commentato: “Nessuno chiede a Siemens il blueprint di una RMN per pubblicare uno studio che dimostri l’efficacia dell’uso di questa metodica per la diagnosi della patologia x. Perché dovrebbero chiederlo di un modello di ML? L’equivoco è il replacement dell’umano. C’è qualcosa di profondamente sbagliato in come questi strumenti forniscono il loro output. Non deve essere una diagnosi o un giudizio automatico, ma elementi per il giudizio del medico. Questo è poco, ma fondamentale.

Dunque è sbagliato considerare l’AI in campo medico – ma non solo – come un oracolo che va a sovrapporsi al giudizio umano, come questo tipo di paragoni (“il modello di machine learning è più accurato degli umani“) potrebbe suggerire. Le indicazioni dell’intelligenza artificiale devono andare ad aiutare la decisione del medico in carne e ossa, e non sostituirlo. Solo imparando a bilanciare sapientemente il rapporto e l’interazione fra esperto umano e strumento informatico – per quanto complesso ed efficace possa sembrare – saremo in grado di trarre il massimo vantaggio dall’intelligenza artificiale.

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.