Il denoised smoothing aumenta la robustezza delle reti neurali

Avrete visto in passato esempi di come un classificatore di immagini, con solo pochi pixel di disturbo, possa essere indotto a scambiare un oggetto per un altro completamente diverso. In questo esempio l’immagine di una tartaruga viene scambiata per un fucile.

Attacco adversarial su tarrtaruga

(se vi interessa trovate molti altri esempi in questa presentazione)

Una delle soluzioni maggiormente utilizzate è sottoporre il classificatore a un nuovo round di addestramento specifico per aumentarne la robustezza. Ora però Microsoft Research ha pubblicato una ricerca che introduce una tecnica chiamata denoised smoothing, per migliorare la robustezza dei classificatori contro gli attacchi adversarial fin dall’inizio.

Questo approccio, scalabile anche su reti e dataset di grandi dimensioni, stabilizza una funzione aiutando a garantire che le previsioni per gli input nelle vicinanze di uno specifico data point siano costanti.

Il risultato garantisce che un classificatore esca dal training iniziale con una robustezza implicita, rendendolo meno suscettibile ad attacchi adversarial e quindi più sicuro.

Per approfondire la tecnica: Denoised smoothing: Provably defending pretrained classifiers against adversarial examples

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.