Nuovo metodo per mitigare gli attacchi adversarial alle reti neurali

Bo Li, oggi professoressa di data science presso l’Università dell’Illinois, qualche anno fa assieme ad alcuni colleghi attaccò degli adesivi su un segnale di “stop” (pdf) per dimostrare come fosse facile confondere i sistemi delle auto a guida autonoma, che scambiavano il segnale di stop per un limite di velocità (ovviamente tutte le ricerche si sono svolte in sicurezza).

In questi giorni, alla trentasettesima International Conference on Machine Learning, Bo Li ha presentato un nuovo metodo (pdf) per addestrare le reti neurali a essere più resistenti ad alcuni tipi di attacchi adversarial. Introducendo una rete aggiuntiva che genera esempi di attacco, in maniera simile a una GAN, la rete “principale” è in grado di minimizzare la perdita e quindi mitigare gli effetti di eventuali attacchi.

Per approfondire: A new way to train AI systems could keep them safer from hackers

Sono partner e fondatore di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti l'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI), della Association for Computing Machinery (ACM) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.