
Microsoft intende incentivare la ricerca sul machine learning al servizio della cybersecurity, e lo fa mettendo sul piatto 300.000 dollari da destinare al mondo accademico per progetti in questo settore.
Il Microsoft Security AI (MSecAI) Request for Proposals è un’iniziativa mirata alla raccolta di progetti di ricerca che si occupino di machine learning applicato alla sicurezza informatica. Modelli in grado di restare funzionanti anche sotto attacco, algoritmi che identifichino il rischio alla confidenzialità, l’integrità e la disponibilità dei dati (la classica triade CIA: confindentiality, integrity e availability), modelli che si difendono da attacchi adversarial, sono tutti ambiti di ricerca consigliati.
A questi si possono aggiungere progetti per rendere l’intelligenza artificiale un potente bastione di difesa, ad esempio con previsioni che aiutino l’analisi del rischio, procedure che agevolino il lavoro dei red team nel trovare nuove vulnerabilità, algoritmi che prevedano e compensino i bias umani. La lista completa di suggerimenti e idee per sviluppare un’AI a prova di hacker è disponibile nel bando di Microsoft.
Ogni progetto approvato potrà ricevere al massimo 150.000 dollari, anche se in determinati casi Microsoft potrà donare ulteriori finanziamenti sotto forma di risorse Azure (non è la prima volta che Microsoft usa le risorse computazionali del suo servizio cloud come valuta, è successo ad esempio nel finanziamento di un miliardo di dollari a OpenAI).
Per stessa ammissione di Microsoft, questa RFP mira non solo alla raccolta di progetti potenzialmente utili, ma anche a costruire nuovi ponti fra l’azienda e il mondo della ricerca. In altre parole, è un modo per il colosso di Redmond di entrare in contatto con giovani e promettenti ricercatori, magari da inserire un giorno nei propri progetti. Il bando è aperto a qualsiasi università, a patto che sia in grado di completarlo nel giro di 12-18 mesi e possibilmente con un apporto multi-disciplinare.
Per approfondire: Microsoft Security AI RFP