Facebook si è dotato di un read team per aggirare i suoi stessi sistemi AI

Già in passato ho apprezzato l’adozione nel settore dell’intelligenza artificiale di alcuni sistemi e metodi mutuati dal mondo della cybersecurity. Uno di questi consiste nel creare al proprio interno una squadra avversaria – che operi con logiche e modi tipici di un nemico – per cercare di “rompere” i prodotti o i servizi messi su dall’azienda. Ovviamente in un ambiente controllato.

Questo metodo si chiama genericamente “red team“, dal colore usato dalla squadra di attaccanti nelle varie simulazioni militari (per contro, la squadra dei difensori di solito è il “blue team”). Wired questa settimana ha un’interessante storia sul “red team” di Facebook per l’intelligenza artificiale, dove una squadra di esperti di adversarial AI cerca in tutti i modi di vincere sugli algoritmi di moderazione della piattaforma social (il team si concentra molto sui filtri anti-pornografia di Instagram che a quanto pare molti utenti fanno di tutto per aggirare).

Il lavoro del red team di Facebook, in particolare le loro vittorie, fornisce così informazioni utili al “blue team” per migliorare le difese della piattaforma.

Per approfondire: Facebook’s ‘Red Team’ Hacks Its Own AI Programs

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.