L’AI di Facebook non è efficace contro le fake news sul Coronavirus

Facebook

Nell’ultimo Community Standards Enforcement Report Facebook ha illustrato le modifiche ai suoi algoritmi di intelligenza artificiale che individuano disinformazione e messaggi d’odio, con un buon 88,8% di questi ultimi individuati grazie all’AI (a fronte dell’80,2% del trimestre precedente).

Ora i sistemi di natural language processing (NLP) di Facebook sono in grado di comprendere anche quelle sfumature nel linguaggio che in passato risultavano sfuggenti, e un ulteriore aggiornamento permette agli algoritmi di elaborare anche le immagini contenenti testo, come i noti “meme” di cui sono pieni i social network.

Una categoria di contenuti che però ancora sfugge ai controlli automatici sono le fake news sul Covid-19, questo perché tali argomenti sono relativamente recenti e i modelli usati da Facebook non hanno ancora avuto modo di essere adeguatamente addestrati. Questa limitazione rispecchia per certi versi i limiti dei modelli di apprendimento automatico: dai loro qualcosa di totalmente nuovo e avranno bisogno di molto tempo e molti dati prima di riuscire a gestirlo come si deve.

Per approfondire: Facebook’s AI is still largely baffled by covid misinformation

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.