
Un ricercatore di Harvard ha pubblicato uno studio sui commenti fake (generati da un software AI anziché da una persona), il loro tasso di successo e le possibili influenze che questo potrebbe avere sulle decisioni politiche negli Stati Uniti.
Per il suo studio Max Weiss ha utilizzato il framework GPT-2 di OpenAI assieme a Tensorflow per generare automaticamente 1001 commenti finti ma verosimili (per i curiosi, il codice è disponibile pubblicamente qui). Dopodiché ha creato un bot che fosse in grado di inserire ogni singolo commento sul sito governativo medicaid.gov senza destare sospetti. Per i suoi 1001 commenti il bot ha impiegato quattro giorni, ma i commenti fake generati dal sistema del ricercatore rappresentavano la maggioranza di tutti i commenti raccolti.
Negli Stati Uniti non è raro che le istituzioni chiedano il parare dei cittadini attraverso Internet. Senza adeguati strumenti di verifica però vi è la possibilità che la consultazione venga falsata, soprattutto ora che sono disponibili software di intelligenza artificiale che generano testi sempre più realistici.
Gli strumenti per ostacolare il lavoro dei bot in realtà già esistono, dal più semplice Captcha alla più complessa autenticazione a due fattori, ma molti organismi pubblici sono riluttanti a usarli poiché una piccola fetta della popolazione potrebbe avere problemi a partecipare.
Tuttavia, di fronte alla crescente facilità con cui è possibile creare e inviare commenti “deepfake“, oggi inizia a diventare impensabile lanciare una consultazione pubblica senza una forma di protezione dai bot.
La ricerca completa è disponibile qui: Deepfake Bot Submissions to Federal Public Comment Websites Cannot Be Distinguished from Human Submissions