Su Telegram un bot per deepfakes a luci rosse

Gal Gadot
L'attrice israeliana Gal Gadot è stata la vittima inconsapevole di uno dei primissimi video deepfakes a luci rosse (Foto di Gage Skidmore, CC BY-SA 2.0)

Stamattina ho ricevuto nella mia casella di posta un report di Sensity, azienda un tempo nota come Deeptrace Labs, che presentava i risultati di un’indagine su un bot di Telegram che usa i deepfakes per “spogliare” quasi in tempo reale le persone ritratte all’interno di normali fotografie, inviategli da utenti in tutto il mondo (ma soprattutto dalla Russia, dove il servizio è già abbastanza conosciuto).

Del report si è occupata anche Rosita Rijtano per Repubblica, che ha avuto modo di leggerlo in anteprima.

Delle modalità operative del bot potete leggere nell’articolo di Sensity (invero piuttosto scarno) o nel pezzo della Rijtano.

Ma partiamo da cosa c’è di nuovo: niente, se non la facilità di fare tutto attraverso Telegram. Questo genere di “servizi” infatti esistono da tempo e sono fruibili con una facilità estrema. Ne parlava Vice più di un anno fa e online c’è almeno un sito (che evito appositamente di linkare) dove è possibile scaricare un software che fa le stesse cose: inserisci le foto di una persona e il programma te le restituisce con la persona denudata più o meno bene (per risultati migliori gli stessi sviluppatori suggeriscono di caricare immagini con più pelle scoperta possibile, come ad esempio foto prese al mare).

Da un punto di vista tecnico quello che il software fa è tentare di ricreare le parti di corpo coperte dalla stoffa, di conseguenza le nudità non saranno esattamente quelle della persona ritratta, bensì semplicemente delle parti di corpo umano così come se le immagina la rete neurale generativa del programma. Non che questo faccia molta differenza per gli “utilizzatori”.

Nonostante tutto, quella appena descritta non è la tipologia di deepfakes più diffusa. I deepfakes classici in genere usano solo il volto della persona “bersaglio”, sostituendolo a quello di un attore o attrice. Possono essere usati per inserire il volto della persona desiderata all’interno di video hard, ma anche per sostituire un attore a un altro per vedere che figura avrebbe fatto in un determinato film (sono famosi quelli di Nicolas Cage).

Mettiamo le cose in chiaro, purtroppo questo genere di abusi non sarà prevenibile. Quello mi aspetto è l’inevitabile deriva che vedrà la tecnologia dei deepfakes usata per scopi di pornografia personalizzata, revenge porn, ricatti, attacchi alla reputazione, ecc. Anche il report di Sensity afferma che il 70% delle vittime sono privati cittadini, mentre solo il restante 30% sono celebrità.

Fortunatamente esistono già metodi che consentono di individuare i deepfakes, soprattutto quelli “artigianali” e realizzati in maniera automatizzata. Ma se questo potrà in qualche modo venire in aiuto delle vittime di ricatto, chiarendo la loro estraneità alle immagini hard, non salverà le persone i cui volti e corpi saranno usati indebitamente per confezionare materiali pornografici personalizzati, a uso e consumo di singoli fruitori.

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.