Su Telegram un bot per deepfakes a luci rosse

Gal Gadot
L'attrice israeliana Gal Gadot è stata la vittima inconsapevole di uno dei primissimi video deepfakes a luci rosse (Foto di Gage Skidmore, CC BY-SA 2.0)

Stamattina ho ricevuto nella mia casella di posta un report di Sensity, azienda un tempo nota come Deeptrace Labs, che presentava i risultati di un’indagine su un bot di Telegram che usa i deepfakes per “spogliare” quasi in tempo reale le persone ritratte all’interno di normali fotografie, inviategli da utenti in tutto il mondo (ma soprattutto dalla Russia, dove il servizio è già abbastanza conosciuto).

Del report si è occupata anche Rosita Rijtano per Repubblica, che ha avuto modo di leggerlo in anteprima.

Delle modalità operative del bot potete leggere nell’articolo di Sensity (invero piuttosto scarno) o nel pezzo della Rijtano.

Ma partiamo da cosa c’è di nuovo: niente, se non la facilità di fare tutto attraverso Telegram. Questo genere di “servizi” infatti esistono da tempo e sono fruibili con una facilità estrema. Ne parlava Vice più di un anno fa e online c’è almeno un sito (che evito appositamente di linkare) dove è possibile scaricare un software che fa le stesse cose: inserisci le foto di una persona e il programma te le restituisce con la persona denudata più o meno bene (per risultati migliori gli stessi sviluppatori suggeriscono di caricare immagini con più pelle scoperta possibile, come ad esempio foto prese al mare).

Da un punto di vista tecnico quello che il software fa è tentare di ricreare le parti di corpo coperte dalla stoffa, di conseguenza le nudità non saranno esattamente quelle della persona ritratta, bensì semplicemente delle parti di corpo umano così come se le immagina la rete neurale generativa del programma. Non che questo faccia molta differenza per gli “utilizzatori”.

Nonostante tutto, quella appena descritta non è la tipologia di deepfakes più diffusa. I deepfakes classici in genere usano solo il volto della persona “bersaglio”, sostituendolo a quello di un attore o attrice. Possono essere usati per inserire il volto della persona desiderata all’interno di video hard, ma anche per sostituire un attore a un altro per vedere che figura avrebbe fatto in un determinato film (sono famosi quelli di Nicolas Cage).

Mettiamo le cose in chiaro, purtroppo questo genere di abusi non sarà prevenibile. Quello mi aspetto è l’inevitabile deriva che vedrà la tecnologia dei deepfakes usata per scopi di pornografia personalizzata, revenge porn, ricatti, attacchi alla reputazione, ecc. Anche il report di Sensity afferma che il 70% delle vittime sono privati cittadini, mentre solo il restante 30% sono celebrità.

Fortunatamente esistono già metodi che consentono di individuare i deepfakes, soprattutto quelli “artigianali” e realizzati in maniera automatizzata. Ma se questo potrà in qualche modo venire in aiuto delle vittime di ricatto, chiarendo la loro estraneità alle immagini hard, non salverà le persone i cui volti e corpi saranno usati indebitamente per confezionare materiali pornografici personalizzati, a uso e consumo di singoli fruitori.

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.