
Il commercio illegale di immagini di abusi sessuali su minori generate da software di intelligenza artificiale è emerso prepotentemente come una nuova, sconcertante realtà. Secondo quanto rivela la BBC vi sono individui che utilizzano tecnologie AI per creare e vendere materiale pedopornografico estremamente realistico, attraverso abbonamenti ad account su piattaforme di condivisione di contenuti mainstream come Patreon.
Il software incriminato è il famoso “Stable Diffusion”, originariamente pensato per generare immagini artistiche o per il design grafico. Il software permette agli utenti di descrivere, attraverso dei prompt testuali, qualsiasi immagine desiderino, e il programma poi crea l’immagine. Di recente, tuttavia, si è scoperto che il software viene anche utilizzato per generare immagini estremamente realistiche di abusi sessuali su bambini, comprese rappresentazioni di stupro su bambini molto piccoli.
Un particolare punto di attenzione è rappresentato dalla piattaforma di social media giapponese Pixiv, largamente usata da artisti per condividere manga e anime. Alcuni creatori di immagini hanno utilizzato il sito per promuovere il loro lavoro in gruppi e attraverso hashtag, sfruttando il fatto che in Giappone la condivisione di cartoni e disegni sessualizzati di bambini non è illegale. Pixiv ha però risposto affermando di aver posto un’enorme enfasi sul contrasto a questo problema, vietando dal 31 maggio tutte le rappresentazioni fotorealistiche di contenuti sessuali che coinvolgono minori. Molti degli account su Pixiv includono nelle loro biografie link che indirizzano gli utenti verso “contenuti non censurati” sul sito statunitense di condivisione Patreon. L’azienda, dal canto suo, ha affermato di avere una politica di “tolleranza zero” per tali immagini.
Il software Stable Diffusion normalmente è disponibile alla maggior parte degli utenti attraverso i canali Discord e i siti dell’azienda, la britannica Stability AI. Tali versioni presentano restrizioni per il controllo del tipo di contenuto che può essere creato, tuttavia l’anno scorso è stata rilasciata al pubblico una versione “open source” che permette agli utenti di rimuovere qualsiasi filtro per poterla così addestrare a produrre qualsiasi immagine, incluse quelle illegali.
Per approfondire: Illegal trade in AI child sex abuse images exposed