
Un team di ricerca della University of Southern California, fra cui anche il prof. Hao Li che da anni si occupa di computer vision, grafica computerizzata ed effetti speciali, ha pubblicato uno studio (pdf) dove presenta un nuovo framework di deep learning che consente di variare le espressioni di una persona in foto, senza però confonderne le caratteristiche facciali come invece farebbe un comune deepfake.
Con il nuovo sistema è possibile prendere una singola foto di un individuo e copiarne l’espressione sulla foto di un’altra persona, o anche di un quadro, mantenendo tutte le caratteristiche dell’immagine di destinazione (“identity preservation”). Per fare questo si usano due reti: la prima si chiama Landmark Disentanglement Network (LD-Net) e copia l’espressione e le posizioni dei volti, mentre l’altra è la Feature Dictionary-based Generative Adversarial Network (FD-GAN) e ha il compito di generare la nuova immagine sulla base di tali caratteristiche.
Immagine: L’elaborazione attraverso le reti LD-NET e FD-GAN (fonte: autori)
Accedendo alla ricerca si possono vedere diversi risultati, alcuni convincenti, altri un po’ meno: One-Shot Identity-Preserving Portrait Reenactment