Text-to-face e StyleGAN2 per generare volti dalle descrizioni

Una strada ancora poco battuta nell’ambito dei volti generati da una rete neurale è il text-to-face, ovvero la possibilità di creare immagini di volti realistici partendo solo da una descrizione testuale.

Tre ricercatori australiani hanno sviluppato un modello di Text-to-face che assieme alla seconda versione di StyleGAN – una impressionante rete generativa avversaria creata da Nvidia – riesce a produrre diversi volti umani partendo da un testo scritto, migliorando l’output man mano che la descrizione acquista ulteriori dettagli. Ecco alcuni esempi direttamente dal paper degli autori:

TTF1 - Esempio dal paper dei ricercatori

TTF2 - Esempio dal paper dei ricercatori

Per approfondire la ricerca: Faces à la Carte: Text-to-Face Generation via Attribute Disentanglement

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.