Text-to-face e StyleGAN2 per generare volti dalle descrizioni

Una strada ancora poco battuta nell’ambito dei volti generati da una rete neurale è il text-to-face, ovvero la possibilità di creare immagini di volti realistici partendo solo da una descrizione testuale.

Tre ricercatori australiani hanno sviluppato un modello di Text-to-face che assieme alla seconda versione di StyleGAN – una impressionante rete generativa avversaria creata da Nvidia – riesce a produrre diversi volti umani partendo da un testo scritto, migliorando l’output man mano che la descrizione acquista ulteriori dettagli. Ecco alcuni esempi direttamente dal paper degli autori:

TTF1 - Esempio dal paper dei ricercatori

TTF2 - Esempio dal paper dei ricercatori

Per approfondire la ricerca: Faces à la Carte: Text-to-Face Generation via Attribute Disentanglement

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.