OpenAI ha rilasciato GPT-3

In questi giorni è apparso su arXiv il tanto atteso paper di OpenAI che presenta e descrive il modello GPT-3, Generative Pretrained Transformer 3, un modello generativo basato su Transformer con oltre 175 miliardi di parametri. Come per i modelli precedenti il codice è disponibile su Github, mentre in attesa di una descrizione sul blog dell’azienda è possibile leggere un approfondimento tecnico in questo post su medium.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.