OpenAI ha rilasciato GPT-3

In questi giorni è apparso su arXiv il tanto atteso paper di OpenAI che presenta e descrive il modello GPT-3, Generative Pretrained Transformer 3, un modello generativo basato su Transformer con oltre 175 miliardi di parametri. Come per i modelli precedenti il codice è disponibile su Github, mentre in attesa di una descrizione sul blog dell’azienda è possibile leggere un approfondimento tecnico in questo post su medium.

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.