In questi giorni è apparso su arXiv il tanto atteso paper di OpenAI che presenta e descrive il modello GPT-3, Generative Pretrained Transformer 3, un modello generativo basato su Transformer con oltre 175 miliardi di parametri. Come per i modelli precedenti il codice è disponibile su Github, mentre in attesa di una descrizione sul blog dell’azienda è possibile leggere un approfondimento tecnico in questo post su medium.