Opinione controcorrente: i modelli NLP non dovrebbero essere così grandi

GPT-4 avrà probabilmente 100 bilioni (1012) di parametri, cosa che non piace al Chief Evangelist della nota startup Hugging Face, che in un post sul blog aziendale consiglia di usare modelli più piccoli e ottimizzati.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.