Il training dell’AI richiede risorse computazionali sempre maggiori

Pochi giorni fa OpenAI ha pubblicato un addendum alla sua analisi del 2018 che riportava come i grandi training di intelligenza artificiale richiedessero sempre più risorse computazionali per conseguire nuovi traguardi di ricerca.

La ricerca mette a confronto i dati dal 1959 al 2012, dove la quantità di potenza necessaria raddoppiava ogni 2 anni circa, e il periodo dal 2012 al 2017, dove il tempo per il raddoppio è di soli 3,4 mesi. Il 2012 per molti è un anno spartiacque, per via dell’importanza sempre maggiore del deep learning nella ricerca AI (AlexNet, per fare un esempio, è del 2012), che richiede per l’appunto grandi capacità di elaborazione.

Commento: anzitutto qui si parla di grandi progetti, quelli che spostano i confini dell’intelligenza artificiale (del calibro di AlphaGo), non il “normale” training che può avvenire in un’azienda per l’analisi del venduto. Ma anche così la notizia è preoccupante, perché determinerà un’importanza sempre maggiore delle grandi aziende che possono permettersi un tale potere computazionale, a scapito dei laboratori pubblici, locali o indipendenti che non dispongono delle stesse risorse.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.