
Pochi giorni fa OpenAI ha pubblicato un addendum alla sua analisi del 2018 che riportava come i grandi training di intelligenza artificiale richiedessero sempre più risorse computazionali per conseguire nuovi traguardi di ricerca.
La ricerca mette a confronto i dati dal 1959 al 2012, dove la quantità di potenza necessaria raddoppiava ogni 2 anni circa, e il periodo dal 2012 al 2017, dove il tempo per il raddoppio è di soli 3,4 mesi. Il 2012 per molti è un anno spartiacque, per via dell’importanza sempre maggiore del deep learning nella ricerca AI (AlexNet, per fare un esempio, è del 2012), che richiede per l’appunto grandi capacità di elaborazione.
Commento: anzitutto qui si parla di grandi progetti, quelli che spostano i confini dell’intelligenza artificiale (del calibro di AlphaGo), non il “normale” training che può avvenire in un’azienda per l’analisi del venduto. Ma anche così la notizia è preoccupante, perché determinerà un’importanza sempre maggiore delle grandi aziende che possono permettersi un tale potere computazionale, a scapito dei laboratori pubblici, locali o indipendenti che non dispongono delle stesse risorse.