Emulatori AI riducono drasticamente i tempi delle simulazioni dei supercomputer

Immagine dal satellite

Astronomia, geologia, fisica, studio del clima, sono solo alcune delle discipline che necessitano l’uso di supercomputer per svolgere calcoli estremamente complessi. Per fare un esempio recente e attuale, il Cineca nei giorni scorsi ha messo a disposizione la sua potenza di calcolo per studiare il comportamento delle proteine sul Coronavirus. Il problema è che le risorse necessarie per la potenza di calcolo costano molto e i tempi – anche con i supercomputer – sono spesso dilatati (per usare l’esempio precedente, la simulazione di ogni proteina richiede una settimana di tempo anche con il supercomputer del Cineca).

Con l’avvento del deep learning si è iniziato a usare l’intelligenza artificiale per ridurre enormemente i tempi di calcolo, a scapito però della precisione: l’AI può essere usata per “indovinare” i risultati, approssimandoli in base a training precedenti. Il vantaggio è che si possono ridurre enormemente i tempi di calcolo: per fare un esempio, Nowcast di Google produce in pochi minuti le stesse previsioni del tempo che un supercomputer impiegherebbe ore a calcolare.

Grazie al deep learning non è necessario calcolare con esattezza il comportamento di ogni singola variabile, come fanno i modelli usati finora (ad esempio ogni singola molecola in un modello climatico), ma è possibile arrivare a risultati soddisfacenti semplicemente approssimando le variabili, oppure prendendo in considerazione variabili completamente diverse. Il già citato Nowcast prende come fonte di dati le immagini in evoluzione di una data zona con un approccio “physics-free”, ignorando quindi i funzionamenti del modello climatico.

Lo svantaggio è rappresentato dal fatto che spesso questi modelli AI perdono in accuratezza, oppure devono essere addestrati su numerose e costose simulazioni, rendendo il training economicamente proibitivo.

Ora però un gruppo di ricercatori ha pubblicato uno studio su una nuova tecnica chiamata DENSE, Deep Emulator Network SEarch, basata su un approccio che inserisce randomicamente strati computazionali nella rete neurale, analizzando i risultati e decidendo se includere o meno il nuovo layer nell’emulatore. In alcuni studi l’emulatore è risultato da 100.000 a 2 miliardi di volte più rapido rispetto ai simulatori, perdendo molto poco in accuratezza: in un caso i risultati dell’emulazione erano di oltre il 99,9% simili a quelli della simulazione tradizionale. In 10 test condotti dal team l’accuratezza di DENSE è risultata sempre superiore a quella degli emulatori fin qui usati, necessitando in molti casi di meno esempi di training di quelli che ci si aspettava.

Per approfondire: From models of galaxies to atoms, simple AI shortcuts speed up simulations by billions of times

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.