
Astronomia, geologia, fisica, studio del clima, sono solo alcune delle discipline che necessitano l’uso di supercomputer per svolgere calcoli estremamente complessi. Per fare un esempio recente e attuale, il Cineca nei giorni scorsi ha messo a disposizione la sua potenza di calcolo per studiare il comportamento delle proteine sul Coronavirus. Il problema è che le risorse necessarie per la potenza di calcolo costano molto e i tempi – anche con i supercomputer – sono spesso dilatati (per usare l’esempio precedente, la simulazione di ogni proteina richiede una settimana di tempo anche con il supercomputer del Cineca).
Con l’avvento del deep learning si è iniziato a usare l’intelligenza artificiale per ridurre enormemente i tempi di calcolo, a scapito però della precisione: l’AI può essere usata per “indovinare” i risultati, approssimandoli in base a training precedenti. Il vantaggio è che si possono ridurre enormemente i tempi di calcolo: per fare un esempio, Nowcast di Google produce in pochi minuti le stesse previsioni del tempo che un supercomputer impiegherebbe ore a calcolare.
Grazie al deep learning non è necessario calcolare con esattezza il comportamento di ogni singola variabile, come fanno i modelli usati finora (ad esempio ogni singola molecola in un modello climatico), ma è possibile arrivare a risultati soddisfacenti semplicemente approssimando le variabili, oppure prendendo in considerazione variabili completamente diverse. Il già citato Nowcast prende come fonte di dati le immagini in evoluzione di una data zona con un approccio “physics-free”, ignorando quindi i funzionamenti del modello climatico.
Lo svantaggio è rappresentato dal fatto che spesso questi modelli AI perdono in accuratezza, oppure devono essere addestrati su numerose e costose simulazioni, rendendo il training economicamente proibitivo.
Ora però un gruppo di ricercatori ha pubblicato uno studio su una nuova tecnica chiamata DENSE, Deep Emulator Network SEarch, basata su un approccio che inserisce randomicamente strati computazionali nella rete neurale, analizzando i risultati e decidendo se includere o meno il nuovo layer nell’emulatore. In alcuni studi l’emulatore è risultato da 100.000 a 2 miliardi di volte più rapido rispetto ai simulatori, perdendo molto poco in accuratezza: in un caso i risultati dell’emulazione erano di oltre il 99,9% simili a quelli della simulazione tradizionale. In 10 test condotti dal team l’accuratezza di DENSE è risultata sempre superiore a quella degli emulatori fin qui usati, necessitando in molti casi di meno esempi di training di quelli che ci si aspettava.
Per approfondire: From models of galaxies to atoms, simple AI shortcuts speed up simulations by billions of times