Emulatori AI riducono drasticamente i tempi delle simulazioni dei supercomputer

Immagine dal satellite

Astronomia, geologia, fisica, studio del clima, sono solo alcune delle discipline che necessitano l’uso di supercomputer per svolgere calcoli estremamente complessi. Per fare un esempio recente e attuale, il Cineca nei giorni scorsi ha messo a disposizione la sua potenza di calcolo per studiare il comportamento delle proteine sul Coronavirus. Il problema è che le risorse necessarie per la potenza di calcolo costano molto e i tempi – anche con i supercomputer – sono spesso dilatati (per usare l’esempio precedente, la simulazione di ogni proteina richiede una settimana di tempo anche con il supercomputer del Cineca).

Con l’avvento del deep learning si è iniziato a usare l’intelligenza artificiale per ridurre enormemente i tempi di calcolo, a scapito però della precisione: l’AI può essere usata per “indovinare” i risultati, approssimandoli in base a training precedenti. Il vantaggio è che si possono ridurre enormemente i tempi di calcolo: per fare un esempio, Nowcast di Google produce in pochi minuti le stesse previsioni del tempo che un supercomputer impiegherebbe ore a calcolare.

Grazie al deep learning non è necessario calcolare con esattezza il comportamento di ogni singola variabile, come fanno i modelli usati finora (ad esempio ogni singola molecola in un modello climatico), ma è possibile arrivare a risultati soddisfacenti semplicemente approssimando le variabili, oppure prendendo in considerazione variabili completamente diverse. Il già citato Nowcast prende come fonte di dati le immagini in evoluzione di una data zona con un approccio “physics-free”, ignorando quindi i funzionamenti del modello climatico.

Lo svantaggio è rappresentato dal fatto che spesso questi modelli AI perdono in accuratezza, oppure devono essere addestrati su numerose e costose simulazioni, rendendo il training economicamente proibitivo.

Ora però un gruppo di ricercatori ha pubblicato uno studio su una nuova tecnica chiamata DENSE, Deep Emulator Network SEarch, basata su un approccio che inserisce randomicamente strati computazionali nella rete neurale, analizzando i risultati e decidendo se includere o meno il nuovo layer nell’emulatore. In alcuni studi l’emulatore è risultato da 100.000 a 2 miliardi di volte più rapido rispetto ai simulatori, perdendo molto poco in accuratezza: in un caso i risultati dell’emulazione erano di oltre il 99,9% simili a quelli della simulazione tradizionale. In 10 test condotti dal team l’accuratezza di DENSE è risultata sempre superiore a quella degli emulatori fin qui usati, necessitando in molti casi di meno esempi di training di quelli che ci si aspettava.

Per approfondire: From models of galaxies to atoms, simple AI shortcuts speed up simulations by billions of times

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.