Il National Energy Research Scientific Computing Center, che ha sede presso il Lawrence Berkeley National Lab in California, ha attivato Perlmutter: un supercomputer progettato specificamente per gestire i carichi di lavoro tipici delle operazioni di machine learning.
Perlmutter, un supercomputer Cray costruito da Hewlett Packard Enterprise, è il più grande sistema al mondo di GPU A100 Tensor Core di Nvidia (ne usa ben 6.159), in grado di fornire quasi 4 exaFLOPS (un exaFLOPS è un quintilione (1018) di operazioni in virgola mobile al secondo, equivalente a mille petaFLOPS). Nvidia ha dichiarato che fra i compiti del “supercomputer AI” vi saranno alcune delle sfide scientifiche più difficili in astrofisica e scienza del clima, come la creazione di una mappa 3D dell’universo e l’analisi delle interazioni subatomiche per le fonti di energia rinnovabile.
Per approfondire: Perlmutter, said to be the world’s fastest AI supercomputer, comes online