Il Premio Hutter: raggiungere l’intelligenza attraverso la compressione dei dati

Pensate di riuscire a realizzare un algoritmo di compressione che batta il precedente record di compressione di un particolare file? Il file è una copia del primo gigabyte di Wikipedia e attualmente il record di compressione è di 116MB. In palio vi sono fino a 500.000 dollari.

Assomiglia alla trama della prima stagione di Silicon Valley, invece è una competizione lanciata da Marcus Hutter, uno scienziato di DeepMind (che con il premio però non c’entra niente), che per lavoro studia i fondamenti matematici dietro l’intelligenza artificiale generale (AGI). Secondo Hutter la capacità di comprimere è strettamente legata all’intelligenza, di conseguenza si può ridurre il concetto di intelligenza a semplici dimensioni di file: più si comprime un file maggiore sarà l’intelligenza dimostrata dall’algoritmo.

Per approfondire: 500’000€ Prize for Compressing Human Knowledge

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.