Il Premio Hutter: raggiungere l’intelligenza attraverso la compressione dei dati

Pensate di riuscire a realizzare un algoritmo di compressione che batta il precedente record di compressione di un particolare file? Il file è una copia del primo gigabyte di Wikipedia e attualmente il record di compressione è di 116MB. In palio vi sono fino a 500.000 dollari.

Assomiglia alla trama della prima stagione di Silicon Valley, invece è una competizione lanciata da Marcus Hutter, uno scienziato di DeepMind (che con il premio però non c’entra niente), che per lavoro studia i fondamenti matematici dietro l’intelligenza artificiale generale (AGI). Secondo Hutter la capacità di comprimere è strettamente legata all’intelligenza, di conseguenza si può ridurre il concetto di intelligenza a semplici dimensioni di file: più si comprime un file maggiore sarà l’intelligenza dimostrata dall’algoritmo.

Per approfondire: 500’000€ Prize for Compressing Human Knowledge

Sono partner e fondatore di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti l'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI), della Association for Computing Machinery (ACM) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.