Il Premio Hutter: raggiungere l’intelligenza attraverso la compressione dei dati

Pensate di riuscire a realizzare un algoritmo di compressione che batta il precedente record di compressione di un particolare file? Il file è una copia del primo gigabyte di Wikipedia e attualmente il record di compressione è di 116MB. In palio vi sono fino a 500.000 dollari.

Assomiglia alla trama della prima stagione di Silicon Valley, invece è una competizione lanciata da Marcus Hutter, uno scienziato di DeepMind (che con il premio però non c’entra niente), che per lavoro studia i fondamenti matematici dietro l’intelligenza artificiale generale (AGI). Secondo Hutter la capacità di comprimere è strettamente legata all’intelligenza, di conseguenza si può ridurre il concetto di intelligenza a semplici dimensioni di file: più si comprime un file maggiore sarà l’intelligenza dimostrata dall’algoritmo.

Per approfondire: 500’000€ Prize for Compressing Human Knowledge

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.