Per Nick Bostrom l’AI va più veloce di quanto ci si aspettasse

Nick Bostrom

Molti conosceranno lo svedese Nick Bostrom per aver letto il suo libro più famoso, diventato ben presto uno dei best seller in ambito intelligenza artificiale: “Superintelligenza. Tendenze, pericoli, strategie“.

Nel libro del 2014 Bostrom mette in guardia sul “rischio esistenziale”, ovvero il pericolo che l’intelligenza artificiale generale (AGI, o “AI forte”) possa – fra le altre cose – considerare l’umanità superflua o pericolosa, causandone quindi l’estinzione.

Oggi intervistato da CNBC il professore di Oxford afferma che secondo lui i tempi si sarebbero accorciati, e che negli ultimi sei anni “il progresso è stato più veloce di quanto ci si aspettasse” a causa della rivoluzione del deep learning.

Che il rischio di estinzione si sia fatto più concreto? L’intervista completa si trova qui: How Britain’s oldest universities are trying to protect humanity from risky A.I.

Sono partner e fondatore di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti l'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI), della Association for Computing Machinery (ACM) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.