
Molti conosceranno lo svedese Nick Bostrom per aver letto il suo libro più famoso, diventato ben presto uno dei best seller in ambito intelligenza artificiale: “Superintelligenza. Tendenze, pericoli, strategie“.
Nel libro del 2014 Bostrom mette in guardia sul “rischio esistenziale”, ovvero il pericolo che l’intelligenza artificiale generale (AGI, o “AI forte”) possa – fra le altre cose – considerare l’umanità superflua o pericolosa, causandone quindi l’estinzione.
Oggi intervistato da CNBC il professore di Oxford afferma che secondo lui i tempi si sarebbero accorciati, e che negli ultimi sei anni “il progresso è stato più veloce di quanto ci si aspettasse” a causa della rivoluzione del deep learning.
Che il rischio di estinzione si sia fatto più concreto? L’intervista completa si trova qui: How Britain’s oldest universities are trying to protect humanity from risky A.I.