
Il “dilemma del carrello ferroviario” viene spesso proposto quando si parla di etica, AI e auto a guida autonoma: se costretta dagli eventi (ad es. trovandosi in mezzo a un incidente) come fa un’auto a guida autonoma a decidere quale vita salvare? Se ha solo due possibilità, svoltare e uccidere una vecchietta o continuare e uccidere un bambino, quale decisione prende?
E se su una strada di montagna l’auto a guida autonoma dopo una curva si trovasse improvvisamente di fronte un gruppo di ciclisti e i freni non rispondessero ai comandi, l’auto continuerebbe il suo percorso investendo e uccidendo i ciclisti, oppure svolterebbe e si getterebbe giù dalla montagna, uccidendo gli occupanti?
È difficile programmare una risposta, soprattutto se anche noi umani offriamo soluzioni differenti a seconda del Paese in cui siamo cresciuti. Ricercatori del MIT Media Lab hanno posto queste domande online, raccogliendo in quattro anni milioni risposte da ogni Paese del mondo e pubblicando uno studio su Nature.
Per continuare l’esempio del bambino e della vecchietta, partecipanti da Paesi “collettivisti” come Cina e Giappone sono meno propensi a salvare il bambino se confrontati con partecipanti da altre parti del mondo, forse perché in quelle società le persone anziane godono di un rispetto maggiore.

Questi e altri esempi possono essere esaminati nello studio, che però su Nature è disponibile solo dietro abbonamento. Fortunatamente questo articolo pubblicato da MIT Technology Review su Medium offre un buon riassunto.