Il dilemma del carrello: voi chi salvereste?

Una delle situazioni proposte dalla Moral Machine

Molti conosceranno il “dilemma del carrello“, che comprende tutta una serie di questioni etiche e morali su quali vite risparmiare e quali condannare in caso di imminente pericolo. In genere il problema inizia con un incidente (un carrello sui binari a cui si rompono i freni) e una o più alternative tragiche, dove il protagonista del dilemma si trova ai comandi dello scambio dei binari e deve scegliere dove questo carrello si andrà a schiantare: addosso a N lavoratori su un binario o addosso a N+1 lavoratori su un altro binario?

Le alternative sono tantissime e ognuna di esse mira a stabilire l’importanza che diamo a diversi elementi: numero di vite da condannare (va bene salvare due persone al costo di un’altra vita?), età (chi condannare fra un bambino e un adulto?), genere (chi salvare fra un uomo e una donna?), utilità sociale (meglio far morire un lavoratore o un disoccupato?), situazione (meglio non far nulla e far morire cinque persone, oppure intervenire e farne morire solo una?) eccetera, eccetera.

Le circostanze sono così tante che da questo esercizio intellettuale è possibile tirar fuori molte interessanti informazioni sull’etica e sulla morale di chi acconsente a sottoporsi alla ridda di domande (poca gente, e lo scrivo per esperienza, resiste a lungo). Le domande infatti presentano situazioni via via meno nette e più sfumate: meglio far morire una bambina oppure due vecchiette? E se le vecchiette fossero cinque? Cinquanta? Chi risparmiare se si fosse costretti a scegliere fra un gruppo di tre bambini che stanno correttamente attraversando col semaforo pedonale verde e altri cinque bambini che però stanno attraversando col rosso?

Se umanamente è comprensibile rifiutarsi di rispondere, chi deve progettare i parametri etici all’interno di un software di intelligenza artificiale queste domande se le deve porre, offrendo al contempo risposte che abbiano un senso. E se da una parte abbiamo già visto che la cultura influenza molto le risposte delle persone, dall’altra dobbiamo far sì che qualsiasi scelta inserita sia poi accettata dalla maggior parte della popolazione.

Le auto a guida autonoma possono essere soggette a molti degli stessi problemi che oggi riscontriamo nelle auto a guida umana: pneumatici che si rompono, asfalto improvvisamente sdrucciolevole, situazioni di pericolo immediato. Cosa deve fare un’auto dopo aver perso il controllo della guida? Sterzare andando a sbattere conto un muro, rischiando così la vita degli occupanti, oppure mantenere il rettilineo investendo un gruppo di ciclisti appena sbucati da un incrocio?

Al MIT hanno preparato un semplice test chiamato “Moral Machine” dove sarete voi i giudici di chi si salva e chi muore. Le situazioni riguardano un’auto a guida autonoma che si avvicina a un incrocio troppo velocemente e con i freni rotti. A volte può decidere di scontrarsi contro un muro uccidendo gli occupanti ma salvando i pedoni, altre volte l’auto è vuota e deve decidere chi salvare e chi investire, in una serie di situazioni sempre più difficili ma che metteranno in risalto uno o più aspetti della scelta morale. Le domande faranno emergere le vostre preferenze personali (un dottore è più importante di un manager? e di un barbone?) o filosofiche (meglio non intervenire e far morire più persone, o intervenire e farne morire di meno?).

Sicuramente vi metteranno a disagio, ma poiché l’etica dell’intelligenza artificiale è informata da quella umana, se vogliamo decidere sulla prima non possiamo esimerci dall’esaminare la seconda.

Alla fine del test riceverete anche un risultato che illustrerà quali sono le vostre preferenze in merito a molti aspetti della decisione. Incluso il tipo di persona che si è salvato più frequentemente nei dilemmi che vi sono stati sottoposti. A quanto sembra in tutte le mie simulazioni chi non ha mai avuto nulla da temere era la bambina.

Moral machine: bambina

Mi sono appassionato all'intelligenza artificiale da quando ho potuto vedere all'opera i primi sistemi esperti negli anni '80. Già dal 1989 mi occupavo di cybersecurity (analizzando i primi virus informatici) ma non ho mai smesso di seguire gli sviluppi dell'AI. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Sono socio fondatore del chapter italiano di Internet Society, membro dell’Associazione Italiana esperti in Infrastrutture Critiche (AIIC), della Association for the Advancement of Artificial Intelligence (AAAI) e dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA). Dal 2002 al 2005 ho servito il Governo Italiano come advisor del Ministro delle Comunicazioni sui temi di cyber security. Oggi partecipo ai lavori della European AI Alliance della Commissione Europea e a workshop tematici della European Defence Agency e del Joint Research Centre. Questo blog è personale.