Il dilemma del carrello: voi chi salvereste?

Una delle situazioni proposte dalla Moral Machine

Molti conosceranno il “dilemma del carrello“, che comprende tutta una serie di questioni etiche e morali su quali vite risparmiare e quali condannare in caso di imminente pericolo. In genere il problema inizia con un incidente (un carrello sui binari a cui si rompono i freni) e una o più alternative tragiche, dove il protagonista del dilemma si trova ai comandi dello scambio dei binari e deve scegliere dove questo carrello si andrà a schiantare: addosso a N lavoratori su un binario o addosso a N+1 lavoratori su un altro binario?

Le alternative sono tantissime e ognuna di esse mira a stabilire l’importanza che diamo a diversi elementi: numero di vite da condannare (va bene salvare due persone al costo di un’altra vita?), età (chi condannare fra un bambino e un adulto?), genere (chi salvare fra un uomo e una donna?), utilità sociale (meglio far morire un lavoratore o un disoccupato?), situazione (meglio non far nulla e far morire cinque persone, oppure intervenire e farne morire solo una?) eccetera, eccetera.

Le circostanze sono così tante che da questo esercizio intellettuale è possibile tirar fuori molte interessanti informazioni sull’etica e sulla morale di chi acconsente a sottoporsi alla ridda di domande (poca gente, e lo scrivo per esperienza, resiste a lungo). Le domande infatti presentano situazioni via via meno nette e più sfumate: meglio far morire una bambina oppure due vecchiette? E se le vecchiette fossero cinque? Cinquanta? Chi risparmiare se si fosse costretti a scegliere fra un gruppo di tre bambini che stanno correttamente attraversando col semaforo pedonale verde e altri cinque bambini che però stanno attraversando col rosso?

Se umanamente è comprensibile rifiutarsi di rispondere, chi deve progettare i parametri etici all’interno di un software di intelligenza artificiale queste domande se le deve porre, offrendo al contempo risposte che abbiano un senso. E se da una parte abbiamo già visto che la cultura influenza molto le risposte delle persone, dall’altra dobbiamo far sì che qualsiasi scelta inserita sia poi accettata dalla maggior parte della popolazione.

Le auto a guida autonoma possono essere soggette a molti degli stessi problemi che oggi riscontriamo nelle auto a guida umana: pneumatici che si rompono, asfalto improvvisamente sdrucciolevole, situazioni di pericolo immediato. Cosa deve fare un’auto dopo aver perso il controllo della guida? Sterzare andando a sbattere conto un muro, rischiando così la vita degli occupanti, oppure mantenere il rettilineo investendo un gruppo di ciclisti appena sbucati da un incrocio?

Al MIT hanno preparato un semplice test chiamato “Moral Machine” dove sarete voi i giudici di chi si salva e chi muore. Le situazioni riguardano un’auto a guida autonoma che si avvicina a un incrocio troppo velocemente e con i freni rotti. A volte può decidere di scontrarsi contro un muro uccidendo gli occupanti ma salvando i pedoni, altre volte l’auto è vuota e deve decidere chi salvare e chi investire, in una serie di situazioni sempre più difficili ma che metteranno in risalto uno o più aspetti della scelta morale. Le domande faranno emergere le vostre preferenze personali (un dottore è più importante di un manager? e di un barbone?) o filosofiche (meglio non intervenire e far morire più persone, o intervenire e farne morire di meno?).

Sicuramente vi metteranno a disagio, ma poiché l’etica dell’intelligenza artificiale è informata da quella umana, se vogliamo decidere sulla prima non possiamo esimerci dall’esaminare la seconda.

Alla fine del test riceverete anche un risultato che illustrerà quali sono le vostre preferenze in merito a molti aspetti della decisione. Incluso il tipo di persona che si è salvato più frequentemente nei dilemmi che vi sono stati sottoposti. A quanto sembra in tutte le mie simulazioni chi non ha mai avuto nulla da temere era la bambina.

Moral machine: bambina

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.