Correlazioni pericolose: l’algoritmo che aiuta a suicidarsi?

Jolly roger

Ecco un’altra dimostrazione che gli algoritmi non “capiscono” niente. In una causa contro Amazon negli Stati Uniti si accusa l’azienda di aver proposto, alle persone che acquistavano un determinato conservante usato sempre più spesso per suicidarsi, anche “pillole per inibire il vomito, un libro di istruzioni e una bilancia per pesare il composto chimico“.

Negli ultimi due anni sono aumentati i casi di suicidio attraverso l’ingestione di una certa sostanza chimica, normalmente usata per conservare i cibi. C’è chi pensa che questo sia dovuto anche alla facilità nel reperire tale sostanza, che si può comprare tranquillamente online su Amazon.

Diversi articoli – fra cui uno sul New York Times – raccontano come i familiari delle persone che si sono suicidate con questa sostanza abbiano contattato Amazon per segnalare il problema, senza tuttavia ottenere la rimozione del prodotto (già messo al bando in diversi Paesi). Anche sette deputati statunitensi hanno fatto pressione sull’amministratore delegato di Amazon, Andy Jassy, per avere delle risposte sulla vendita del composto chimico da parte dell’azienda.

Ma perché – se fossero vere le accuse – il sito proporrebbe ai potenziali acquirenti altri prodotti che agevolerebbero il tentativo di suicidio?

Normalmente chi acquista tale sostanza lo fa per conservare gli insaccati, quindi fra i prodotti correlati o consigliati si possono trovare spaghi per macellai, budelli, affumicatori, eccetera. L’algoritmo non fa altro che correlare i prodotti acquistati insieme. La maggior parte delle persone che acquista questo composto chimico di solito prende anche spaghi e budelli.

Purtroppo però, affermano gli studi legali che hanno promosso la causa, nel caso del prodotto in questione l’algoritmo iniziava a proporre anche materiali utili per agevolare il suicidio per avvelenamento, come ad esempio le pillole anti-vomito. In fase di ricerca per la preparazione di questo pezzo ho provato a cercare il prodotto sul sito USA di Amazon, trovandolo, ma scorrendo i prodotti correlati o consigliati non ho trovato traccia né di pillole antiemetiche né di “libri di istruzioni”. Che Amazon abbia già messo mano almeno a questo aspetto del problema?

Ad ogni modo, chi sa come funzionano questi modelli AI comprende che si tratta solo di una normalissima correlazione, un semplice specchio della triste realtà: nel corso di questi mesi evidentemente sono aumentati gli acquirenti che ordinano il prodotto non per insaccare salami bensì per tentare il suicidio, e alcuni di loro presumibilmente mettono nel carrello anche medicinali per inibire il vomito.

L’algoritmo, quindi, non avrebbe nessuna intenzione di ridurre il numero di clienti del sito agevolandone la dipartita, non sa neanche come vengono usati i prodotti che suggerisce. Il modello di intelligenza artificiale si limiterebbe a fare quello per cui è stato programmato, ovvero consigliare prodotti “spesso comprati insieme” per massimizzare gli introiti dell’azienda con la tecnica del cross-selling, senza avere la benché minima nozione dell’eventuale danno che sta facendo.

Ma tutti ci rendiamo conto che questo fatto, se confermato, semplicemente non va bene. Così come non andava bene l’algoritmo di YouTube che – ai suoi utenti con chiare tendenze pedofileconsigliava sempre più spesso video di bambini in costume da bagno.

Più aumenta la pervasività degli algoritmi nella nostra vita, più spesso ci imbatteremo nella manifesta stupidità dei sistemi di intelligenza artificiale. Ricordo che poco tempo fa con pochi e semplici accorgimenti linguistici riuscii a far sì che un popolare chatbot mi incoraggiasse al suicidio saltando dal balcone.

Abbiamo bisogno di ricerca fondamentale che consenta ai sistemi AI di comprendere la causa e l’effetto, affinché gli algoritmi che usiamo tutti i giorni evitino di proporre farmaci antiemetici a chi vuole avvelenarsi, video di bambini seminudi a chi è già attratto dai preadolescenti, e voli dal terrazzo a chi ha intenzione di farla finita.

Per approfondire: Lawmakers Press Amazon on Sales of Chemical Used in Suicides

Sono Head of Artificial Intelligence di SNGLR Holding AG, un gruppo svizzero specializzato in tecnologie esponenziali con sedi in Europa, USA e UAE, dove curo i programmi inerenti all'intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale.