Tesla (probabilmente) senza conducente si schianta, due morti

Tesla sulla strada

A Houston, negli Stati Uniti, due persone hanno perso la vita mentre viaggiavano su una Tesla Model S del 2019. L’auto non ha svoltato a una curva ed è andata contro un albero, incendiandosi. La polizia è “99,9% sicura” che alla guida non vi fosse nessuno: uno degli occupanti si trovava sui sedili posteriori e l’altro nella parte anteriore del veicolo, ma sul sedile del passeggero. Il sedile del conducente era vuoto, e malgrado al momento non possa confermarlo con certezza, la polizia ipotizza che i due stessero provando la “cosiddetta” guida autonoma dell’auto.

Le virgolette sono necessarie perché come ho già fatto notare, malgrado il nome del modulo sia “full self-driving” (FSD), Tesla ancora non offre una guida realmente autonoma. È vero però che Tesla ha deciso di rilasciare la “beta” del FSD a molti dei suoi clienti negli USA, dichiarando contestualmente che con il FSD in funzione il veicolo “potrebbe fare la cosa sbagliata nel momento peggiore” (nota: le ultime notizie rivelano che l’auto non aveva installato il modulo “FSD” bensì il modulo “Autopilot” di serie).

Solo poche settimane fa il National Transportation Safety Board in una comunicazione alla National Highway Traffic Safety Administration (NHTSA) aveva chiesto di imporre regole più severe per quanto riguarda la guida autonoma, citando proprio la decisione di Tesla di rilasciare il software “full self-driving” senza particolari supervisioni.

L’azienda è considerata da molti (me incluso) troppo disinvolta quando si tratta di far provare la guida autonoma ai suoi clienti, esponendoli a rischi che non tutti riescono a capire. Con l’aggravante che in questo modo si indebolisce la fiducia e si rallenta l’affermazione di una tecnologia – la guida autonoma – che se applicata correttamente in futuro potrebbe risparmiare all’umanità centinaia di migliaia di vittime stradali ogni anno.

Aggiornamento: il CEO di Tesla, Elon Musk, in un tweet ha dichiarato che il modulo Full Self-Driving non era installato sull’auto, che quindi aveva solo l’Autopilot di serie (anche qui, a dispetto del nome “autopilot”, non si tratta di un pilota automatico, bensì di un assistente alla guida L2). Inoltre, l’Autopilot non era attivo (la polizia mette tuttavia in dubbio questa eventualità), anche se non è chiaro se si parla del momento dello schianto oppure lungo tutto il percorso. È possibile infatti che l’Autopilot potesse essere attivo fino a pochi istanti prima dell’incidente, ma questo andrà chiarito dalle indagini.

La stranezza dell’incidente fa sorgere comunque alcuni dubbi sul comportamento degli occupanti del veicolo, che potrebbero aver deliberatamente ingannato alcuni sensori di sicurezza dell’auto. Un familiare del proprietario dell’auto ha dichiarato infatti che il conducente avrebbe prima fatto retromarcia per uscire dal parcheggio, e poi sarebbe “saltato sul sedile posteriore” per andare a fare un giro col suo amico. La guida assistita L2 non dovrebbe consentire all’auto di viaggiare se non vi è nessuno seduto sul sedile anteriore e se non vi è una mano che tiene il volante, ma entrambe le condizioni potrebbero essere simulate con relativa semplicità.

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, con consulenze sull'AI presso aziende private e per la Commissione Europea, dove collaboro con la European Defence Agency e il Joint Research Centre. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.