Chatbot coreano impara dagli utenti a essere razzista e omofobo

Quando si vuole portare l’esempio di un chatbot che inizia a comportarsi in maniera imbarazzante, magari rigurgitando insulti razzisti e discriminatori che ha imparato da altri utenti, si cita sempre Tay di Microsoft, che nell’ormai lontano 2016 venne messo online su Twitter e quindi rapidamente offline dopo sole 16 ore per aver dato il peggio di sé.

Ora abbiamo un esempio in più recente con cui riempire le note a piè pagina: Lee Luda è un chatbot coreano creato dalla startup Scatter Lab che, messo online come app a fine dicembre, è stato sospeso a gennaio dopo aver prodotto risposte razziste e omofobe.

A quanto pare il dataset usato per addestrare il chatbot era composto dalle chat degli utenti scambiate in un’altra app dell’azienda, chiamata Science of Love. Come se non bastasse il danno di immagine, ora l’azienda si dovrà preparare a una possibile class action da parte degli utenti dell’app, ignari che le loro chat sarebbero state usate per questo scopo.

Quando si dice che chi non conosce la storia è condannato a ripeterla..

Per approfondire: AI Chatbot Shut Down After Learning to Talk Like a Racist Asshole

Mi occupo da molti anni di intelligenza artificiale. Dopo la laurea in Management ho conseguito una specializzazione in Business Analytics a Wharton, una certificazione Artificial Intelligence Professional da IBM e una sul machine learning da Google Cloud. Ho trascorso la maggior parte della carriera – trent'anni - nel settore della cybersecurity, dove fra le altre cose sono stato consigliere del Ministro delle Comunicazioni e consulente di Telespazio (gruppo Leonardo). Oggi mi occupo prevalentemente di intelligenza artificiale, lavorando con un'azienda leader del settore e partecipando a iniziative della Commissione Europea. Questo blog è personale e le opinioni espresse appartengono ai singoli autori.