Quando si vuole portare l’esempio di un chatbot che inizia a comportarsi in maniera imbarazzante, magari rigurgitando insulti razzisti e discriminatori che ha imparato da altri utenti, si cita sempre Tay di Microsoft, che nell’ormai lontano 2016 venne messo online su Twitter e quindi rapidamente offline dopo sole 16 ore per aver dato il peggio di sé.
Ora abbiamo un esempio in più recente con cui riempire le note a piè pagina: Lee Luda è un chatbot coreano creato dalla startup Scatter Lab che, messo online come app a fine dicembre, è stato sospeso a gennaio dopo aver prodotto risposte razziste e omofobe.
A quanto pare il dataset usato per addestrare il chatbot era composto dalle chat degli utenti scambiate in un’altra app dell’azienda, chiamata Science of Love. Come se non bastasse il danno di immagine, ora l’azienda si dovrà preparare a una possibile class action da parte degli utenti dell’app, ignari che le loro chat sarebbero state usate per questo scopo.
Quando si dice che chi non conosce la storia è condannato a ripeterla..
Per approfondire: AI Chatbot Shut Down After Learning to Talk Like a Racist Asshole