
Quando cerco di spiegare a qualcuno cos’è il bias (pregiudizio) che la nostra società instilla più o meno involontariamente nei modelli di intelligenza artificiale, faccio spesso riferimento alla seguente immagine:
Il modello ha correttamente riconosciuto la donna come sposa sia nella prima sia nella seconda immagine, ma non lo ha fatto nella terza, nonostante anche l’immagine a destra mostri due persone nel giorno delle nozze, vestiti con gli abiti caratteristici.
Non si tratta ovviamente di “razzismo”, ma più semplicemente del fatto che il modello è stato presumibilemnte addestrato con tante immagini provenienti dalla cultura occidentale, e comparativamente poche provenienti da altre culture.
I risultati di questa preponderanza di “training occidentale” possono essere molto diversi, ma generalmente sono sempre a discapito di chi è meno rappresentato.
L’articolo collegato a questa immagine non è recente, e descrive come Google Research abbia lanciato la Inclusive Images Challenge per rendere i modelli di apprendimento più attenti a eventuali bias e zone d’ombra, in modo che siano efficaci anche quando hanno pochi dati a disposizione.
Con la progressiva adozione di strumenti di machine learning in molti ambiti della nostra vita dobbiamo sempre tenere a mente quanto sia importante l’inclusività nell’IA, sia per questioni etiche e morali, sia per una questione di miglioramento dei modelli.
Ma anche perché alla fine della giornata tutti noi apparteniamo a qualche minoranza (culturale, razziale, politica, estetica, sportiva, anagrafica, economica, demografica, ecc) e se non affrontiamo oggi il problema del bias, rischieremo un giorno di essere esclusi, sottovalutati o “maltrattati” da un modello di intelligenza artificiale addestrato male.