E se l’intelligenza artificiale fosse razzista?
L'intelligenza artificiale è razzista. Ma questo semplicemente perché impara da una società dove alcuni termini sono usati comunemente
Amazon ha recentemente cancellato la “N-Word” dalla descrizione di uno dei suoi prodotti. Il colosso ha poi ammesso che i controlli messi in atto sul sito non sono riusciti a individuare ed escludere il termine razzista. E la stessa cosa è avvenuta per diversi prodotti in vendita sull’e-commerce.
La colpa, però, non è del venditore. Lui probabilmente non ha capito cosa volesse dire la traduzione (dal cinese all’inglese) e ha postato ugualmente la frase.
Tutto questo però è stato ripreso da un team di esperti di Intelligenza Artificiale che hanno riproposto una serie di esempi dove l’AI non ha individuato termini razzisti.
Secondo gli scienziati, quindi, “L’intelligenza artificiale ha un problema di razza”; ma semplicemente perché non ha ben chiaro come secondo alcuni individui la questione razziale sia un problema. Per questo alcuni termini ritenuti offensivi sfuggono al suo controllo perché non dovrebbe esistere un insulto basato sul colore della pelle, ad esempio.
L’intelligenza artificiale è razzista o va considerata come un bambino?
Le prove al riguardo sono molte. Su Baidu, il principale motore di ricerca cinese, questa parola viene suggerita tra le opzioni di traduzione per i caratteri cinesi per “persona di colore”. Non è un problema dei cinesi, è l’intelligenza artificiale che ha “studiato” il lessico delle persone, individuando l’uso (errato) di questa parola.
Gli esperti hanno affermato che i programmi di AI che stanno lavorando su associazioni e correlazioni di parole sono come dei bambini che leggono velocemente una grande quantità di informazioni. A fronte di questo è chiaro che questi non riescano a comprendere a fondo tutto ciò che leggono e non capiscono cosa può essere ritenuto utile e cosa, invece, è una parola potenzialmente dannosa.
In sintesi, questi programmi di apprendimento automatico, imparano da una società fortemente razzista; quindi hanno come modelli degli stereotipi che rispecchiano il contesto che hanno avuto come caso di studio. Non sorprende quindi che termini come la “N-Word” siano riconosciuti come sinonimi o alternative a date parole come “nero” o “di colore”.
Soluzioni per il futuro?
Chiaramente l’intelligenza artificiale non è razzista, ma ha bisogno di esempi migliori. Ovviamente la soluzione non è facile perché escludendo un dato termine si potrebbe arrivare a censurare inavvertitamente testi storici o, ad esempio, libri di testo o canzoni che non hanno un significato razzista.
A questo punto il dibattito è aperto e si divide tra chi sostiene che le AI debbano imparare da sole fino a che non raggiungano un livello più o meno uguale a quello dell’uomo; mentre dall’altra parte ci sono coloro che sostengono che questi programmi necessitano dell’intervento umano per contrastare i pregiudizi e il razzismo nei dati.
La questione è ancora aperta. Al momento, non c’è una vera e propria soluzione se non quella di correre ai ripari e correggere gli errori fatti dall’intelligenza artificiale; magari spiegandole, come si fa con i bambini, che certe cose non si dicono.
E se l’intelligenza artificiale fosse razzista?