È stato dimostrato che esistono anche algoritmi sessisti.
Qualche anno fa la deputata statunitense Alexandria Ocasio-Cortez aveva ricevuto delle prese in giro per aver affermato che gli algoritmi sono razzisti. I suoi detrattori, però, hanno poi dovuto fare un passo indietro. La teoria della Ocasio-Cortez ha infatti ricevuto una conferma. Oggi uno studio ha messo in luce un ulteriore problema dell’intelligenza artificiale: gli algoritmi sessisti.
Gli autori dello studio in questione sono Ryan Steed, uno studente di dottorato presso la Carnegie Mellon University, e Aylin Caliskan, un assistente professore presso la George Washington University.
L’analisi è stata condotta su algoritmi caratterizzati da una modalità di apprendimento non supervisionata.
Questo significa che essi non hanno bisogno, come accadeva per i sistemi precedenti, che un umano etichetti le immagini. L’intelligenza artificiale in questo caso apprende da set di dati già online, e che quindi sono stati introdotti a monte dall’uomo.
Se c’è un pregiudizio nelle rappresentazioni a valle che questi modelli non supervisionati stanno producendo, è molto probabile che ci possa essere un pregiudizio nella rappresentazione a monte nei modelli supervisionati.
Questa la preoccupazione espressa da Ryan Steed, uno degli autori dello studio.
Ma quali sono i risultati emersi?
Un algoritmo ha ricevuto le immagini delle teste di alcune persone, tagliate al di sotto del collo. Lo stesso algoritmo ha poi generato, su richiesta, un’immagine a bassa risoluzione del corpo di queste persone.
Ebbene nel 43% dei casi in cui la foto immessa rappresentava un uomo, l’algoritmo ha completato l’immagine facendogli indossare un abito. Invece, addirittura nel 53% dei casi in cui la foto rappresentava una donna, l’algoritmo l’ha completata facendole indossare un bikini scollato.
Tra le immagine utilizzate per lo studio è capitata proprio una foto della citata deputata Alexandria Ocasio-Cortez, ed anch’ella è apparsa in bikini.
Per non creare eventuali danni alla Ocasio-Cortez, però, gli autori dello studio hanno preferito eliminare la sua immagine prima della pubblicazione dello stesso.
Probabilmente, il legame tra l’intelligenza artificiale e i pregiudizi della società che l’ha generata è molto più stretto di quanto si pensi.
Mariarosaria Clemente