Intelligenza artificiale e razzismo: i motori di ricerca AI promuovono teorie razziste sul quoziente intellettivo

Amnesty International intelligenza artificiale, motori di ricerca, razzismo scientifico, Richard Lynn, fake news

Negli ultimi anni, i motori di ricerca alimentati dall’intelligenza artificiale, come quelli di Google, Microsoft e Perplexity, hanno involontariamente contribuito alla diffusione di teorie pseudoscientifiche che promuovono la superiorità genetica delle persone bianche. Il fenomeno ha suscitato preoccupazioni in ambito accademico e sociale, a causa dell’apparente affidabilità dei dati che questi strumenti forniscono agli utenti.

Un ritorno del razzismo scientifico nei motori di ricerca AI

Patrik Hermansson, ricercatore per l’organizzazione britannica antirazzista Hope Not Hate, ha scoperto come i motori di ricerca AI riproducano teorie di razzismo scientifico. Durante un’indagine sulla Human Diversity Foundation, un’organizzazione legata al miliardario Andrew Conru e finalizzata alla promozione della superiorità razziale, Hermansson ha notato che i motori di ricerca AI mostravano spesso dati non accurati sui punteggi del QI nazionale.

Hermansson ha trovato che i risultati forniti da Google e altri motori di ricerca AI richiamavano il controverso database di Richard Lynn, psicologo e ricercatore britannico, noto per le sue teorie eugenetiche. Lynn, ex presidente del Pioneer Fund—fondato negli Stati Uniti nel 1937 da simpatizzanti nazisti—ha sviluppato un set di dati che afferma di mostrare la variabilità del QI tra le diverse nazioni, basandosi su campioni di dati estremamente ridotti e culturalmente distorti.

Dati di bassa qualità e disinformazione

I dati di Lynn, pur riconosciuti come pseudoscientifici dalla maggior parte degli esperti, sono ampiamente citati nei motori di ricerca AI, i quali non riescono a distinguere tra fonti attendibili e non. Quando Hermansson ha cercato il “QI del Pakistan” su Google, l’AI ha fornito un risultato di 80, mentre per la Sierra Leone ha restituito un valore di 45,07, e per il Kenya 75,2. Questi numeri, come confermato da Hermansson, derivano dal database di Lynn e riflettono campioni di popolazione selezionati in modo non rappresentativo.

Rebecca Sear, direttrice del Center for Culture and Evolution presso la Brunel University di Londra, ha dichiarato che tali risposte fornite dai motori di ricerca AI possono rafforzare convinzioni razziste. L’utilizzo di questi dati distorti favorisce l’idea che le disuguaglianze siano naturali e inevitabili, alimentando così il razzismo scientifico.

I problemi dei sistemi AI di Google e Microsoft

Google, che ha introdotto le panoramiche AI quest’anno, si è ritrovato al centro delle critiche. Il sistema, attivo in alcuni Paesi, produce riepiloghi che rispondono alle domande senza bisogno di cliccare su un link, ma spesso manca di contesto e non specifica chiaramente le fonti. In seguito a lamentele, Google ha incluso alcune fonti accanto ai riepiloghi AI, ma molte rimandano comunque ai dati di Lynn.

Microsoft, con il suo chatbot Copilot integrato in Bing, ha risposto a domande simili riportando valori non verificati per il QI nazionale, facendo riferimento a fonti come Brainstats.com, che ricorre ai dati di Lynn. Come ha spiegato Caitlin Roulston, portavoce di Microsoft, Copilot riassume le informazioni da diverse fonti web senza sempre verificarne l’affidabilità.

La responsabilità dell’accademia e delle aziende tecnologiche

Adam Rutherford, genetista e autore del libro How to Argue With a Racist, ha sottolineato come anche la comunità scientifica abbia contribuito alla legittimazione delle teorie di Lynn, accettando i suoi dati senza un’analisi critica approfondita. Per decenni, Lynn ha pubblicato versioni aggiornate del suo database nazionale sul QI, che sono state ampiamente citate in ricerche accademiche, rinforzando inconsapevolmente la diffusione delle sue idee.

Secondo Rutherford, la responsabilità non è esclusivamente dei sistemi AI, bensì anche di una parte dell’accademia che ha trattato queste teorie con superficialità. Questo problema, ora amplificato dall’intelligenza artificiale, rende urgente un ripensamento sull’affidabilità delle informazioni diffuse dai motori di ricerca AI.

Verso una ricerca più etica e inclusiva

L’episodio mette in evidenza le carenze dell’intelligenza artificiale nel filtrare i dati di bassa qualità e la necessità per le grandi aziende di implementare sistemi di verifica più rigorosi. I motori di ricerca AI dovrebbero evitare di rispondere a domande delicate con informazioni pseudoscientifiche, specialmente quando possono avere conseguenze negative su scala sociale.

Google ha affermato che continuerà a migliorare i suoi strumenti per eliminare risposte problematiche, ma resta da vedere se le aziende saranno in grado di sviluppare algoritmi capaci di identificare e bloccare le teorie del razzismo scientifico. La sfida è costruire un’AI che rispetti standard etici e garantisca la neutralità delle informazioni, riducendo la diffusione di dati falsi e dannosi per la società.

Exit mobile version