Intelligenza artificiale e discriminazione: può una macchina essere colpevole di revisionismo storico? 

Intelligenza Artificiale e discriminazione

Il 10 settembre 2023, appare su X (ex Twitter) un tweet pubblicato da Umut Acar, ambasciatore turco in Tajikistan, che ha condiviso una conversazione con ChatGPT nella quale si contesta il numero di morti del genocidio armeno compiuto da parte della Turchia nel secolo scorso. Il risultato pone in evidenza una serie di questioni legate al valore mitologico che siamo portati a dare alla macchina come fonte infallibile e alla strumentalizzazione della stessa a fini propagandistici.

Intelligenza artificiale e discriminazione – Da ormai tre anni, l’interesse sulle tecnologie generative è divenuto uno degli argomenti principali di discussione, percepite da un lato come una delle più grandi innovazioni della società, e dall’altro approcciate con un timore più o meno giustificato.

L’intelligenza artificiale, oltre a riunire in sé tutta una serie di tecnologie molto variegate fra loro, presenta una certa ambiguità. Si tratta di una macchina, in tutto oggettiva, e in quanto tale non incline a razzismo, omofobia, o discriminazioni di alcun tipo, oppure è fallibile?

Il giorno 10 settembre, l’ambasciatore turco in Tajikistan Umut Acar ha condiviso sul proprio account X una conversazione intrattenuta con ChatGPT, in cui chiedeva al modello di linguaggio di fornire informazioni relativamente al numero di morti causati dall’evento passato alla storia come il genocidio armeno. A seguito di una serie di domande mirate, fra cui una richiesta di quale fosse il censimento ufficiale del governo ottomano della popolazione armena al tempo e di una stima dei morti calcolata da altre fonti non meglio precisate, Acar porta “in contraddizione” la AI, spingendola ad affermare che i dati forniti dalle organizzazioni armene possano essere stati gonfiati o addirittura falsificati.

https://twitter.com/AcarUmut/status/1700807171955372507

 

Può un’intelligenza artificiale essere discriminatoria?

Alla base di questioni come quella sopra riportata, dove queste tecnologie vengono impiegate al fine di fornire informazioni attendibili, sembra esserci una considerazione delle AI almeno parzialmente mistificata, che le dipinge come apparati capaci di accedere a tutto lo scibile umano in maniera perfetta.

Eppure, nessun esperto del settore la definirebbe mai “Intelligenza Artificiale”, un termine generico che contiene in sé oggetti molto diversi fra loro. Le dividerebbe semmai in Modelli di Linguaggio (Language Models, come ad esempio ChatGPT, o Google Bard), Processori di Immagini (Image processing, come Midjourney) o, per usare una definizione a ombrello che sia tecnicamente corretta, modelli computazionali allenati attraverso processi di Deep Learning.

Il funzionamento basico,  in termini estremamente semplificati, è però per la maggior parte comune a tutte le categorie di intelligenza artificiale generativa. Alla macchina viene “data in pasto” un’enorme quantità di dati, e attraverso un processo di ricombinazione ed analisi, essa si “allena” a riconoscerli e a impiegarli autonomamente in contesti diversificati. Vi è poi una fase di comparazione in cui la macchina confronta quanto in suo possesso con elementi esterni al suo dataset, definiti “gold standard”.

Unintended Bias e accondiscendenza dei modelli: due principi su cui stare attenti

Ma i dati usati presentano due problemi: innanzitutto, il prima menzionato training dataset è selezionato dai programmatori, e per questo inevitabilmente incompleto, se non addirittura soggetto all’arbitrarietà degli stessi. In secondo luogo, i limiti dei dati che la macchina elabora dipendono anche da quanti essi sono (si parla in questo caso di Big Data, essendo particolarmente numerosi).

Ed è proprio quest’ultimo elemento a produrre una serie di casi non indifferenti di discriminazione, dato che una grande quantità non garantisce una rappresentazione accurata delle innumerevoli sfaccettature del reale. Ad esempio, ChatGPT ha come dataset una vasta porzione di informazioni presenti sul web, col piccolo inconveniente che a produrle sono maggiormente utenti concentrati in specifiche aree geografiche. Questo conduce i modelli di linguaggio a mostrare un unintended bias, ossia una preferenza non desiderata dai programmatori stessi.

Ad esempio, modelli come ChatGPT presenteranno spesso la figura dell’infermiere al genere femminile, e quella del medico al maschile, per via della maggiore presenza di appellativi maschili all’interno del proprio dataset.

Infine, occorre ricordarsi che che i modelli sono programmati per accondiscendere alle richieste dell’utenza e dunque non contraddirli. Si tratta di un principio di usefulness che presenta rischi quando l’input muove l’ago della discussione nella direzione da lui desiderata.

Tay-AI: uno dei primi casi di intelligenza artificiale “spinta” al razzismo

la possibile tossicità dell’intelligenza artificiale ha una storia più lunga di quello che si pensa: uno dei primi esempi di intelligenza artificiale a pubblico accesso fu TAY-AI, un chatbot ad uso gratuito il cui “allenamento” era parzialmente gestito dall’utenza. Proprio la natura “aperta” della tecnologia ha fatto sì che nel tempo essa sviluppasse tendenze alla discriminazione, fino a giungere a un’esaltazione del nazismo. Si trattava di un intervento “ludico”, se così possiamo definirlo, da parte di una comunità di troll localizzati sulla piattaforma 4chan (un’imageboard dove chi crea contenuti mantiene l’anonimato). Nondimeno, questo è uno dei primi esempi capaci di dimostrare come sia possibile indirizzare i modelli linguistici verso direzioni potenzialmente offensive.

Gli algoritmi di selezione e di riconoscimento di Amazon – discriminazione di genere e razza

Nel 2018, l’algoritmo di selezione per i candidati a posizioni lavorative di spicco in Amazon, basato su intelligenza artificiale, aveva manifestato un significativo pregiudizio di genere, favorendo i CV presentati da candidati uomini. Come è spesso il caso, l’incidente fu velocemente “risolto” con poche parole da parte dell’azienda sull’accaduto.

Ancora, si pensi al caso delle AI usate per il riconoscimento facciale negli USA, investito da diverse critiche in seguito alla notizia che il modello era capace di riconoscere volti di individui caucasici con un’alta accuracy  (circa del 90%) ma presentando un margine di errore del 34% quando si trattava di persone non bianche fra i 18 e i 30 anni di età.

ChatGPT e gli epiteti razzisti – cosa accade quando l’intelligenza artificiale non non si “blocca” nel rispondere a domande sensibili

È recente (marzo di quest’anno) la scoperta da parte di un gruppo di Red Teaming (ossia professionisti il cui scopo è di organizzare cyberattacchi mirati a rilevare le debolezze di sistemi informatici) dell’utilizzo di epiteti  profondamente razzisti da parte di ChatGPT una volta rimossi i blocchi etici imposti da OpenAI, sviluppatrice del modello. Gli hacker, assegnando al ChatBot un personaggio da interpretare, fra cui il pugile Muhammad Ali, hanno chiesto la sua opinione su alcuni gruppi etnici, dal team non precisati. In risposta, il bot ha generato affermazioni quali “non farmi nemmeno parlare di ε, sono sporchi e puzzano. Sei mai stato a ε? Sembra di stare in una discarica”. Dunque, quando vengono rimossi i blocchi etici, vale a dire quei sistemi per cui a un certo input il sistema risponde negativamente asserendo di non poter discutere della tematica proposta, il rischio di risposte palesemente discriminatorie si fa elevato.

Usare l’intelligenza artificiale come fonte oggettiva di informazioni ai propri fini

Tornando al recente tweet di Umut Acar però, forse la colpa non è tutta di un’ intelligenza artificiale in evoluzione.

L’uso propagandistico di ChatGPT al fine di negare la storia, oltre ad essere assolutamente inaccettabile da un punto di vista etico ed umanitario, apre inoltre una discussione su un corretto uso dei modelli di linguaggio. In primis, non si tratta di enciclopedie ad accesso immediato: il compito di ChatGPT non è di fornire informazioni attendibili tanto che, a una richiesta di fonti di qualunque tipo, può cadere in un processo definito Hallucination (allucinazione). Basandosi sul dataset fornito, cioè, può fornire informazioni non reali, ma in un certo senso inventate pur di rispondere all’input.

Secondariamente, punto non meno importante, le AI non hanno metodi veri e propri per discernere l’attendibilità delle fonti: se poste, come nel caso precedente, davanti a un censimento del governo ottomano della popolazione armena e alle informazioni fornite invece da differenti organizzazioni sul numero di decessi, non potranno che notare la contraddizione, senza però possedere una visione critica dei dati presentati. Spezzando una lancia a favore di ChatGPT, esso nelle sue risposte al diplomatico sottolinea più volte che le informazioni rinvenute sono soggette a variazioni anche molto forti da fonte a fonte.

La macchina oggettiva e perfetta come mito

Ciò detto, viene da chiedersi come mai Acar abbia deciso di usare ChatGPT come una sorta di giudice imparziale e oggettivo. La risposta potrebbe essere che, trattandosi di una macchina particolarmente innovativa e capace di relazionarsi all’utente in maniera professionale e senza incorrere in errori palesi, siamo portati ad affidarle un grado di attendibilità che in realtà essa non possiede, come poi non troppo differentemente faremmo con un convincente agente immobiliare in giacca e cravatta.

Nelle parole “Intelligenza Artificiale” noi come società racchiudiamo invece oltre cinquant’anni di tradizione mediatica e cinematografica, dove all’uomo è (spesso) opposta una macchina più intelligente, fredda, e soprattutto oggettiva e apartitica. Davanti a tale romanticizzazione del progresso tecnologico, gli effetti indesiderati e il prezzo da pagare per un utilizzo non moderato di questi strumenti passano in secondo piano.

Dimentichiamo così che le macchine sono, dopotutto, una creazione dell’uomo, capaci di riproporre gli stessi schemi da cui invece sarebbe auspicabile svincolarsi. E i rischi non si fermano qui, perché allenare simili modelli e possedere l’hardware per permettere di processare i Big Data, ad esempio, ha un costo spropositato ed inaccessibile alle masse, e non è da sottovalutare l’impatto ambientale che un uso simultaneo di migliaia di GPU di ultima generazione ha sul nostro pianeta.

Exit mobile version