Compas è un algoritmo privato per contrastare, in via teorica, il crimine. Nel 2013, vi è la prima sentenza in un tribunale del Winsconsin in cui l’accusato fu esaminato attraverso il database. Un esperimento tecnologico o il futuro della giustizia?
Ci troviamo in America, nello Stato del Winsconsin. Eric Loomis è un uomo alla guida di un’automobile usata durante una sparatoria. Quando la polizia lo ferma, sono cinque i capi di accusa che gli vengono addebitati: tentativo di fuga, messa in pericolo di sicurezza, guida di un veicolo senza consenso del proprietario, possesso di arma da fuoco e di fucile.
Durante il processo, la Corte ordina che venga condotto il PSI, cioè una relazione che investiga sulla storia personale dell’imputato. Durante questa analisi, si considerano anche i risultati di Compas, l’algoritmo del crimine. Così l’imputato fu sottoposto ad un questionario di circa 137 domande, alcune delle quali costituiscono il cuore del database.
Dopodiché, la sentenza condannò Loomis a sei anni di carcere.
Una pena che arriva in maniera inusuale, i cui criteri aprono numerose riflessioni sulla deontologia giuridica.
L’algoritmo del crimine fa parte degli algoritmi di valutazione del rischio
Nel nostro Paese, non facciamo uso pratico degli algoritmi predittivi, ma negli Stati Uniti, ed anche in altri Stati europei, questa teoria è prassi.
L’algoritmo del crimine, come COMPAS, è un proprietary software, cioè parliamo di un software privato. I criteri di funzionamento non sono pubblici, così come non è consentita la modifica o la sua condivisione.
In Italia la questione della privatizzazione divide e mantiene allerta gli animi dei cittadini. Ci si chiede quindi, dov’è il limite? Un dispositivo informatico può davvero fare le veci di un giudice all’interno del tribunale? Può predire davvero se un individuo compirà nuovamente reato?
Nel caso Loomis, ad esempio, l’uomo presentò un appello affermando di non aver ricevuto un processo equo. La Corte Suprema del Winsconsin, d’altro canto, non ha modificato il verdetto, sostenendo anzi che, anche senza l’uso del dispositivo, la colpevolezza restava immutata.
La fallacità di un prodotto umano
L’uso di COMPAS ha sollevato numerose polemiche. Nel 2016, Julia Angwin, giornalista specializzata nel campo della tecnologia per conto di ProPublica, condusse un’indagine. Essa contava più di settemila persone arrestate in Florida. Dai dati sono emersi dei pregiudizi nei confronti degli afroamericani. Quindi, la bilancia imparziale del software sembra propendere in realtà a sfavore di chi in America è già giornalmente sotto il mirino.
La presunta fallacità dell’algoritmo del crimine è oggetto di dibattito. Accademici, tra cui la Northpointe, hanno messo in dubbio l’analisi di ProPublica dimostrando che il programma, fino ad ora, ha applicato criteri corretti sui casi di recidiva.
Julia Dressel, ricercatrice di Dartmouth college, si è espressa così:
Prima ancora di parlare di equità, dobbiamo assicurarci che questi strumenti siano accurati, altrimenti non saranno equi nei confronti di nessuno.
L’accuratezza dell’algoritmo del crimine
Quando parliamo di accuratezza, non possiamo certo dimenticarci del dubbio.
Un dubbio che è sistematizzato dall’attenzione che il giudice ha per le sfumature. Proprio quelle sfumature che si acquisiscono attraverso anni di studio, di analisi ed esperienza ed arricchiscono il bagaglio minuzioso della giurisdizione. Che fine fanno quando si tratta della tecnologia?
Lo scrittore Ian McEwan, in un suo libro intitolato Macchine come me, descrive la figura di un’androide alle prese col senso di giustizia e la sua incapacità nel cogliere queste sfumature.
L’algoritmo predittivo può essere uno strumento utile per combattere, ad esempio, la corruzione. Ma resta un prodotto umano e come tale può subentrare la manipolazione, o ingiustizie che si travestono.
Il motivo del perché questo dibattito si fa tanto acceso, sta proprio in questo: come può un prodotto dell’uomo decidere sulla vita dell’uomo? O ancora, come può un prodotto dell’uomo stare al di sopra dell’uomo stesso?
C’è un limite da non varcare?
Si parla degli algoritmi del crimine come una guida. Non sostituiscono la decisione del giudice, dicono. Anzi, questi sono una guida che risulta precisa circa nel 65% dei casi.
La paura dell’algoritmo quindi risiede nel suo uso. L’algoritmo potrebbe diventare una verità assoluta e ci ritroveremmo quindi davanti ad una degenerazione del prodotto.
Alcuni studiosi, come Sharad Goel dell’università di Stanford, affermano che i giudici hanno accesso ad una quantità di informazioni maggiori a quelle che sono immesse nell’algoritmo. Proprio questa conoscenza elementare del caso, spogliato dai “pregiudizi”, migliorerebbe la valutazione del rischio di recidiva nell’imputato.
O forse, tale semplificazione che si basa sull’età, il sesso e le condanne precedenti spoglia il caso di una complessità necessaria, contestualizzata.
Di certo, la giustizia si muove in un mondo dove la tecnologia è sempre più preponderante.
Allora, un occhio attento verso il cambiamento è l’unica arma analitica a nostra disposizione.
Maria Pia Sgariglia