La giustizia predittiva si presenta come una soluzione che permette alla Giurisprudenza di emanciparsi in quanto “scienza esatta”. In Italia avanzano i primi progetti.
La giustizia predittiva non è cosa nuova al cospetto del diritto. In un precedente articolo, abbiamo affrontato la questione della polizia predittiva, strettamente correlata, perché entrambe si affidano ad algoritmi matematici, battezzati possessori dello ius dicere. Inoltre, vedono la loro prima applicazione in casi oltremodo bizzarri della scena americana.
Il curioso caso di Eric L. Loomis
In un giorno qualunque del febbraio 2013, il signor Eric L. Loomis venne arrestato nello Stato americano del Wisconsin mentre era alla guida di un’auto rubata, precedentemente usata per una sparatoria. Cinque furono i capi d’accusa, riassumibili in quelli che in Italia si traducono in reati di ricettazione e resistenza a un pubblico ufficiale. Inoltre, era in possesso di arma da fuoco – illegale perché da parte di un pregiudicato – e di fucile a canna corta.
Loomis ammise la propria colpevolezza riguardo alle accuse meno severe (tentativo di fuga e guida di veicolo senza il consenso del proprietario). Questo fu sufficiente per condurre la Corte d’Appello ad una investigazione sulla storia personale dell’imputato, preliminare alla sentenza e riassunta in una relazione scritta (Presentence Investigation Report – PSI).
La novità di questa elaborazione includeva i calcoli sviluppati dal software COMPAS, strumento di valutazione realizzato attraverso un algoritmo matematico che si serve dei dati raccolti dal fascicolo dell’imputato e dalle risposte ottenute dal colloquio con lo stesso. Il prodotto consiste in un grafico di tre barre che, in una scala da 1 a 10, misurano il rischio di recidiva preprocessuale, il rischio di recidiva generale ed il rischio di recidiva violenta. In poche parole, la percentuale di probabilità che l’imputato ha di compiere nuovamente reati dello stesso tipo o simili.
La Corte d’Appello specificò che tali elementi non erano determinanti per l’esito della sentenza e per l’assegnazione della pena. Tuttavia, in virtù dell’alta probabilità di recidività, Loomis subì la condanna a sei anni di reclusione, piuttosto che una concessione di libertà vigilata.
Le conseguenze della giustizia predittiva: la controparte
Loomis depositò allora un’istanza di revisione della pena. Prendendo in considerazione i risultati di COMPAS, si assisteva ad una violazione del proprio diritto ad un processo equo.
Le sue motivazioni erano ragionevoli: gli elementi presi in considerazione si affidavano sì a diverse componenti del profilo dell’imputato, ma l’algoritmo le comparava con altri estratti di casi simili. Insomma, in base alla modalità di registrazione e al commento di casi storici – di carattere soggettivo – l’algoritmo effettuava il proprio calcolo di natura oggettiva.
Si trattava dunque di un metodo induttivo dipendente da informazioni di tipo statistico, che impediva un processo individualizzato e per questo unico.
In un articolo di Giurisprudenza Penale, si legge:
Con riguardo al rischio che COMPAS attribuisca importanza sproporzionata ad alcuni fattori, come ad esempio il background familiare o il livello di educazione dei responsabili di crimini minori, oppure l’appartenenza ad una certo gruppo etnico, la Corte ha ribadito che per garantire l’accuratezza della valutazione, COMPAS debba essere costantemente monitorato e aggiornato sulla base dei cambiamenti sociali, nonché usato con accortezza e seguendo specifiche cautele.
Carrer, Se l‘amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giurisprudenza Penale Web, 2019, 4
Si evince pertanto che molti dettagli appartenenti tanto a Loomis quanto al gruppo di individui statisticamente più inclini alla recidività, si rifacevano alla loro provenienza sociale e anche, come si legge in seguito, al loro genere sessuale. Secondo quanto espresso, gli uomini – specialmente di colore – si ritenevano più recidivi rispetto alle donne, dichiarando così una evidente posizione discriminatoria.
La Corte d’Appello delegò il caso alla Corte Suprema del Wisconsin, la quale osservò che «sebbene si fosse fatto riferimento ai risultati COMPAS nel determinare la pena, […] la sentenza non sarebbe stata diversa in assenza dei dati forniti dallo strumento».
Per questo, e per la mancanza di contestazione da parte di Loomis dell’accuratezza dei risultati di COMPAS, il caso si definì chiuso.
L’equilibrio tra oggettività e interpretazione
Il presupposto che spinse la creazione della giustizia predittiva fu ritenere la Giustizia una “scienza esatta”. In effetti, come si puntualizza nell’articolo 12 delle preleggi, «Nell’applicare la legge non si può ad essa attribuire altro senso che quello fatto palese dal significato proprio delle parole secondo la connessione di esse». Ciò significa che il criterio di oggettività risiede nel significato letterale delle parole, stabilito dal dizionario giuridico. Solo e soltanto nel caso in cui è presente ambiguità, vista l’unicità e la particolarità del caso in questione, si ricorre all’interpretazione da parte del giudice.
Ma quando si può parlare di oggettività dal momento che qualsiasi caso giuridico riguarda esseri umani e fattori contingenti, accidentali? Questi posseggono una loro logica e una loro imprevedibilità, che è impossibile da circoscrivere in un sistema di calcolo finito e limitato. Come possiamo prevedere il carattere recidivo di un uomo o di una donna, considerato il contesto irripetibile in cui sono coinvolti?
La scelta tra predizione e previsione
Ogni sentenza giuridica storica – non monitorata dalla giustizia predittiva – dispone necessariamente di elementi soggettivi, perché si avvale delle scelte di chi giudica. Se l’apprendimento automatico utilizzato per un algoritmo dipende da questi dati, significa che i risultati definiti “oggettivi” non potranno mai essere tali. Non solo. Maggiori sono le informazioni a cui ha accesso questo tipo di intelligenza artificiale, maggiore è la probabilità che incorra in errori dipesi, appunto, dalla soggettività delle scelte. Non comporta, perciò, una migliore accuratezza dell’elaborazione.
Inoltre, la giustizia predittiva non possiede il dono della predizione, ma tenta piuttosto di effettuare una previsione degli eventi. “Predire” significa infatti “annunciare eventi futuri attraverso profezie”; “prevedere” significa “ipotizzare eventi sulla base di dati disponibili”. Il rischio è quello di considerare l’intelligenza artificiale come capace di predire piuttosto che di prevedere. Come fosse una coscienza divina in grado di supporre quello che, apparentemente, l’essere umano non è capace di cogliere.
Gli esperimenti di giustizia predittiva in Italia
Tra i diversi che sono stati proposti, un progetto in particolare ha presentato una maggiore consistenza. Nel novembre dello scorso anno, nasceva una piattaforma di giustizia predittiva dalla collaborazione tra l’Università Ca’ Foscari di Venezia, la Corte d’Appello di Venezia, Unioncamere del Veneto e il Dipartimento di Intelligenza Artificiale di Deloitte.
Secondo quanto espresso dai collaboratori, si tratta di «uno strumento di Intelligenza Artificiale basato su Natural Language Understanding & Processing per favorire la conoscenza dell’orientamento giuridico prevalente per alcune tematiche di interesse giuslavoristico». Si interessa dunque di questioni riguardanti il mondo del lavoro, come il licenziamento per giusta causa e giustificato motivo soggettivo.
In questo caso, l’algoritmo utilizza un metodo deduttivo, in quanto si concentra sull’analisi della lingua italiana per comprendere concetti e relazioni semantiche. Il fine è quello di rendere oggettiva una sentenza secondo quanto espresso dall’articolo 12, che abbiamo precedentemente citato.
L’utilità principale di questa piattaforma sarebbe quella di prevedere un esito giuridico e, in virtù del risultato, valutare quanto è conveniente avviare un processo che riguardi questioni lavorative. Si precisa comunque che non si tratta di uno strumento che sostituisce il giudice, ma che lo aiuta nella sua attività decisionale in maniera “intelligente”, rendendola più efficiente e consapevole.
Il rischio è sempre lo stesso. Per quanto si possa essere fiduciosi nel contributo dell’intelligenza artificiale alla Giustizia, il problema consiste nell’idea che abbiamo della realtà. Intravedere un orizzonte oggettivo dentro di essa vuol dire sottovalutare la complessità della mente umana e la creatività delle nostre azioni.
Forse questo è l’unico modo che conosciamo per dare un nome ad una logica esistenziale che probabilmente non esiste. Ma perché dare un senso a tutte le cose?