Nel Regno Unito, i funzionari governativi vogliono usare l’IA per prendere decisioni riguardanti welfare, giustizia penale e immigrazione.
Ma i risultati non sono promettenti
L’intelligenza artificiale si espande in fretta nel mondo, e in particolare nel Regno Unito. I dipendenti pubblici stanno sperimentando l’utilizzo di potenti software in processi decisionali riguardanti la società, in particolare nei campi dell’immigrazione, della giustizia penale e del welfare.
Ma, come dimostra un’inchiesta del quotidiano inglese “The Guardian“, i risultati sono spesso discriminatori, incontrollati, se non addirittura casuali.
IA nella società: “rischiamo di entrare in questa situazione sonnambuli”
L’idea di utilizzare l’intelligenza artificiale nel settore pubblico era già stata testata nei Paesi Bassi, con esiti scarsi e dannosi.
In particolare, le autorità fiscali lo hanno utilizzato per individuare potenziali frodi sui sussidi per l’assistenza all’infanzia. Il risultato è la scorretta rimozione dei sussidi a migliaia di famiglie.
Caso simile in Australia, dove 400.000 persone sono state ingiustamente accusate di aver fornito alle autorità dettagli errati sul loro reddito.
Questi casi sollevano la preoccupazione degli esperti per quanto riguarda l’ingresso dell’IA nella società.
Shameem Ahmad, amministratore delegato dell’associazione per i diritti dei cittadini Public Law Project, ne riconosce i benefici. L’utilizzo dell’IA, infatti, porterebbe enormi risparmi economici, ridurrebbe i tempi lavorativi degli uffici pubblici, e contribuirebbe a raggiungere risultati più precisi.
Ma, come sottolinea Ahmad, non si può sottovalutare l’importanza del valutare i rischi.
L’IA ha un enorme potenziale per il bene sociale. Ad esempio, possiamo rendere le cose più efficienti. Ma non possiamo ignorare i gravi rischi.
Senza un’azione urgente, potremmo entrare sonnambuli in una situazione in cui i sistemi automatizzati opachi vengono regolarmente, forse illegalmente, utilizzati in modi che alterano la vita e in cui le persone non saranno in grado di chiedere un risarcimento quando tali processi vanno male
Gli algoritmi, infatti, rispondono in base all’analisi di enormi set di dati. Ma se i dati riportano discriminazioni, con ogni probabilità anche l’IA produrrà risultati discriminanti. Inoltre, i software sono spesso così potenti da risultare incomprensibili agli stessi operatori.
IA nella società: come la vita può cambiare con un click
Molti dipartimenti della pubblica amministrazione hanno già iniziato a lavorare con l’intelligenza artificiale, riportando risultati non sempre soddisfacenti.
Il Ministero dell’Interno ha affermato di aver utilizzato l’IA per leggere i passaporti negli aeroporti, per la presentazione delle domande di passaporto, e come “strumento di triage del matrimonio fittizio“, per identificare potenziali matrimoni falsi.
Ma, come testimonia l’inchiesta del Guardian, una valutazione interna del Ministero mostra che lo strumento ha segnalato in modo sproporzionato persone provenienti da Albania, Grecia, Romania e Bulgaria.
Allo stesso modo, il Dipartimento per il Lavoro e le Pensioni (DWP), ha utilizzato un algoritmo per aiutare a rilevare frodi ed errori tra i richiedenti di sussidi. Ma, anche in questo caso, dozzine di bulgari si sono visti sospendere i loro benefici senza un motivo.
La polizia metropolitana ha invece introdotto telecamere di riconoscimento facciale in tempo reale in tutta Londra, per aiutare a rilevare le persone nella “lista di controllo“.
Un sistema funzionante e con basso margine di errore, secondo una prima analisi effettuata dal National Physical Laboratory . Ma, quando le impostazioni di sensibilità sono state ridotte nel tentativo di catturare più persone, l’algoritmo ha iniziato a rilevare erroneamente almeno cinque volte più persone nere rispetto ai bianchi.
A questo proposito, il Met non ha rilasciato commenti.
Né il Ministero dell’interno, né il DWP hanno fornito dettagli sul funzionamento dei loro sistemi. Hanno però dichiarato che i processi che utilizzano sono equi, e che, in ogni caso, le decisioni finali sono prese dalle persone. Tuttavia, ciò che temono gli esperti, è che algoritmi distorti portino a decisioni finali distorte. Anche perché i funzionari possono esaminare solo i casi segnalati, e hanno un tempo limitato per farlo.
IA nella società: dipartimenti troppo poco trasparenti
Il Premier Rishi Sunak ha promosso l’iniziativa dell’utilizzo dell’IA nella società con entusiasmo, enfatizzando i benefici che ne potrebbero conseguire.
L’IA potrebbe trasformare i servizi pubblici. Dal far risparmiare agli insegnanti centinaia di ore di tempo dedicato alla pianificazione delle lezioni, all’aiutare i pazienti del servizio sanitario nazionale a ottenere diagnosi più rapide e test più accurati
Allo stesso tempo, all’inizio di quest’anno, è stato abolito il comitato consultivo governativo indipendente che riteneva gli enti del settore pubblico responsabili del modo in cui utilizzavano l’IA.
Gesto che toglie trasparenza all’utilizzo dell’IA nella pubblica amministrazione, e che solleva ancora più dubbi negli esperti.
Come evidenzia anche Marion Oswald, professoressa di legge alla Northumbria University ed ex membro del comitato, questi strumenti potrebbero avere grandi ripercussioni sulla vita delle persone, senza che questi ne comprendano il motivo.
C’è una mancanza di coerenza e trasparenza nel modo in cui l’IA viene utilizzata nel settore pubblico. Molti di questi strumenti influenzeranno molte persone nella loro vita quotidiana, ad esempio coloro che richiedono sussidi, ma le persone non capiscono perché vengono utilizzati e non hanno l’opportunità di metterli in discussione
Con l’obiettivo di mantenere la trasparenza, l’Ufficio di Gabinetto ha lanciato uno “standard di rendicontazione algoritmica sulla trasparenza“, che incoraggia i vari dipartimenti a rivelare le operazioni nelle quali utilizzano l’IA, e i modi nei quali questa potrebbe influenzare materialmente la vita dei cittadini.
Oltre a questo, il Public Law Project ha compilato un database dal titolo: “quanto è trasparente l’automazione della pubblica amministrazione?”
Dei 55 strumenti analizzati, solo 1 è risultato ad alta trasparenza, mentre 38 sono stati giudicati poco trasparenti. I restanti 16 sono si trovano nel mezzo.
Nei prossimi giorni, Sunak riunirà i capi di Stato a Bletchley Park per un vertice internazionale sulla sicurezza dell’IA. L’obiettivo del Premier inglese è stabilire i termini per lo sviluppo dell’IA in tutto il mondo, e analizzare la potenziale minaccia posta dai modelli algoritmici avanzati.