Riconoscimento facciale: l’inaffidabile protettore dei diritti umani

Rapporto tra riconoscimento facciale e diritti umani

Nuove leggi sulla raccolta dei dati biometrici

Il riconoscimento facciale è una tecnica sempre più utilizzata da alcuni Stati per costruire un database centrale, comodo per raccogliere i più accurati e privati dati biometrici dei cittadini.

La curiosa pratica del riconoscimento facciale non è certo cosa degli ultimi mesi. Infatti, già nel 2017 la Russia decise di installare in luoghi pubblici telecamere di sorveglianza, connesse a un programma di identificazione facciale al fine di individuare e schedare i manifestanti. Tra l’altro, questo sistema trovò solida giustificazione durante la pandemia da COVID-19, poiché si presentava adatto per sorvegliare i cittadini che violavano le norme al tempo vigenti.

Ma com’è possibile rendere precisa ed efficace una tecnologia di questa rilevanza? Si necessita di un’ampia quantità di immagini che confrontino i dati raccolti dalle telecamere con i dati dei cittadini. Ecco che sorse l’idea di un database unico (Uniform biometric database – Ubs), immenso, che raccogliesse le informazioni biometriche della popolazione.

E chi può accedere a questi dati biometrici?

Le banche, definite le protettrici della riservatezza dei propri clienti.

In questo modo, gli istituti di credito autorizzati sperimentarono l’accelerazione delle procedure bancarie con una semplice identificazione fisiologica. Un’arma infida e di sottile espansione che avrebbe affondato le radici in nuove esigenze, in nuove opportunità.

Il 30 dicembre 2021 fu pubblicato in Russia un emendamento legislativo che consentiva al ministero degli Interni e al Servizio di sicurezza federale russi di accedere all’archivio dei dati Ubs, dopo il consenso effettivo delle banche. Un tocco letale che mise in pericolo la protezione dei diritti fondamentali dell’uomo, come denuncia Humans right watch (Hrw), un’organizzazione internazionale che si occupa della difesa dei diritti umani, tra cui è presente il diritto alla libertà individuale.

L’Ubs funziona davvero?

La registrazione dei profili nell’Ubs non soddisfaceva i risultati richiesti, tanto che, nel maggio 2022, il governo russo forzò gli istituti di credito a consegnare i dati biometrici dei loro clienti. Questo si scontrava però con le direttive legislative sulla privacy, che esigono il consenso del cliente a permettere tale operazione. E comunque, molte banche rifiutarono di propria volontà la concessione delle informazioni sensibili ottenute dal riconoscimento facciale.

La Russia trova la soluzione

Se il riconoscimento facciale si rivelò uno strumento superlativo per contrastare i dissensi nei confronti dell’invasione dell’Ucraina, la possibilità di aggirare l’approvazione da parte dei clienti delle banche era un plus imperdibile.

Si preannuncia a questo proposito una nuova normativa nel marzo 2023: le banche saranno obbligate ad inserire i dati biometrici dei propri clienti in un database biometrico centrale, a cui il governo avrà libero accesso. Inoltre, non saranno tenute a chiedere il consenso dei clienti al trattamento dei loro dati sensibili.

Non solo.

La Russia sta già lavorando ad un progetto secondo cui sarebbe proibito ai clienti di una banca aprire un conto corrente o richiedere prestiti senza l’autenticazione tramite dati biometrici.

Così si esprime Hrw:

Nel vero spirito orwelliano, le autorità russe stanno costruendo uno Stato alla “Il Grande Fratello ti sta guardando”, sacrificando metodicamente i diritti delle persone alla loro ricerca distorta del controllo totale.

Il riconoscimento facciale secondo l’Unione Europea

La Commissione UE presentò nell’aprile 2021 una normativa sull’intelligenza artificiale per garantire l’utilizzo «di un’IA sicura e lecita che rispetti i diritti fondamentali», senza possibilità di fraintendimenti o di opache dichiarazioni. Almeno, questo è l’intento che è espresso nell’Orientamento generale (o Proposta di regolamento), tramite la definizione di sistema di IA e di pratiche di IA vietate, l’elenco dei casi d’uso di IA ad alto rischio e la classificazione dei sistemi di IA come ad alto rischio.

Quando un sistema IA  è “ad alto rischio”?

Un sistema di intelligenza artificiale è “ad alto rischio” quando è in grado di nuocere sulla salute e sui diritti fondamentali delle persone. Pertanto, utilizzare l’IA come strumento di marketing o di recruiting non è considerato un’operazione ad alto rischio; mentre – è chiaro – sfruttare l’accesso ad informazioni sensibili per scopi politici ed economici è illegale.
Eppure, il Regolamento UE prepara a riguardo delle “eccezioni” che possono presentarsi di fronte a particolari esigenze. Leggiamo a pagina 27 del suddetto Orientamento:

L’uso di tali sistemi a fini di attività di contrasto dovrebbe pertanto essere vietato, eccezion fatta per le situazioni elencate in modo esaustivo e definite rigorosamente[…], la cui importanza prevale sui rischi. Tali situazioni comprendono la ricerca di potenziali vittime di reato, compresi i minori scomparsi, determinate minacce per la vita o l’incolumità fisica delle persone fisiche o un attacco terroristico nonché il rilevamento, la localizzazione e l’identificazione degli autori o dei sospettati di reati […]. Tale soglia per la pena o la misura di sicurezza privativa della libertà personale […] contribuisce a garantire che il reato sia sufficientemente grave da giustificare […] l’uso di sistemi di identificazione biometrica remota “in tempo reale”.

Lo scacco matto del Potere

Quando la Russia garantiva, ai tempi dello Stato di Emergenza, che le sue telecamere di sorveglianza con riconoscimento facciale fossero lo strumento-chiave per la sicurezza dei suoi cittadini, si dimostrò coerente rispetto alle eccezioni elencate nel Regolamento. Niente da dire.

E ad oggi è piuttosto faticoso estrarre il cavillo di incoerenza su cui gioca il governo russo, manipolando la legalità del riconoscimento facciale e del suo sfruttamento. Del resto, lo stesso regolamento ha molta strada da fare, dato che verrà applicato solo dopo 24 mesi dalla sua entrata in vigore, e solo dopo ulteriori 12 mesi troverà applicazione il sistema di sanzioni in esso descritto.

Poco prima, a pagina 26:

L’uso di sistemi di IA di identificazione biometrica remota “in tempo reale” delle persone fisiche in spazi accessibili al pubblico […] è ritenuto particolarmente invasivo dei diritti e delle libertà delle persone interessate, nella misura in cui potrebbe avere ripercussioni sulla vita privata di un’ampia fetta della popolazione, farla sentire costantemente sotto sorveglianza e scoraggiare in maniera indiretta l’esercizio della libertà di riunione e di altri diritti fondamentali.

Forse, si sta modellando il nuovo volto della libertà, fatto di immagini, video e registrazioni audio.

Elena Nati

Exit mobile version