Cos’è l’IA Act
Recentemente l’Unione Europea ha emanato un regolamento dedicato specificamente all’uso dei sistemi di intelligenza artificiale (IA Act). Tuttavia, fra gli studiosi sono emerse fin da subito le prime perplessità, evidenziando i dubbi etici dell’IA Act, dovuti in particolar modo all’atteggiamento neutrale riguardo argomenti molto delicati.
Innanzitutto, la normativa divide i sistemi di intelligenza artificiale in quattro categorie, a seconda dei livelli di rischi che creano, in merito alle possibili violazioni di diritti fondamentali: 1- I sistemi illegali; 2- I sistemi ad alto rischio; 3- I sistemi a rischio limitato; 4- I sistemi a basso rischio. Se da una parte il regolamento ha il merito di tutelare l’immagine degli individui, ponendo restrizioni verso i sistemi che generano immagini o video di persone note, dall’altra parte presenta evidenti criticità nell’ambito della sicurezza e della gestione dati.
I sistemi illegali e le dubbie eccezioni
Ovviamente, le prime due categorie attirano maggiore attenzione. Fra i sistemi di intelligenza artificiale dichiarati illegali, rientrano quelli che permettono di veicolare messaggi subliminali, oppure i sistemi che consentono un’identificazione biometrica da remoto in pubblico e in tempo reale. Per “identificazione biometrica da remoto” si intendono le pratiche in grado di leggere «i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici». In poche parole, quei sistemi di intelligenza artificiale in grado di riconoscere i nostri volti, ad esempio, mentre attraversiamo una piazza.
Eppure, la stessa normativa chiarisce che questi stessi sistemi possono essere impiegati in via eccezionale per «prevenire una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica delle persone fisiche o di un attacco terroristico». Insomma, il contesto ha un suo peso specifico che permette di prendere decisioni estreme.
Ma è proprio l’applicazione di sistemi di intelligenza artificiale considerati illegali in contesti ambigui, a sollevare i primi dubbi etici dell’IA Act. Infatti, tra i sistemi dichiarati illegali ci sono quelli che prevedono l’identificazione emotiva a partire dai dati biometrici. Ciò significa, per esempio, affidare a un algoritmo la capacità di leggere le mie espressioni e dedurre se io stia dicendo il vero o falso.
Questi sistemi sono impiegati nei contesti migratori (Border ctrl), come Caterina Rodelli ha dichiarato più volte. Malgrado il regolamento consideri questi sistemi illegali, per il loro uso di criteri alquanto dubbi e arbitrari, le frontiere sembrano costituire un’eccezione. Tutto ciò contribuisce a mascherare come neutrali evidenti fini politici volti alla criminalizzazione di certi contesti e delle minoranze. Una conseguenza che proprio lo stesso regolamento dichiarava di volere evitare.
I sistemi ad alto rischio
Tra i sistemi di intelligenza artificiale ad alto rischio sono annoverati quelli che raccolgono e gestiscono grandi quantità di dati, soprattutto in ambito giuridico, sanitario o istruttivo. I dubbi etici dell’IA Act in questa sezione riguardano l’utilizzo di alcuni sistemi che non sembrano totalmente imparziali.
Infatti, sebbene il regolamento chiarisca l’intenzione di non prendere di mira determinate minoranze, allo stesso tempo alcuni di questi sistemi hanno un’impronta categorizzante, dividendo le persone a seconda di specifiche caratteristiche. L’utilizzo di questi dati per i fini di sicurezza risulta ancora poco chiaro.
A questo si aggiunge il contributo richiesto ai sistemi nella lotta contro il crimine. Ciò si basa sulla possibilità di ricorrere a criteri geografici per valutare la probabilità che un crimine avvenga in una determinata zona. Predizioni simili basate su un algoritmo porteranno a un aumento di controlli all’interno delle zone periferiche, alimentando anche in questo caso una retorica criminalizzante di certi contesti.
Quindi, il quadro giuridico formato attorno ai sistemi di intelligenza artificiale è volto a regolamentare e limitare alcuni aspetti negativi, come l’utilizzo di immagini o video generati artificialmente; ma mantiene un atteggiamento neutrale verso altri aspetti che includono evidenti rischi di discriminazione (per non parlare di quelli già espliciti come nel caso delle migrazioni).
L’intenzione è quella di favorire la ricerca e il miglioramento dei sistemi. Tuttavia, sarebbe importante chiedersi in quale direzione questa ricerca ci dovrebbe portare. Moltissimi studiosi amano interrogarsi sui possibili esiti di uno sviluppo esponenziale dell’intelligenza artificiale, costruendo scenari post-umani o trans-umani. Alcuni sono molto interessanti, riuscendo a coniugare l’autonomia e l’autorealizzazione umana con il progresso tecnologico, ma in altri è facile notare la deriva spersonalizzante, che con il pretesto di “facilitare la vita umana” rischia di privarla di ciò che effettivamente la rende tale.
La visione trans-umana di Bostrom
Nick Bostrom è un filosofo svedese noto per i suoi studi sull’intelligenza artificiale, ma anche per le sue idee alquanto controverse. Importante sostenitore del potenziamento umano attraverso le biotecnologie, si è interrogato su quali siano le mete a cui gli esseri umani dovrebbero ambire. Una delle risposte è molto vicina alla prospettiva di Elon Musk: una società in cui un supercomputer prende le decisioni più importanti. Infatti, secondo il filosofo svedese il fine ultimo della nostra specie è quello dell’autoconservazione. Non importa come, ma occorre fare il necessario affinché nel futuro più lontano ci siano più vite umane possibili.
Viste le potenzialità infinitamente maggiori dei sistemi di intelligenza artificiale rispetto al nostro cervello, la scelta più saggia sarebbe lasciare che sia un’IA a occuparsi di problemi politici, sociali, etici. Un tentativo di risoluzione dell’etica attraverso un approccio antietico, che mira ad alleggerire l’umanità dal peso delle responsabilità delle decisioni.
La prospettiva politica di Bostrom è reazionaria, ma anche limitata. L’ideologia per cui l’esistenza umana vada valutata solo attraverso comportamenti funzionali, utili, è estremamente nociva. Il filosofo svedese radicalizza l’istanza neoliberale che vede la massimizzazione del profitto in termini puramente numerici come indice del benessere.
In questo modo ignora le questioni legate alla qualità della vita in un sistema simile. Inoltre, altri studiosi hanno rilevato altre criticità legate ai criteri impiegati da questa macchina nei suoi processi decisionali. Infatti, chi la programma? Quali idee sono alla base? E se la macchina si sviluppa autonomamente attraverso la singolarità o processi di autoapprendimento, chi ne garantisce l’imparzialità? “Non ho una bocca, e devo urlare” è un racconto horror-fantascientifico di Harlan Ellison molto interessante a riguardo, che affronta proprio i rischi di un’intelligenza così sviluppata a cui sono affidati poteri simili.
La prospettiva di Nick Bostrom dimostra che quando si affrontano le questioni riguardo l’intelligenza artificiale, non si deve mai perdere di vista l’importanza del dialogo con il nostro lato emotivo, umano. Lo stesso filosofo svedese mette in guardia dai rischi indesiderati che uno sviluppo incontrollato di questi dispositivi potrebbe portare. Tuttavia, non riesce a comprendere appieno la portata di alcune sue riflessioni. In alcuni lavori alquanto ambigui, arriva addirittura ad affermare che la questione dello sviluppo dell’intelligenza artificiale sarebbe una problematica addirittura più urgente del cambiamento climatico, in quanto solo la prima porterebbe a un’estinzione totale della specie umana.
Prospettive future
I dubbi etici dell’IA Act mettono in luce l’importanza di un dialogo in ambito politico con quelle sfere che prima d’ora erano considerate solo fantascienza. Il progresso tecnologico, sempre più rapido, deve procedere a pari passo con il progresso antropologico, onde evitare la perdita di controllo di processi che ancora non siamo in grado di prevedere. Un atteggiamento neutrale, quindi, non è accettabile. L’etica pretende sempre delle scelte attive da parte degli individui e delle società.
L’IA Act è solo il primo regolamento emanato dall’Unione Europea in merito. Pertanto, le criticità hanno ampi margini di risoluzione. Mano a mano che le istituzioni e gli studiosi prenderanno coscienza del loro ruolo nella prevenzione dei rischi, forse saranno anche in grado di correggere e regolamentare in maniera adeguata i sistemi di intelligenza artificiale. Per farlo, un dialogo interdisciplinare sembra prioritario. Ai freddi calcoli della logica e della programmazione occorre unire la voce che restituisce la dimensione umana ed emotiva della società a cui questi sistemi saranno messi a disposizione.