Il 9 dicembre, il consiglio e il parlamento dell’Unione Europea hanno trovato un accordo provvisorio per quanto riguarda la prima legge sul territorio europeo volta a tutelare lo sviluppo etico e sicuro delle Intelligenze Artificiali. Al centro della legge, le restrizioni all’utilizzo di software di riconoscimento facciale, la proibizione a sviluppare e diffondere IA capaci di contravvenire ai diritti fondamentali dell’UE e la richiesta di una maggiore trasparenza per i modelli ad alto impatto come GPT-4.
Verso l’AI Act, la prima legge dell’unione Europea per regolamentare le intelligenze artificiali – Le Intelligenze Artificiali vanno regolate. Non si tratta più soltanto di un imperativo posto al futuro, ma di una necessità che sta ormai toccando vari aspetti della società contemporanea: dal mondo del lavoro e della creazione artistica a quello della protezione dei dati e del suo uso (ed abuso) in politica, toccando aspetti di ecologia e cambiamento climatico.
Come si è detto spesso su Ultima Voce, le enormi possibilità offerte dai modelli basati sul deep learning contrastano con l’utilizzo intensivo e non moderato di strumenti non solo molto spesso poco compresi per quanto riguarda funzionalità e percezione, ma il cui impatto sulla società è tuttora offuscato.
In ciò, l’insieme di leggi accettate in via provvisoria da parlamento e consiglio europeo e note come “AI Act“, al centro di un accanito dibattito durato ormai quasi due anni, si pone come il primo tentativo di stabilire vincoli nei confronti di come le IA possano essere implementate nel rispetto della privacy e allo stesso tempo della trasparenza e dello sviluppo sicuro da parte delle aziende sviluppatrici e dei governi.
L’AI Act e le definizioni di intelligenze Artificiali a rischio alto o inaccettabile.
Fra le nuove categorizzazioni della legge europea vi è quella di High-Risk AI, ossia di un sistema AI “capace di danneggiare significativamente la salute e la sicurezza dei diritti fondamentali dell’individuo”. Sistemi di Intelligenze artificiali ad “alto rischio/impatto” sono ad esempio quelli usati per la creazione di infrastrutture, riconoscimento facciale da parte delle forze dell’ordine, educazione, o gestione del lavoro (si pensi, ad esempio, alla gestione da parte di IA dei curriculum mandati a un’azienda, e al caso di Amazon, dove l’IA aveva cominciato a favorire lavoratori di genere maschile.)
I sistemi high-risk saranno sottoposti a un vaglio scrupoloso da parte sia dell’UE che dei governi individuali, a cui viene affidato il compito di creare un’autorità competente in materia che sia in grado di definire il livello di rischio dell’intelligenza artificiale in questione e di sottoporla ad analisi periodiche. La legge impone anche alle compagnie sviluppatrici di informare il pubblico – per quanto possibile – sulle metodologie utilizzate per ottenere un determinato output.
Alto rischio, ma non inaccettabile. In quella categoria rientrano invece i sistemi di IA definiti come Unaccettable Risk, ossia dove la capacità di danneggiare il tessuto sociale e l’individuo diventa certezza. L’AI Act bandisce le IA a rischio inaccettabile, come ad esempio sistemi di ranking sociale, generazione testuale o vocale di contenuti incitanti alla violenza, identificazione delle emozioni nel luogo di lavoro.
L’AI Act e GPT-4, l’unico modello “a rischio sistemico” per società e ambiente.
Infine, anche se l’IA sviluppata da OpenAI non appare mai direttamente all’interno del documento, l’AI Act impone una nuova serie di regole relative alla trasparenza per i cosiddetti Foundation Models, ossia i modelli generativi capaci di creare testo, immagini, musica, reputati “ad alto impatto”, ossia in grado di presentare un rischio sistemico per via della immane quantità di dati processati. La definizione di alto impatto viene data dalla capacità dei modelli di calcolare oltre 10^25 FLOPS (Floating Points Operations Per Second, ossia operazioni per secondo).
L’unico modello stimato capace di operare oltre tale soglia è, al momento, GPT-4. Secondo l’AI Act, OpenAI dovrà dunque aggiornare le autorità europee sugli sviluppi del modello, e provvedere a fornire informazioni e documentazione tecnica. Sul fronte del consumo energetico e dell’impatto ambientale (che, come si è precedentemente affermato su Ultima Voce, è piuttosto elevato) sarà inoltre richiesto di segnalare i consumi del modello, mitigare i rischi di GPT in accordo con le nuove regole europee, e adattarsi ai nuovi standard di efficienza energetica nel momento in cui essi vengano sviluppati.
Il riconoscimento biometrico: tutela della privacy e trasparenza.
Fra i temi centrale dell’AI Act è la sicurezza e la tutela da parte dei governi verso la privacy dei cittadini UE. La legge impone infatti restrizioni sull’utilizzo in ambienti pubblici dei software di identificazione biometrica (o “riconoscimento facciale”), ossia quell’insieme di sistemi creati per individuare, in tempo reale, i tratti fisici e facciali di persone – a volte anche molto lontane dalla telecamera – attraverso footage fotografico o video e poterle identificare attraverso un’associazione da parte dell’IA a volti presenti su un determinato database.
I software di riconoscimento biometrico con deep learning presentano una questione particolarmente spinosa. Da un lato, la loro utilità è innegabile nel campo del lavoro di investigazione e di polizia (non si pensi solo alla veloce identificazione di criminali, ma anche di vittime di rapimento o persone scomparse). Dall’altro, si consideri la possibilità, ad esempio, di avere ogni singolo cittadino presente a una manifestazione tracciato, identificato, penalmente perseguibile. Gli utilizzi di strumenti simili aprono possibilità al limite dell’Orwelliano, permettendo a un governo con pochi scrupoli di seguire i movimenti dei singoli, e depotenziare così la forza collettiva che il termine “popolo” ha sempre avuto nei confronti del potere.
Nell’AI Act i software di riconoscimento biometrico vengono dunque sottoposti a una legislazione particolarmente stretta: in primis, viene imposto di utilizzare i software di riconoscimento biometrico previa autorizzazione da parte degli organi di giustizia competenti (eccetto in casi di particolare urgenza), ma non solo: le forze dell’ordine saranno autorizzate a usare lo strumento solo per tre tipologie di azione, ossia per individuare persone rapite o scomparse, disinnescare atti di terrorismo in cui la tecnologia può permettere di salvaguardare la sicurezza di persone a rischio, e l’identificazione di criminali colpevoli di determinati reati, fra cui omicidio, tratta di persone e di organi, stupro, associazione a delinquere, atti di xenofobia (ma anche commercio di articoli contraffatti e “favoreggiamento dell’ingresso e del soggiorno illegali”).
Credito sociale, razzismo e uso delle IA da parte del governo: come le azioni della Cina e degli USA hanno cambiato l’AI Act
Altro punto importante dell’AI act è quello riguardante i sistemi di ranking sociale, ossia gerarchie strutturate sull’accesso a strutture e servizi pubblici in base al credito sociale in possesso del singolo cittadino. Simili meccanismi esistono in Cina dal 2014/2015, chiamati comprensivamente Sistema di Credito Sociale (社会信用体系, shèhuì xìnyòng tǐxì in pinyin), e valutanti – per semplificare enormemente la questione – la compagine delle azioni del singolo individuo così da garantire o meno l’accesso a determinati servizi (diritto di volo e di viaggio, ingresso in scuole private, lavori di prestigio).
Fumare in luoghi non consoni, non comprare o validare il biglietto del treno, commettere violazioni del codice, ma anche preferenze personali o comportamenti intrattenuti su social media o app di incontri, sono fra le azioni che comportano un abbassamento del credito sociale, il tutto gestito da sistemi di intelligenza artificiale.
Nell’AI Act europeo, simili tipologie di Intelligenza Artificiale sono incluse nella categoria di rischio inaccettabile, e dunque completamente bandite.
Negli USA, il problema dell’utilizzo di IA tocca invece i lati più tipicamente appartenenti alla cultura statunitense: l’utilizzo dei programmi di riconoscimento facciale in tempo reale come di integrazione di IA ad alto rischio a livello di gestione e governance ha già causato notevoli grattacapo, fra cui questioni di bias selettivo o di utilizzo massiccio dei software di FRT (Facial Recognition Technology) per quanto riguarda il controllo dei confini e dell’immigrazione.
Nonostante le disposizioni di alcune città o stati all’interno degli USA per limitare l’utilizzo rampante delle tecnologie, il governo federale non ha ancora stabilito una direzione precisa a riguardo, e nel recente ordine esecutivo presidenziale sullo sviluppo sicuro delle Intelligenze Artificiali non sono presenti informazioni relative al riconoscimento biometrico.
La nuova legislazione europea – che, si ricorda, è ancora in fase provvisoria – contiene in sé dunque le criticità che le tecnologie generative e più in generale di deep learning hanno avuto e stanno avendo sulle grandi potenze globali, tentando di gestirle in una maniera stabile, capace di tutelare il cittadino europeo e i suoi diritti. Esemplare a questo riguardo è il seguente passaggio, contenuto nell’AI Act e da me tradotto:
Nonostante i numerosi benefici che le Intelligenze Artificiali hanno apportato e possono apportare, si riconosce il rischio esse che possano essere utilizzate in maniera abusiva e diventare nuovi e potenti strumenti per pratiche di manipolazione, sfruttamento e controllo sociale. Tali pratiche sono particolarmente dannose e dovrebbero essere proibite in quanto contraddicono i valori dell Unione nei confronti della dignità umana, la libertà, l’eguaglianza, la democrazia e lo stato di diritto e i diritti fondamentali dell’Unione, inclusi il diritto alla non-discriminazione, la protezione dei dati personali e diritti dei bambini(…)
I rischi dell’AI act sono invece i soliti: la definizione di “urgenza” ad esempio, nell’uso di software di riconoscimento facciale in tempo reale presenta un certo grado di paradossalità, e nonostante il documento riconosca chiaramente che fra i 32 reati alcuni siano “in pratica più di rilievo di altri”, la questione di lasciare in mano a organi di potere uno strumento di controllo del livello di un’ IA di identificazione biometrica resta quantomeno inquietante.
Roberto Pedotti