Regolamentazione dell’A.I.: etica ed economia in Europa

Regolamentazione dell'A.I

C’è disputa circa la regolamentazione dell’A.I. all’indomani della palesata intenzione di alcuni governi di voler opporsi all’approccio normativo suggerito dall’U.E.: Italia, Germania e Francia, infatti, assumendo la prospettiva anglofona, supportano lo svincolo normativo in favore di maggior dinamismo dell’economia europea.

Se a primo acchito la promozione dell’A.I. Act, volta ad assicurare che i sistemi A.I. (Artifical Intelligence) utilizzati all’interno dell’Ue siano completamente in linea con i diritti e i valori dell’Unione, garantendo il controllo umano, la sicurezza, la privacy, la trasparenza, la non discriminazione ed il benessere sociale ed ambientale, sembrava poter essere immediata, oggi, con il volta spalle di quello che è stato definito ‘Trilogo’, la disputa per le modalità di regolamentazione dell’Intelligenza Artificiale costringe ad un discorso ben più ampio, che sconfina in quello circa i rapporti di forza tra etica ed economia.

L’A.I Act proposto dall’Ue

Il Parlamento Europeo, vero pioniere di una regolamentazione normativa dell’A.I., aveva presentato l’A.I. Act a giugno, suggerendo che il codice di condotta, rivolto, in particolare, ai principali fornitori di A.I., soprattutto statunitensi, fosse obbligatorio. Il testo dell’A.I. Act  presentava alcuni obblighi sia per i providers di sistemi di A.I. generativa che di quelli di modelli base: entrambe possono essere considerate intelligenze artificiali a scopo generale, in quanto entrambe sono in grado di eseguire diverse attività e non sono limitati a un singolo compito. L’unica distinzione tra le due consiste nell’output finale.

L’A.I generativa, come l’ormai popolare Chat GPT, utilizza reti neurali per generare testi, immagini o suoni nuovi, mai visti o ascoltati prima, come può fare un essere umano. Per questo il Parlamento europeo ha imposto su di essa delle norme di trasparenza: le aziende che sviluppano A.I. generative, secondo la proposta dell’Ue, dovranno fare in modo che nel risultato finale sia reso esplicito che il contenuto è stato generato dall’A.I., dovranno garantire salvaguardie contro la generazione di contenuti illegali e dovranno rendere pubbliche delle sintesi dettagliate dei dati coperti da copyright utilizzati per allenare l’algoritmo.

I modelli base dell’A.I., a differenza di quanto visto precedentemente, immagazzinano grandi quantità di dati, che successivamente riutilizzano per svolgere una vasta gamma di compiti, trovando perciò applicazione in svariati settori. I providers di questi modelli, secondo l’A.I. Act, dovranno valutare e mitigare i possibili rischi ad essi collegati e registrare i propri modelli nella Banca dati dell’Ue prima della loro immissione sul mercato.

Come già precedentemente suggerito, l’Unione Europea sarebbe stata la prima al mondo ad approvare una normativa per la regolamentazione dei sistemi di intelligenza artificiale; gli Stati Uniti, infatti, sia con l’amministrazione Trump che con quella Biden, hanno sempre mantenuto un ‘light touch’ sulla regolamentazione dell’A.I., aumentando gli investimenti in ricerca e sviluppo e tentando solo vagamente di assicurarne un uso sicuro ed etico.

Solo nell’ultimo periodo negli States c’è stato un maggior focus verso l’etica e l’affidabilità dei sistemi di A.I. con l’Algorithm Accountability Act, l’equivalente statunitense dell’A.I. Act in termini di trasparenza e responsabilità dei providers.  Esso, però, risulta ancora in fase di proposta.

Il ‘Trilogo’ che si è opposto alla regolamentazione normativa fa leva sulla parità di concorrenza

Un importante accordo è stato raggiunto tra Italia, Germania e Francia sulla regolamentazione dell’intelligenza artificiale nell’Unione Europea. La proposta è di far sì che siano gli sviluppatori dei modelli di fondazione a definire le schede modello, ovvero una documentazione contenente tutte le informazioni sullo strumento così che chi ne entra in possesso sappia cosa ha tra le mani.

“La definizione di schede modello e la loro disponibilità per ogni modello di fondazione costituisce l’elemento obbligatorio di questa autoregolamentazione”, si legge nella proposta dei tre partner; a dover essere messe in evidenza, si legge oltre, dovranno essere “le modalità con le quali le suddette schede dovranno spiegare le capacità e i limiti del modello basandosi sulle migliori pratiche”.

Il principio alla base dell’intesa non è dunque quello di regolare l’intelligenza artificiale in quanto tale, ma di regolarne la sua applicazione.

La sottosegretaria di Stato per il ministero dell’Economia tedesca, Franziska Brantner, ha dichiarato alla Reuters di “aver sviluppato una proposta che può garantire un equilibrio tra i due obiettivi in un terreno tecnologico e giuridico che non è stato ancora definito”, mettendo così in risalto i benefici dell’A.I. e abbattendo i suoi rischi. Le ha fatto seguito anche il ministro degli Affari digitali tedesco, Volker Wissing, secondo cui “bisogna regolamentare le applicazioni e non la tecnologia se vogliamo giocare nella massima lega mondiale dell’intelligenza artificiale”.

Che questo fosse l’orientamento di Berlino, Parigi e Roma lo si era capito già a fine ottobre, quando, in occasione del vertice a tre tra i ministri dell’Economia di Germania e Francia, Robert Habeck e Bruno Le Maire, e il ministro italiano delle Imprese Adolfo Urso, Habeck analizzò la regolamentazione nel seguente modo: “Sull’intelligenza artificiale, l’Europa non deve nascondersi. Abbiamo imprese valide, forti e sotto molti aspetti più capaci dei giganti tecnologici di Usa e Cina”.

L’affermazione va letta anche in funzione del monito fatto all’Ue dal ministro francese Le Marie, il quale affermò a inizio 2023 che “gli investimenti di capitale nel 2022 sull’intelligenza artificiale sono stati di 50 miliardi negli Usa, di 10 miliardi in Cina, e di 5 miliardi in Europa”. “Questo significa- aggiunse- che sulla tecnologia più importante per la nostra civiltà, l’Europa investe dieci volte meno degli Stati Uniti e la metà di Pechino”.

Per sbloccare gli investimenti anche in Europa la ricetta del ‘Trilogo’ sarebbe quella di non spaventare i potenziali giganti con regole troppo stringenti, ma numerosi esperti e la maggior parte del Parlamento Ue sono di diverso avviso. Costoro denunciano che la legge sull’A.I non può essere forte con i più deboli (ossia i sistemi più piccoli) e debole con i forti; a riguardo l’informatico canadese Yoshua Bengio, una tra le voci di spicco nel settore, ha denunciato un pericoloso avvento della “legge della giungla” nel caso in cui dovesse passare la proposta dei tre partner.

E’ da evidenziare, inoltre, che anche i fautori di un approccio light come gli Stati Uniti sembrano aver cambiato idea circa la necessaria regolamentazione dell’A.I., così come dimostrato dalla recente svolta del governo Biden.

Come interpretare l’inaspettata svolta ‘liberista’ del Trilogo?

La disputa sviluppata circa la regolamentazione dell’A.I., dunque, sembra evidenziare elementi che non sono propriamente parte del solo ambito tecnologico: da un lato, in particolare quello del ‘Trilogo’, il tentativo di mantenere il mercato dinamico risulta essere l’inevitabile contro-risposta ad un progressivo ed aggressivo espansionismo delle strategie economico-politiche dei due grandi colossi, Cina e Stati Uniti. Dall’altro, quello dell’Ue, l’intenzione di regolamentare l’A.I. risulta essere l’unica risposta convincente alla necessità di soddisfare i principi elencati nel FRIA (Fondamental Rights Impact Assessment).

Esso rappresenta una componente essenziale nella formulazione delle normative sull’Intelligenza Artificiale nell’Unione Europea. Si basa su quattro principi cardine: innanzitutto, esige la definizione chiara di parametri per valutare l’impatto dell’A.I. sui diritti fondamentali, spaziando attraverso una vasta gamma di scenari e applicazioni.

Secondariamente, enfatizza la necessità di trasparenza, richiedendo la pubblicazione di sintesi significative dei risultati delle valutazioni d’impatto per instaurare fiducia e consentire una comprensione approfondita degli effetti dell’A.I. sui diritti fondamentali. Inoltre, sottolinea il coinvolgimento degli utenti finali, specialmente coloro in posizioni di vulnerabilità, nel processo di valutazione al fine di ottenere una visione inclusiva degli impatti reali. Infine, promuove il coinvolgimento delle autorità pubbliche nel processo di valutazione e audit, garantendo una supervisione indipendente e conforme agli standard stabiliti.

La FRIA, dunque, emerge come un elemento cruciale per proteggere i diritti fondamentali in un contesto in cui l’A.I. può influenzare determinati aspetti della vita quotidiana. Questo approccio, sottolineato da esperti in vari settori accademici, mira a garantire responsabilità, trasparenza e un uso etico delle tecnologie di A.I.

Considerazioni finali

Sono dell’idea che, lungi dal dover intendere questa tensione nel Parlamento europeo come semplice disputa, risulti ben più produttiva un’analisi che intenda le pretese dei tre partner europei quali proposte di una parte che percepisce se stessa come lesa: intendere, in altri termini, il dialogo tra le due parti come dialettica non può che creare l’immobilismo quale la vecchia Europa ha sempre ceduto il passo.

Il ‘Trilogo’ ha espresso, credo, tutte le sue preoccupazioni circa la difesa delle rispettive casse dalle grinfie dei colossi americani e cinesi, anche in funzione delle strategie di privatizzazione messe in atto dai suddetti paesi. Reputo, in conclusione, che la narrativa proposta negli ultimi giorni, secondo cui i tre paesi si siano erti a difesa dell’economia ai danni del diritto di ognuno, sia errata e traviante.

Luigi Di Vito

Exit mobile version