Prevenzione o controllo? La Cina istituisce il comitato etico AI

La Cina istituisce il comitato etico AI

La Cina istituisce il comitato etico  per prevenire i rischi dell’IA (intelligenza artificiale). Pechino punta al primato nel settore dell’AI. In gioco ci sono non solo le questioni di sicurezza interna ma anche le relazioni politiche internazionali e lo scontro a distanza con Washington.

La Cina istituisce il comitato etico AI. Martedì 16 maggio il Ministero dell’Industria, dell’Informazione e della tecnologia di Pechino (MIIT)  ha annunciato la formazione di un comitato etico  – composto da esperti provenienti dal mondo della scienza, della tecnologia e della politica – che supervisionerà lo sviluppo dei sistemi di intelligenza artificiale  individuando i rischi per la sicurezza dei cittadini cinesi.

Con questa decisione Pechino s’impegna a dare continuità a quanto stabilito nel precedente progetto di legge emanato dalla Cyberspace Administration of China (CAC) – il regolatore e censore nazionale di internet nella Repubblica popolare cinese – secondo il quale prima di essere messi in commercio  i servizi al pubblico che utilizzano prodotti di intelligenza artificiale devono ricevere l’autorizzazione dei dipartimenti nazionali per la regolamentazione di internet.

Gli obiettivi (dichiarati) sull’istituzione del comitato etico per l’AI

Secondo quanto affermato dal MIIT, il comitato etico cinese sarà responsabile dei principali programmi di ricerca, campagne di ispezione etica e cooperazione internazionale. In questo modo il nuovo organo agirà in piena sintonia con la CAC che grazie ad un progetto di legge sulla sicurezza informatica reso pubblico nel 2015, collabora già con altri enti regolatori cinesi alla formulazione di un catalogo per la certificazione di “apparecchiature di rete chiave” e “prodotti specializzati per la sicurezza della rete”.

Liu DingDing – esperto di tecnologia e conoscitore dei sistemi di regolamentazione dell’internet cinese – ha dichiarato in un’intervista al Global Times che l’istituzione del comitato etico per supervisionare i rischi legati all’intelligenza artificiale consentirà alla Cina di mettere a punto un sistema amministrativo unico per le questioni legate alla sicurezza nella scienza e nella tecnologia.

Prevenzione o controllo?

Ma perché la Cina ha realmente deciso di instituire un comitato etico per l’AI? Al di là dei proclami e delle buone intenzioni,  Pechino è interessata a controllare lo sviluppo dell’intelligenza artificiale che gli permetterebbe di monitorarne la diffusione nella popolazione.  L’istituzione del comitato etico per la supervisione amministrativa delle aziende che si occupano di AI consentirebbe alle autorità cinesi di agire con maggiore tempestività, intensificando ulteriormente la pressione su un settore produttivo decisivo sia dal punto di vista economico che geopolitico.

I recenti risultati ottenuti da aziende come Alibaba, Baidu e SenseTime – che hanno lanciato i loro chatbot rivali di ChatGpt – hanno spinto il governo cinese ad affrettarsi per non rimanere indietro quando esploderà l’utilizzo massivo delle tecnologie GAI da parte delle persone.

Inoltre, le autorità cinesi  spingono affinché lo sviluppo dell’intelligenza artificiale sia in linea con i valori fondamentali dello stato. Per Pechino, l’influenza delle chatbot sulla società rappresenta infatti un pericolo da scongiurare ad ogni costo. In tal senso, l’azione pedagogica del comitato etico, in sinergia con quella burocratico-amministrativa della CAC, dovrebbe stroncare sul nascere le possibili incongruenze nella progettazione degli algoritmi e dei dati di addestramento dell’AI.

Nel caso cinese, quindi, più che di regolamentazione etica si dovrebbe parlare di controllo onnipervasivo. Prendiamo il caso delle piattaforme di social media che hanno iniziato a contrassegnare i contenuti generati dall’AI. Nei mesi scorsi,  Douyin – la versione cinese di Tiktok – ha annunciato che da maggio avrebbe richiesto agli editor di contrassegnare i contenuti generati dall’intelligenza artificiale per consentire agli utenti di distinguere gli oggetti reali da quelli creati dal computer.

Il contesto globale e lo scontro a distanza con Washington

Per Pechino, Washington e Bruxelles, regolamentare la diffusione dell’intelligenza artificiale è un’esigenza ineludibile. La rivoluzione dell’informazione degli ultimi dieci anni, ha dimostrato cosa significhi controllare lo spazio digitale, attraverso cui è possibile promuovere la tutela delle ideologie, dei valori e dei diritti fondamentali di un Paese.

In Europa, il controllo dei sistemi di IA si è orientato maggiormente alla tutela dei diritti degli utenti che alle potenzialità geopolitiche. Nei mesi scorsi, l‘Organizzazione europea dei consumatori (BEUC) ha invitato le agenzie di protezione dei consumatori dell’UE a indagare sui potenziali danni alle persone provocati da Chatgpt.

Ad aprile il Comitato europeo per la protezione dei dati (EDPB) aveva istituito una task force su ChatGpt dopo che in Italia il Garante per la Protezione dei dati Personali (GPDP) aveva disposto la limitazione del trattamento dei dati degli utenti italiani nei confronti di OpenAI, l’azienda americana che ha sviluppato ChatGpt.

Negli USA, l’amministrazione Biden sta già affrontando le conseguenze sui potenziali rischi legati all’utilizzo massivo dei sistemi di intelligenza artificiale per la sicurezza nazionale e l’economia. Proprio in questi giorni il Ceo di OpenAI – Sam Altman – in un’audizione al senato degli Stati Uniti ha parlato dei pericoli dell’intelligenza artificiale riguardo alla diffusione della disinformazione e alla manipolazione degli utenti.

Altman ha sottolineato le conseguenze imprevedibili che potrebbero derivare da un utilizzo sbagliato dell’intelligenza artificiale, arrivando ad ipotizzare la creazione di un organismo di controllo simile all’Agenzia internazionale per l’energia atomica.

Resta, però, da capire se e quando verrà effettivamente istituita un’agenzia federale  per il controllo dell’intelligenza artificiale e se poi servirà a creare un organo di controllo internazionale. In nessun caso, infatti, Pechino accetterebbe un organismo trainato dagli Usa, che invece puntano a stabilire il dominio delle aziende americane ed europee nel mercato dell’AI.

Infine, c’è la questione relativa alla proprietà e alla gestione dei dati su cui si basano le chatbot. I modelli linguistici  dei software dell’intelligenza artificiale sono costruiti a partire da enormi quantità di dati che i Cinesi – come del resto anche Washington – non condividerebbero mai con Paesi politicamente non allineati.

 

 

Tommaso Di Caprio

 

 

 

 

 

Exit mobile version