il 31 ottobre 2023 l’amministrazione Biden ha indetto un nuovo ordine esecutivo relativo alla ricerca e al mantenimento delle Intelligenze Artificiali sul territorio statunitense. Fra le imposizioni, l’obbligo per le aziende di impegnarsi a creare strumenti volti ad identificare l’uso di IA nella creazione di contenuti e di assicurare uno sviluppo non discriminatorio dei modelli di generazione.
L’ordine esecutivo dell’amministrazione Biden sull’Intelligenza Artificiale: verso un’IA etica? – Le tecnologie di Intelligenza Artificiale hanno creato non pochi problemi nel corso degli ultimi anni, fra cui uno dei principali è stata la difficoltosa corsa da parte delle istituzioni internazionali per regolare fenomeni resi ancora più complessi dall’uso dei modelli generativi.
Fake News e truffe, ma anche furti d’arte, discriminazione razziale e utilizzi immorali delle IA sono infatti all’ordine del giorno nell’ambiente digitale.
A peggiorare le cose si è aggiunta negli anni una caparbia ostinazione da parte delle aziende Big Tech come OpenAI (ChatGPT) e Google (Bard) a non divulgare le informazioni proprietarie relative al codice e al framework da loro utilizzato per lo sviluppo e il mantenimento dei modelli di linguaggio.
A tale riguardo, il 31 ottobre di quest’anno, l’amministrazione presidenziale degli Stati Uniti ha indetto un nuovo ordine esecutivo, in vigore nell’immediato, volto a tutelare la popolazione americana dai rischi di un utilizzo non moderato dei modelli di Intelligenza Artificiale e toccando, fra i vari argomenti, la proibizione a usare IA per lo sviluppo di materiali biologici pericolosi e l’imposizione alle compagnie di sviluppo di creare strumenti volti a riconoscere quando un modello generativo sia stato impiegato.
I passaggi più importanti dell’ordine esecutivo di Biden sull’Intelligenza Artificiale
l’ordine esecutivo dell’amministrazione Biden-Harris tocca numerosi punti, muovendosi dall’uso degli LLM (Large Language Models) come ChatGPT negli ambiti educativi ed editoriali all’impiego di modelli generativi per lo sviluppo scientifico e biotecnologico.
Fra le imposizioni è il nuovo “bisogno da parte degli sviluppatori dei più potenti sistemi di IA di condividere con il governo degli Stati Uniti i risultati dei test di sicurezza e altre informazioni critiche”, ma anche di “proteggere i cittadini americani da truffe praticate attraverso l’uso di Intelligenza Artificiale attraverso la costruzione di standard e pratiche per poter determinare quando e dove sia stato utilizzato contenuto generato da IA.”
Non meno importante, l’ordine esecutivo affronta l’aspetto discriminatorio degli attuali modelli di linguaggio e di generazione di immagini, richiedendo da parte degli sviluppatori una maggiore attenzione nel momento dell’addestramento delle IA attraverso una “coordinazione fra il Dipartimento di Giustizia e gli uffici di diritto civile per indagare quali siano le migliori modalità per identificare e perseguire violazioni dei diritti umani relativamente a campi dove siano state usate Intelligenze Artificiali”.
Un ordine esecutivo che riconosce rischi e potenzialità delle IA?
Educazione, sanità e sfruttamento della forza lavoro sono da ormai un secolo fra gli aspetti più critici della società statunitense. Appare allora interessante notare come proprio questi argomenti siano affrontati in maniera piuttosto sibillina all’interno dell’ordine esecutivo di Biden sull’Intelligenza Artificiale.
Per quanto concerne la sanità, l’ordine si limita a specificare la necessità di indagare rischi e potenzialità dei modelli di IA nello sviluppo di farmaci e terapie individuali.
All’educazione è dato ancora meno spazio, non individuando soluzioni all’impiego pervasivo da parte di studenti e insegnanti di modelli linguistici come surrogato allo studio, bensì spingendo verso una “creazione di risorse capaci di supportare educatori attraverso strumenti educativi basati su IA, quali ad esempio sistemi di tutoraggio personalizzato all’interno delle scuole”.
Sulla forza lavoro, l’ordine esecutivo procede in maniera più approfondita, a causa forse del lungo sciopero da poco concluso da parte della Writers’ Guild of America, dove uno degli argomenti più spinosi fu proprio l’impiego di strumenti quali ChatGPT e Google Bard da parte di case di produzione Hollywoodiane per sostituire o sottopagare i propri dipendenti.
L’ordine esecutivo pone infatti un riconoscimento del potenziale della tecnologia nel poter creare uno “sbilanciamento nelle posizioni lavorative” ma non presenta soluzioni pratiche, affermando solo della necessità di “compilare di un report sull’impatto delle IA nel mercato del lavoro, così da poter meglio identificare le opzioni di intervento da parte del governo federale nei confronti dei lavoratori”.
L’amministrazione Biden sull’intelligenza Artificiale in un difficile equilibrio fra ricerca militare e collaborazione internazionale
Sebbene non sorprenda, risulta tuttavia inquietante la quasi totale assenza nell’ordine esecutivo di regolamentazione per quanto concerne l’impiego di IA nell’industria militare.
L’unica menzione infatti riguarda la “redazione di un memorandum di sicurezza nazionale per dirigere future azioni su IA e sicurezza (…) al fine di assicurare che le branche dell’esercito e dell’intelligence statunitense utilizzino le Intelligenze Artificiali in maniera sicura, etica ed efficiente nelle loro missioni, e che siano capaci di dirigere azioni di contrattacco nell’uso da parte di forse avversarie delle IA”.
Dove l’ultimo punto dell’ordine esecutivo sottolinea la natura collaborativa della ricerca a livello internazionale, il documento diventa nondimeno sintesi della cultura contemporanea negli USA: a una grande attenzione per l’eguaglianza orizzontale, così da poter rimuovere (almeno a livello istituzionale) quei processi di discriminazione che hanno piagato gli Stati Uniti nel corso della loro travagliata storia, si alternano visioni altalenanti di un sistema ipercapitalista dove sanità, educazione e diritti dei lavoratori restano in mano a una casta economicamente privilegiata. A quanto pare, non saranno le Intelligenze Artificiali a cambiare le cose.
Comments 1