ChatGPT in guerra: OpenAI apre al settore militare

ChatGPT in guerra

Si può usare ChatGPT in guerra? Fino a pochi giorni fa, era espressamente vietato. Ma la nuova politica di OpenAI potrebbe cambiare le cose. Con risvolti che ancora non conosciamo

Fino allo scorso 10 gennaio, le policy di utilizzo di ChatGPT – di proprietà della società OpenAI – ne vietavano l’utilizzo militare.

Non consentiamo l’uso dei nostri modelli per i seguenti scopi:
[…]
– Attività ad alto rischio di danni fisici, tra cui:

  • Sviluppo di armi
  • Militare e bellico

Tuttavia, durante il World Economic Forum, i giornalisti di Bloomberg hanno intervistato Anna Makanju, vicepresidente degli affari globali di OpenAI, e il CEO della società, Sam Altman.
Secondo quanto dichiarato, il Dipartimento della Difesa USA avrebbe dato inizio a una collaborazione con OpenAI su strumenti di intelligenza artificiale, ma anche di sicurezza informatica open source.

ChatGPT in guerra? Per la sicurezza nazionale, sì

Recentemente, OpenAI ha lavorato con il DARPA – sezione del Dipartimento della Difesa USA impegnato nello sviluppo di nuove tecnologie a uso militare – per progettare nuovi strumenti di sicurezza informatica.
La società si è resa conto che qualcuno, però, avrebbe potuto obiettare che la policy vieta “attività” in ambito “militare e bellico“.
Per chiarire questo punto, ha spiegato un portavoce, OpenAI ha quindi rimosso dall’elenco dei termini di utilizzo dei suoi prodotti ogni riferimento specifico all’esercito.

Non era chiaro se questi casi d’uso vantaggiosi sarebbero stati consentiti ai sensi ‘militari’ nelle nostre politiche precedenti.
Pertanto, l’obiettivo del nostro aggiornamento delle politiche è fornire maggiore chiarezza e rendere possibili queste discussioni

In ogni caso, come specificato da Makanju e Altman, è stato mantenuto il divieto di “utilizzare il nostro servizio per danneggiare se stessi o gli altri“. Per esempio, utilizzando l’intelligenza artificiale per “sviluppare o utilizzare armi“.

Poiché in precedenza avevamo quello che era essenzialmente un divieto generale sull’esercito, molte persone pensavano che avremmo proibito molte di questi termini di utilizzo, cosa che la gente pensa sia allineata con quello che vogliamo vedere nel mondo.
La nostra politica non consente che i nostri strumenti vengano utilizzati per danneggiare le persone, sviluppare armi, per la sorveglianza delle comunicazioni o per ferire altri o distruggere proprietà.
Ci sono, tuttavia, casi d’uso della sicurezza nazionale che sono in linea con la nostra missione

ChatGPT in guerra: dubbi e timori degli esperti

Gli esperti del settore hanno accolto il cambiamento con qualche dubbio, soprattutto considerando l’attuale situazione geopolitica e il crescente interesse, da parte del settore militare, nei confronti dell’IA.

Esistono, infatti, dei precedenti con altre società.



Nel 2018, il Pentagono sviluppò il cosiddetto “Project Maven” per utilizzare l’intelligenza artificiale di Google per analizzare i filmati di sorveglianza dei droni. Migliaia di dipendenti di Google protestarono per fermare la collaborazione con il Pentagono, e il progetto fu abbandonato.
Anche se, negli anni successivi, Google ha firmato diversi contratti con il Dipartimento della Difesa, il Pentagono, e persino la CIA.
Un altro caso è quello di Microsoft, che avrebbe firmato un contratto da 480 milioni di dollari per fornire ai soldati dei visori per la realtà aumentata. Ad oggi, Microsoft è uno dei più importanti appaltatori della difesa, con investimenti giunti fino a 13 miliardi di dollari.

Anche se OpenAI ha esposto chiaramente la propria posizione, secondo l’esperta Sarah Myers West – amministratore delegato dell’AI Now Institute ed ex analista delle politiche sull’intelligenza artificiale presso la Federal Trade Commission – la situazione è comunque rischiosa.

Dato l’uso di sistemi di intelligenza artificiale nel prendere di mira i civili a Gaza, è un momento notevole per prendere la decisione di rimuovere le parole ‘militare e di guerra’ dalla politica di utilizzo consentito di OpenAI.
Il linguaggio che si trova nella politica rimane vago, e solleva interrogativi su come OpenAI intenda affrontare la situazione

Anche Lucy Suchman – professoressa emerita di antropologia della scienza e della tecnologia presso la Lancaster University – prevede che, progressivamente, OpenAI possa indebolire la sua posizione contro gli affari con le forze armate.

Potrei immaginare che il passaggio da ‘militare e guerra’ a ‘armi’ lasci aperto uno spazio per OpenAI per supportare le infrastrutture operative, a patto che l’applicazione non coinvolga direttamente lo sviluppo di armi in senso stretto.
Naturalmente, penso che l’idea che si possa contribuire alle piattaforme militari affermando di non essere coinvolti nello sviluppo o nell’uso di armi sia in malafede, rimuovendo l’arma dal sistema sociotecnico – comprese le infrastrutture di comando e controllo – di cui fa parte.
Sembra plausibile che il nuovo documento politico eluda la questione degli appalti militari e delle operazioni di guerra concentrandosi specificamente sulle armi

Perché alle forze militari interessa ChatGPT?

Al momento, nessuna delle tecnologie sviluppate da OpenAI, come ChatGPT può potenzialmente uccidere o danneggiare qualcuno. Tuttavia, ci sono diverse attività alle quali OpenAI può prendere parte senza risultare direttamente coinvolta nello sviluppo di armi.

Per esempio, ChatGPT può velocizzare la burocrazia o rendere più rapido il lavoro degli analisti.
Oppure, potrebbe essere integrata nei sistemi di comando e controllo, seppur con tutti i rischi che ne conseguono. Infatti, strumenti di generazione del linguaggio (LLM) come ChatGPT possono soffrire delle cosiddette “allucinazioni“. Ossia, possono inventare informazioni del tutto false e spacciarle per reali. L’IA potrebbe anche essere utilizzata per analizzare dati classificati o sensibili, mettendo a rischio la sicurezza dell’esercito stesso.

Intanto, le forze armate di tutto il mondo tengono gli occhi puntati sugli sviluppi dell’IA, in attesa di trarne vantaggio. Una “corsa all’IA” che ha allarmato l’Associazione per il Controllo delle Armi, la quale ha invitato a valutare con attenzione rischi e benefici.

La corsa per sfruttare le tecnologie emergenti per uso militare ha accelerato a un ritmo molto più veloce rispetto agli sforzi per valutare i pericoli che pongono

Per il momento, come ha dichiarato il vice segretario alla Difesa Kathleen Hicks, “la maggior parte delle offerte attuali non è ancora tecnicamente abbastanza matura per rispettare i nostri principi etici“.

Giulia Calvani

Exit mobile version