Israele utilizza l’IA: se la guerra è un calcolo senz’anima

Israele utilizza l'IA

Il progresso tecnologico sta cambiando il modo in cui si combatte la guerra. Israele ha usato un database basato sull’IA per identificare oltre 37.000 obiettivi, sia militari che civili

Israele utilizza l’IA sul campo di guerra, secondo fonti interne dell’intelligence israeliana.
Le testimonianze di sei militari dell’IDF (Forze di Difesa Israeliane), coinvolti in tali operazioni, sono state raccolte dal giornalista israeliano Yuval Abraham. In seguito, ha lavorato a un reportage pubblicato dalla rivista israelo-palestinese “+972 Magazine” e dall’organo di stampa in lingua ebraica “Local Call“.

In particolare, sono due i software utilizzati per la creazione di database e la pianificazione dell’azione militare: “Lavender” e “Where’s Daddy?“.
Il primo è riuscito a creare una lista di decine di migliaia bersagli, contrassegnati come militanti di Hamas. Il secondo, invece, ha il compito di segnalare il momento più proficuo per l’attacco, ovvero di notte, quando l’obiettivo dorme in casa propria con la famiglia.

L’esercito di Israele è dunque il primo ad annettere l’utilizzo di software di intelligenza artificiale in un conflitto. E ciò, oggi, ci porta a riflettere su numerose questioni legali e morali, e su come il rapporto tra militari e computer si ripercuoterà sul futuro dell’umanità.

Israele utilizza l’IA: “Lavender” e i danni collaterali

Lavender“, sviluppato dalla divisione di intelligence d’élite dell’IDF, l’Unità 8200 (alla pari della NSA negli USA), secondo le testimonianze, ha svolto un ruolo cruciale nella guerra.
Elaborando enormi quantità di dati, ha rilevato più di 37.000 obiettivi collegati, secondo il sistema – la cui precisione è stata stimata intorno al 90% – ad Hamas o al PIJ.
Questo ha di gran lunga accelerato il processo dell’approvazione di attacchi su bersagli umani.

Eravamo costantemente sotto pressione: ‘Portateci più obiettivi’. Ci hanno davvero urlato contro. Ci è stato detto: ora dobbiamo mandare a pu**ane Hamas, costi quel che costi. Tutto quello che puoi, lo bombardi

La lista, difatti, non viene controllata da utenti umani, al fine di evitare che vengano inclusi anche civili non coinvolti. Secondo le fonti, i funzionari servono solo come timbri di gomma” per approvare le decisioni di Lavender.

Hanno detto che in tempo di guerra non c’è tempo sufficiente per incriminare attentamente ogni bersaglio.
Quindi, sei disposto ad accettare il margine di errore dell’intelligenza artificiale, rischiando danni collaterali e civili che muoiono, e rischiando di attaccare per errore. E poi conviverci.





Essendoci decine di migliaia di obiettivi in lista, ma carenza di bombe specializzate, l’IDF non ha voluto correre il rischio di “sprecare bombe costose” contro obiettivi poco importanti, come i militanti di basso rango. Perciò, come hanno testimoniato i militari, su di loro hanno utilizzato munizioni note come “bombe stupide“.

C’è stata una politica completamente permissiva per quanto riguarda le vittime delle operazioni.
Una politica così permissiva, che a mio parere aveva un elemento di vendetta.
Ci sono stati momenti in cui un “operativo di Hamas” è stato definito in modo più ampio. E la macchina allora ha iniziato a portarci tutti i tipi di personale della protezione civile e agenti di polizia, su cui sarebbe stato un peccato sprecare bombe. Aiutano il governo di Hamas, ma non mettono in pericolo i soldati

In più, per colpire nel modo più efficace, l’IDF ha utilizzato un altra macchina, chiamata “Where’s Daddy?“. Questo software notifica all’esercito il momento in cui uno degli obiettivi in lista si trova nella propria abitazione a dormire. Ossia, quando è più vulnerabile.

Tuttavia, vista la presenza di civili all’interno delle case, l’esercito ha applicato indennità pre-autorizzate per il numero stimato di civili (circa 15/20) che potrebbero essere uccisi durante l’attacco.
Numero che varia in base alla fase della guerra e al rango dell’obiettivo. Per quelli più importanti, il numero autorizzato di civili uccisi è salito persino a 100.

Abbiamo ucciso persone con danni collaterali a due cifre, se non a tre cifre. Sono cose che non sono mai successe prima.
Non si tratta solo del fatto che si può uccidere qualsiasi persona che sia un soldato di Hamas, il che è chiaramente permesso e legittimo in termini di diritto internazionale. Ma ti dicono direttamente: ‘Ti è permesso ucciderli insieme a molti civili‘. In pratica, il criterio di proporzionalità non esisteva

Oltre a tutto ciò, secondo il giornalista Abraham, ci sarebbe anche un’altra macchina utilizzata dall’esercito israeliano, chiamata “Il Vangelo“.
Questa sarebbe utilizzata per identificare non persone, ma edifici. In particolare, infrastrutture civili tra cui complessi residenziali, università e banche, nel tentativo di esercitare una “pressione civile” su Hamas.

Israele utilizza l’IA, risponde l’IDF: “contrariamente ad Hamas, rispettiamo il diritto internazionale”

L’IDF respinge categoricamente l’affermazione riguardante qualsiasi politica per uccidere decine di migliaia di persone nelle loro case

Questa la reazione dell’esercito israeliano, riportata in un comunicato successivo alla pubblicazione del reportage di Abraham sull’utilizzo dell’IA.

Nella sua riposta, l’IDF dichiara di agire all’interno del diritto internazionale, e di rispettare le regole degli attacchi militari. Negando quindi un’accusa che, secondo loro, sarebbe da imputare solo ad Hamas.

Contrariamente ad Hamas, l’IDF è impegnato nel diritto internazionale e agisce di conseguenza. In quanto tale, l’IDF dirige i suoi attacchi solo verso obiettivi militari e operativi militari ed effettua attacchi in conformità con le regole di proporzionalità e precauzioni negli attacchi. Gli incidenti eccezionali sono sottoposti a esami e indagini approfonditi

Inoltre, l’esercito afferma che la cosiddetta lista di obiettivi stilata dall’intelligenza artificiale, in realtà, sarebbe solamente il risultato di un lavoro di database. Questo avrebbe come unico compito quello di incrociare le fonti di intelligence per produrre livelli aggiornati di informazioni sugli agenti militari delle organizzazioni terroristiche.
Infine, assicura di fare il possibile per ridurre al minimo le vittime civili durante gli attacchi.

Tuttavia, secondo le fonti militari alla base del reportage, l’IDF ha mentito nella sua risposta.
In un’intervista condotta dalla giornalista Amy Goodman di “Democracy Now!, il giornalista Yuval Abraham ha riportato la reazione dei sei uomini.

Hanno detto che stanno mentendo, che non è vero. E sono rimasto sorpreso dal fatto che, di solito, non sono così sfacciati nel dire qualcosa che è falso.
[…]
Molti di loro sono rimasti scioccati dalle atrocità accadute il 7 ottobre, le loro famiglie, i loro amici. Dissero: “Ok, ora dobbiamo andare”. C’era questa sensazione.
Gradualmente, quando si sono resi conto di ciò che gli veniva chiesto di fare, le cose in cui sono coinvolti, non direi tutti e sei, ma almeno alcuni di loro si sono sentiti, di nuovo, scioccati.
Dal commettere atrocità, dall’uccidere famiglie. E hanno sentito che era ingiustificabile

Intelligenza artificiale in guerra: prospettive per il futuro

Secondo gli esperti di conflitti, le testimonianze delle fonti d’intelligence potrebbero spiegare il motivo per cui l’esercito di Israele, con capacità così avanzate, e con armi in grado di condurre attacchi altamente chirurgici, abbia condotto una guerra con un così vasto numero di vittime civili.

Già nel maggio 2023, come riportato da Reuters, il Direttore Generale del Ministero della Difesa israeliano puntava a trasformare il Paese diventare una “superpotenza dell’intelligenza artificiale“, e a rendere la guerra sempre più autonoma.
L’ex generale Eyal Zamir, in particolare, ne ha parlato durante la Herzliya Conference, un forum annuale sulla sicurezza internazionale.

C’è chi vede l’IA come la prossima rivoluzione per cambiare il volto della guerra sul campo di battaglia.
Le sue applicazioni includono la capacità delle piattaforme di colpire in sciami, o dei sistemi di combattimento di operare in modo indipendente, della fusione dei dati e dell’assistenza nel rapido processo decisionale, su una scala più grande di quanto abbiamo mai visto

Il processo di automazione della guerra, per quanto riguarda Israele, sarebbe già in atto da anni.
Come dichiarato da Zamir, le jeep di sorveglianza robot avrebbero aiutato, nel 2021, a pattugliare il confine della Striscia di Gaza. Inoltre, l’IA sarebbe stata utilizzata anche contro le centrali nucleari iraniane, e durante operazioni con sottomarini autonomi.

Secondo Adil Haque, esperto di diritto internazionale alla Rutgers University, l’uso dell’IA in guerra è “l’incubo di ogni avvocato umanitario internazionale che prende vita“.
Dello stesso pensiero è Yuval Abraham, che ha condotto il reportage.

La guerra basata sull’intelligenza artificiale consente alle persone di sfuggire alle responsabilità

Su questo tema, già nel 2011, si era espresso Julian Assangegiornalista e fondatore di WikiLeaks, oggi in carcere – in relazione al video “Collateral Murder“, realizzato a Baghdad nel 2006.

Con la pubblicazione di Collateral Murder, molte persone hanno intravisto per la prima volta il modo in cui la guerra moderna viene combattuta in questo secolo. Mentre tu puoi vedere a malapena un aereo che vola in cielo, grazie alla moderna tecnologia lui può vederti in modo quasi intimo, e ucciderti.
Man mano che la guerra diventa più computerizzata, il processo decisionale umano viene sempre più rimosso, e quindi anche la responsabilità morale

Nel frattempo, la corsa all’IA” delle forze armate di tutto il mondo continua, più velocemente degli sforzi che vengono fatti per valutarne i pericoli.

Giulia Calvani

Exit mobile version