Habsora: la guerra guidata dall’IA di Israele a Gaza

Il lato oscuro dell'IA. Israele si avvale di una tecnologia rivoluzionaria chiamata Habsora nei bombardamenti su Gaza

Habsora-la-guerra-guidata-dall-IA-di Israele-a-Gaza

Habsora: la guerra guidata dall'IA di Israele a Gaza

In una recente indagine condotta da +972 Magazine e Local Call, le intuizioni degli attuali ed ex membri dell’intelligence militare israeliana hanno fatto luce sull’uso da parte di Israele dell’intelligenza artificiale negli attacchi aerei a Gaza. Denominata “fabbrica di sterminio di massa”, il software Habsora facilita la generazione rapida degli obiettivi, enfatizzando la quantità rispetto alla qualità.

Nel campo dell’intelligenza artificiale, la promessa spesso ruota attorno al miglioramento della vita e alla risoluzione di problemi complessi. Tuttavia, quando l’intelligenza artificiale diventa uno strumento di guerra, i confini etici si sfumano, come dimostra l’uso israeliano del sistema Habsora nel conflitto in corso con Hamas a Gaza.

In una nuova fase del conflitto tra Israele e Hamas, un’arma tecnologica sta emergendo come protagonista: il sistema di intelligenza artificiale chiamato Habsora, traducibile come “il Vangelo”. Questo strumento unico nel suo genere è al centro di una strategia di selezione mirata di obiettivi nella Striscia di Gaza, guidando le Forze di difesa israeliane (IDF) nell’affrontare i terroristi palestinesi.

Secondo un’indagine condotta da +972  Magazine in collaborazione con Local Call, il sistema Habsora, giustamente chiamato “Vangelo” in ebraico, è diventato un punto fermo dell’esercito israeliano durante i frequenti bombardamenti su Gaza. Sviluppato nel corso degli anni, Habsora rappresenta uno strumento sofisticato per la generazione di bersagli missilistici nella zona del conflitto, comprese le aree residenziali.

L’indagine si basa su testimonianze anonime di attuali ed ex membri dell’intelligence militare israeliana, integrate da dati e documenti provenienti da Gaza. Mette in luce dettagli sconcertanti sull’uso dell’intelligenza artificiale da parte di Israele nei bombardamenti su Gaza.

 


A prima vista, l’idea di un sistema di intelligenza artificiale che crea obiettivi mirati potrebbe sembrare eticamente valida, riducendo potenzialmente al minimo le vittime civili. Tuttavia, il diavolo sta nei dettagli della sua applicazione. Come sottolineato da +972, Habsora ha la capacità di sfornare centinaia di bersagli in poche ore. Tuttavia, il problema sorge quando questi obiettivi vengono tradotti in azioni nel mondo reale.

Le preoccupazioni che circondano Habsora vanno oltre il campo di battaglia, poiché l’indagine suggerisce che ci sono piani per commercializzare questo sistema di intelligenza artificiale. Ciò solleva questioni etiche sulla potenziale esportazione di uno strumento che ha dimostrato le sue carenze nella salvaguardia delle vite civili. Nel teatro di guerra, la linea sottile tra necessità strategica e responsabilità etica viene spesso superata, lasciando i civili nel fuoco incrociato delle decisioni militari guidate dall’intelligenza artificiale.

Danni collaterali e dilemmi etici

Il nocciolo della questione risiede nel concetto di “danno collaterale”. Una volta identificato un obiettivo, Habsora restituisce un obiettivo all’esercito israeliano, spesso includendo aree residenziali. Ciò significa che se anche un solo membro di Hamas viene identificato all’interno di un edificio, l’intera struttura diventa un bersaglio, indipendentemente dai civili che risiedono all’interno. Il presunto principio di un targeting preciso tramite l’intelligenza artificiale è compromesso nella pratica.

Di ogni raid, Israele calcola presumibilmente i “danni collaterali” attesi – il numero di vittime civili ritenuto accettabile per l’operazione. Una fonte anonima ha sottolineato il carattere intenzionale di queste decisioni, affermando che nulla avviene per caso. Il software Habsora, paragonato al “Vangelo”, funziona secondo i principi dell’intelligenza artificiale, consentendo la rapida generazione di obiettivi, privilegiando la quantità rispetto alla qualità.

Habsora rappresenta una svolta significativa nella guerra moderna, dove l’intelligenza artificiale è utilizzata per identificare e colpire bersagli militari in modo più preciso.

Il costo umano

L’applicazione dell’intelligenza artificiale in guerra, in particolare attraverso sistemi come Habsora, solleva domande pertinenti sulla responsabilità che deriva dai progressi tecnologici. L’attenzione alla precisione diventa un’illusione quando le conseguenze comportano il targeting indiscriminato di spazi civili, sfidando la premessa stessa di minimizzare i danni.

Habsora elabora una vasta quantità di dati e analisi, offrendo raccomandazioni ai soldati israeliani per colpire siti strategici. La macchina estrae rapidamente e automaticamente l’intelligenza, producendo indicazioni mirate che cercano di corrispondere alle identificazioni umane. Attraverso questo processo, l’IDF afferma di avere una corrispondenza completa tra le raccomandazioni del sistema e le identificazioni umane.

Nel corso degli anni, l’IDF ha costruito un vasto database di sospetti militanti, comprendente tra i 30.000 e i 40.000 individui. Il Vangelo, insieme ad altri sistemi, ha svolto un ruolo fondamentale nel compilare elenchi di persone autorizzate a essere eliminate. Questo rende il Vangelo una macchina che, grazie all’efficace elaborazione di dati, traduce informazioni in obiettivi da attaccare.

Mentre i sostenitori sostengono che i sistemi basati sull’intelligenza artificiale aumentano la precisione, riducendo i danni ai civili, i critici esprimono scetticismo. Mettndo in dubbio la precisione dichiarata, data la diffusa distruzione osservata a Gaza durante le operazioni militari.

Attivazione e impatto di Habsora

Aviv Kochavi, ex capo delle IDF, ha dichiarato che Habsora è stato attivato durante la guerra del maggio 2021, generando fino a 100 bersagli al giorno. Questo rappresenta un aumento significativo rispetto al passato, quando si identificavano 50 obiettivi all’anno. L’uso di IA ha rivoluzionato la velocità e la quantità di obiettivi generati.

Sebbene l’IDF sostenga che il Vangelo permetta attacchi precisi alle infrastrutture associate a Hamas, alcuni esperti di intelligenza artificiale si mostrano scettici. Alcuni sostengono che ci siano “poche prove empiriche” a sostegno delle affermazioni sulla riduzione dei danni civili, enfatizzando l’impatto visibile dei bombardamenti su Gaza.

Un alto funzionario israeliano afferma che grazie al Vangelo, l’IDF può infliggere danni significativi a infrastrutture legate a Hamas, cercando al contempo di minimizzare i danni ai non combattenti. La divisione target delle IDF è incaricata di fornire istruzioni ai militari sul campo per eliminare bersagli in modo preciso.

Il programma Habsora consente agli attacchi su larga scala contro le residenze di membri di Hamas. Secondo dati delle Forze di Difesa Israeliane, durante i primi 35 giorni della guerra, sono stati attaccati 15.000 obiettivi a Gaza, superando notevolmente le cifre delle precedenti operazioni. Questo solleva interrogativi sulla percezione della precisione e dell’efficacia delle operazioni militari israeliane supportate dall’IA.

Nel panorama in evoluzione dell’intelligenza artificiale e della guerra, Habsora funge da esempio cautelativo, evidenziando l’importanza delle considerazioni etiche nello sviluppo e nell’applicazione delle tecnologie dell’intelligenza artificiale nelle zone di conflitto. Mentre il dibattito sull’uso responsabile dell’intelligenza artificiale si intensifica, il caso di Habsora sottolinea la necessità di linee guida e supervisione rigorose per prevenire l’uso improprio di tecnologie avanzate con conseguenze potenzialmente devastanti.

 

 

Felicia Bruscino

Exit mobile version