I robot-killer, o Lethal Autonomous Weapons Systems (LAWS), sono intelligenze artificiali in grado di uccidere senza l’intervento umano. Un’idea sempre più reale.
L’acronimo LAWS (trad. “leggi”) richiama qualcosa di ben diverso dal suo significato di Lethal Autonomous Weapons Systems (trad. “armi letali autonome”). Infatti, ciò che non possiede questo nuovo tipo di armi convenzionali è lo spessore dell’intervento umano.
In principio era l’automazione
L’esigenza dell’uomo di agevolare il suo operato nel mondo ha origini poco recenti. Risalgono agli anni Settanta i primi sistemi di protezione attiva (Active Protection System – APS) con misure hard-kill, come il sistema d’arma ravvicinato (Close-In Weapon System – CIWS), di cui è noto l’esemplare americano Vulcan Phalanx, progettato per la difesa delle imbarcazioni militari. Si tratta di una struttura alla cui base è impiantato il cannone automatico M61 Vulcan, rotante a canna multipla, che spara proiettili una volta individuato automaticamente il bersaglio, ossia missili in arrivo a corto raggio o aerei nemici. Questo tipo di arma non agisce da sola, ma richiede necessariamente l’intervento umano.
Un altro esempio di sistemi automatici è la pistola sentinella, della stessa famiglia del CIWS e regolarmente utilizzata in Corea del Sud e in Israele. In questo caso, si tratta di un dispositivo fisso che ha il ruolo di sostituire la presenza dell’essere umano solitamente in zone smilitarizzate. Per esempio, il modello Samsung SGR-A1 è posizionato nella barriera di confine (한반도 비무장 지대) che divide la penisola coreana quasi a metà, all’altezza del 38° parallelo nord.
E poi divenne autonomia
Era questione di tempo. Mancavano solo delle strutture fisiche abbastanza evolute per concedere l’implementazione di algoritmi enormemente complessi.
Dal 2013 la Convenzione delle Nazioni Unite su certe armi convenzionali (Certain Conventional Weapons – CCW) discute a Ginevra circa la validità e la legalità delle armi autonome. La questione si fece determinante nel 2016, quando si istituì un gruppo di esperti governativi (Group of Governmental Experts – GGE) allo scopo di identificare dei principi che regolamentassero l’eventuale utilizzo di questi sistemi. In altre parole, l’intenzione era quella di comprendere se le armi autonome fossero compatibili con le norme del diritto internazionale umanitario. (DIU)
Il punto di partenza fu quello di esaminare il concetto di “autonomia“, già preso in oggetto dalla direttiva sull’autonomia dei sistemi d’arma pubblicata nel 2012 dal Dipartimento della Difesa degli Stati Uniti d’America (DoD). Si legge:
Sistema d’arma autonomo. Un sistema d’arma che, una volta attivato, può selezionare e ingaggiare bersagli senza ulteriore intervento da parte di un operatore umano. Ciò include la supervisione umana sui sistemi d’arma autonomi progettati per consentire agli operatori umani di ignorare il funzionamento del sistema d’arma, ma possono selezionare e ingaggiare bersagli senza ulteriore input umano dopo l’attivazione.
Questo tipo di definizione rimane piuttosto vaga, in quanto anche un sistema automatico – come il Vulcan Phalanx o il Samsung SGR-A1 citati all’inizio – può definirsi in qualche maniera autonomo dopo la sua attivazione. Per questo, tale espressione non è esaustiva. Difatti, per affinare la definizione di «sistema autonomo», il DoD elaborò la descrizione di due tipi di sistemi semi-autonomi.
Il confine sottile tra autonomo e semi-autonomo
Il primo tipo viene così delineato:
Sistemi che impiegano l’autonomia per le funzioni relative al coinvolgimento, tra cui […] l’acquisizione, il monitoraggio e l’identificazione di potenziali obiettivi; indicare potenziali bersagli agli operatori umani; dare la priorità agli obiettivi selezionati; tempistica di quando sparare; o fornire una guida terminale per concentrarsi su obiettivi selezionati, a condizione che venga mantenuto il controllo umano sulla decisione di selezionare obiettivi individuali e gruppi target specifici per il coinvolgimento.
In un suo articolo del 2014, il fisico Mark Gubrud mostrò la sua perplessità riguardo al significato di «controllo umano». A tal proposito, citò un elaborato dell’informatico Noel Sharkey, che distinse «cinque livelli di controllo»:
1 . l’essere umano delibera su un obiettivo prima di iniziare qualsiasi attacco
2. il programma fornisce un elenco di bersagli e l’umano sceglie quale attaccare
3. il programma seleziona l’obiettivo e l’essere umano deve approvare prima dell’attacco
4. il programma seleziona l’obiettivo e l’essere umano ha un tempo limitato per il veto
5. il programma seleziona il bersaglio e avvia l’attacco senza coinvolgimento umano
Come si evince, seppur la differenza tra il punto 2 e il punto 3 può risultare quasi inesistente, in realtà si nasconde una distinzione qualitativa. La libertà di valutazione e di scelta da parte dell’essere umano è più limitata nella situazione descritta dal punto 3, perché il sistema non espone una lista, ma focalizza autonomamente un possibile bersaglio. Gli ultimi due punti trattano evidentemente di un sistema del tutto autonomo.
Rispetto al secondo tipo di sistema semi-autonomo, il DoD scrive:
Munizioni di puntamento “fire and forget” o lock-on-after-launch che si basano su TTP [tattiche, tecniche e procedure] per massimizzare la probabilità che gli unici bersagli all’interno del cesto di acquisizione del seeker quando questo si attiva siano i singoli bersagli o gruppi di bersagli specifici che sono stati selezionati da un operatore umano.
In altri termini, questo secondo tipo viene attivato da un operatore umano, ma poi non subisce un suo intervento. La garanzia promessa dipende dalle tecniche utilizzate nella progettazione: il sistema vede e riconosce il bersaglio esattamente come fa un essere umano, per cui non c’è rischio che nel suo raggio d’azione si inseriscano bersagli non adeguati. Questo perché il suo raggio d’azione, cioè la sua area di ricerca, è ristretto secondo una scelta dell’operatore umano. Una volta individuato il target, il sistema lo segue e lo colpisce.
Vogliamo davvero considerare questa tecnologia parte di un sistema semi-autonomo?
Gubrud ritiene che il secondo tipo possa identificarsi interamente in un sistema d’arma autonomo, a differenza di quanto sostiene il DoD, il quale riconosce come lecita una forma di intelligenza artificiale attraverso delle definizioni poco chiare, esentandola da provvedimenti inevitabili.
Lethal Autonomous Weapons Systems: la situazione attuale
Nell’ultima settimana di marzo 2019, si tenne una riunione delle Nazioni Unite che interessò la questione del divieto di utilizzo dei LAWS. La maggioranza dei governi era favorevole alla proibizione, ma si distinsero Israele, Australia, Russia, Regno Unito e Stati Uniti come oppositori. A loro avviso, a seguito dell’adozione delle armi autonome in combattimento, il numero di uccisioni dei civili sarebbe diminuito.
Si pensava che l’intervento umano fosse in qualche modo fallace, incontrollato, e per questo pericoloso. Al contrario di una macchina, che non è annebbiata dalla commozione e dal terrore, e per questo è in grado di punire chi deve essere punito. Senza margine di errore.
In Libia, il 27 marzo 2020 il drone Kargu-2 di manifattura turca colpì un soldato nemico senza il controllo umano. Fu registrato come il primo caso di omicidio da parte di una intelligenza artificiale. In Israele, nel maggio 2021 si segnalò uno sciame di droni in un attacco alla Striscia di Gaza. Da lì in poi, i casi in tutto il mondo divennero quasi incalcolabili.
La CCW e il GGE sono attualmente riuniti a Ginevra (dal 6 al 10 marzo e dal 15 al 19 maggio), elaborando ancora «divieti e altre misure». Tuttavia, nulla sta effettivamente contrastando un fenomeno oramai impossibile da considerare fuori dal comune.
Un nuovo futuro
Una pagina online che si impegna a divulgare informazioni e a sensibilizzare le persone nei confronti dei Lethal Autonomous Weapons Systems, pubblica video come questi:
In evidenza si legge:
Le armi che utilizzano algoritmi per uccidere, piuttosto che il giudizio umano, sono immorali e rappresentano una grave minaccia per la sicurezza nazionale e globale. […] gli algoritmi non sono in grado di comprendere il valore della vita umana, e quindi non dovrebbero mai avere il potere di decidere chi vive e chi muore.
Da qualche parte nel mondo si è convinti che l’esistenza delle intelligenze artificiali è come un elisir di lunga vita per gli esseri umani. Come se queste macchine fossero un prolungamento dei nostri corpi e delle nostre menti, tanto da fondersi totalmente con noi. Infatti, non ci è impossibile pensare che l’uomo e la macchina riusciranno a sovrapporsi, a riconoscersi l’uno nell’altra.
D’altronde, chi autorizza l’uomo ad uccidere un altro uomo? Pare così diverso domandarsi se lo stesso vale per un robot?