Armi letali: l’intelligenza artificiale scoperchia il vaso di Pandora

Armi letali

Armi letali e IA

Uno studio ha scoperto come un’intelligenza artificiale possa creare ben 40mila armi letali in meno di 6 ore.

Dal mondo dell’IA giunge un avviso che sa di ammonimento: il suo utilizzo può essere un’arma a doppio taglio, armi letali comprese.

Lo studio è stato pubblicato sulla rivista Nature Machine Intelligence da ricercatori che solitamente utilizzano l’intelligenza artificiale nella progettazione di farmaci.

Siamo solitamente portati a pensare ai contributi benefici dell’IA nello sviluppo scientifico. A come essa possa contribuire alla ricerca di nuove terapie per salvare vite e curare malattie. Come difatti gli sperimentatori di questo studio erano soliti fare.

Ma questo esperimento inizialmente mentale e poi computazionale ha voluto andare oltre questa visione. Avvertendoci di come l’intelligenza artificiale possa mostrarci sempre l’altra faccia della sua stessa medaglia.



L’esperimento:

L’esperimento è stato sollecitato dal Laboratorio Spiez, l’Istituto Federale Svizzero per la Protezione del CNB (nucleare, biologico e chimico). In altre parole, in questo Istituto si radunano i maggiori scienziati ed esperti del settore per riflettere sulle innovazioni che nel campo in questione potrebbero minacciare la sicurezza mondiale.

Nell’ultima conferenza internazionale organizzata dall’Istituto – che si riunisce ogni due anni – gli esperti del disarmo si sono chiesti della potenziale pericolosità di un uso improprio di un’IA .

In particolare ci si è chiesto come un’intelligenza artificiale solitamente utilizzata a scopi farmaceutici, potesse risultare potenzialmente letale.

Per fare ciò si è realizzata la collaborazione tra il Laboratorio Spiez, la Collaborations Pharmaceuticals e il King’s College di Londra. Nello specifico si è cercato di vedere i risultati a cui sarebbe giunta una IA, solitamente usata per eliminare sostanze tossiche,  se le fosse stato chiesto di mantenerle e combinarle assieme ad altre con lo scopo di creare sostanze dannose come le armi biochimiche.

In poche parole lo strumento era lo stesso, ma lo scopo opposto. L’IA che solitamente lavorava per scopi benefici, ora doveva creare sostanze mortali e non più farmaci.

Per indirizzare l’IA chiamata Mega Syn verso questo “nuovo scopo” da realizzare la si è guidata con esempi di composti come l’agente nervino XV, uno degli agenti più tossici sviluppati durante il XX secolo. Pe questo definito come arma di distruzione di massa dalle Nazioni Unite. Basti pensare che i suoi soli 10 mg risultano letali.

Il risultato? In meno di sei ore, l’IA  aveva creato 40.000 armi letali.

Il rischio di armi letali:

Sono gli stessi sperimentatori ad essersi stupiti per primi dei risultati ottenuti. Ricercatori che si sono definiti “ingenui” nel non aver fatto suonare prima dei “campanelli di allarme” sulle potenzialità letali che certi strumenti potrebbero avere se cadessero nelle mani sbagliate.

È necessario – sostengono i ricercatori – aumentare la soglia di attenzione verso queste strumentazioni. Le capacità dell’IA nelle mani di uomini con intenzioni malvagie, sarebbe un cocktail letale.

È necessaria la collaborazione di diversi ambiti di ricerca, in primis quello etico. “Possiamo chiudere a chiave tutti gli strumenti e buttare via la chiave?” si chiedono gli studiosi. No, non possiamo, perché quella chiave sarebbe comunque sempre rintracciabile da qualcun altro.

Gli stessi sperimentatori parlano di un grey moral boundary, un grigio confine morale al quale ormai ci si è avvicinati e con il quale si deve fare i conti.

Ora che si è scoperchiato il vaso di Pandora, richiuderlo è impossibile. Ma è possibile cercare di comprendere come fare i conti con ciò che ne è uscito.

E per fare questo si deve puntare alla formazione che non riguardi solamente le competenze tecniche e tecnologiche degli studiosi e degli scienziati, ma anche etiche. E la filosofia in questo deve essere chiamata a scendere in campo.

Caterina Simoncello

Exit mobile version