http://www.affarinternazionali.it/

6 Nov 2017

 

Dibattito sul futuro dei sistemi d’arma autonomi letali

di Stefano Borgiani

junior advisor presso l’Ufficio V – Disarmo e controllo degli armamenti, non proliferazione nucleare, batteriologica e chimica della Direzione Generale per gli Affari Politici e di Sicurezza del Ministero degli Affari Esteri e della Cooperazione Internazionale.

 

Dal 13 al 17 novembre prossimi si terranno a Ginevra le prime riunioni del Gruppo di Esperti governativi sui Sistemi d’Arma Autonomi Letali (Laws), istituito dalla Conferenza di Riesame della Convenzione per la proibizione dell’uso di certe armi convenzionali svoltasi nel dicembre 2016. L’intenzione è di strutturare la discussione intorno a tre grandi aree tematiche: aspetti tecnologici, aspetti militari e considerazioni etico-giuridiche.

 

Nello specifico, tra principali argomenti oggetto di dibattito, si approfondiranno la questione relativa alla definizione di sistemi ‘autonomi’; la compatibilità delle Laws con il Diritto internazionale umanitario (Diu) e l’importanza delle “legal reviews” ex art. 36 del Primo Protocollo aggiuntivo alle Convenzioni di Ginevra del 1949 relativo alla protezione delle vittime dei conflitti armati internazionali; le questioni etiche sollevate dalla delega delle decisioni connesse all’utilizzo della forza a entità artificiali.

 

Del resto questa nuova tipologia di sistema d’arma è una realtà sempre più concreta. Basti pensare alla sentinella robotica Sgr-A1, nata da una collaborazione in Corea fra l’Università e la Samsung e già dispiegata dal governo di Seul per sorvegliare la zona demilitarizzata al confine con la Corea del Nord. L’Sgr-A1 è dotata di un sofisticato sistema di intelligenza artificiale in grado di ingaggiare il bersaglio da una distanza di tre chilometri e aprire il fuoco in completa autonomia.

 

La ricerca di una definizione condivisa
Sebbene non vi sia ancora una definizione condivisa tra gli addetti ai lavori, è possibile operare una prima distinzione tra sistemi altamente automatizzati, ossia quelli che hanno funzioni autonome ma che dipendono da pre-programmazioni umane, e sistemi autonomi, che invece sono capaci di apprendere e adattarsi al contesto, anche prescindendo dalla programmazione iniziale. Alla luce di tale distinzione, è possibile sostenere come i sistemi che rientrano nella prima di tali due categorie possano trovare disciplina all’interno delle norme esistenti di Diu e non sollevare problemi nell’imputazione della responsabilità giuridica del loro utilizzo, mentre i secondi potrebbero presentare delle problematicità sotto il profilo legale ed etico.

 

Tuttavia, la mancanza di una definizione di lavoro condivisa rimane ancora una questione aperta e fonte di un acceso dibattito tra gli esperti come anche la dimostrazione che allo stadio attuale della tecnologia esistano sistemi d’arma che ricadano completamente nella seconda categoria. Due elementi sono considerati critici e decisivi ai fini dell’elaborazione di una definizione operativa: la relazione uomo-macchina e il concetto di prevedibilità.

 

Quanto al primo, il grado di autonomia di un determinato sistema d’arma potrebbe essere valutato in base al suo rapporto con gli operatori umani e al punto in cui il controllo umano si interrompe nel ciclo di selezione e ingaggio degli obiettivi. A tale riguardo emergono i concetti di “meaningful human control” e “appropriate level of human judgment”, intesi sia come fattori determinanti sia per la definizione di autonomia di un sistema che per stabilire il limite oltre il quale certe armi potrebbero sollevare dei dubbi sotto il profilo etico. Altro concetto da considerare è quello della prevedibilità, secondo cui, in linea di principio, meno un sistema è prevedibile, perché in grado di evolvere e apprendere dalla propria esperienza adattandosi a contesti dinamici, indipendentemente dalla programmazione di partenza, e più esso è da considerarsi autonomo.

 

Diversi gradi di autonomia
Un’analisi più approfondita dello stato dell’arte della ricerca e sviluppo nel settore delle tecnologie autonome, sia in ambito civile che militare, nonché un’esplorazione dei possibili sviluppi futuri, consente di classificare ulteriormente i sistemi d’arma esistenti in base al loro grado di autonomia. In particolare, si possono distinguere sistemi operati a distanza, sistemi automatici e sistemi autonomi. Questa distinzione evidenzia come le tecnologie attuali dipendano tutte e in varia misura dal monitoraggio e dalla supervisione dell’uomo.

 

Nell’ambito della ricerca, lo sviluppo di tecnologie completamente autonome si scontra con almeno due ostacoli. Da un punto di vista prettamente tecnico, si riscontrano ancora dei limiti strutturali nella capacità dei sistemi autonomi di gestire situazioni impreviste e complesse e di elaborare dati abbastanza rapidamente; a questi si aggiunge la riluttanza propria della cultura militare che tende a dubitare delle capacità e adeguatezza dei sistemi tecnologicamente complessi e a non utilizzare sistemi sui quali non si può avere pieno comando e controllo.

 

Considerazioni etico-giuridiche
Sul piano legale sono due le questioni principalmente dibattute. Da un lato, viene generalmente affermato che il Diu esistente si applicherebbe alle Laws come a qualsiasi sistema d’arma, anche allo stadio della ricerca o sviluppo. Gradi elevati di autonomia, in altri termini, non potrebbero giustificare la violazione delle norme e dei principi del Diu. Al contempo viene ribadito come proprio l’applicazione di tali principi, in particolare quelli della proporzionalità e della distinzione, richiederebbe delle valutazioni di carattere soggettivo che, per loro stessa definizione, necessitano di un input umano.

 

Particolare attenzione viene dedicata anche alle “legal reviews” sancite nell’art. 36 del Protocollo I aggiuntivo alle Convenzioni di Ginevra del 1949 relativo alla protezione delle vittime dei conflitti armati internazionali. La disposizione richiede che nello studio, messa a punto, acquisizione o adozione di una nuova arma, di nuovi mezzi o metodi di guerra, si proceda a una valutazione/analisi atta a stabilire se il suo impiego sia conforme o meno alle disposizioni del suddetto Protocollo o al Diu generalmente applicabile. In questo contesto emerge anche il concetto di “accountability”, ovvero della necessità di assicurare che l’utilizzo di sistemi d’arma autonomi non pregiudichi una chiara e netta identificazione dei responsabili delle decisioni sull’utilizzo della forza.

 

Sfide e problemi futuri di sicurezza
Se da un lato le Laws rappresentano una tecnologia che affascina per i suoi potenziali impieghi nei teatri operativi, dall’altro presentano vari fattori di rischio legati al loro sviluppo e impiego, alcuni dei quali connessi a questioni di carattere prettamente tecnico. La complessità tecnologica delle funzionalità autonome potrebbe generare comportamenti non previsti e indesiderati, soprattutto in contesti complessi e dinamici. Il rischio di comportamenti imprevedibili sarebbe maggiore per le tecnologie capaci di apprendere e adattare autonomamente la propria condotta al contesto operativo.

 

Oltre a questi fattori tecnici, ve ne sono altri di natura più politica e strategica che vanno segnalati come potenzialmente rischiosi, soprattutto nel settore della sicurezza. Lo sviluppo, la produzione e la commercializzazione di Laws potrebbero ingenerare una nuova corsa agli armamenti e accentuare la componente asimmetrica dei conflitti oggi in essere e determinare, quindi, una maggiore instabilità a livello regionale e globale; la soglia psicologica oltre la quale decidere l’impiego della forza da parte di chi può fare uso di sistemi d’arma autonomi invece che di uomini si abbasserebbe ulteriormente; infine, la proliferazione illecita di materiali, tecnologie e know-how da parte di attori non statali illegittimi, come gruppi armati e terroristi, riceverebbe un ulteriore impulso.

 

vedi anche

Gli scenari operativi del 2030 saranno dominati dai Micro Droni Tattici Autonomi

 

Sistemi d'Arma Nike - 11. L'Area di Controllo (IFC)