http://www.affarinternazionali.it/ 6 Nov 2017
Dibattito sul futuro dei sistemi d’arma autonomi letali di Stefano Borgiani junior advisor presso l’Ufficio V – Disarmo e controllo degli armamenti, non proliferazione nucleare, batteriologica e chimica della Direzione Generale per gli Affari Politici e di Sicurezza del Ministero degli Affari Esteri e della Cooperazione Internazionale.
Dal 13 al 17 novembre prossimi si terranno a Ginevra le prime riunioni del Gruppo di Esperti governativi sui Sistemi d’Arma Autonomi Letali (Laws), istituito dalla Conferenza di Riesame della Convenzione per la proibizione dell’uso di certe armi convenzionali svoltasi nel dicembre 2016. L’intenzione è di strutturare la discussione intorno a tre grandi aree tematiche: aspetti tecnologici, aspetti militari e considerazioni etico-giuridiche.
Nello specifico, tra principali argomenti oggetto di dibattito, si approfondiranno la questione relativa alla definizione di sistemi ‘autonomi’; la compatibilità delle Laws con il Diritto internazionale umanitario (Diu) e l’importanza delle “legal reviews” ex art. 36 del Primo Protocollo aggiuntivo alle Convenzioni di Ginevra del 1949 relativo alla protezione delle vittime dei conflitti armati internazionali; le questioni etiche sollevate dalla delega delle decisioni connesse all’utilizzo della forza a entità artificiali.
Del resto questa nuova tipologia di sistema d’arma è una realtà sempre più concreta. Basti pensare alla sentinella robotica Sgr-A1, nata da una collaborazione in Corea fra l’Università e la Samsung e già dispiegata dal governo di Seul per sorvegliare la zona demilitarizzata al confine con la Corea del Nord. L’Sgr-A1 è dotata di un sofisticato sistema di intelligenza artificiale in grado di ingaggiare il bersaglio da una distanza di tre chilometri e aprire il fuoco in completa autonomia.
La ricerca di una definizione condivisa
Tuttavia, la mancanza di una definizione di lavoro condivisa rimane ancora una questione aperta e fonte di un acceso dibattito tra gli esperti come anche la dimostrazione che allo stadio attuale della tecnologia esistano sistemi d’arma che ricadano completamente nella seconda categoria. Due elementi sono considerati critici e decisivi ai fini dell’elaborazione di una definizione operativa: la relazione uomo-macchina e il concetto di prevedibilità.
Quanto al primo, il grado di autonomia di un determinato sistema d’arma potrebbe essere valutato in base al suo rapporto con gli operatori umani e al punto in cui il controllo umano si interrompe nel ciclo di selezione e ingaggio degli obiettivi. A tale riguardo emergono i concetti di “meaningful human control” e “appropriate level of human judgment”, intesi sia come fattori determinanti sia per la definizione di autonomia di un sistema che per stabilire il limite oltre il quale certe armi potrebbero sollevare dei dubbi sotto il profilo etico. Altro concetto da considerare è quello della prevedibilità, secondo cui, in linea di principio, meno un sistema è prevedibile, perché in grado di evolvere e apprendere dalla propria esperienza adattandosi a contesti dinamici, indipendentemente dalla programmazione di partenza, e più esso è da considerarsi autonomo.
Diversi gradi di autonomia
Nell’ambito della ricerca, lo sviluppo di tecnologie completamente autonome si scontra con almeno due ostacoli. Da un punto di vista prettamente tecnico, si riscontrano ancora dei limiti strutturali nella capacità dei sistemi autonomi di gestire situazioni impreviste e complesse e di elaborare dati abbastanza rapidamente; a questi si aggiunge la riluttanza propria della cultura militare che tende a dubitare delle capacità e adeguatezza dei sistemi tecnologicamente complessi e a non utilizzare sistemi sui quali non si può avere pieno comando e controllo.
Considerazioni etico-giuridiche
Particolare attenzione viene dedicata anche alle “legal reviews” sancite nell’art. 36 del Protocollo I aggiuntivo alle Convenzioni di Ginevra del 1949 relativo alla protezione delle vittime dei conflitti armati internazionali. La disposizione richiede che nello studio, messa a punto, acquisizione o adozione di una nuova arma, di nuovi mezzi o metodi di guerra, si proceda a una valutazione/analisi atta a stabilire se il suo impiego sia conforme o meno alle disposizioni del suddetto Protocollo o al Diu generalmente applicabile. In questo contesto emerge anche il concetto di “accountability”, ovvero della necessità di assicurare che l’utilizzo di sistemi d’arma autonomi non pregiudichi una chiara e netta identificazione dei responsabili delle decisioni sull’utilizzo della forza.
Sfide e problemi futuri di sicurezza
Oltre a questi fattori tecnici, ve ne sono altri di natura più politica e strategica che vanno segnalati come potenzialmente rischiosi, soprattutto nel settore della sicurezza. Lo sviluppo, la produzione e la commercializzazione di Laws potrebbero ingenerare una nuova corsa agli armamenti e accentuare la componente asimmetrica dei conflitti oggi in essere e determinare, quindi, una maggiore instabilità a livello regionale e globale; la soglia psicologica oltre la quale decidere l’impiego della forza da parte di chi può fare uso di sistemi d’arma autonomi invece che di uomini si abbasserebbe ulteriormente; infine, la proliferazione illecita di materiali, tecnologie e know-how da parte di attori non statali illegittimi, come gruppi armati e terroristi, riceverebbe un ulteriore impulso.
vedi anche Gli scenari operativi del 2030 saranno dominati dai Micro Droni Tattici Autonomi
Sistemi d'Arma Nike - 11. L'Area di Controllo (IFC)
|