https://www.avvenire.it/

sabato 1 settembre 2018 

 

Stop ai robot-killer: l'Onu resta in panne e fallisce l'accordo

di Lucia Capuzzi 

 

A Ginevra la Campagna anti-armi preme. Ma i Grandi paralizzano la Conferenza

 

Il bando può attendere. Eppure il consenso sull’urgenza di controllare le cosiddette “armi autonome letali” è diffuso. I membri della Convenzione Onu sulle armi convenzionali (Ccw) ne discutono dal maggio del 2014. L’ultima riunione, però, s’è conclusa ieri a Ginevra senza alcun passo avanti decisivo. Ovvero senza avviare i negoziati per un trattato di divieto giuridicamente vincolante, sul modello del bando all’atomica, approvato nel luglio del 2017. Era questa la richiesta forte della società civile, rappresentata al summit da 76 organizzazioni di 32 diversi Paesi, riunite da aprile 2013 nella Campagna internazionale “Stop killer robots”. Così vengono chiamati comunemente i sistemi di armi controllati da intelligenze artificiali. Sono queste ultime a selezionare, individuare e colpire il “nemico”. In modo del tutto autonomo, cioè senza alcun intervento umano. Una sorta di “Blade runner” ma senza “replicanti”. «Le armi attuali causano già abbastanza vittime nel mondo. Davvero vogliamo in futuro anche delle macchine capaci di prendere decisioni di vita o di morte?», si domanda Francesco Vignarca, di Rete di- sarmo, esponenti italiano della Campagna insieme all’Unione scienziati per il disarmo (Uspid). Non sono solo le organizzazioni pacifiste ad opporsi ai robot-killer. Il mondo scientifico è preoccupato. Già nel 2017, un gruppo di esperti della robotica, guidati da Elon Musk, aveva esortato l’Onu a fermare lo sviluppo delle “armi pensanti”. 

 

E, ieri, l’International commettee for robots arms control (Icrac) – che riunisce scienziati specializzati in intelligenza artificiale – hanno definito tali dispositivi «un rischio per la sicurezza globale». Vari Stati ne sono consapevoli: il numero dei favorevoli al bando è salito a ventisei. Tra questi, figura la Santa Sede, la cui rappresentanza permanente a Ginevra ha definito «inaccettabili» i robot-killer, foss’anche solo perché ci sarebbe una deresponsabilizzazione collettiva nei confronti di eventuali vittime e del loro legittimo diritto alla riparazione. La comunità internazionale nel suo insieme, però, a mettere nero su bianco un impegno definitivo. L’Italia, ad esempio, propende per dichiarazione politica congiunta. Il principale scoglio, però, è rappresentato dal fronte delle potenze militari: Francia, Israele, Russia, Regno Unito, Stati Uniti, Cina e Corea del Sud. Nazioni che stanno stanziando ingenti risorse negli armamenti con gradi decrescenti di controllo umano.

L’Istituto Sipri di Stoccolma ha censito, nel 2017, già 381 sistemi di tale tipo, di cui 225 già completati. E gli investimenti continuano a crescere. Perfino nel Fondo Europeo di difesa potrebbero essere previsti stanziamenti per i robot-killer, mentre un emendamento che voleva impedirlo è stato cancellato. La società civile, però, non è disposta a gettare la spugna. «Non ci accontenteremo di niente di meno di un trattato. È fondamentale per evitare di disumanizzare l’uso della forza», ha detto Mary Wareham di Human Rights Watch, coordinatrice della Campagna. Prossimo round a novembre, al nuovo summit della Ccw.

https://www.interris.it/

lunedì 21 agosto 2017

"Stop ai robot killer": l'appello degli esperti di intelligenza artificiale all'Onu

di Milena Castigli

 

"Una volta aperto il vaso di Pandora, sarà difficile richiuderlo", avvertono

 

Ben 116 fondatori di aziende di robotica e intelligenza artificiale di 26 Paesi diversi - tra cui Elon Musk e Mustafa Suleyman, fondatore di DeepMind di Google - hanno lanciano un appello all'Onu affinché vengano fermati i "robot killer".

Gli esperti hanno inviato il messaggio da Melbourne (in Australia) dove sono riuniti in questi giorni per l'annuale Conferenza internazionale sull'Intelligenza Artificiale (l'International Joint Conference on Artificial Intelligence, o Ijcai).

L'iniziativa è scaturita dalla notizia dell'avvio (in data da definire) del primo meeting del gruppo di esperti governativi (Gge) sui sistemi di armi letali autonome. Lo scopo è quello di avvertire l'agenzia Usa e il mondo intero della pericolosità di macchine in grado di uccidere autonomamente

L'appello


"Invitiamo i partecipanti ai lavori del Gge - si legge nella lettera aperta indirizzata all'Onu - a sforzarsi di trovare modi per prevenire una corsa agli armamenti autonomi, per proteggere i civili dagli abusi e per evitare gli effetti destabilizzanti di queste tecnologie".

"Le armi letali autonome - prosegue - minacciano di essere la terza rivoluzione in campo militare. Una volta sviluppate, permetteranno ai conflitti armati di essere combattuti su una scala più grande che mai, e su scale temporali più veloci di quanto gli umani possano comprendere: sono armi che despoti e terroristi potrebbero rivolgere contro popoli innocenti, oltre che armi che gli hacker potrebbero riprogrammare per comportarsi in modi indesiderabili. Non abbiamo molto tempo per agire - concludono gli esperti di robotica e intelligenza artificiale - una volta aperto il vaso di Pandora, sarà difficile richiuderlo".

.

.