Amnesty International e Stop Killer Robots: “siamo ancora in tempo per fermare i robot assassini”


Amnesty International e la Campagna Stop Killer Robots – di cui fanno parte oltre 180 organizzazioni di 66 stati (in Italia la Rete Pace Disarmo) – hanno diffuso oggi un filtro per i social media che fornisce una visione terribile di un futuro di guerra, operazioni di polizia e controllo delle frontiere.

Il filtro per Instagram e Facebook, chiamato “Escape the Scan”, è uno dei prodotti di una campagna globale che chiede l’adozione di norme internazionali per vietare i sistemi d’arma autonomi. Attraverso l’uso della realtà aumentata, il filtro illustra aspetti di tali sistemi d’arma già in fase di sviluppo, come il riconoscimento facciale, i sensori di movimento e la possibilità di lanciare attacchi contro “obiettivi” senza alcun significativo controllo umano.

Diversi Stati stanno destinando ingenti investimenti ai sistemi d’arma autonomi, nonostante le devastanti implicazioni per i diritti umani derivanti dall’affidare a delle macchine la gestione dell’uso della forza. Sono gli stessi Stati che per dieci anni hanno bloccato ogni discussione sull’argomento.

Il 2 dicembre il Gruppo degli esperti governativi della Convenzione delle Nazioni Unite sulle armi convenzionali si riunirà per decidere se avviare negoziati su una nuova normativa internazionale sui sistemi d’arma autonomi. Amnesty International e Stop Killer Robots hanno lanciato una petizione che chiede a tutti i Governi di sostenere questa necessità.

“Abbiamo avuto un decennio di colloqui alle Nazioni Unite per discutere delle armi autonome e dei loro pericoli, ma questi scambi diplomatici sono sempre stati bloccati dagli stessi Stati che stanno sviluppando le armi letali autonome. Ora è il tempo di agire, prima che il pericolo si concretizzi”, ha dichiarato Francesco VignarcaCoordinatore Campagne della Rete Italiana Pace e Disarmo che fa parte di Stop Killer Robots.

“Rischiamo di finire in uno scenario da incubo, in cui droni e altre armi avanzate potranno individuare e attaccare obiettivi senza controllo umano. Permettere a delle macchine di prendere decisioni in materia di vita o di morte potrebbe causare violazioni gravissime delle leggi di guerra e dei diritti umani e intensificare la de-umanizzazione digitale della società, riducendo le persone a dati da processare”, ha aggiunto Riccardo Noury, portavoce di Amnesty International Italia.

Anche il Segretario Generale delle Nazioni Unite, il Comitato internazionale della Croce Rossa, vari Nobel per la pace66 stati e migliaia di scienziati chiedono l’adozione di un trattato per impedire questi sistemi d’arma. Contrari alla proposta, giudicata prematura, sono Russia, Israele e Stati Uniti che insieme a Cina, Corea del Sud, Australia, India, Turchia e Regno Unito stanno investendo parecchio nello sviluppo di sistemi d’arma autonomi.

Il Regno Unito, ad esempio, sta sviluppando un drone privo di guida che può volare in modo autonomo e identificare un bersaglio all’interno di un’area di bersagli precedentemente programmata. La Cina sta creando droni di piccole dimensioni programmati per attaccare qualsiasi obiettivo che emetta temperatura corporea. La Russia ha costruito un carro-armato robot che può essere dotato di mitragliatrici e lanciagranate.

Secondo Amnesty International e la campagna Stop Killer Robots, sostituire le truppe con le macchine renderà più facile decidere di entrare in guerra. Inoltre, le macchine non possono fare scelte di tipo etico in situazioni imprevedibili sul pieno bellico. Impiegarle in guerra così come in operazioni di polizia o nel controllo delle frontiere potrebbe avere conseguenze disastrose.

Agisci ora per fermare i Killer Robots!
Petizione internazionale lanciata dalla Campagna “Stop Killer Robots”, clicca qui per aderire

Governi e aziende della difesa stanno rapidamente sviluppando sistemi di armi con una crescente autonomia utilizzando le nuove tecnologie e l’intelligenza artificialeQuesti “robot assassini” potrebbero essere usati in zone di conflitto, dalle forze di polizia e nel controllo delle frontiere. Una macchina non dovrebbe essere autorizzata a prendere una decisione sulla vita e sulla morte. Agiamo ora per proteggere la nostra umanità e rendere il mondo un posto più sicuro.

Stiamo affrontando l’impensabile: droni e altre armi avanzate sono state sviluppate con la capacità di scegliere e attaccare i propri obiettivi – senza controllo umano. Una volta pensate per essere nei film, le armi autonome, o “robot killer”, non sono più un problema solo del futuro.

Le macchine non possono fare scelte etiche complesse. Mancano di compassione e comprensione, prendono decisioni basate su processi distorti, errati e oppressivi. Le tecnologie emergenti come il riconoscimento facciale e vocale spesso falliscono nel riconoscere donne, persone di colore e persone con disabilità. Questo significa che le armi autonome non potranno mai essere adeguatamente programmate per sostituire il processo decisionale umano.
La sostituzione delle truppe con le macchine rende più facile la decisione di andare in guerra – e attraverso trasferimenti illegali e catture sul campo di battaglia, queste armi cadranno nelle mani di gruppi diversi da quelli che le hanno sviluppate. Per di più, queste tecnologie saranno usate nelle azioni di polizia, nel controllo delle frontiere, e per minacciare i diritti umani come il diritto di protesta, il diritto alla vita, il divieto di tortura e altri maltrattamenti. Nonostante queste preoccupazioni, paesi come Stati Uniti, Cina, Israele, Corea del Sud, Russia, Australia e Regno Unito continuano a investire in armi autonome.
Abbiamo l’opportunità di agire ora. Mentre le aziende e i dipartimenti della difesa di tutto il mondo corrono a sviluppare queste tecnologie, dobbiamo agire in fretta prima di perdere un controllo umano significativo sull’uso della forza – con conseguenze devastanti.


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.