«No ai killer robot, è impossibile controllarli» | Rachele Gonnelli intervista Noel Sharkey

Intelligenza artificiale. Intervista a Noel Sharkey, esperto di robotica e presidente dell’International committee for Robot Arms control: «Va proibito l’uso di armi che non prevedono decisione umana. Si sta già sviluppando una «giustizia» algoritmica che crea discriminazioni razziali, di genere, di poveri e minoranze. Figuratevi cosa può succedere in guerra»

«Ho passato 40 anni a studiare i robot, la mia passione, e all’inizio non ero un’attivista, solo uno scienziato. A un certo punto mi sono reso conto che lo sviluppo dell’Intelligenza artificiale procedeva molto velocemente ma la riflessione sul suo utilizzo, soprattutto sul piano bellico, non procedeva di   pari passo, fino a fare spazio a qualcosa di inconcepibile».

Professore emerito di Intelligenza artificiale e robotica all’università di Sheffield, co-direttore della Fondazione Responsible Robotics, presidente dell’ong International committee for Robot Arms control, Noel Sharkey è appena uscito da Montecitorio, dove, accompagnato da Francesco Vignarca della Rete Disarmo, è andato a spiegare le ragioni per cui l’Italia deve appoggiare la campagna di messa al bando dei Killer Robot al presidente della commissione Esteri del Senato Vito Petrocelli e al presidente della commissione Difesa della Camera Gianluca Rizzo entrambi M5S mentre oggi terrà una conferenza al museo Maxxi di Roma nell’ambito del festival itinerante dei Diritti umani, quest’anno dedicato al tema “Guerre e pace”.

In scenari come Libia, Gaza, Afghanistan sono già in uso droni o armi tipo killer robot?

No, anche se la tecnologia è quasi pronta. Se decidessero di testarli, credo che sceglierebbero scenari più defilati. Daesh ha realizzato un suo prototipo, un drone commerciale con una carica esplosiva: quando la batteria si scarica, scoppia, un ordigno low technology che colpisce a caso. Si può realizzare in una settimana.

È per questo che il Pentagono sta cercando di elaborare codici autodistruttivi per le armi più sofisticate, in modo che non siano riassemblabili o copiate?

Non c’è bisogno di copiare, il problema è la funzione. Una granata è in qualche modo un’arma automatica ma è ferma e deve essere innescata dalla vittima. Le nuove armi cercano attivamente il loro bersaglio, in base a date caratteristiche e agli algoritmi che le guidano. Non sono totalmente indiscriminate, operano una selezione sulla base della programmazione. I politici sostengono di essere in grado di operare questa scelta, gli scienziati non sono d’accordo.

Le tecnologie emergenti Intelligenza artificiale, stampa 3D, bioingegneria genetica sonodual use, civile e militare. Come operare un discrimine senza fermare la ricerca?

All’inizio della campagna Stop Killer Robot ci accusavano di voler frenare le innovazioni. Vogliamo solo impedire due funzioni delle macchine: la selezione degli obiettivi e il “targeting”.

Proponete un trattato di non proliferazione delle armi autonome?

Non di non proliferazione, ma di proibizione dello sviluppo, della produzione e dell’uso di armi che non prevedono la decisione umana.

Una volta ratificato, non resterebbero problemi di controllo dei laboratori, specialmente in Paesi come Cina, Russia, Iran?

Il trattato serve come stigmatizzazione della comunità internazionale. Ci si basa sul trattato contro le armi chimiche, perché anche nella chimica siamo immersi. È come dire che l’avvelenamento non è eliminabile come rischio, però è reato.

Ci si rivolge quindi in particolare a scienziati e ricercatori, ché non vadano oltre i limiti?

Esattamente. Quando l’Istituto sudcoreano di studi avanzati ha lanciato una sperimentazione su armi autonome, una cinquantina di scienziati, incluso me, delle più prestigiose università del mondo ha minacciato di boicottarlo sul piano accademico e il progetto è stato ritirato.

Può esistere una Intelligenza artificiale restricted o consentita?

No. Solo i ricercatori sono in grado di capire i rischi di un progetto, com’è successo a Google con la rivolta contro l’utilizzo dei video Big Data per migliorare il riconoscimento facciale. Il progetto non diceva che sarebbe servito per il targeting militare ma i dipendenti si sono subito resi conto delle implicazioni e si sono ribellati. Una rivolta etica individuale e collettiva, che ora bisogna rafforzare con una regolamentazione internazionale anche a protezione da rappresaglie e licenziamenti. In autunno apriremo uno sportello della campagna nella Silicon Valley, dove questi progetti possono attecchire. E comunque queste armi autonome non potranno mai funzionare.

Perché?

Anche i militari ne prevedono un utilizzo solo in situazioni particolari e limitate. Però quando una tecnologia è implementata, poi viene usata su vasta scala, non in modo “chirurgico” come dicono. All’inizio il robot procedeva a fianco del soldato come aiuto, ora si prevede una persona che attiva stormi di fighters. Cina e Stati uniti stanno lavorando sui bombardieri, la Russia su stormi di 50-100 super tank. Dicono che c’è sempre un umano a comandarli, non è così, l’umano non comanda ogni singolo robot. Inoltre quando tagli la comunicazione il drone non sa gestirsi e cade, ma lo stormo continua la sua missione, non è semplice disattivarlo.

Alla fine non chiedete altro che la prima legge della robotica di Asimov diventi universale.

In effetti è una legge molto buona. Solo che preferisco rovesciarla: l’essere umano non deve delegare alla macchina o a un sistema automatico decisioni sulla vita e la morte di un altro essere umano.

In campo civile e medico questo non avviene già?

Viene usata la macchina per evitare il tremolio della mano e la stanchezza del chirurgo ma è sempre il medico a indicare dove tagliare. Una macchina tedesca per operazioni in autonomia è stata ritirata a causa delle tante cose andate male. Si sta sviluppando una giustizia algoritmica, che va creando discriminazioni razziali, di genere, di poveri e minoranze, ad esempio negli Usa per il calcolo della cauzione penale oppure in Gran Bretagna nelle preselezioni per colloqui di lavoro. Guardando a queste ingiustizie, figuratevi cosa può succedere in situazioni di guerra.

il manifesto, 11.05.2019

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.