Fermare la cyberwar prima che sia troppo tardi

Norberto Patrignani

di Norberto Patrignani


Fermare la cyberwar
Purtroppo il 2022 è iniziato con un’altra guerra in cui vengono utilizzate anche sofisticate tecnologie digitali come gli attacchi informatici. La notte prima dell’invasione, il 24 febbraio, le infrastrutture informatiche ucraine del Ministero degli Interni erano già state attaccate. La sicurezza informatica è ormai indissolubilmente legata alla sicurezza militare in generale. Gli attachi alle infrastrutture informatiche (con virus, software malevolo o “malware”, etc.) provengono spesso dagli stati stessi facendo emergere domande inquietanti: un attacco informatico deve essere considerato un “atto di guerra”? A chi va attribuito? Quali sono le risposte e le difese possibili? In Ucraina homo sapiens ha la possibilità di sperimentare la prima vera guerra informatica e fermare la cyberwar. Su un altro fronte, purtroppo il Bulletin of Atomic Scientists riporta che droni autonomi della classe KUB-BLA, prodotti dal tristemente famoso colosso del militare Kalashnikov Group, sono stati impiegati anche nella recente guerra in Ucraina (Kallenborn, 2022). Sono i sistemi d’arma autonomi letali; i cosiddetti LAWS, Lethal Autonomous Weapons Systems, armi automatiche che: “… una volta attivate, sono capaci di selezionare e attaccare un obiettivo senza ulteriori interventi da parte degli esseri umani” (DOD, 2012). Nel 2021 per la prima volta nella storia viene segnalato ufficialmente l’uso di droni autonomi. Infatti il rapporto dell’ONU del “Panel of Experts on Libya” scrive:
“The lethal autonomous weapons systems (LAWS) were programmed to attack targets without requiring data connectivity between the operator and the munition: in effect, a true ‘fire, forget and find’ capability” (UN, 2021, pag.17).

Altro fronte, altra guerra

Questa “innovazione tecnologica” è ormai uscita dai laboratori e impiegata sul campo. Eppure sono tante le voci che segnalano gli enormi rischi legati all’uso del digitale in scenari militari: la cyberwar (l’insieme interconnesso dei cinque domini mare, terra, aria, spazio e cyberspazio) è ormai uno dei bracci operativi di tutte le organizzazioni militari. Come se non bastassero i disastri delle guerre avviate dagli umani, i rischi di eventi catastrofici scatenati dai sistemi stessi, dalle inevitabili vulnerabilità del software e dalla interconnessione di migliaia di server, crescono esponenzialmente. La complessità creata da questo coacervo di tecnologie digitali diventa però troppo rischiosa quando questa governa anche le armi nucleari con rischi inimmaginabili per tutto il pianeta: homo sapiens si sta dimostrando un apprendista stregone. Queste applicazioni delle tecnologie digitali dovrebbero essere fermate (Unal, 2021). Il problema con i droni usati come armi automatiche è ulteriormente complicato dall’uso di tecniche di “intelligenza artificiale” per renderli autonomi e quindi in grado di muoversi, intercettare un “obiettivo” e colpire, il tutto senza alcun intervento umano (se non quello di assegnare l’obiettivo). Una volta che il drone ha colpito è praticamente impossibile dimostrare che stava operando completamente in autonomia oppure se era telecomandato da un operatore. Anche per questo motivo, questo tipo di armi andrebbe proibito da appositi trattati internazionali prima che inizi una proliferazione incontrollata. Lo sostengono, oltre a tutte le organizzazioni pacifiste, come la campagna internazionale “Campaign to stop killer robots” anche Amnesty International: “A machine should not be allowed to make a decision over life and death” (Amnesty International, 2022) e tante altre organizzazioni che si occupano dei rischi legati ad applicazioni della cosiddetta “intelligenza artificiale” come: il Future of Life Institute: “the decision to take a human life should never be delegated to a machine” (FLI, 2018).

Forse la presa di posizione più importante è quella della Croce Rossa Internazionale:

  • “…l’uso crescente di sistemi d’arma autonomi negli odierni conflitti armati evidenzia l’importanza di creare un nuovo standard legale internazionale ora, prima che sia troppo tardi;
  • …da una prospettiva etica, il loro funzionamento rischia di sostituire le decisioni umane sulla vita e la morte con sensori, software e processi informatici;
  • …e ciò solleva preoccupazioni etiche particolarmente acute quando si utilizzano i sistemi d’arma autonomi per prendere di mira le persone direttamente;
  • …ciò richiederà il divieto di alcuni tipi di sistemi d’arma autonomi e la regolamentazione rigorosa di tutti gli altri” (CRI, 2021).
Le persone esperte di informatica dovrebbero rifiutarsi di progettare questi sistemi di morte, di diventare guns-for-hire che sfruttano le loro conoscenze solo per il loro guadagno personale, che fanno quello che vogliono i loro “clienti” a prescindere dal contesto. Le persone esperte di informatica dovrebbero invece essere “computer professional” che vedono la conoscenza e l’esperienza solo come una delle loro caratteristiche, che si considerano non semplici individui ma membri di una comunità professionale, con una responsabilità sociale, consapevoli del contesto applicativo dei loro progetti, con un impegno a proteggere l’interesse pubblico e l’ambiente. Sono consapevoli che scienza e della tecnologia non sono neutre ma il risultato di una complessa interazione con la società. Le persone esperte di informatica, o computer professionals, sanno come è fatto un sistema e come funziona: è tempo di chiedersi come e perché progettarlo? Chi lo userà, per quali scopi? Fino alla domanda cruciale: se progettarlo. Forse è tempo di usare più saggezza e usare una nuova “bussola morale” anche per questo tipo di “applicazioni” digitali. Quando c’è un problema globale, allora dovrebbe essere portato ai tavoli internazionali. Forse gli stessi tavoli ormai sempre più necessari per affrontare le sfide dell’Antropocene (emergenza climatica, pandemie, migrazioni “bibliche”) e per fermare e prevenire le guerre. Quando nella storia l’umanità è scivolata in vicoli ciechi, i diritti umani e il diritto internazionale sono sempre stati gli strumenti fondamentali per trovare vie d’uscita. Anche le tecnologie digitali devono aiutarci a costruire un mondo multipolare, basato sulla cooperazione (e non sulla competizione), individuando azioni contro i dittatori, non contro i popoli.

Riferimenti

  • Amnesty International (2022). Stop Killer Robots
  • CRI (2021). Autonomous weapons: The ICRC recommends adopting new rules
  • DOD (2012). Directive 3000.09/2012: Autonomy in Weapons Systems, pp.13-14.
  • FLI (2018). https://futureoflife.org/2018/06/05/lethal-autonomous-weapons-pledge/
  • Kallenborn, Z. (2022, 15 March). Russia may have used a killer robot in Ukraine. Now what? Bulletin of Atomic Scientists.
  • Unal, B. (2021). Strategic Stability and Cyber and Space Dependency in Nuclear Assets. Chatham House (UK).
  • UN (2021). United Nations, Security Council, Letter dated 8 March 2021 from the Panel of Experts on Libya, S/2021/229,

Norberto Patrignani

Norberto Patrignani è docente di Computer Ethics al Politecnico di Torino

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Sentitevi liberi di contribuire!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.