Tecnologie militari emergenti, dalle bombe AI ai robot assassini

Brett Wilkins

“Mentre i media e il Congresso degli Stati Uniti hanno dedicato molta attenzione ai presunti benefici dello sfruttamento di tecnologie militari emergenti, si è parlato molto meno dei rischi connessi”.

Secondo un nuovo rapporto pubblicato martedì, le tecnologie militari emergenti, tra cui l’intelligenza artificiale, i sistemi di armi autonome letali e i missili ipersonici, rappresentano una minaccia potenzialmente esistenziale che sottolinea l’imperativo delle misure di controllo degli armamenti per rallentare il ritmo della loro diffusione.

Il rapporto dell’Associazione per il controllo degli armamenti, intitolato “Assessing the Dangers: Emerging Military Technologies and Nuclear (In)Stability“, “analizza il concetto di “tecnologie emergenti” e riassume il dibattito sul loro utilizzo a fini militari e il loro impatto sulla stabilità strategica”.

La pubblicazione rileva che le potenze militari mondiali “hanno cercato di sfruttare le tecnologie avanzate – intelligenza artificiale, autonomia, cibernetica e ipersonica, tra le altre – per ottenere vantaggi sul campo di battaglia”, ma avverte che si è parlato troppo poco dei pericoli che queste armi rappresentano.

“Alcuni funzionari e analisti sostengono che queste tecnologie emergenti rivoluzioneranno la guerra, rendendo obsolete le armi e le strategie del passato”, si legge nel rapporto. “Tuttavia, prima che le grandi potenze procedano rapidamente con l’armamento di queste tecnologie, è necessario che i responsabili politici, i funzionari della difesa, i diplomatici, i giornalisti, gli educatori e i membri del pubblico comprendano meglio gli esiti indesiderati e pericolosi di queste tecnologie”.

 

Sistemi di armi autonome letali – definiti dalla Campagna per fermare i robot assassini come armamenti che operano indipendentemente da un “significativo controllo umano” – sono in fase di sviluppo da parte di nazioni come Cina, Israele, Russia, Corea del Sud, Regno Unito e Stati Uniti. Secondo il rapporto, il sistema di controllo autonomo Skyborg dell’aeronautica militare statunitense, dal nome fantascientifico e attualmente in fase di sviluppo, “è destinato a controllare più velivoli drone simultaneamente e a consentire loro di operare in “sciami”, coordinando le loro azioni l’una con l’altra con una minima supervisione da parte dei piloti umani”.

“Sebbene il rapido dispiegamento di tali sistemi appaia altamente auspicabile a molti funzionari militari, il loro sviluppo ha generato un notevole allarme tra i diplomatici, i sostenitori dei diritti umani, i sostenitori del controllo degli armamenti e altri che temono che il dispiegamento di armi completamente autonome in battaglia ridurrebbe gravemente la supervisione umana delle operazioni di combattimento, con possibili violazioni del diritto internazionale, e potrebbe indebolire le barriere che limitano l’escalation dalla guerra convenzionale a quella nucleare”, si legge nel rapporto.

La seconda metà del XX secolo è stata testimone di numerosi incidenti nucleari, molti dei quali basati su interpretazioni errate, limiti o veri e propri fallimenti della tecnologia. Mentre tecnologie come l’intelligenza artificiale (IA) sono spesso pubblicizzate come immuni dalla fallibilità umana, la ricerca suggerisce che tali affermazioni e l’arroganza potrebbero avere conseguenze mortali e impreviste.

“Le grandi potenze si stanno affrettando ad armare le tecnologie avanzate prima di aver considerato appieno – per non parlare dei tentativi di mitigarne le conseguenze”.

“Un maggiore affidamento all’IA potrebbe portare a nuovi tipi di errori catastrofici”, avverte un rapporto del 2018 della Rand Corporation. “Potrebbero esserci pressioni per utilizzarla prima che sia tecnologicamente matura; potrebbe essere suscettibile di sovversione avversaria; oppure gli avversari potrebbero credere che l’IA sia più capace di quanto non sia, portandoli a commettere errori catastrofici”.

Mentre il Pentagono nel 2020 ha adottato cinque principi per quello che definisce l’uso “etico” dell’IA, molti etici sostengono che l’unica linea d’azione sicura sia il divieto totale di sistemi di armi autonome letali.

I missili ipersonici, che possono viaggiare a velocità di Mach 5 – cinque volte la velocità del suono – o più veloci, fanno ora parte almeno degli arsenali di Stati Uniti, Cina e Russia. L’anno scorso, i funzionari russi hanno ammesso di aver impiegato tre volte i missili ipersonici Kinzhal durante l’invasione dell’Ucraina, in quello che si ritiene essere il primo uso in assoluto di tali armi in combattimento. Negli ultimi anni, la Cina ha testato diverse varianti di missili ipersonici utilizzando palloni aerostatici ad alta quota appositamente progettati. Anche Paesi come Australia, Francia, India, Giappone, Germania, Iran e Corea del Nord stanno sviluppando armi ipersoniche.

 

Il rapporto mette in guardia anche dal potenziale di escalation della guerra informatica e del processo decisionale automatizzato sul campo di battaglia.

“Come è accaduto durante la prima e la seconda guerra mondiale, le grandi potenze stanno procedendo speditamente con l’armamento di tecnologie avanzate prima di aver considerato appieno – per non parlare dei tentativi di mitigare – le conseguenze che ne derivano, tra cui il rischio di significative vittime civili e l’escalation accidentale o involontaria del conflitto”, ha dichiarato in un comunicato Michael Klare, membro del consiglio di amministrazione dell’Associazione per il controllo delle armi e autore principale del rapporto.

“Mentre i media e il Congresso degli Stati Uniti hanno dedicato molta attenzione ai presunti benefici dello sfruttamento di tecnologie all’avanguardia per uso militare, si è parlato molto meno dei rischi connessi”, ha aggiunto.

Il rapporto afferma che gli accordi bilaterali e multilaterali tra Paesi che “apprezzano i rischi di escalation posti dall’armamento delle tecnologie emergenti” sono fondamentali per ridurre al minimo tali pericoli.

“Come esempio di un primo passo utile, i leader delle principali potenze nucleari potrebbero impegnarsi congiuntamente a evitare attacchi informatici” contro i rispettivi sistemi di comando, controllo, comunicazione e informazione (C3I), si legge nel rapporto. Si raccomanda anche un codice di condotta che regoli l’uso militare dell’intelligenza artificiale, basato sui principi etici dell’IA del Pentagono.

“Se le grandi potenze sono disposte a discutere restrizioni vincolanti sull’uso militare di tecnologie destabilizzanti, alcune priorità hanno la precedenza”, sostiene il documento. “La prima sarebbe uno o più accordi che vietino gli attacchi ai sistemi nucleari C3I di un altro Stato con mezzi del cyberspazio o tramite attacchi missilistici, in particolare quelli ipersonici”.

“Un’altra priorità assoluta sarebbe rappresentata da misure volte a prevenire attacchi a sciame da parte di armi autonome contro i sottomarini missilistici, i missili intercontinentali mobili e altri sistemi di rappresaglia di secondo impatto di un altro Stato”, prosegue il rapporto, riferendosi ai missili balistici intercontinentali. “Dovrebbero essere imposte severe limitazioni all’uso di sistemi automatizzati di supporto alle decisioni con la capacità di informare o avviare importanti decisioni sul campo di battaglia, compreso il requisito che gli esseri umani esercitino il controllo finale su tali dispositivi”.

“Senza l’adozione di misure come queste, le tecnologie all’avanguardia saranno convertite in sistemi militari a un ritmo sempre maggiore e i pericoli per la sicurezza mondiale cresceranno rapidamente”, conclude la pubblicazione. “Una comprensione più approfondita delle minacce distintive alla stabilità strategica poste da queste tecnologie e l’imposizione di limitazioni al loro uso militare contribuirebbero a ridurre i rischi di Armageddon”.


Fonte: Common Dreams, 7 febbraio 2023

https://www.commondreams.org/news/new-military-technology

Traduzione di Enzo Gargano per il Centro Studi Sereno Regis


 

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Sentitevi liberi di contribuire!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.