Sei sulla pagina 1di 109

L'IMPATTO DELL'

INTELLIGENZA ARTIFICIALE
SULLA STABILITÀ STRATEGICA
E SUL RISCHIO NUCLEARE

Volume II
Prospettive dell'Asia orientale

A cura di Lora Saalman

Ottobre 2019
ISTITUTO DI RICERCA INTERNAZIONALE
PER LA PACE DI STOCCOLMA
Il SIPRI è un istituto internazionale indipendente dedicato alla ricerca sui conflitti, sugli armamenti, sul
controllo degli armamenti e sul disarmo.
Istituito nel 1966, SIPRI fornisce dati, analisi e raccomandazioni, basate su fonti aperte, a responsabili
politici, ricercatori, media e pubblico interessato.
Il consiglio di amministrazione non è responsabile delle opinioni espresse nelle pubblicazioni
dell'Istituto.

CONSIGLIO DIRETTIVO
Ambasciatore Jan Eliasson, Presidente (Svezia)
Dr Dewi Fortuna Anwar (Indonesia)
Dr Vladimir Baranovsky (Russia)
Espen Barth Eide (Norvegia)
Jean-Marie Guéhenno (Francia)
Dr Radha Kumar (India)
Dr Patricia Lewis (Irlanda / Regno Unito)
Dr Jessica Tuchman Mathews (Stati Uniti)

DIRETTORE
Dan Smith (Gran Bretagna)

Signalistgatan 9
SE-169 72 Solna, Svezia
Telefono: + 46 8655 9700
E-mail: sipri@sipri.org
Internet: www.sipri.org
Contenuti
Prefazione
Ringraziamenti
Abbreviazioni
Sintesi

Introduzione

1. Introduzione
Riquadro 1.1. Definizioni chiave

Parte I. Le tecnologie e le dinamiche dell'intelligenza artificiale e rischio nucleare

2. Intelligenza artificiale e suo impatto sull'arma e sul controllo degli armamenti


I. Armi strategiche
II. Cyberspazio
III. Sistemi d'arma autonomi letali
IV. Conclusioni

3. Il ruolo dell'intelligenza artificiale nella cyber-deterrenza


I. L'impatto dell'apprendimento automatico
II. Condizioni per la deterrenza informatica
III. Problemi per la cyber-deterrenza
IV. Conclusioni

4. Integrazione di reti neurali in veicoli di planata ipersonica


I. Espansione della collaborazione e dell'innovazione
II. Rimodellare la deterrenza con reti neurali e planata ipersonica
III. Conclusioni

5. Applicazioni dell'apprendimento automatico in Corea del Nord e Corea del Sud


I. Corea del Sud
II. Corea del nord

6. Sviluppi militari nell'intelligenza artificiale e loro impatto sulla penisola coreana


I. Corea del Sud
II. Corea del nord
III. L'impatto sulla penisola coreana
IV. Conclusioni

7. Intelligenza artificiale e progressi militari in Russia


I. Politiche di difesa russe e basi economiche per l'IA
II. Applicazioni militari dell'IA
III. Conclusioni

8. Esplorazione dell'intelligenza artificiale e delle piattaforme senza pilota in Cina


I. Presupposti alla base della ricerca sull'IA e l'autonomia
II. Applicazioni militari di AI e autonomia
III. Conclusioni

Seconda parte. Il futuro del controllo degli armamenti e della stabilità strategica
con intelligenza artificiale

9. L'impatto dell'intelligenza artificiale militare sulla guerra


I. Costi e soglie
II. Leggi, norme ed etica
III. Conclusioni

10. La formazione della stabilità strategica mediante l'intelligenza artificiale


I. Strategie nazionali di IA
II. Dalla stabilità strategica nucleare alla stabilità strategica complessa
III. La fattibilità dell'IA che ha un impatto sulla stabilità strategica
IV. I modi in cui l'IA potrebbe plasmare il futuro percorso di stabilità strategica
V. Conclusioni
Tabella 10.1. L'effetto di potenziamento dell'IA sulle armi nucleari
Tabella 10.2. L'effetto di potenziamento dell'IA sulle forze militari convenzionali
Tabella 10.3. L'effetto penetrativo globale dell'IA sulla stabilità strategica
Tabella 10.4. L'effetto del rischio comportamentale dell'IA che porta all'escalation dei conflitti
Tabella 10.5. L'effetto dell'ansia psicologica dell'IA

11. Quadri normativi per l'intelligenza artificiale militare


I. Minacce militari da AI
II. Applicazioni militari dell'IA
III. Possibili approcci normativi
IV. Il ruolo della stabilità strategica
V. Conclusioni

12. L'impatto ambientale delle armi autonome a propulsione nucleare


I. Sviluppo di armi autonome a propulsione nucleare
II. Contaminazione radioattiva da esplosione di reattori di propulsione
III. Conclusioni

13. Dinamiche di sicurezza dell'Asia orientale plasmate dall'apprendimento automatico e


dall'autonomia
I. Applicazioni dell'IA nelle forze nucleari
II. L'impatto sulla deterrenza nucleare e sul controllo degli armamenti nell'Asia orientale
III. Conclusioni

14. Controllo degli armamenti e sviluppi dell'apprendimento automatico e dell'autonomia


I. Breve storia del controllo degli armamenti
II. Controllo degli armamenti dei sistemi d'arma autonomi
III. Conclusioni
Figura 14.1. Spettro di sistemi d'arma autonomi in relazione a forze nucleari
Conclusioni

15. L'impatto dell'intelligenza artificiale sull'asimmetria nucleare e sui segnali nell'Asia


orientale
I. Rischi e dinamiche dell'apprendimento automatico e dell'autonomia
II. Rafforzamento della fiducia e uso militare dell'IA
III. Affrontare le lacune nelle ipotesi e capacità dell'IA

Riguardo agli Autori


Prefazione

Il panorama strategico globale del dopo guerra fredda è attualmente in un lungo processo di ridisegno. Qui
sono in gioco diverse tendenze. Ancora più importante, le dinamiche di fondo del potere mondiale si stanno
spostando con l'ascesa economica, politica e strategica della Cina, la riaffermazione sotto il presidente
Vladimir Putin di un grande ruolo di potere per la Russia e il disincanto dell'attuale amministrazione degli Stati
Uniti con, forse paradossalmente , le istituzioni e gli accordi internazionali che gli Stati Uniti hanno contribuito a
creare. Di conseguenza, una rivalità nucleare binaria russo-statunitense, un'eredità del vecchio confronto
russo-statunitense, viene gradualmente aumentata da rivalità nucleari regionali e triangoli strategici. Mentre il
quadro di controllo degli armamenti creato dall'Unione Sovietica e dagli Stati Uniti alla fine della guerra fredda
si disintegra, l'impegno degli stati con i più grandi arsenali nucleari a perseguire la stabilità attraverso il
controllo degli armamenti, per non parlare del disarmo, è in dubbio a un livello senza precedenti.
A ciò si aggiunge l'impatto dei nuovi sviluppi tecnologici. Il mondo sta attraversando una "quarta rivoluzione
industriale", caratterizzata da progressi rapidi e convergenti in molteplici tecnologie tra cui intelligenza
artificiale (AI), robotica, tecnologia quantistica, nanotecnologia, biotecnologia e fabbricazione digitale. Il modo
in cui verranno utilizzate queste tecnologie rimane una domanda a cui non è stata ancora data una risposta
completa. È fuori discussione, tuttavia, che gli stati dotati di armi nucleari cercheranno di sfruttare queste
tecnologie per la loro sicurezza nazionale.
Il potenziale impatto di questi sviluppi sulla stabilità strategica e sul rischio nucleare non è stato ancora
documentato e analizzato sistematicamente. Il progetto SIPRI, "Mappatura dell'impatto dell'apprendimento
automatico e dell'autonomia sulla stabilità strategica", è un primo tentativo di presentare un'analisi sfumata di
quale impatto lo sfruttamento dell'intelligenza artificiale potrebbe avere sul panorama strategico globale e se e
come potrebbe minare la dimensione internazionale sicurezza. Questo volume modificato sulle prospettive
dell'Asia orientale è la seconda importante pubblicazione di questo progetto di ricerca biennale. Gli autori sono
esperti provenienti da Cina, Giappone, Corea del Sud, Russia e Stati Uniti. Questo volume è stato preceduto
da uno sulle prospettive euro-atlantiche e sarà seguito da uno sulle prospettive dell'Asia meridionale, oltre a
un rapporto finale.
Il SIPRI raccomanda questo studio ai responsabili delle decisioni nel campo del controllo degli armamenti,
della difesa e degli affari esteri, ai ricercatori e agli studenti dei dipartimenti di politica, relazioni internazionali e
informatica e ai membri del pubblico in generale che hanno un interesse professionale e personale nel
soggetto.

Dan Smith
Direttore, SIPRI
Stoccolma, ottobre 2019
Ringraziamenti

Questo volume modificato è il secondo di una serie generata da un progetto di ricerca SIPRI della durata di
due anni che affronta due questioni principali relative al collegamento tra intelligenza artificiale e armi nucleari.
La prima è la questione se e in che misura l'apprendimento automatico e l'autonomia possano diventare il
fulcro di una corsa agli armamenti tra stati dotati di armi nucleari. La seconda domanda è l'impatto che ciò può
avere sui calcoli della stabilità strategica e del rischio nucleare a livello regionale e transregionale.
L'editore desidera esprimere sincera gratitudine alla Carnegie Corporation di New York (CCNY) per il suo
generoso sostegno al progetto. L'editore è inoltre debitore a tutti gli esperti che hanno partecipato al workshop
sull'Asia orientale che SIPRI e il China Institutes of Contemporary International Relations (CICIR) hanno
organizzato sull'argomento dal 6 al 7 settembre 2018 e che hanno accettato di contribuire a questo volume.
I saggi che seguono sono, nel complesso, versioni più sviluppate delle presentazioni tenute al seminario
dell'Asia orientale, tenendo conto dei punti esposti nelle discussioni successive. Il mix di prospettive raggiunto
in questo workshop si riflette nei diversi stili e nella sostanza dei capitoli. Le opinioni espresse dai vari autori
sono le loro e non devono essere interpretate in modo da riflettere le opinioni di SIPRI, CICIR, CCNY o di
qualsiasi organizzazione a cui gli autori sono affiliati.
L'editore desidera anche ringraziare i suoi colleghi del SIPRI Sibylle Bauer, Vincent Boulanin, Petr
Topychkanov e Su Fei per i loro commenti e contributi costruttivi. Infine, l'editore desidera ringraziare il
prezioso lavoro editoriale della redazione del SIPRI.

Lora Saalman
Abbreviazioni
AI Intelligenza Artificiale
ATR Riconoscimento automatico del bersaglio
C4ISR Comando, controllo, comunicazioni, computer, intelligence, sorveglianza e
ricognizione
CBM Misura di rafforzamento della fiducia
CCW (Convenzione su) alcune armi convenzionali
CFE (Trattato sulle) forze armate convenzionali in Europa
CPGS Sciopero globale immediato convenzionale
DBN Rete di credenze profonde
DOD Dipartimento della Difesa (degli USA)
FPI Fond perspektivnykh issledovanii (Fondazione russa per progetti di ricerca
avanzata nell'industria della difesa)
GGE Gruppo di esperti governativi
ICBM Missile balistico intercontinentale
ICT Tecnologia dell'informazione e della comunicazione
ISR Intelligenza, sorveglianza e ricognizione
KAIST Istituto avanzato di scienza e tecnologia della Corea
LAWS Sistemi d'arma autonomi letali
MAD Distruzione reciproca assicurata
MND Ministero della Difesa Nazionale (della Corea del Sud)
OODA Osserva, orienta, decidi, agisci
NC3 Comando, controllo e comunicazioni nucleari
NPT Trattato di non proliferazione
PLA Esercito popolare di liberazione
R&D Ricerca e sviluppo
SSBN Sottomarino con missili balistici a propulsione nucleare
START Trattato di riduzione delle armi strategiche
UAV Veicolo aereo senza pilota
UCAV Veicolo aereo da combattimento senza pilota
UN Nazioni Unite
UUV Veicolo subacqueo senza pilota
Sintesi

L'intelligenza artificiale (AI) non solo sta subendo una rinascita nel suo sviluppo tecnico, ma sta anche
iniziando a modellare le relazioni di deterrenza tra gli stati dotati di armi nucleari. Ciò è già evidente in Asia
orientale, dove le asimmetrie di potere e capacità hanno a lungo guidato la postura nucleare e l'acquisizione di
armi. Continuando questa tendenza, l'integrazione dell'IA nelle piattaforme militari ha il potenziale per offrire
agli stati con armi nucleari più deboli l'opportunità di ripristinare gli squilibri nelle capacità, esacerbando allo
stesso tempo le preoccupazioni che gli stati più forti possano utilizzare l'IA per consolidare ulteriormente il
proprio dominio e per impegnarsi azioni più provocatorie. Questo paradosso di percezioni, come si sta
manifestando nell'Asia orientale, è alimentato da una serie di pregiudizi e presupposti nazionali che permeano
il processo decisionale. È probabile che servano anche come base per algoritmi di intelligenza artificiale che
guidano le future piattaforme convenzionali e nucleari.
Questo volume, basato su un seminario tenutosi a Pechino nel settembre 2018, è il secondo di una serie di
tre. Fanno parte di un progetto SIPRI che esplora le prospettive e le tendenze regionali relative all'impatto che
i recenti progressi nell'intelligenza artificiale potrebbero avere sulle armi e dottrine nucleari, nonché sulla
stabilità strategica e sul rischio nucleare. Questo volume raccoglie le prospettive di 13 esperti dell'Asia
orientale, della Russia e degli Stati Uniti sul perché e come l'apprendimento automatico e l'autonomia possono
diventare il fulcro di una corsa agli armamenti tra gli stati dotati di armi nucleari. Esplora ulteriormente come
l'adozione di queste tecnologie possa avere un impatto sul loro calcolo della stabilità strategica e del rischio
nucleare a livello regionale e transregionale.
A livello difensivo, l'integrazione dell'apprendimento automatico e dell'autonomia nelle piattaforme militari ha
un forte fascino per i paesi con sistemi di allerta precoce meno capaci, nonché arsenali nucleari e
convenzionali più piccoli e più deboli.
Gli esperti dell'Asia orientale evidenziano i vantaggi delle macchine che prendono decisioni basate su criteri
oggettivi per evitare le insidie dell'errore umano e per impegnarsi in anticipazioni, discriminazioni e risposte più
rapide. Per un paese preoccupato per un primo attacco disarmante contro i suoi arsenali nucleari e
convenzionali, nonché dubbi sull'affidabilità delle contromisure basate sulla risposta umana, i sistemi abilitati
all'IA forniscono un mezzo per integrare e persino sostituire i vecchi sistemi militari.
A livello offensivo, le piattaforme con una maggiore resistenza, come i veicoli sottomarini senza pilota (UUV), i
veicoli aerei senza pilota (UAV) e le piane spaziali, forniscono resilienza e sopravvivenza. Questi due obiettivi
indicano perché è probabile che tali veicoli siano le piattaforme abilitate per l'IA per la futura consegna
nucleare.
Tuttavia, persistono alcune domande relative allo sviluppo e alla distribuzione di tali piattaforme autonome
senza pilota, anche sulla loro stessa natura. Alcuni paesi della regione non hanno una chiara differenziazione
sul fatto che determinati UUV e UAV debbano servire a missioni di combattimento. Inoltre, la linea di
distinzione tra collisione non intenzionale e intenzionale rimane poco chiara, insieme all'effetto di escalation di
un tale incidente quando coinvolge almeno una piattaforma nucleare.
Questo potenziale di crisi diventa ancora più difficile da valutare dato che i paesi dell'Asia orientale si stanno
sempre più proteggendo dal fatto che i carichi utili della piattaforma saranno convenzionali o nucleari, come
con il veicolo ipersonico DF-ZF nel caso della Cina o presunti missili da crociera a corto raggio in il caso della
Repubblica democratica popolare di Corea (RPDC o Corea del Nord). Anche nel caso della Russia, che è
stata più esplicita riguardo al carico utile nucleare dei suoi veicoli ipersonici pianificati e di tali UUV come il
Poseidon, la distinzione tra escalation non intenzionale e intenzionale rimane una fonte di contesa.
Lo sviluppo e l'implementazione di piattaforme potenziate dall'IA sono stati entrambi modellati e hanno
contribuito a una serie interconnessa di pregiudizi e presupposti nazionali che stanno guidando l'integrazione
e il processo decisionale dell'IA. Ad esempio, l'affermazione degli Stati Uniti secondo cui la postura nucleare
della Russia è basata sull'escalation di una crisi al fine di allentarla, apparentemente ha contribuito ai
cambiamenti nella revisione della postura nucleare degli Stati Uniti del 2018 per sostenere le piattaforme
nucleari a basso rendimento. Allo stesso modo, l'attenzione della Cina sul mettere in campo piattaforme senza
equipaggio potenziate da sciami in mare, aria e spazio per la sorveglianza e persino il coinvolgimento
suggerisce una preoccupazione prevalente per la diffusione di armi rapide e precise degli Stati Uniti - come il
Convenzionale Prompt Global Strike (CPGS) - che potrebbe portare a decapitazione del suo comando e
controllo sia convenzionale che nucleare e persino degli arsenali.
Maggiore è l'autonomia e l'apprendimento automatico incorporati nelle piattaforme militari per affrontare
queste preoccupazioni intrecciate, maggiore è l'importanza di comprendere le prospettive regionali che
informano questi sistemi e posture. Se la Cina sta prevedendo decisioni basate sulle preoccupazioni per un
primo attacco abilitato dall'intelligenza artificiale decapitante degli Stati Uniti, mentre gli Stati Uniti stanno
riorientando la loro posizione nucleare per affrontare una percepita strategia nucleare russa “escalation to de-
escalation”, allora tali fattori devono essere presi in considerazione l'elaborazione di misure di rafforzamento
della fiducia.
In definitiva, l'IA è solo un abilitatore o un miglioramento di sistemi spesso preesistenti.
La segnalazione di intenti tra i paesi, piuttosto che solo i progressi tecnologici, continua a essere una delle
questioni più intrattabili. Per mitigare gli errori di calcolo, è essenziale avere una migliore comprensione dei
pregiudizi e delle ipotesi nazionali che sono fattori determinanti fondamentali che contribuiscono al processo
decisionale guidato dall'IA, alla postura nucleare e ai progressi tecnologici correlati. I seminari ei tre volumi di
questo progetto SIPRI forniscono uno spazio agli esperti degli Stati dotati di armi nucleari e non nucleari per
impegnarsi nella costruzione e analisi di scenari propri. Ciò consente loro di delucidare le loro prospettive per
affrontare meglio il modo in cui l'IA sta plasmando il rischio nucleare nelle rispettive regioni e oltre.
Introduzione

1. Introduzione
Lora Saalman

In Asia orientale, c'è stato un inebriante esplosione di entusiasmo e investimento nel potere trasformativo
dell'intelligenza artificiale (AI) nei programmi di modernizzazione sia civili che militari. Mentre un decennio fa la
ricerca sull'intelligenza artificiale citava semplicemente opere occidentali risalenti ai primi anni '90,
l'integrazione dell'IA ha accelerato negli ultimi anni con dichiarazioni di leadership e strategie nazionali che
dimostrano il desiderio di tenere il passo con queste nuove tecnologie nel caso del Giappone e della
Repubblica. della Corea (Corea del Sud) e addirittura a dominare il campo nel caso di Cina e Federazione
Russa. Ancor più delle armi nucleari, i saggi in questo volume rivelano una visione prevalente secondo cui l'IA
è l'ultimo equalizzatore che può essere capitalizzato da uno stato più debole per rafforzare le sue forze
convenzionali e nucleari. Allo stesso tempo, la sensazione crescente tra alcuni stati dell'Asia orientale che ci
sarà una generazione di "abbienti" di intelligenza artificiale contro "non abbienti" li ha costretti a decidere di
non lasciarsi cadere indietro in questa nuova arena di competizione.
Sebbene l'intelligenza artificiale possa fornire le informazioni di rilievo e il dominio a cui fanno riferimento il
presidente cinese Xi Jinping e il presidente russo Vladimir Putin nelle dichiarazioni pubbliche, ha anche forti
effetti psicologici sui paesi che sospettano che i loro progressi siano in ritardo. Questo tradizionale dilemma
della sicurezza ha spinto i paesi a sviluppare e introdurre una serie di tecnologie di intelligenza artificiale che
esacerbano la "pressione strategica del tempo". Questo concetto presuppone che l'accelerazione del
processo decisionale sul campo di battaglia - sia a terra, in mare, nello spazio o nel cyberspazio - costringa i
leader militari a delegare un maggiore comando e controllo alle macchine. Questo volume rivela come questo
si svolge su uno spettro di sistemi e piattaforme. Nell'arena nucleare, il potenziale che l'intelligenza artificiale
può migliorare la ricognizione, la velocità, la precisione e la manovrabilità al livello da rendere obsoleta una
capacità di secondo colpo ha contribuito a un'intensificazione dell'adozione di mezzi di ritorsione rapidi e di
posture ancora più orientate all'offesa che coinvolgono uno spettro di opzioni potenziate dall'IA.
Anche prima di raggiungere il livello di dottrina ufficiale, questi progressi tecnologici hanno già cominciato a
superare le strategie nazionali.
Nel caso di paesi come Cina, Russia e Stati Uniti, che hanno posto l'acquisizione e l'integrazione dell'IA in
prima linea nella loro modernizzazione militare, i documenti strategici nazionali sull'IA sono emersi
relativamente tardi. In effetti, la strategia nazionale della Russia non è ancora stata resa pubblica al momento
in cui scrivo. Ciò pone alcune sfide significative in termini di determinazione dell'intento, nonché di sviluppo di
misure di rafforzamento della fiducia (CBM) e controlli.
In un ambiente di sfiducia e presunti falsi profondi abilitati dall'intelligenza artificiale, gli autori di questo volume
riconoscono che questi compromessi potrebbero non essere nemmeno praticabili nel breve-medio o
addirittura nel lungo termine. Riconoscendo queste lacune, descrivono lo stato attuale di questa tecnologia e il
suo impatto sulla stabilità strategica. In tal modo, questi esperti offrono una gamma di CBM tradizionali e
lungimiranti per affrontare questo ambiente complesso di tecnologie emergenti e rischio nucleare.

Riquadro 1.1. Definizioni chiave

Intelligenza artificiale
L'intelligenza artificiale è un termine generico che si riferisce a un ampio insieme di tecniche computazionali che
consentono a computer e robot di risolvere problemi complessi e apparentemente astratti che in precedenza
avevano ceduto solo alla cognizione umana.

Sistemi d'arma nucleare


I sistemi d'arma nucleare dovrebbero essere intesi nel senso più ampio. Includono non solo le testate nucleari e
i sistemi di consegna, ma anche tutti i sistemi legati alla forza nucleare come il comando e il controllo nucleare,
i sistemi di allerta precoce e i sistemi di intelligence, ricognizione e sorveglianza. Le armi strategiche non
nucleari rilevanti includono missili ad alta precisione a lungo raggio, veicoli aerei da combattimento senza pilota
(UCAV) e sistemi di difesa contro i missili balistici.

Stabilità strategica
La stabilità strategica ha molte definizioni. Viene qui inteso come "uno stato di cose in cui i paesi sono fiduciosi
che i loro avversari non sarebbero in grado di minare la loro capacità di deterrenza nucleare" utilizzando mezzi
nucleari, convenzionali, informatici o altri mezzi non convenzionali. a a Podvig, P., "Il mito della stabilità
strategica", Bulletin of the Atomic Scientists, 31 ottobre 2012.

Fonte: Boulanin, V., "Introduzione", ed. V. Boulanin, The Impact of Artificial Intelligence on Stabilità strategica e
rischio nucleare, vol. I, Euro-Atlantic Perspectives (SIPRI: Stoccolma, maggio 2019), pagg. 3–9, pag. 4.

Questa raccolta di saggi si basa sugli atti di un seminario regionale, il secondo di una serie di tre, sulla
mappatura dell'impatto dell'apprendimento automatico e dell'autonomia sulla stabilità strategica e il rischio
nucleare nell'Asia orientale, che SIPRI ha ospitato insieme ai China Institutes of Contemporary International
Relations (CICIR) a Pechino nel settembre 2018. Questo seminario ha riunito esperti politici, militari, tecnici e
accademici dell'Asia orientale, Cina, Giappone e Corea del Sud, nonché esperti provenienti da India, Pakistan,
Russia e Stati Uniti. Consisteva in una serie di tavole rotonde che esploravano diversi aspetti dell'argomento,
oltre a due sessioni di break-out in cui gruppi più piccoli si sono impegnati in esercizi di costruzione di scenari
per analizzare i rischi che le applicazioni militari dell'IA potevano rappresentare per la stabilità strategica e
come per mitigarli. La terminologia utilizzata qui segue quella usata nel primo volume, sulla regione euro-
atlantica (vedi riquadro 1.1).1 Seguirà un terzo volume, sull'Asia meridionale, e un rapporto finale. 2

Panoramica
Questo volume è diviso in due parti: la parte I copre le tecnologie e le dinamiche dell'IA e del rischio nucleare e
la parte II esplora il futuro del controllo degli armamenti e della stabilità strategica con l'IA nell'Asia orientale. Il
volume si conclude (nel capitolo 15) con una sintesi delle principali conclusioni tratte dai saggi. Il ruolo
dell'asimmetria e della segnalazione spiccano come leitmotiv persistenti sia nel seminario dell'Asia orientale
che in questo volume.
AI nella complessità regionale
Quando applicata al dominio nucleare, l'IA è vista nell'Asia orientale come avente un doppio ruolo. Da un lato,
può essere utilizzato per "creare parità di condizioni" per i paesi più deboli in termini convenzionali o nucleari.
D'altra parte, per i paesi che sono dominanti in questi domini, alcuni esperti dell'Asia orientale sostengono che
l'IA potrebbe incoraggiare questi poteri più forti a impegnarsi ulteriormente in comportamenti provocatori,
anche un primo attacco convenzionale o nucleare disarmante. Ciò aumenta la preoccupazione che a un
avversario più debole manchino le risorse di intelligenza artificiale per anticipare e impegnarsi in contromisure,
molto meno ritorsioni.
La natura a duplice uso e interdisciplinare dell'IA, combinata con le linee già sfumate tra deterrenza
convenzionale e nucleare, dimostra la difficoltà di applicare le definizioni tradizionali di stabilità strategica.
Come ha sottolineato un partecipante dell'Asia orientale al seminario, ogni stato della regione potrebbe essere
considerato equivalente a una potenza nucleare - anche quelli senza armi nucleari - dato il loro impatto sulle
dinamiche di stabilità strategica regionale. Pertanto, mentre paesi come Cina, Russia e Stati Uniti stabiliscono
un nuovo standard in termini di applicazioni dell'apprendimento automatico e dell'autonomia in relazione alle
forze nucleari, anche il Giappone, la Repubblica democratica popolare di Corea (DPRK o Corea del Nord) e la
Corea del Sud hanno un ruolo significativo da svolgere quando si tratta di rischio nucleare.
Questa molteplicità alimenta la versione complessa e ampliata della stabilità strategica proposta da Cai
Cuihong (Cina) nel capitolo 10. Sostiene che piuttosto che definire il termine come uno stretto equilibrio tra
due paesi, dovrebbe invece riflettere l'ampiezza e la natura multiforme del contemporaneo dinamiche
strategiche e di IA, indipendentemente dal fatto che un paese possieda armi nucleari. Cai sostiene che le armi
nucleari possono solo difendere veramente i principali interessi di sicurezza di un paese, vale a dire garantire
che la terraferma non dovrà affrontare un attacco su larga scala da parte di nemici stranieri. Per proteggere
altri interessi nazionali, sostiene che l'ambito della stabilità strategica dovrebbe essere ampliato per includere
forze convenzionali, insieme a fattori tecnici, comportamentali e istituzionali.

AI nella deterrenza interdominio


Come evidente in tutti gli scenari discussi durante il seminario dell'Asia orientale, la prevenzione non riguarda
sempre la dimensione nucleare ed è più probabile che avvenga in altri domini, come il cyberspazio. A tal fine,
Liu Yangyue (Cina) nel capitolo 3 sostiene che le applicazioni di machine learning nel cyberspazio si
traducono in un dilemma sia offensivo che difensivo che può espandere la scala e il dinamismo sia del
rilevamento che dell'attacco, complicando così le nozioni tradizionali di deterrenza.
Anche Li Xiang (Cina) nel capitolo 2 esplora questo paradosso. Spiega che quando un singolo potere
informatico domina l'IA, aumenterà i suoi vantaggi offensivi-difensivi nel cyberspazio e diminuirà la stabilità,
mentre due rivali che possiedono punti di forza simili nell'IA possono impegnarsi nella deterrenza reciproca.
Dirigendo l'attenzione verso piattaforme specifiche, il presente autore (USA) fornisce nei capitoli 4 e 8 casi di
studio sull'impollinazione incrociata abilitata dall'intelligenza artificiale tra deterrenza convenzionale e nucleare,
esplorando le visioni cinesi e lo sviluppo di veicoli senza pilota che transitano per mare, aria e spazio. . In
contrasto con la Russia, osserva che la Cina ha coperto in misura maggiore il carico utile previsto di tali
piattaforme, in particolare con lo sviluppo del veicolo ipersonico DF-ZF. 3 Tuttavia, osserva che Cina e Russia
convergono nelle loro preoccupazioni per un "falso negativo": la loro potenziale incapacità di anticipare un
imminente sciopero disarmante.
Li Xiang (Cina) nel capitolo 2 fa eco a queste preoccupazioni, sostenendo che paesi come gli Stati Uniti
potrebbero essere in grado di utilizzare la tecnologia AI per migliorare le proprie capacità di ricognizione contro
i missili strategici mobili della Cina per scoprire le regole di schieramento, le rotte di manovra e le posizioni dei
siti di lancio da eliminare l '"incertezza del primo colpo" su cui si basa il deterrente nucleare cinese.
Usando una logica simile, il presente autore sostiene nel capitolo 8 che le ipotesi di un paese sulle carenze
nelle sue capacità di allerta precoce, combinate con la preoccupazione per i progressi degli Stati Uniti nei
sistemi di alta precisione, furtivi e rapidi, possono incoraggiarlo a contemplare l'integrazione
dell'apprendimento automatico, automazione e autonomia in qualsiasi cosa, dal lancio all'avviso alle reti
neurali che migliorano la manovrabilità e la guida di precisione. Sottolinea che, mentre le piattaforme cinesi
sono state tradizionalmente sviluppate in risposta alla modernizzazione militare e alle dichiarazioni politiche
degli Stati Uniti, c'è una netta differenza quando si tratta di AI. In contrasto con le pubblicazioni cinesi di un
decennio fa che si concentravano semplicemente su sviluppi e contromisure straniere, osserva che le
comunità tecniche cinesi hanno iniziato a sviluppare i propri modelli e la logica strategica che in alcuni settori
rispecchiano quelli della Russia.

AI nel comando e controllo nucleare


In termini di come questa integrazione dell'IA ha un impatto sulle strutture delle forze nucleari, gli esperti in
questo volume esplorano le implicazioni degli algoritmi di apprendimento profondo su comando e controllo.
Cai nel capitolo 10 enumera le principali arene in cui l'IA eccelle per includere cognizione, previsione,
processo decisionale e soluzioni integrate.
All'interno di questo elenco, la cognizione si riferisce alla descrizione del mondo attraverso la raccolta e
l'interpretazione di un'ampia gamma di dati per alimentare l'analisi predittiva di potenziali scenari per meglio
informare il processo decisionale. Radicando le decisioni in obiettivi prestabiliti, l'idea è di fornire una soluzione
integrata per attività complesse. Quando applicata alle forze nucleari e convenzionali, sostiene che l '"ansia
psicologica" può portare all'escalation dei conflitti. Gran parte di ciò deriva da asimmetrie sia percepite che
reali nell'IA e nelle capacità nucleari tra i paesi. Nishida Michiru (Giappone) nel capitolo 14 suggerisce inoltre
che l'intelligenza artificiale può plasmare molti di questi fattori attraverso comando, controllo, comunicazioni,
computer, intelligence, sorveglianza e ricognizione (C4ISR) potenziati contro forze nucleari e convenzionali
nemiche. Esprime preoccupazione per il fatto che la natura a duplice uso di questi sistemi li renda
particolarmente difficili da controllare, in parte perché migliorano e compromettono la trasparenza e la verifica.
Vadim Kozyulin (Russia) nel capitolo 11 applica i concetti e le categorie di cui sopra nell'esaminare il modo in
cui le applicazioni AI influenzano i sistemi d'arma autonomi letali (LAWS). Sottolinea la preoccupazione
condivisa che tali piattaforme selezioneranno e coinvolgeranno i loro obiettivi utilizzando algoritmi sconosciuti
senza un controllo umano significativo o una supervisione umana diretta. Pur notando queste paure comuni,
esplora anche le differenze nelle preoccupazioni nazionali su ciò che l'intelligenza artificiale significa per il
dominio militare in termini di difesa missilistica, attacco informatico, soppressione elettronica e armi
ipersoniche e spaziali, che possono presumibilmente consentire un primo attacco decapitante.
In tal modo, Kozyulin cita le capacità che sono ampiamente viste nell'Asia orientale come una svolta a
vantaggio di paesi come gli Stati Uniti, potenziando attacchi rapidi e furtivi, sopprimendo la capacità del paese
bersaglio di impegnarsi in contromisure e ritorsioni. Questa tesi è paragonabile alle tendenze in Cina notate da
Li nel capitolo 2 e Saalman nel capitolo 8. Oltre a queste asimmetrie, Kozyulin osserva che la radicale
riduzione del tempo
richiesto per l'analisi dei dati C4ISR esacerba la "pressione strategica del tempo" affrontata dai militari. Ciò è
saliente in termini di come i paesi strutturano le loro forze nucleari e convenzionali, poiché lo stress
psicologico e operativo di essere in grado di reagire in modo tempestivo obbliga a una maggiore integrazione
di automazione e autonomia.

AI nella modernizzazione militare


In contrasto con la Russia e le altre potenze nucleari, Vasily Kashin (Russia) nel capitolo 7 sottolinea che è
stato relativamente tardi nel rilascio di un programma nazionale completo per lo sviluppo dell'IA.
Ciononostante, sottolinea che la Russia ha già avanzato una serie di piattaforme abilitate dall'intelligenza
artificiale, tra cui il dispiegamento da parte della Strategic Rocket Force del veicolo da combattimento
autonomo Nerekhta, il sistema di allarme rapido RB-109A Bylina e il veicolo aereo da combattimento senza
pilota Okhotnik (UCAV). In particolare, il veicolo sottomarino senza pilota a propulsione nucleare Poseidon
(UUV) che egli cita promette di rimodellare le dinamiche nucleari con il suo presunto obiettivo di migliorare la
capacità di secondo attacco della Russia. 4 Alla luce di tali sviluppi, Jiang Tianjiao (Cina) in il capitolo 9 fa eco
alle preoccupazioni che alcune piattaforme di armi autonome, compresi gli UUV, aumentano il rischio di lancio
accidentale e guerra nucleare.
Hwang Il-Soon e Kim Ji-Sun (Corea del Sud) nel capitolo 12 sottolineano ulteriormente le sfide che tali UUV
come il Poseidon possono porre alle dinamiche di stabilità strategica, così come le fondamenta stesse del
Trattato di non proliferazione (NPT)5 del 1968. 5 Sostengono che, a differenza delle piattaforme nucleari che si
impegnano nella separazione degli stadi prima della detonazione, questi veicoli farebbero esplodere sia la
testata nucleare che il reattore nucleare a bordo, determinando una contaminazione molto maggiore e
prolungata della biosfera. Se abbinato al suggerimento del Nuclear Posture Review 2018 degli Stati Uniti
secondo cui gli Stati Uniti potrebbero introdurre missili balistici lanciati da sottomarini a basso rendimento e
missili da crociera lanciati da sottomarini a basso rendimento, la complessità delle dinamiche regionali è
destinata a crescere con un impatto considerevole sul postura della Cina e dei suoi vicini. 6
Inoltre, anche altre potenze dell'Asia orientale sono impegnate in sviluppi che potrebbero avere effetti di
secondo e terzo ordine poiché i progressi dell'IA sono integrati nelle strutture militari e di supporto decisionale
nazionali. Questo è fondamentale per paesi come il Giappone, la Corea del Nord e la Corea del Sud che sono
in prima linea tra gli sviluppi potenzialmente più destabilizzanti nei settori militare convenzionale e nucleare.
Hwang Ji-Hwan (Corea del Sud) nel capitolo 5 e Su Fei (Cina) nel capitolo 6 descrivono in dettaglio la ricerca
della Corea del Sud sui sistemi di comando basati sull'intelligenza artificiale, i sistemi di addestramento per
l'aviazione e le tecniche di tracciamento degli oggetti, nonché il lavoro sui progetti Exobrain e ADAM per il
potenziale miglioramento di C4ISR, l'unità militare Dronebot Jeontudan, la tecnologia software interattiva di
movimento omnidirezionale per esercizi di combattimento virtuale e algoritmi di navigazione per UUV su larga
scala.
Questi autori confrontano tali sviluppi con quelli della Corea del Nord. Sebbene relativamente nascente, la
Corea del Nord ha perseguito la propria versione del gioco basata sulla tecnologia AI, che ha anche cercato di
applicare in altre aree. Esaminando il lavoro della Kim Il Sung University e dell'Istituto AI del Korea Computer
Center, Hwang suggerisce che il paese ha avanzato il sistema di riconoscimento vocale Ryongnamsan 5.1,
esplorando argomenti di apprendimento automatico come la classificazione audio e un sistema di
riconoscimento facciale e di impronte digitali. Continua questa analisi descrivendo in dettaglio le applicazioni
nordcoreane delle reti neurali artificiali sia nella robotica autonoma che nelle operazioni informatiche. Questi
sviluppi suggeriscono che, oltre alle piattaforme cinetiche che provocano danni fisici, la Corea del Nord
potrebbe posizionarsi per impegnarsi in più operazioni potenzialmente abilitate da falsi profondi e
avvelenamento dei dati.

Quando si tratta del Giappone, il capitolo 13 di Arie Koichi suggerisce che la deterrenza nucleare estesa degli
Stati Uniti sia per il Giappone che per la Corea del Sud potrebbe essere minata da maggiori applicazioni dell'IA
nelle forze convenzionali e nucleari. Egli sostiene quindi l'inclusione del Giappone e della Corea del Sud nei
meccanismi di consultazione su queste tecnologie. Tuttavia, in linea con Nishida nel capitolo 14 e altri esperti
giapponesi ai seminari SIPRI, la loro attenzione tende a rimanere concentrata sulle dinamiche generali del
controllo degli armamenti e sulle relazioni trilaterali tra Cina, Russia e Stati Uniti. A causa delle posizioni militari
e ufficiali di questi esperti, la tendenza a concentrarsi su queste tre parti e sulla dinamica nucleare generale è
comprensibile. Tuttavia, se questa attenzione indichi anche preoccupazioni giapponesi per lo stato attuale
degli impegni di deterrenza estesi degli Stati Uniti, la portata della trasparenza giapponese sull'integrazione di
apprendimento automatico e autonomia, o il livello di sviluppo di Quando si tratta del Giappone, il capitolo 13
di Arie Koichi suggerisce che gli Stati Uniti la deterrenza nucleare estesa sia per il Giappone che per la Corea
del Sud potrebbe essere minata da maggiori applicazioni dell'IA nelle forze convenzionali e nucleari. Egli
sostiene quindi l'inclusione del Giappone e della Corea del Sud nei meccanismi di consultazione su queste
tecnologie. Tuttavia, in linea con Nishida nel capitolo 14 e altri esperti giapponesi ai seminari SIPRI, la loro
attenzione tende a rimanere concentrata sulle dinamiche generali del controllo degli armamenti e sulle
relazioni trilaterali tra Cina, Russia e Stati Uniti. A causa delle posizioni militari e ufficiali di questi esperti, la
tendenza a concentrarsi su queste tre parti e sulla dinamica nucleare generale è comprensibile. Tuttavia, se
questa attenzione indichi anche preoccupazioni giapponesi sull'attuale stato degli impegni di deterrenza estesi
degli Stati Uniti, la portata della trasparenza giapponese sull'integrazione di apprendimento automatico e
autonomia, o il livello di sviluppo del 6 Dipartimento della Difesa degli Stati Uniti (DOD), Nuclear Posture
Review ( DOD: Washington, DC, febbraio 2018); Schneider, M. B., "Escalate to de-escalate", Proceedings (US
Naval Institute), vol. 143, n. 2 (febbraio 2017); e Oliker, O. e Baklitskiy, A., "The Nuclear Posture Review and
Russian" de-escalation : “a dangerous solution to a inexistent problem”, War on the Rocks, 20 febbraio 2018.

AI nel controllo degli armamenti


Quando si tratta di CBM legati all'intelligenza artificiale e controllo degli armamenti, esperti di Giappone,
Russia e Corea del Sud offrono i dettagli più concreti. Nishida nel capitolo 14 fornisce una panoramica
dell'evoluzione del controllo degli armamenti e delle CBM e di come la tecnologia AI possa adattarsi ai controlli
focalizzati sulle armi e sul comportamento. Per avere successo nell'attuazione, sottolinea che l'oggetto preso
di mira dal controllo degli armamenti deve avere una definizione chiara per renderlo distinguibile da altre armi
non controllate.
Inoltre, la misura di controllo deve essere verificabile. Tuttavia, a causa della natura altamente dual-use dell'IA,
riconosce la difficoltà di far rispettare queste richieste.
Pertanto, quando colloca le applicazioni dell'IA lungo uno spettro da offensivo a difensivo, fa un caso
convincente sul motivo per cui applicazioni più difensive dell'IA, come il preallarme, mostrano più promesse
delle applicazioni offensive nelle forze nucleari o attacchi al comando nucleare e controllo. Questa discussione
teorica completa ulteriormente il capitolo 12, dove Hwang e Kim sostengono
veicoli con armi nucleari autonomi alimentati da integrare nell'agenda del comitato preparatorio per la
conferenza di revisione del TNP del 2020. In effetti, questa piattaforma potrebbe servire come test decisivo per
la resilienza e la fattibilità delle CBM discusse da Nishida.

Kozyulin nel capitolo 11 offre ulteriori suggerimenti per i modelli che potrebbero essere applicati nello sviluppo
del controllo degli armamenti relativi all'integrazione dell'apprendimento automatico e dell'autonomia in sistemi
che hanno un impatto sul rischio nucleare. Tra gli organi e i documenti, elenca i lavori della quinta conferenza
di revisione della Convenzione del 1980 su alcune armi convenzionali (Convenzione CCW) sulle leggi e il
Manuale di Tallinn sul diritto internazionale applicabile alla guerra informatica come esempi di come definire e
regolamentare tecnologie.7 Esamina anche accordi come il Documento di Vienna 2011 sulle misure per
rafforzare la fiducia e la sicurezza, suggerendo aggiornamenti come l'inclusione di UCAV autonomi o gestiti a
distanza nella loro copertura.8 Nota inoltre che tali misure potrebbero essere adatte per un'applicazione futura
in Asia orientale. Tuttavia, riconoscendo l'ambiente internazionale attualmente teso, conclude ponendo gli
occhi su CBM più a breve termine. In tal modo, Kozyulin, proprio come Nishida nel capitolo 14, suggerisce che
la condivisione delle informazioni e altri controlli possono avvenire lungo un continuum di trasparenza. Questo
concetto di uno spettro lungo il quale gli esperti possono valutare e affrontare l'impatto dell'IA sulla stabilità
strategica e sul rischio nucleare funge da ingresso adatto all'esplorazione del seminario dell'Asia orientale e di
questo volume.

1. Boulanin, V. (ed.), The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic
Perspectives (SIPRI: Stoccolma, maggio 2019).
2. Topychkanov, P. (ed.), The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. III, South Asian
Perspectives (SIPRI: Stoccolma, imminente 2019); e Boulanin, V. et al., Mapping the Impact of Artificial Intelligence on
Strategic Stability and Nuclear Risk: Final Report (SIPRI: Stockholm, imminente 2019).
3. Sayler, K. M., Hypersonic Weapons: Background and Issues for Congress, Congressional Research Service (CRS) Report
for Congress R45811, (Congresso degli Stati Uniti, CRS: Washington, DC, 11 luglio 2019); e Gault, M., "I nuovi missili nucleari
della Russia riducono i tempi di risposta", Scientific American, 27 marzo 2019.
4. Peck, M., "La Russia ha iniziato i test subacquei del suo siluro termonucleare Poseidon", interesse nazionale, 19 maggio
2019.
5. Trattato di non proliferazione delle armi nucleari (Trattato di non proliferazione, TNP), aperto alla firma il 1° luglio 1968,
entrato in vigore il 5 marzo 1970.
6. Dipartimento della difesa degli Stati Uniti (DOD), Nuclear Posture Review (DOD: Washington, DC, febbraio 2018);
Schneider, M. B., "Escalate to de-escalate", Proceedings (US Naval Institute), vol. 143, n. 2 (febbraio 2017); e Oliker, O. e
Baklitskiy, A., "The Nuclear Posture Review and Russian" de-escalation ": a dangerous solution to a inexistent problem", War
on the Rocks, 20 febbraio 2018.
7. Schmitt, M. N. (a cura di), Tallinn Manual on the International Law Applicable to Cyber Operations (Cambridge University
Press: Cambridge, 2013); Schmitt, M. N. (a cura di), Tallinn Manual 2.0 on the International Law Applicable to Cyber
Operations (Cambridge University Press: Cambridge, 2017); e la Convenzione sui divieti o le restrizioni all'uso di alcune armi
convenzionali che possono essere ritenute eccessivamente dannose o aventi effetti indiscriminati (Convenzione CCW, o
Convenzione sulle armi disumane), aperta alla firma il 10 aprile 1981, entrata in vigore 2 Dicembre 1983.
8. Documento di Vienna 2011 sulle misure per rafforzare la fiducia e la sicurezza (Documento di Vienna 2011), adottato il 30
novembre 2011, entrato in vigore il 1° dicembre 2011.
Parte I. Le tecnologie e le dinamiche dell'intelligenza artificiale
e del rischio nucleare

Questa parte cerca di fondare la comprensione del lettore delle tecnologie e delle piattaforme che stanno
plasmando il futuro dell'intelligenza artificiale (AI) e la sua integrazione nei programmi di modernizzazione
militare in tutta l'Asia orientale. Dalle piattaforme di consegna e difesa cinetica alle reti cibernetiche non
cinetiche che facilitano le operazioni di comunicazione, intelligence e comando e controllo, questi sette saggi
forniscono una panoramica di alcune delle tendenze e delle dinamiche tecnologiche chiave tra attori regionali
come Cina, Corea del Nord , Corea del Sud, Russia e Stati Uniti. Illustrano alcune delle preoccupazioni di
fondo sull'asimmetria e sulla segnalazione che sono endemiche della regione.
I primi tre saggi esplorano il modo in cui l'IA ha un impatto sugli sviluppi tecnologici con conseguenze sia
cinetiche che non cinetiche per la deterrenza. Li Xiang (nel capitolo 2) analizza come la tecnologia AI sta
alterando armi strategiche, ricognizione, difesa missilistica, cyberspazio, sistemi d'arma autonomi letali
(LAWS) e comando, controllo e comunicazioni nucleari. In tal modo, crea le basi per comprendere la portata
pervasiva dell'IA come tecnologia abilitante. Liu Yangyue descrive poi (nel capitolo 3) le duplici implicazioni dei
progressi nell'apprendimento automatico sia per il rafforzamento che per la difesa contro le intrusioni e gli
attacchi informatici. Il presente autore (nel capitolo 4) concentra questa discussione sulla deterrenza sulle
pubblicazioni cinesi sui veicoli a scorrimento ipersonico per discutere come i miglioramenti della manovrabilità,
del targeting e dell'autonomia possono riflettere uno spostamento verso una postura più orientata all'offesa.
Tutti e tre i saggi indicano come questi sviluppi siano guidati e abbiano un impatto sulle percezioni,
suggerendo che la deterrenza dipende molto dal fatto che queste capacità siano nelle mani dello Stato più
debole o più forte con armi nucleari.
La seconda serie di saggi approfondisce l'integrazione dell'apprendimento automatico in Corea del Nord e
Corea del Sud. Hwang Ji-Hwan (nel capitolo 5) fornisce una panoramica di alcuni dei nascenti programmi di
intelligenza artificiale in entrambi i paesi. Rileva la continua mancanza di trasparenza e il modo in cui crea una
scatola nera in termini di comprensione dell'intento militare dietro e dei progressi concreti derivanti da questa
ricerca.
Tuttavia, sostiene che i notevoli progressi informatici di entrambi i paesi indicano che l'integrazione
dell'apprendimento automatico nelle applicazioni militari è in vista. Su Fei (nel capitolo 6) segue questa base
utilizzando informazioni open source per discutere di come i sistemi nordcoreani e sudcoreani possano dare
forma alle applicazioni attuali e future di sistemi senza pilota e guerra informatica. Esplora i progressi
tecnologici compiuti dal Centro di ricerca e sviluppo AI dell'esercito sudcoreano, dal Korea Advanced Institute
of Science and Technology (KAIST), Hanwha Systems e dal Research Center for the Convergence of National
Defense and Artificial Intelligence. Segue una discussione sul lavoro nordcoreano sulle reti neurali artificiali nel
cyberspazio e sulla robotica mobile autonoma con sede presso la Kim Il Sung University.
L'ultimo gruppo di saggi in parte I esamina la modernizzazione militare cinese e russa attraverso il prisma
delle piattaforme autonome. Vasily Kashin (nel capitolo 7) discute la logica alla base di piattaforme strategiche
russe come la piattaforma di consegna nucleare subacquea autonoma Poseidon. Sostiene che, sebbene il
programma nazionale russo per l'IA non sia stato ancora articolato, la sua applicazione è già in corso e
probabilmente includerà una maggiore collaborazione futura con la Cina. L'autore attuale (nel capitolo 8)
complimenta quindi questa valutazione con la sua ricerca sulle piattaforme cinesi e su come Cina e Russia
condividano alcune preoccupazioni fondamentali sulle piattaforme stealth, ad alta precisione e immediate degli
Stati Uniti che minacciano i loro deterrenti convenzionali e nucleari. Fa notare che queste percezioni condivise
sono tra i fattori che spingono la Cina verso la deterrenza basata sull'evitare "falsi negativi", che potrebbero
costringerla ad adottare potenzialmente una maggiore integrazione dell'automazione e dell'autonomia nelle
sue forze nucleari.

Lora Saalman
2. Intelligenza artificiale e suo impatto sull'arma e sul controllo
degli armamenti
Li Xiang *

Negli ultimi anni, la maturità dell'intelligenza artificiale militare (AI) è progredita rapidamente. Le informazioni
open source indicano che Stati Uniti, Russia, Regno Unito, Francia, Cina, Giappone e Repubblica di Corea
(Corea del Sud), tra gli altri paesi, sono coinvolti in tali sviluppi. Tra le armi e le attrezzature che sono state
dispiegate in vari paesi, sono stati utilizzati veicoli aerei senza pilota (UAV), veicoli subacquei senza pilota
(UUV), navi di superficie senza pilota, robot da campo di battaglia e altre piattaforme. La tecnologia AI basata
su big data, cloud computing, deep learning basato su reti neurali, visione artificiale, robot intelligenti,
elaborazione del linguaggio naturale e parlato è di grande valore militare. Può svolgere un ruolo chiave nel
monitoraggio e nella ricognizione dell'intelligence, nel riconoscimento dei bersagli, nella comunicazione e nella
navigazione, nel comando e controllo automatizzati, negli attacchi di potenza di fuoco e nelle contromisure
cyber-elettromagnetiche. Poiché l'intelligenza artificiale consente di migliorare l'efficacia operativa di armi e
equipaggiamenti, è probabile che il futuro formato della guerra venga modificato.
Questo saggio prima analizza (nella sezione I) come la tecnologia AI sta plasmando le armi strategiche in
termini di ricognizione strategica, difesa missilistica e comando, controllo e comunicazioni nucleari (NC3).
Quindi (nelle sezioni II e III) passa in rassegna questi sviluppi relativi all'IA nel regno del cyberspazio e dei
sistemi d'arma autonomi letali (LEGGI). Conclude (nella sezione IV) suggerendo mezzi per mitigare l'impatto
negativo di alcuni di questi sviluppi sul controllo degli armamenti tradizionali.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono necessariamente
quelle di alcuna organizzazione a cui è affiliato. È stato tradotto dal cinese all'inglese dall'editrice del
volume, Lora Saalman.

I. Armi strategiche

Difesa missilistica e ricognizione strategica


L'intelligenza artificiale può migliorare l'efficacia della difesa missilistica e migliorare il riconoscimento del
bersaglio, il calcolo della traiettoria e il giudizio degli effetti del danno. Migliora così la capacità dei paesi con
sistemi di difesa missilistica di compensare la rappresaglia nucleare dei loro avversari.
Inoltre, l'applicazione della tecnologia AI ha un notevole impatto sulla stabilità strategica tra le potenze nucleari
e può minare la reciproca vulnerabilità e stabilità strategica degli stati dotati di armi nucleari di potere
diseguale. Poiché l'AI vanta forti capacità nel riconoscimento di immagini e pattern, simili al riconoscimento
facciale, la sua capacità di riconoscere le immagini fisse è forte e migliorerà notevolmente l'efficacia della
ricognizione strategica. Migliorando la capacità di interpretare le immagini satellitari e la profonda ricognizione
degli UAV a lunga distanza, il paese che possiede la superiorità nucleare sarà in grado di acquisire ulteriori
informazioni sulle caratteristiche di base e sulle procedure del dispiegamento e dei movimenti della forza
nucleare del suo avversario. Ciò aumenterà la fiducia di un paese nella sua capacità di disarmare le armi
nucleari del suo avversario con un primo colpo. Quando c'è un grande divario tra le forze nucleari dei due
paesi, questa situazione renderà più vantaggioso uno sciopero preventivo del più potente, indebolendo così la
stabilità strategica dei due paesi durante una crisi.
In mare, la tecnologia AI può essere utilizzata per migliorare la capacità di raccogliere ed elaborare la firma
sonora di un sottomarino. Nella guerra anti-sottomarino, gli UUV possono essere utilizzati anche per condurre
ricognizioni a corto raggio, che possono rafforzare la capacità di rilevare e riconoscere i sottomarini missilistici
balistici (SSBN) nemici a propulsione nucleare. Da un lato, ciò riduce la capacità di sopravvivenza degli SSBN
nemici, indebolendo così l'efficacia della deterrenza nucleare e riducendo la stabilità strategica. 1 D'altra parte,
questa tecnologia AI può ridurre la probabilità di una guerra nucleare accidentale: migliorando la capacità di
identificare gli SSBN, un paese può evitare di colpire accidentalmente un SSBN come parte della guerra anti-
sottomarino convenzionale.
Di fronte agli enormi vantaggi quantitativi e qualitativi degli Stati Uniti nelle armi nucleari, la Cina ha mantenuto
una forza nucleare di ritorsione snella ed efficace basata su missili strategici mobili con occultamento,
manovrabilità e capacità di sopravvivenza relativamente forti. Questa forza si basa sull'aumento dell
'"incertezza sul primo colpo" dell'avversario ( 第 一 次 打 击 的 不 确 定 性 ) per garantire una deterrenza
credibile.2 Tuttavia, una volta che gli Stati Uniti saranno in grado di impiegare efficacemente la tecnologia AI
per migliorare le proprie capacità di ricognizione contro i missili strategici mobili della Cina, consentendo la
scoperta di regole di dispiegamento, rotte di manovra e posizioni dei siti di lancio, questa "incertezza del primo
colpo" verrebbe eliminata.
Gli Stati Uniti avrebbero così il vantaggio di poter decapitare l'arsenale nucleare cinese. Per superare le
preoccupazioni su questo potenziale, la Cina dovrebbe aumentare il livello di allerta delle sue armi nucleari per
garantire la credibilità del suo deterrente. Ciò porterebbe a uno stato in cui entrambe le parti tendono alla
prelazione, indebolendo la stabilità strategica dei due paesi e aumentando il rischio di conflitto nucleare. Nel
caso della deterrenza nucleare basata sul mare, anche l'impiego della tecnologia di rilevamento basata
sull'intelligenza artificiale e di UUV offensivi potrebbe avere effetti simili.
In particolare, a causa della difficoltà di comunicazione subacquea, sarebbe difficile per queste piattaforme
d'arma ricevere tempestivamente segnali di comando e controllo a terra. Ciò renderebbe difficile il controllo e
tanto meno il richiamo di tali piattaforme quando impegnate nelle operazioni.
Allo stato attuale dello sviluppo tecnologico, gli Stati Uniti hanno già iniziato a utilizzare l'IA nella ricognizione
strategica e nella ricerca strategica antisommergibile. Nel 2017 i ricercatori dell'Università del Missouri, negli
Stati Uniti, hanno pubblicato un modello di apprendimento profondo per il riconoscimento di immagini satellitari
di telerilevamento, che è stato addestrato utilizzando 2200 immagini satellitari di posizioni missilistiche terra-
aria.3 È stato in grado di identificare in 42 minuti le posizioni dei missili aria-aria difensivi cinesi che
normalmente impiegherebbero un essere umano quasi 60 ore per identificare visivamente, con un tasso di
precisione di circa il 90%. Sebbene questa procedura abbia incontrato molte difficoltà nell'identificazione delle
posizioni mimetizzate, gli Stati Uniti hanno riconosciuto i potenziali vantaggi di queste tecnologie. Pertanto,
entro dicembre 2018, l'Ufficio per la ricerca navale degli Stati Uniti ha richiesto un libro bianco per studiare la
ricerca analitica sulla relazione nave tra cambiamenti oceanografici fisici e trasmissione del suono, comprese
le operazioni sul campo per raccogliere set di dati rilevanti. 4 Si è inoltre impegnata nell'analisi di grandi set di
dati oceanografici e acustici, che hanno tenuto conto dello sviluppo e dell'uso di tecniche di intelligenza
artificiale e apprendimento automatico.

Comando, controllo e comunicazioni nucleari


L'applicazione della tecnologia AI nel comando, controllo e comunicazione delle armi nucleari solleva la
questione se la decisione di utilizzare armi nucleari sarà determinata dagli esseri umani o dalle macchine. Un
sistema di comando e controllo nucleare completamente automatizzato può aumentare il rischio di una guerra
nucleare accidentale.
L'esempio comunemente citato è il sistema sovietico Dead Hand, che lancerebbe automaticamente i suoi
missili nucleari se i suoi sensori sismici, luminosi, radioattivi e di pressione rilevassero che era in corso un
attacco nucleare.5 Nel 1983, un falso allarme del satellite sovietico di preallarme provocò proprio una crisi
nucleare così inaspettata. Questa crisi, nota come incidente Petrov, è stata risolta grazie all'intervento del
giudizio umano.6 Allo stesso tempo, resta il problema dell'equipaggiamento antisommergibile senza pilota. Se
l'obiettivo della guerra antisommergibile è un sottomarino non strategico, ma un errore di valutazione porta ad
un attacco a un SSBN, ciò potrebbe anche innescare una guerra nucleare inaspettata.
Pertanto, sebbene il giudizio umano non sia necessariamente sempre affidabile, per far fronte a varie
incertezze e assumersi la responsabilità per l'uso di armi nucleari, il controllo finale del sistema di comando e
controllo nucleare deve ancora essere nelle mani dell'uomo. esseri. A questo proposito, il generale John
Hyten, capo del comando strategico degli Stati Uniti, ha anche affermato che una volta che un sistema
informatico che utilizza l'intelligenza artificiale sarà pienamente operativo, il Dipartimento della Difesa degli
Stati Uniti (DOD) dovrebbe prendere in considerazione l'adozione di precauzioni di sicurezza per garantire che
gli esseri umani, non le macchine, controllino la decisione se utilizzare o meno armi nucleari. 7

II. Cyberspazio

L'intelligenza artificiale contribuisce a migliorare la deterrenza informatica, che può significare la deterrenza di
un attacco con mezzi informatici o la deterrenza di un attacco informatico. 8 Dal punto di vista tecnologico,
l'efficacia della cyber-deterrenza dipende dalla capacità di identificare la fonte del cyberattacco e dalla
capacità di impegnarsi in cyber-offesa e cyber-difesa. In altre parole, richiede la capacità di scoprire gli intrusi
e di bloccare o reagire contro le intrusioni. Quando si tratta del paradigma offensivo-difesa nel cyberspazio, gli
attacchi informatici a livello strategico si basano sulla padronanza delle vulnerabilità, sulla penetrazione a
lungo termine e su una pianificazione sofisticata.
La difesa informatica dipende dal rilevamento delle minacce alla sicurezza, fornendo una risposta tempestiva
e un rapido ripristino dopo un attacco. Quando si coordinano attacchi complessi, i fattori umani sono di
maggiore importanza, poiché spesso segnano la maggiore debolezza e si impegnano nella pianificazione
multidimensionale. Quando si coordina la difesa, la consapevolezza situazionale dell'IA, le capacità di calcolo
rapido e di elaborazione dei dati sono più efficienti di quelle manuali. 9 Pertanto, l'IA è adatta per svolgere un
ruolo maggiore nella difesa della rete.
A tal fine, con l'assistenza della tecnologia AI che facilita la raccolta e l'elaborazione di grandi quantità di dati
storici sugli attacchi informatici, la parte in difesa è in grado di anticipare meglio i mezzi e le regole di attacco
degli attaccanti. L'intelligenza artificiale può (a) migliorare la capacità del difensore di identificare la superficie
di attacco e le fonti di attacco, (b) ridurre l'anonimato dell'attaccante, (c) esporre le attività dell'attaccante, (d)
fornire avvertimenti e persino minacciare ritorsioni, e e) offrire una deterrenza e una ritorsione efficaci in
termini di costi. Inoltre, attraverso la formazione sulla percezione e la risposta alle minacce informatiche, la
tecnologia AI può rilevare e bloccare i dispositivi che sono stati attaccati e impedire l'installazione e il
funzionamento di malware e file. In tal modo, può migliorare l'efficienza operativa dei centri operativi di
sicurezza, quantificare i rischi per la sicurezza della rete, monitorare le anomalie del traffico di rete, potenziare
le capacità di cyber-difesa e ripristino informatico e migliorare la deterrenza mediante negazione.
Quando un singolo potere informatico ha questa capacità, acquisirà ulteriore consapevolezza della situazione
e vantaggi di difesa offensiva nel cyberspazio, con conseguente bassa stabilità strategica. Quando un rivale
della grande potenza ha questa capacità, sarà probabilmente in grado di impegnarsi nella deterrenza
reciproca e quindi migliorare la stabilità strategica all'interno del cyberspazio.
III. Sistemi d'arma autonomi letali

In termini di identificazione degli obiettivi, LAWS solleva la questione se tali sistemi siano in grado di
distinguere accuratamente tra obiettivi militari e non militari. 10 Ciò solleva l'ulteriore questione se i sistemi
sarebbero in grado di identificare efficacemente i modelli di comportamento delle persone, come nel caso della
resa dei nemici. Inoltre, tali piattaforme possono causare danni collaterali. Durante l'amministrazione
statunitense del presidente Barack Obama, i veicoli aerei da combattimento senza pilota (UCAV)
telecomandati manualmente utilizzati nelle operazioni di antiterrorismo in Afghanistan e Pakistan hanno
causato vittime civili. 11 Questa storia solleva la questione di chi alla fine si assumerà la responsabilità per i
danni collaterali di future armi AI. Infine, le LEGGI sono vulnerabili alla proliferazione. 12 In assenza di un
sistema di controllo del commercio per tali armi, il loro rapporto costo-efficacia e il risparmio di manodopera
significa che possono essere soggette a un maggiore utilizzo e abuso tra i paesi e anche tra attori non statali.
I problemi di cui sopra richiedono che le LEGGI, inclusi UCAV, munizioni intelligenti e robot da combattimento
tra gli altri, abbiano un riconoscimento più accurato del bersaglio e una maggiore precisione nella loro capacità
di uccidere. La Russia ha persino schierato robot da combattimento sul campo di battaglia siriano. 13 Tali
sviluppi richiedono una soglia tecnica più elevata. Il danno collaterale causato dalle LEGGI è destinato a
diventare il fulcro del futuro controllo degli armamenti. Tali misure di controllo degli armamenti dovrebbero
essere basate sul livello tecnico e su considerazioni di stabilità strategica di queste piattaforme. Le armi che
non soddisfano gli standard tecnici pertinenti dovrebbero essere soggette a restrizioni e i paesi dovrebbero
essere limitati nella loro produzione e distribuzione.

IV. Conclusioni

Armi strategiche

Al fine di integrare il controllo delle armi legato all'IA nelle armi strategiche, le misure di rafforzamento della
fiducia rappresentano un buon primo passo. Per quanto riguarda la Cina e gli Stati Uniti, devono sviluppare un
meccanismo che consenta loro di comprendere meglio le reciproche intenzioni nello sviluppo e
nell'applicazione di armi strategiche abilitate dall'intelligenza artificiale attraverso scambi di informazioni
reciproche. Inoltre, entrambi dovrebbero riconoscere la loro reciproca vulnerabilità strategica per garantire che
gli Stati Uniti non utilizzino i propri vantaggi nella ricognizione strategica per avviare attacchi preventivi in tempi
di crisi. Tuttavia, in seguito al rilascio della US Nuclear Posture Review 2018 - con la sua attenzione
fortemente negativa su Cina e Russia combinata con la sua difesa della modernizzazione nucleare e delle
piattaforme di armi nucleari a basso rendimento - il potenziale per misure di rafforzamento della fiducia deve
affrontare gravi sfide.14
Alla luce di tali limiti, è fondamentale che lo Stato con armi nucleari più debole nella relazione di stabilità
strategica effettui una valutazione tecnica e tattica sull'opportunità di utilizzare i big data e l'intelligenza
artificiale per rafforzare la propria ricognizione strategica.
In tal modo, la capacità di sopravvivenza dei suoi missili strategici mobili potrebbe essere migliorata attraverso
misure più efficaci abilitate dall'intelligenza artificiale, come occultamento, inganno, interferenza e
camuffamento. In termini di big data e tecniche di intelligenza artificiale, ciò potrebbe includere miglioramenti
alla progettazione e alle rotte delle manovre missilistiche per contrastare i modelli di ricognizione satellitare.
Sugli SSBN, ciò potrebbe comportare l'impiego della tecnologia AI per migliorare la silenziosità e ampliare la
portata delle attività subacquee.
Per la difesa missilistica, la tecnologia AI potrebbe essere utilizzata per migliorare la capacità di penetrazione
dei missili e di altri sistemi di consegna, come il trasporto di esche più potenti.

Cyberspazio

È fondamentale porre un'enfasi particolare sull'applicazione della tecnologia AI nelle capacità di rilevamento,
tracciamento e ripristino degli attacchi informatici, migliorando nel contempo la difesa informatica e la
deterrenza informatica complessive. I paesi che hanno interessi comuni nell'evitare gli attacchi informatici
possono utilizzare la tecnologia AI per migliorare la trasparenza del cyberspazio e per mitigare gli attacchi
anonimi. Quando le due parti stabiliscono la stabilità strategica sulla base di un'efficace deterrenza
informatica, ciò potrebbe essere simile al controllo delle armi nucleari.
Tali misure potrebbero includere la ricerca del consenso sul controllo degli armamenti su misure quali azioni
reciproche e impegni unilaterali a non impegnarsi in attacchi di primo impatto o attacchi reciproci alle
infrastrutture critiche. Ciò promuoverebbe la formazione di un sistema di controllo delle armi nel cyberspazio. A
tal fine, Cina e Russia hanno firmato un accordo sulla salvaguardia della sicurezza delle informazioni
internazionali, che include l'impegno a non impegnarsi in attacchi informatici l'uno contro l'altro. 15 Cina e Stati
Uniti si sono inoltre impegnati nel 2015 a non attaccare reciprocamente le infrastrutture critiche. 16

Sistemi d'arma autonomi letali

I paesi che stanno sviluppando LEGGI dovrebbero prendere in considerazione le questioni umanitarie
derivanti dall'uso di tali armi e continuare a promuovere la loro regolamentazione nel quadro della
Convenzione del 1980 su alcune armi convenzionali (Convenzione CCW). 17 Inoltre, dovrebbero impegnarsi
ulteriormente negli sforzi per discutere e definire un ambito per le LEGGI che tenga in considerazione le
regole di impegno, le prestazioni e gli indicatori tecnici per sviluppare standard e specifiche pertinenti per le
norme.
Le principali potenze dell'IA dovrebbero essere consapevoli della possibilità che le LEGGI vengano incluse nel
controllo degli armamenti in futuro. In quanto tali, dovrebbero prendere in considerazione i fattori di controllo
degli armamenti durante lo sviluppo, la produzione e il dispiegamento di armi correlate, in modo che siano
meglio preparati a partecipare al processo di controllo degli armamenti quando raggiungerà una maggiore
maturità.

1. Vedi anche ad es. Rickli, J.-M., "Le prospettive destabilizzanti dell'intelligenza artificiale per la strategia nucleare, la
deterrenza e la stabilità", ed. V. Boulanin, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I,
Euro-Atlantic Perspectives (SIPRI: Stoccolma, maggio 2019), pp. 91-98, p. 94.
2. Wu, R., "Certezza dell'incertezza: strategia nucleare con caratteristiche cinesi", Journal of Strategic Studies, vol. 36, n. 4
(giugno 2013), pp. 579–614.
3. Marcum, R. A., Davis, C. H., Scott, G. J. e Nivin, T. W., "Ricerca rapida e rilevamento di siti missilistici terra-aria cinesi
utilizzando reti neurali convoluzionali profonde", Journal of Applied Remote Sensing, vol. 11, n. 4 (ottobre-dicembre 2017).
4. Tucker, P., "How AI will transform anti-submarine warfare", Defense One, 1 luglio 2019.
5. Borrie, J., "Lezioni di guerra fredda per l'automazione nei sistemi di armi nucleari", ed. Boulanin (W 1), pagg. 41–52.
6. Topychkanov, P., "Autonomia nelle forze nucleari russe", ed. Boulanin (nota 1), pagg. 68-75.
7. Stewart, P., "Deep in the Pentagon, un programma segreto di intelligenza artificiale per trovare missili nucleari nascosti",
Reuters, 5 giugno 2018.
8. Brantley, A. F., "The cyber deterrence problem", a cura di T. Minárik, R. Jakschis e L. Lindström, CyCon X: Maximizing
Effects, 10th International Conference on Cyber Conflict (NATO Cooperative Cyber
Centro di eccellenza per la difesa: Tallinn, 2018); Cimbala, S. J., "Nuclear deterrence in Cyber-ia: challenge and
controversies", Air & Space Power Journal, vol. 30, n. 3 (autunno 2016), pagg. 54–63; e Raitasalo, J., "La deterrenza
informatica è un ossimoro per gli anni a venire", National Interest, 20 novembre 2018. Vedi anche il capitolo 3 di questo
volume.
9. Naikal, N., Towards Autonomous Situation Awareness, Technical Report No. UCB / EECS-2014-124 (University of California
at Berkeley Electrical Engineering and Computer Sciences: Berkeley, CA, 21 maggio 2014).
10. Gerry, R., "Making law for LAWS: the legality of lethal autonomous weapon systems", Victoria University of Wellington,
2016.
11. Bergen, P. et al., "Drone strike: Pakistan", New America, accesso 21 agosto 2019; e Jaeger, D. A. e Siddique, Z., "Gli
attacchi con i droni sono efficaci in Afghanistan e Pakistan? Sulle dinamiche di violenza tra Stati Uniti e talebani ", CESifo
Economic Studies, vol. 64, n. 4 (dicembre 2018), pagg. 667–97.
12. Chartoff, P., Perils of Lethal Autonomous Weapons Systems Proliferation: Preventing Non-State Acquisition, Strategic
Security Analysis no. 2 (Centro di Ginevra per la politica di sicurezza: Ginevra, ottobre 2018).
13. Atherton, K. D., "La Russia desiderosa di dimostrare che i recenti conflitti hanno migliorato i suoi robot", 27 giugno 2019,
C4ISRNet; e Roblin, S., "Il carro armato robotico russo Uran-9 è andato in guerra in Siria (non è andata molto bene)", National
Interest, 6 gennaio 2019.
14. Dipartimento della difesa degli Stati Uniti (DOD), Nuclear Posture Review (DOD: Washington, DC, febbraio 2018), pagg.
54-55.
15. Ministero degli Affari Esteri cinese, ‘ 中俄 签署 国际 信息 安全 合作 协定’ [Cina e Russia firmano un accordo
internazionale di cooperazione per la sicurezza delle informazioni ", 12 maggio 2015.
16. Casa Bianca, Ufficio del Segretario Stampa, "Visita di Stato del Presidente Xi Jinping negli Stati Uniti", Fact sheet, 25
settembre 2015.
17. Convenzione sui divieti o limitazioni all'uso di alcune armi convenzionali che possono essere considerate eccessivamente
dannose o aventi effetti indiscriminati (Convenzione CCW, o Convenzione sulle armi disumane), aperta alla firma il 10 aprile
1981, entrata in vigore 2 dicembre 1983.
3. Il ruolo dell'intelligenza artificiale nella cyber-deterrenza

Liu Yangyue *

Gli sviluppi nell'intelligenza artificiale (AI) sono progrediti rapidamente negli ultimi anni. Grazie ai progressi
nell'apprendimento automatico e in altre applicazioni, è emersa un'ampia gamma di nuove applicazioni nel
campo della sicurezza informatica e della deterrenza informatica. 1 Questo saggio cerca di far luce su questi
concetti, in relazione all'integrazione dell'IA. Innanzitutto esamina brevemente il potenziale impatto
dell'apprendimento automatico sulla deterrenza informatica (nella sezione I). Descrive quindi le condizioni per
un'efficace deterrenza informatica (nella sezione II) e alcuni conseguenti problemi di deterrenza informatica
(nella sezione III).
Il saggio si conclude (nella sezione IV) sostenendo l'importanza di una maggiore interazione su questi temi
prima che le tecnologie superino la capacità dei paesi di raggiungere una maggiore comprensione e
consenso.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono necessariamente quelle di
alcuna organizzazione a cui è affiliato.

I. L'impatto dell'apprendimento automatico

L'apprendimento automatico è progettato per addestrare un computer a completare una determinata attività da
solo. Si prevede che cambierà il panorama del cyberspazio in diversi modi.
In primo luogo, i nuovi algoritmi che utilizzano l'apprendimento automatico sono più adattivi e offrono un
maggiore dinamismo. Poiché i rischi per la sicurezza informatica evolvono rapidamente nel tempo, le nuove
generazioni di malware e attacchi informatici sono difficili da rilevare con i protocolli di sicurezza informatica
tradizionali. L'apprendimento automatico supera questa debolezza consentendo ai sistemi di sicurezza
informatica di utilizzare i dati degli attacchi informatici preesistenti per rispondere ad attacchi simili.
In secondo luogo, l'apprendimento automatico riduce la necessità di manodopera umana nelle interazioni di
sicurezza informatica, sia in termini di offesa che di difesa. Un tipico esempio di ciò sarebbe lo spear-phishing,
che induce un individuo o un'organizzazione specifico a far trapelare informazioni riservate. I metodi
tradizionali di spear-phishing sono spesso di portata limitata. Un'intrusione efficace richiede una grande
quantità di ricerca sul potenziale obiettivo. Inoltre, è difficile, se non irrealizzabile, attaccare più bersagli
contemporaneamente. Tuttavia, con l'aiuto dell'apprendimento automatico, potrebbe essere possibile
automatizzare lo spear-phishing.
La terza area in cui l'apprendimento automatico può fare la differenza è l'attribuzione.
Con capacità di apprendimento più potenti, questi algoritmi sono in grado di individuare meglio le prove
critiche per rivelare la reale identità di un utente malintenzionato, ad esempio se alcuni frammenti di codice
imitano le strutture di malware esistenti.
II. Condizioni per la deterrenza informatica

Nonostante il suo ampio utilizzo, il concetto di cyber-deterrenza rimane poco chiaro e in discussione. 2 Vi è
disaccordo sul fatto che gli attacchi informatici possano essere efficacemente scoraggiati e persino sul fatto
che la nozione di deterrenza sia significativa nel cyberspazio. Tuttavia, secondo coloro che sono a favore della
cyber-deterrenza, è fattibile quando sono soddisfatte determinate condizioni. Ad esempio, la deterrenza
informatica può funzionare quando rende il costo di un attacco informatico eccezionalmente alto. Ciò può
essere ottenuto potenziando la difesa informatica, consentendo così la "deterrenza mediante negazione",
oppure rendendo la ritorsione credibile e potente, consentendo in tal modo la "deterrenza mediante
punizione". Un'altra condizione è che, a differenza della nozione tradizionale di deterrenza, la cyber-
deterrenza non può essere assoluta. Ciò significa che alcuni tipi di attori e alcuni tipi di azione non possono
essere scoraggiati. È più probabile che la deterrenza funzioni quando si tenta di scoraggiare gli attacchi
informatici che avrebbero gravi conseguenze e scopi strategici. Normalmente tali attacchi sono pianificati e
condotti dagli stati.
Una condizione correlata è che il problema dell'attribuzione di un attacco possa essere risolto in una misura in
cui vengono presi in considerazione il contesto strategico e la realtà operativa. 3 Ciò porta a una maggiore
fiducia che un attacco informatico sia stato avviato da un attore statale, come nel caso dell'uso del worm
Stuxnet contro gli impianti nucleari iraniani. 4 Il livello di intelligenza e di capacità tecnologiche necessarie per
effettuare un simile attacco restringe l'elenco dei sospetti. In altre parole, l'attribuzione diventa un problema
minore se l'obiettivo della deterrenza è uno stato, in particolare uno potente, e il comportamento da
scoraggiare è un attacco informatico sofisticato e strategico contro una struttura a vuoto. Ciò ha implicazioni in
tutte le infrastrutture nucleari civili e militari.
Considerando queste condizioni, l'impatto dell'apprendimento automatico sulla cyber-deterrenza è ambiguo.
Da un lato, la deterrenza informatica può essere migliorata.
Un tipico esempio è nella difesa informatica. Fornendo una difesa più attiva e adattiva, riducendo lo sforzo
umano nel monitoraggio delle minacce e generando una risposta più tempestiva, l'apprendimento automatico
può aumentare i costi per un potenziale aggressore e quindi contribuire a promuovere la deterrenza mediante
la negazione nel cyberspazio. L'attribuzione è un'altra area che l'apprendimento automatico può sostenere. La
deterrenza sembrerebbe più credibile se l'aggressore perdesse l'anonimato. In quanto tale, la deterrenza
informatica potrebbe essere più fattibile con l'intervento del machine learning.

III. Problemi per la cyber-deterrenza

Anche se le condizioni di cui sopra sono soddisfatte, diversi fattori possono anche ridurre l'efficacia della
cyber-deterrenza.
Il primo è la possibilità del machine learning contraddittorio. Poiché i modelli di difesa informatica basati
sull'apprendimento automatico diventano più efficaci nel rilevare le minacce, i potenziali aggressori potrebbero
cercare modi per confondere i modelli. Questo è spesso chiamato apprendimento automatico del
contraddittorio. Anche se gli attori difensivi possono fare affidamento sui modelli di intelligenza artificiale per
salvaguardare i propri sistemi, la loro fiducia nella deterrenza mediante negazione non deve essere esagerata.
Questo perché i criminali possono riuscire ad avvelenare i modelli (noto anche come avvelenamento da
apprendimento automatico) o possono trovare altri modi per evitarli.
In questo senso, i vantaggi in termini di sicurezza offerti dall'intelligenza artificiale potrebbero essere
compensati. Tuttavia, un rapporto del 2018 ha avvertito che è stata prestata relativamente poca attenzione a
rendere robuste le difese basate sull'intelligenza artificiale contro gli aggressori che ne anticipano l'uso. 5 Ironia
della sorte, l'uso dell'apprendimento automatico per la difesa informatica può effettivamente espandere la
superficie di attacco di un sistema di difesa - i punti in cui un utente malintenzionato può interagire con il
sistema - a causa di questa mancanza di attenzione e di altre vulnerabilità.
Un secondo problema è la connessione confusa tra attori e capacità.
Attualmente è improbabile che gli attacchi informatici strategici (attacchi che infliggono danni di impatto
strategico nazionale) vengano condotti da individui. Le operazioni informatiche che intendono modificare il
comportamento del bersaglio o fargli subire perdite considerevoli spesso implicano sforzi complessi per la
preparazione, l'organizzazione, il coordinamento, i test e le prove. Necessitano di un'abbondanza di risorse
critiche, come la scoperta di vulnerabilità zero-day, strumenti di hacking e talenti. Tali operazioni informatiche
richiedono anche informazioni adeguate sulla preparazione di difesa dei sistemi di destinazione. Tuttavia, con
lo sviluppo dell'apprendimento automatico, questi sforzi potrebbero essere eseguiti o facilitati da programmi
automatizzati e adattivi. Questi programmi sarebbero in grado di scavare vulnerabilità, aggirare il rilevamento,
sconfiggere i sistemi anti-malware o persino riprogettare un'operazione in base alle proprietà riconosciute del
sistema di destinazione. Ciò significa che complesse operazioni informatiche potrebbero non richiedere lo
stesso livello di complessità organizzativa nell'era dell'IA.
Anche singoli hacker o piccoli gruppi potrebbero completare attività con conseguenze strategiche. Ciò
creerebbe diversi problemi a catena per la deterrenza informatica.
In primo luogo, la condizione di "identità nota più richiesta nota" sarebbe più difficile da stabilire, ovvero essere
in grado di determinare sia la fonte dell'attacco che i suoi obiettivi sarebbero confusi. 6 In secondo luogo,
l'attribuzione diventerebbe più difficile perché le capacità, comprese altre prove forensi come il linguaggio o la
somiglianza con le operazioni passate, potrebbero non essere più un indicatore affidabile per l'attribuzione. In
terzo luogo, gli attacchi informatici con gravi conseguenze possono proliferare, minando la stabilità strategica
nel cyberspazio.
Infine, un maggiore utilizzo dell'IA nella sicurezza informatica renderebbe la raccolta e la condivisione dei dati
ancora più importanti. Ciò potrebbe rendere le politiche di alleanza nel cyberspazio più comuni e intense. La
difesa informatica basata sull'apprendimento automatico normalmente assume due forme. Uno è
l'apprendimento supervisionato, in cui l'obiettivo è imparare dalle minacce note e generalizzare e applicare
questa conoscenza a nuove minacce. L'altro è l'apprendimento non supervisionato, in cui i programmi cercano
di trovare deviazioni sospette dal comportamento normale. Entrambe le forme richiederebbero un'analisi
approfondita dei dati e forti capacità e reti di intelligence. Pertanto, per rendere efficace la deterrenza, uno
stato dovrebbe cooperare con altri stati nella condivisione delle informazioni al fine di costruire una rete di
intelligence globale. Ciò può incoraggiare le relazioni di alleanza nel cyberspazio. L'esito negativo sarebbe
un'intensificazione delle già evidenti fratture nel cyberspazio, creando un senso di antagonismo tra i diversi
gruppi e rendendo ancora più difficile raggiungere il consenso globale sulle norme di sicurezza informatica.

IV. Conclusioni

Nel complesso, l'intelligenza artificiale e l'apprendimento automatico pongono rischi e offrono vantaggi alla
sicurezza informatica.
L'impatto sulla cyber-deterrenza rimane poco chiaro, poiché sia la difesa che l'attacco potrebbero essere
rafforzati dallo sviluppo dell'IA. Ciò suggerisce la necessità di un maggiore dialogo tra ricercatori di intelligenza
artificiale, ricercatori strategici, responsabili politici e altre parti interessate pertinenti per raggiungere una
maggiore chiarezza sulla cyber-deterrenza e su come potrebbe avere un impatto sulle future relazioni
strategiche e sugli arsenali.

1. Brantley, AF, 'The cyber deterrence problem', a cura di T. Minárik, R. Jakschis e L. Lindström, CyCon X: Maximizing Effects,
10th International Conference on Cyber Conflict (NATO Cooperative Cyber Defense Center of Excellence: Tallinn, 2018 );
Cimbala, S. J., "Nuclear deterrence in Cyber-ia: challenge and controversies", Air & Space Power Journal, vol. 30, n. 3
(autunno 2016), pagg. 54–63; e Raitasalo, J., "La deterrenza informatica è un ossimoro per gli anni a venire", National
Interest, 20 novembre 2018.
2. Brantley (nota 1); Haggman, A., "Cyber deterrence theory and practice", a cura di M. Lehto e P. Neittaanmäki, Cyber
Security: Power and Technology (Springer: Cham, 2018), pagg. 63-81; e Bendiek, A. e Metzger, T., "La teoria della deterrenza
nel secolo cibernetico: lezioni da una revisione della letteratura all'avanguardia", eds DW Cunningham et al., Informatik 2015:
Informatik, Energie und Umwelt [ Informatica 2015: informatica, energia e ambiente] (Gesellschaft für Informatik: Bonn, 2015),
pp. 553–70.
3. Lindsay, J. R., "Tipping the scale: the attribution problem and the fattiibility of deterrence against cyberattack", Journal of
Cybersecurity, vol. 1, n. 1 (2015), pagg. 53–67.
4. Kile, S. N., "Controllo e non proliferazione delle armi nucleari", Annuario SIPRI 2011: Armamenti, disarmo e sicurezza
internazionale (Oxford University Press: Oxford, 2011), pp. 363-87, p. 384.
5. Brundage, M. et al., The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation (Future of Humanity
Institute et al .: Oxford, febbraio 2018).
6. Borghard, E. D. e Lonergan, S. W., "The logic of coercion in cyberspace", Security Studies, vol. 26, n. 3 (2017), pagg. 452-
81.
4. Integrazione di reti neurali in veicoli di planata ipersonica

Lora Saalman *

I ricercatori cinesi affrontano molti degli stessi ostacoli incontrati da altri contendenti che mirano a integrare le
reti neurali in piattaforme cinetiche come i veicoli di planata ipersonica. 1 Ricerche straniere preesistenti sulle
applicazioni delle reti neurali nei cercatori di missili, fusione di missili, discriminazione del bersaglio del sonar,
bersaglio automatico Il riconoscimento e il pilotaggio automatico hanno affermato che le reti neurali sono "ad
alto rischio e ad alto rendimento”. 2 La Cina sembra disposta ad accettare questa sfida che coinvolge
l'intelligenza artificiale (AI). Negli ultimi dieci anni, i suoi esperti sono passati oltre le pubblicazioni straniere a
una prolifica pubblicazione di studi interni che perseguono i vantaggi dell'integrazione di reti neurali per
migliorare la manovrabilità e penetrare le difese, rimodellando così le dinamiche di deterrenza nucleare e
convenzionale.3
Questo saggio fornisce una breve panoramica degli scritti tecnologici cinesi sulle reti neurali e sui veicoli a
scorrimento ipersonico. Inizia (nella sezione I) con le basi della collaborazione incrociata e dell'innovazione
negli istituti di ricerca cinesi su queste tecnologie abilitate dall'intelligenza artificiale. Il saggio continua (nella
sezione II) descrivendo in dettaglio come questi sviluppi nell'integrazione della rete neurale e nei veicoli
ipersonici stiano rimodellando le dinamiche di deterrenza convenzionale e nucleare. Conclude (nella sezione
III) un'analisi di come questi progressi tecnologici possano anche segnare un passaggio verso una versione
più offensiva della "difesa attiva" ( 积极 防御) in futuro.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono necessariamente
quelle di alcuna organizzazione a cui è affiliata.

I. Espansione della collaborazione e dell'innovazione

I veicoli a planata ipersonica sono un fattore crescente nei calcoli di stabilità strategica, che per la prima volta
hanno guadagnato popolarità nei dibattiti sul programma CPGS (Conventional Prompt Global Strike) degli
Stati Uniti.4 Questi sistemi sono caratterizzati da velocità, precisione e manovrabilità che possono essere
applicati per sconfiggere difese missilistiche e per fornire un carico utile convenzionale o nucleare. Quando
raggiunge lo spazio vicino, il veicolo viene espulso dai suoi booster per iniziare la sua fase di planata, durante
la quale può accelerare fino a oltre Mach 5 (6125 chilometri all'ora). La fase di planata gli consente di
manovrare aerodinamicamente per eludere l'intercettazione e amplia la sua portata. A differenza dei veicoli di
rientro convenzionali, che seguono una traiettoria balistica prevedibile, i veicoli a planata ipersonica sono
quasi impossibili da intercettare utilizzando i sistemi di tracciamento della difesa missilistica convenzionali. 5
Negli scritti cinesi, la definizione di questi veicoli è ampia e include un'ampia varietà di piattaforme spaziali
vicine e altre.6
Sulla base di una revisione di oltre 300 articoli di università e istituti militari in Cina che si basa su un database
di 3000 documenti in lingua cinese sui progressi dell'ipersonico e dell'intelligenza artificiale, si può concludere
che la collaborazione tra istituti nazionali e internazionali su queste tecnologie è diventata sempre più
Comune.7
Ingegneri del People's Liberation Army (PLA) Rocket Force, College of Mechatronic Engineering and
Automation of the National University of Defense Technology, Harbin University, Tsinghua University, Beihang
University, China Academy of Launch Vehicle Technology, PLA Rocket Force Engineering University , La
Northwestern Polytechnical University e il Beijing Institute of Tracking and Telecommunications Technology, tra
le altre istituzioni, hanno lavorato - spesso collettivamente - per trovare nuove soluzioni per alcuni dei problemi
più intrattabili affrontati nelle dinamiche di controllo dei veicoli a scorrimento ipersonico. 8
Un esempio di un progetto congiunto a livello nazionale è un documento sulle reti neurali e le dinamiche di
volo ipersoniche di quattro autori della Naval Aeronautical and Astronautical University di Yantai, della Zhejiang
University di Hangzhou e della China State Shipbuilding Corporation di Pechino. 9 Un esempio a livello
internazionale è uno studio sul controllo adattivo per veicoli ipersonici vicino allo spazio, scritto da tre
ricercatori cinesi con sede presso l'Università di Nanchino di Aeronautica e Astronautica e un collega cinese
presso l'Università della Virginia, USA. 10 Il loro lavoro non solo descrive nel dettaglio l'integrazione cinese del
controllo basato sulla rete neurale nei loro programmi ipersonici, ma rivela anche informazioni sui sistemi di
supporto e sulle strutture per i test.

Questi lavori costituiscono un notevole progresso nella trasparenza e collaborazione cinese, che sono cruciali
per il progresso tecnologico. Oltre all'uso di modelli tradizionalmente utilizzati in altri paesi, come la teoria della
stabilità di Lyapunov o il modello Singer 11, i ricercatori cinesi stanno ora sviluppando i propri modelli per sistemi
di controllo adattivi non lineari robusti che integrano controlli in modalità di scorrimento terminale, controlli
predittivi, rete neurale fuzzy controlli e controlli inversi dinamici non lineari. 12 Questi controlli basati
sull'intelligenza artificiale hanno lo scopo di affrontare l'elevato inviluppo di volo del veicolo di planata
ipersonica, l'ambiente di volo complesso, la grave non linearità, la variazione temporale intensa e rapida,
l'incertezza dinamica durante la fase di immersione e le forti caratteristiche di accoppiamento.
Data la necessità di una maggiore resilienza in assenza di dati, numerosi articoli cinesi cercano di integrare le
"reti neurali con funzione di base radiale" ( 基于 径向 基 函数 的 神经 网络 ) per mitigare la non linearità e
l'incertezza nei parametri fisici e aerodinamici. 13 Inoltre, esperti cinesi stanno anche applicando algoritmi di
colonie di api e tecnologia degli sciami per affrontare i problemi di identificazione dei parametri riscontrati in
ambienti operativi complessi.14 Questi lavori si basano sull'autonomia come mezzo per ottenere il controllo
coordinato della guida di veicoli ipersonici spaziali in prossimità, vale a dire 'guida cooperativa e controllo della
formazione autonoma del veicolo ipersonico' ( 高超 声速 飞行器 自主 编队 协同 制导 控制).15
Pertanto, sia che siano integrate in formazioni autonome simili a sciami o utilizzate per migliorare la
manovrabilità e il controllo, le reti neurali stanno contribuendo ai sistemi di comunicazione e supporto
decisionale della Cina, guida ad alta precisione, targeting e discriminazione, nonché guerra cyber-centrica ed
elettronica.16
Comprendere questa gamma di capacità è fondamentale poiché hanno il potenziale per cambiare le regole del
gioco quando vengono applicate nella deterrenza convenzionale o nucleare.

II. Rimodellare la deterrenza con reti neurali e planata ipersonica

I progressi descritti sopra hanno vaste implicazioni oltre ai semplici miglioramenti alle capacità esistenti in
termini di manovrabilità e targeting. Stanno rimodellando le dinamiche strategiche. In un articolo del 2018 sui
veicoli ipersonici nel vicino spazio, cinque ricercatori cinesi che lavorano presso l'Istituto spaziale di Pechino
“Veicolo lungo la marcia”, la Wanyuan Science and Technology Company e la School of Aeronautics and
Astronautics dell'Università Sun Yat-sen discutono la logica strategica dietro questi sviluppi tecnologici.
Descrivono l'importanza di questi veicoli per contrastare “il rapido sviluppo delle moderne tecnologie di difesa
integrata terrestre, marittima, aerea e spaziale, in particolare i sistemi di difesa aerea regionali e le forze di
difesa a corto raggio di obiettivi militari di alto valore (come le portaerei gruppi tattici e centri di comando
strategici) che costituiscono un sistema di difesa aerea antimissile multistrato'”. 17 Nel caso degli USA, un tale
sistema multistrato rappresenta una confluenza dei suoi dispiegamenti e delle strutture di alleanza nell'Asia
orientale e dei suoi obiettivi di deterrenza nazionale.
In quanto tali, le piattaforme ipersoniche cinesi non dovrebbero essere pensate semplicemente come
piattaforme a corto raggio o intermedio. 18 Oltre un terzo delle recenti analisi cinesi e ricerche intervistate si
concentra su veicoli ipersonici “vicini allo spazio” ( 临 近 ) e alcuni persino concentrarsi esplicitamente sulle
capacità di 'approssimazione globale' ( 全 局 逼 近 ) per i sistemi di veicoli ipersonici non lineari. 19 Mentre le
analisi cinesi forniscono i veicoli ipersonici senza pilota statunitensi X-43A e X-51 come esempi di queste
piattaforme ad ampio raggio, le riviste tecniche cinesi lo sono perseguire gli stessi set di tecnologie per essere
in grado di condurre attacchi furtivi, rapidi e travolgenti contro sistemi di difesa avanzati e obiettivi militari di
alto valore.20
Oltre alla portata fisica consentita dal volo nello spazio vicino, questi studi si concentrano anche sul
perseguimento di operazioni flessibili e su larga scala, con l'obiettivo dichiarato di migliorare l'efficacia dei
sistemi di armi guidate. Cercano di sviluppare armi e attrezzature guidate relativamente a basso costo
applicando una guida abilitata dalla rete neurale per formare contromisure elettroniche sinergiche,
penetrazione congiunta a cascata e attacchi di saturazione scalabili. 21 Questi studi non riguardano
semplicemente l'anti-access/area-denial (A2/AD) e le dinamiche regionali: il loro obiettivo a lungo termine è
l'evasione e la penetrazione delle difese statunitensi, sia a livello regionale che globale.

III. Conclusioni

Mentre un decennio fa gli articoli tecnici cinesi si concentravano sullo sviluppo di "contromisure" ( 对策) contro i
veicoli a scorrimento ipersonico, la maggior parte dei documenti recenti scritti in Cina si occupa di ricerca e
sviluppo di piattaforme offensive abilitate dall'intelligenza artificiale. In effetti, tra le centinaia di articoli e
documenti in lingua cinese esaminati per questo saggio, solo uno si concentra esplicitamente sul
miglioramento dell'intercettazione della planata ipersonica. 22 La stragrande maggioranza delle analisi e dei
progetti tecnici cerca invece di penetrare le difese missilistiche. Dopo aver trascorso un decennio a
contrastare i piani statunitensi per il CPGS, non sorprende assistere a questo spostamento cinese verso
l'offesa nella ricerca e nelle priorità interne.
Piuttosto che rafforzare il concetto cinese di "difesa attiva", questa predominanza di piattaforme offensive
suggerisce una tendenza verso una posizione più orientata all'offesa.
La Cina ha da tempo coperto quando si tratta del carico utile dei suoi sistemi di planata ipersonica, ponendola
da qualche parte tra l'enfasi della Russia sulle testate nucleari e l'attenzione degli Stati Uniti sulle testate
convenzionali.23 Tuttavia, lo scopo stesso di sconfiggere le difese missilistiche statunitensi suggerisce che i
veicoli ipersonici cinesi hanno un forte potenziale da utilizzare per un carico utile nucleare in futuro. Le recenti
interazioni dell'attuale autore con i generali e gli ammiragli dell'EPL hanno ribadito questo punto quando si
tratta dell'evoluzione dei veicoli ipersonici della Cina.
In sintesi, non si può dare per scontato che la rete neurale cinese e gli sviluppi dei veicoli a scorrimento
ipersonico siano solo convenzionali. Con la diminuzione del numero di articoli di riviste tecniche cinesi che
cercano contromisure e il numero crescente che esplora il dispiegamento di piattaforme di planata ipersonica
abilitate per reti neurali vicino allo spazio, l'orientamento tattico e strategico della Cina si sta spostando verso
uno offensivo, indipendentemente dal fatto che sia esplicitamente dichiarato o meno. nella retorica cinese o
nella dottrina militare ufficiale. Ciò segna una diretta confluenza non solo dei veicoli ipersonici e delle reti
neurali cinesi, ma anche dei suoi concetti di deterrenza convenzionale e nucleare.

1. Saalman, L., "Integrazione cinese delle reti neurali in veicoli di planata ipersonici", ed. N. D. Wright, AI, Cina, Russia e
l'ordine globale: prospettive tecnologiche, politiche, globali e creative, pubblicazione periodica della valutazione strategica
multistrato (SMA) (Dipartimento della difesa: Washington, DC, dicembre 2018), pagg. 153–60.
2. Webster, W. P., "Reti neurali artificiali e loro applicazione alle armi", Naval Engineers Journal, vol. 103, n. 3 (maggio 1991),
pp. 46–59.
3. Ma, G. et al., "Controllo della rete neurale basato su backstepping adattivo per veicoli di rientro ipersonici con vincoli di
input", IEEE Access, vol. 6 (2018), pagg. 1954–66.
4. Saalman, L., "Attacco globale immediato: la Cina e la lancia", articolo della facoltà indipendente, Centro Asia-Pacifico per gli
studi sulla sicurezza, aprile 2014. Sul CPGS vedere anche i capitoli 13 e 14 in questo volume.
5. Saalman, L., "Factoring Russia into the US-Chinese equation on hypersonic glide vehicles", SIPRI Insights on Peace and
Security no. 2017/1, gennaio 2017.
6. Saalman (nota 4).
7. Liu, Q. (刘清楷) et al., '高超 声速 飞行器 俯冲 段 制导 控制 方法 研究 ' [Progettazione di guida e controllo per
veicoli ipersonici in fase di immersione], 现代 防御 技术 [Modern Defense Technology], vol. 45, n. 6 (dicembre 2017), pagg.
74-81; Zhang, J. et al., "Controllo adattivo della modalità di scorrimento per l'atteggiamento di rientro del veicolo ipersonico
vicino allo spazio basato su un progetto di marcia indietro", IEEE / CAA Journal of Automatica Sinica, vol. 2, no. 1 (gennaio
2015), pagg. 94–101; Bu, X. (卜祥伟) e Wang, K. (王 柯), '高超 声速 飞行器 输入 受限 自适应 反演 控制 研究 '
[Studio sul controllo adattivo del backstepping di veicoli ipersonici con vincoli di input], 上海 航天 [Aerospace Shanghai ], vol.
34, n. 6 (giugno 2017), pagg. 26–35; e Ma, Y. (马 宇) e Cai, Y. (蔡远利), '面向 高超 声速 飞行器 的 新型 复合 神经
网络 预 测 控制 方法' [Un nuovo metodo di controllo predittivo del modello composito basato sulla rete neurale per veicoli
ipersonici],西安 交通 大学 学报 [Journal of Xi'an Jiaotong University], vol. 51, n. 6 (giugno 2017), pagg. 28–34.
8. Saalman (nota 4); Pan, L. ( 潘 亮) et al., '高超 声速 飞行器 滑翔 制导 方法 综述 ' [A survey of gliding guidance
methods for hypersonic vehicles],], 国防 科技 大学 学 [Journal of National University of Defense Technology], vol . 39. no.
3 (giugno 2017), pagg. 15-22; Zhang, K. (张凯) e Xiong, J. (熊家军), '高超 声速 滑翔 目标 多层 递 阶 轨 迹 预测'
[Previsione di traiettoria ricorsiva multilivello per veicolo di rientro planante ipersonico], 现代 防御 技 术 [Moderna Defense
Technology], vol. 46, n. 4 (agosto 2018), pagine 92–98; Wang, M. (王明昊), Liu, G. (刘刚) e Hou, H. (侯洪庆), '吸气 式 高
超 声速 飞行器 纵向 通道 控制器 设计 研究' [Design del controller longitudinale per veicolo ipersonico a respirazione
d'aria] , 计算机 测量 与 控制 [Computer Measurement & Control], vol. 21, n. 4 (aprile 2013), pagg. 955–58; Yao, C. (姚 从
潮) et al., '一种 高 超音速 飞行器 轨迹 线性 化 控制 方法 研究' [Ricerca sul metodo di controllo della linearizzazione
della traiettoria per veicoli ipersonici], 计算机 仿真 [Computer Simulation], vol. 29, n. 12 (dicembre 2012), pagg. 80–85.
9. Wang, S. et al., "Controllo neurale delle dinamiche di volo ipersoniche con guasto e vincoli dell'attuatore", Science China
Information Sciences, vol. 58, n. 7 (luglio 2015).
10. Zhen, Z. (甄 子 洋) et al., '基于 自适应 控制 的 近 空间 高超 声速 飞行器 研究 进展 ' [Avanzamento della
ricerca del controllo adattivo per veicoli ipersonici nello spazio vicino], 宇航 学报 [Journal of Astronautics], vol . 39, n. 4
(aprile 2018), pagg. 355–67.
11. Zhang et al. (nota 7); e Wei, X. ( 魏喜庆) et al., '基于 Singer 模型 的 高超 声速 飞行器 轨迹 跟踪 与 预测 '
[Tracciamento e previsione della traiettoria del veicolo ipersonico basato sul modello Singer], 航天 控制 [Aerospace Control],
vol. 35, n. 4 (aprile 2017), pagg. 57–61.
12. Wang et al. (nota 8); Guo, X. (郭 相 科) et al., '一种 新 的 临空 高超 声速 飞行器 滑 跃 段 跟踪 算法' [Un nuovo
algoritmo di tracciamento per veicolo ipersonico vicino allo spazio in fase di salto in planata], 宇 航 学 报 [Journal of
Astronautics] , vol. 38, n. 9 (settembre 2017), pagg. 971–78; e Hu, C. (胡超芳) et al., '高超 声速 飞行器 模糊 自适应 动
态 面容 错 控制' [Fuzzy adaptive dynamic surface fault-tolerant control for hypersonic veicoli], 天津 大学 学报 (自然科
学 与 工程 技术 版) [ Journal of Tianjin University (Science and Technology)], vol. 50, n. 5 (maggio 2017), pp. 491–95.
13. Ma e Cai (nota 7); Wang, F. (王芳), ‘基于 反 步法 的 高超 声速 飞行器 鲁棒 自适应 控制’ [Robust adaptive
control of hypersonic vehicle based on backstep method], Dissertation, Tianjin University, 2014; e Yao et al. (nota 8).
14. Li, S. (李 霜天) e Duan, H. (段 海滨), '基于 人工 蜂群 优化 的 高超 声速 飞行器 在线 参数 辨识' [Approccio
artificiale della colonia di api all'identificazione online dei parametri per il veicolo ipersonico], 中国 科学: 信息 科学 [Scientia
Sinica Informationis], vol. 42, n. 11 (novembre 2012), pagg. 1350–63.
15. Fan, C. (樊晨霄) et al., '临近 空间 高超 声速 飞行器 协同 制导 控制 总体 技术 研究 ' [Progettazione del
sistema di guida cooperativa e controllo di veicoli ipersonici nello spazio vicino], 战术 导弹 技术 [Tecnologia missilistica
tattica], Aprile 2018, pagg. 52–58; e Zong, Q. ( 宗 群), ‘高超 声速 飞行器 建模 与 自主 控制 技术 研究 进展’
[Nuovo sviluppo della modellazione e del controllo autonomo per veicoli ipersonici], 科 技 导 报 [Science & Technology
Review], vol. 35, n. 21 (maggio 2017), pp. 95-106.
16. Zhao, H. (赵贺伟) et al., '高超 声速 飞行器 自适应 神经 网络 控制 ' [Adaptive neural network controller design for
hypersonic vehicle], 固体 火箭 技术 [Journal of Solid Rocket Technology], vol. 40, n. 2 (febbraio 2017), pagg. 257–63.
17. Fan et al. (nota 15), p. 53 (traduzione dell'autore). Vedere anche Ren, Z. ( 任 章) e Yu, J. (于 江龙), '多 临近 空间 拦截 器
编队 拦截 自主 协同 制导 控制 技术 研究' [Ricerca sul controllo della guida cooperativa autonoma per l'intercettazione della
formazione di più near space intercceptors], 导航 定位 与 授 时 [Navigation Positioning & Timing], vol. 5, n. 2 (marzo 2018),
pagg. 1–6.
18. Wang, Q. (王庆 洋) et al., '临近 空间 高超 声速 飞行器 气 动力 及 气动 热 研究 现状' [Stato della ricerca sulla forza
aerodinamica e sul calore dei veicoli di volo ipersonici nello spazio vicino], 气体 物 [Fisica dei gas ], vol. 2, no. 4 (luglio 2017).
19. Zhen et al. (nota 10).
20. Fan et al. (nota 15); e Zhen et al. (nota 10).
21. Fan et al. (nota 15); e Zhen et al. (nota 10).
22. Ren e Yu (nota 17).
23. Saalman (nota 5).
5. Applicazioni dell'apprendimento automatico in Corea del
Nord e Corea del Sud

Hwang Ji-Hwan *

L'applicazione dell'intelligenza artificiale (AI) nelle arene nucleari e militari è estremamente riservata sia nella
Repubblica Democratica Popolare di Corea (RPDC o Corea del Nord) che nella Repubblica di Corea (Corea
del Sud). Tuttavia, alcune informazioni sono disponibili in open source. Questo saggio offre una breve
panoramica dei dati open source sui progressi nell'apprendimento automatico per ciascuno dei due paesi, con
particolare attenzione all'apprendimento automatico. Inizia (nella sezione I) con una discussione sulle varie
piattaforme abilitate all'IA in fase di sviluppo da parte della Corea del Sud.
Quindi passa (nella sezione II) agli sviluppi dell'apprendimento automatico della Corea del Nord esaminando i
materiali open source disponibili.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono


necessariamente quelle di alcuna organizzazione a cui è affiliato.

I. Corea del Sud

Il governo sudcoreano è stato recentemente coinvolto attivamente in quella che è nota come la quarta
rivoluzione industriale, caratterizzata come la fusione di tecnologie fisiche, biologiche e cibernetiche. 1 Come
parte di questa spinta, il suo Ministero della scienza e della tecnologia dell'informazione e della comunicazione
ha delineato ciò che potrebbe essere chiamato "ICBM" digitale della Corea del Sud, che comprende Internet
delle cose, cloud computing, big data e tecnologia mobile. 2 Questo lavoro procede sotto gli auspici
dell'Intelligence Information Task Force. Questo gruppo ha anche intrapreso una cooperazione con il Ministero
della Difesa Nazionale (MND) sull'applicazione di queste nuove tecnologie negli affari militari, con un focus
particolare sull'integrazione dell'IA nella gestione delle armi e della difesa.
Tuttavia, la Corea del Sud è nelle fasi iniziali dell'applicazione militare dell'apprendimento automatico e
continua a rimanere indietro rispetto ad altri paesi. Ciò è dovuto in gran parte alla mancanza di investimenti,
ricerca e sviluppo legati all'IA. È ulteriormente ostacolato dalla scarsità di big data, che è fondamentale per il
progresso delle applicazioni di apprendimento automatico in ambito militare. Data la relativa novità di queste
tecnologie, il governo e le aziende sudcoreane non hanno avuto abbastanza tempo per accumulare i
necessari archivi di informazioni o big data, tanto meno per sviluppare le leggi e le istituzioni nazionali
necessarie per governare questi progressi. Vi è anche una grave mancanza di cooperazione militare-
industriale e una mancanza di esperienza nell'apprendimento automatico nelle aree non governative in cui
viene condotta la maggior parte della ricerca sull'apprendimento automatico. Infine, la Corea del Sud deve
affrontare ostacoli a causa delle lente procedure burocratiche che ritardano lo sviluppo dell'apprendimento
automatico e di altre applicazioni di intelligenza artificiale sia in ambito governativo che non governativo, a
volte con conseguente rifiuto di queste nuove tecnologie.
Come risultato di questi impedimenti, la Corea del Sud non ha un progetto di machine learning militare
completo come il Project Maven degli Stati Uniti, che mira a sviluppare e integrare gli algoritmi di visione
artificiale necessari per aiutare gli analisti militari e civili gravati dall'enorme volume di -dati video sui movimenti
che [il Dipartimento della Difesa degli Stati Uniti] raccoglie ogni giorno a sostegno delle operazioni di contrasto
alla rivolta e antiterrorismo”.3 Sebbene il governo e le società della Corea del Sud siano interessati a questo
progetto, non hanno la capacità di svilupparne uno simile. Tuttavia, l'MND ha alcuni progetti di machine
learning su scala ridotta e progetti più generali relativi all'IA. Ad esempio, sta sviluppando un veicolo da
combattimento senza pilota, noto come robot Gyun-Ma ( 견 마 ), per l'uso segnalato per il rilevamento, le
comunicazioni, la sorveglianza e la ricognizione. 4

La Corea del Sud ha anche lavorato a due progetti sul software AI che si occupa di elaborazione e risposta
delle informazioni: Exobrain, un progetto finanziato dal governo, e ADAMs, un'iniziativa privata di Saltlux, una
società di cognitive computing. 5 Questi illustrano il ruolo sia del governo che dell'industria privata, senza offrire
molti dettagli sulla collaborazione. Tuttavia, ADAM possiede l'intelligenza per capacità linguistiche, visive,
emotive e di ragionamento che possono essere applicate a comando, controllo, comunicazioni, computer,
intelligenza, sorveglianza e ricognizione (C4ISR). La Corea del Sud ha anche condotto ricerche sulla
tecnologia software interattiva di movimento omnidirezionale per supportare gli esercizi dei soldati virtuali. 6
Questa iniziativa ha lo scopo di creare un ambiente di combattimento simulato per i soldati utilizzando la
tecnologia di apprendimento automatico fornita dai big data.
Tutte le tecnologie sopra menzionate sono ancora nelle loro fasi iniziali e devono affrontare molti ostacoli al
loro impiego nell'esercito sudcoreano. Tuttavia, dato il forte background della Corea del Sud nella tecnologia
dell'informazione, è ben posizionata per costruire un apprendimento automatico avanzato legato alle forze
armate e altri tipi di tecnologia di intelligenza artificiale nel prossimo futuro.

II. Corea del nord

Proprio come in altre aree, la Corea del Nord tende ad essere una scatola nera quando si tratta di sviluppo di
AI e applicazioni di machine learning. Tuttavia, si dice che mantenga un forte interesse per queste tecnologie.
Anche se ha compiuto sforzi per applicare questa nuova tecnologia negli affari militari, queste informazioni
sono altamente riservate dato l'ambiente di sicurezza nella penisola coreana. Tuttavia, il governo nordcoreano
ha recentemente sottolineato l'importanza delle tecnologie dell'informazione e della comunicazione (TIC). In
particolare, il leader nordcoreano, Kim Jong Un, enfatizza le TIC avanzate come uno dei pilastri principali dello
sviluppo economico del paese, meritando la priorità nei suoi sforzi di sviluppo. 7
Inoltre, visti gli sforzi sostanziali della Corea del Nord nel cyberspazio, è probabile che abbia cercato di
sviluppare l'apprendimento automatico e l'intelligenza artificiale più in generale per usi militari.
Pertanto, mentre queste tecnologie sembrano essere nelle prime fasi di sviluppo, hanno iniziato a diventare
evidenti in arene non militari, con implicazioni militari a duplice uso.
Ad esempio, la Corea del Nord ha iniziato a sviluppare la propria versione del gioco basata sulla tecnologia AI
e ha cercato di applicare la tecnologia ad altre aree. 8
Si ritiene inoltre che la Corea del Nord abbia organizzato concorsi TIC per incoraggiare l'espansione di questa
serie di abilità tra i suoi giovani. Anche il College of Computer Science della Kim Il Sung University ha
sviluppato un proprio sistema di riconoscimento vocale, Ryongnamsan ( 룡 남 산 ) 5.1, e il Natural Science
Institute ha sviluppato un sistema di riconoscimento facciale e di impronte digitali. 9 La Kim Chaek University of
Technology ha sviluppato un programma di interpretazione multilingue, noto come Genius ( 신 동 ). Secondo
quanto riferito, anche l'AI Institute del Korea Computer Center è alla guida dell'IA e degli sviluppi relativi
all'apprendimento automatico in Corea del Nord. 10
Sebbene in particolare privi di trasparenza, alcune ricerche sull'apprendimento automatico e sull'intelligenza
artificiale sono state pubblicate nelle sezioni scientifiche del Kim Il Sung University Journal. In particolare,
questa rivista ha recentemente pubblicato un articolo sulla classificazione audio utilizzando una rete di
credenze profonde (DBN), un esempio di machine learning. 11 Ciò dimostra l'esistenza e il livello della ricerca
nordcoreana. Mostra anche che la tecnologia di apprendimento automatico della Corea del Nord è in una fase
iniziale poiché imita la ricerca straniera. Molto resta sulla base della precedente ricerca dell'accademico
canadese Geoffrey Hinton sugli algoritmi di apprendimento rapido per i DBN. 12 Tuttavia, l'acquisizione e
l'integrazione dell'apprendimento automatico richiedono una base. Pertanto, mentre le fonti disponibili
suggeriscono che la tecnologia in Corea del Nord è molto indietro rispetto a quella della Corea del Sud, i suoi
rapidi progressi nelle operazioni informatiche e nelle TIC indicano che ci si può aspettare che nel prossimo
futuro svilupperà l'apprendimento automatico e altri tipi di tecnologia di intelligenza artificiale e da applicare.
loro negli affari militari.

1. Vedi ad es. Ministero della scienza e della tecnologia dell'informazione e della comunicazione della Corea del Sud,
"Politiche". Sulla quarta rivoluzione industriale vedi ad es. Schwab, K., The Fourth Industrial Revolution (Penguin: London,
2017).
2. Ministero della Scienza e delle TIC della Corea del Sud, "La Repubblica di Corea percorre la grande strada della quarta
rivoluzione industriale", consultato il 10 agosto 2019.
3. Shanahan, J., Dipartimento della difesa degli Stati Uniti, "Disruption in UAS: the Algorithmic Warfare Cross-Functional Team
(Project Maven)", presentazione, Royal Australian Air Force, Airpower Development Center, 20 marzo 2018; e Pellerin, C.,
"Project Maven industry day persegue l'intelligenza artificiale per le sfide DOD", Dipartimento della difesa degli Stati Uniti, 27
ottobre 2017.
4. Kim, M., "L'esercito sudcoreano sta raggiungendo un nuovo esercito di droni", Security Times, febbraio 2018; e Shin, J., 'S.
La Corea punta a diventare no. 4 giocatori di robotica entro il 2023 ", Korea Herald, 22 marzo 2019.
5. Prakash, A., "South Korean AI vede uno sviluppo continuo, investimenti", Robotics Business Review, 1 maggio 2018; e
Park, S., "Saltlux svela il software di intelligenza artificiale ADAMs: Yonhap", Aju Business Daily, 23 novembre 2016.
6. Fonti globali, "Prodotti da ED Co., Ltd: robot mobile omnidirezionale".
7. Jakhar, P., "Attività high-tech della Corea del Nord: propaganda o progresso?", BBC, 15 dicembre 2018.
8. Choi, S., "North Korea’s artificial intelligence go software", Korea IT Times, 4 gennaio 2011.
9. Ji, D., "Facial, voice recognition software on display at North Korean IT exhibit", NK News.org, 23 novembre 2017.
10. Kang, J. (강진규), ‘김정은 시대 북한 IT 현황 과 기술 수준’ [stato IT della Corea del Nord e livello tecnologico
sotto Kim Jong Un], Digital Hurricane, 17 maggio 2018.
11. Ri, J. (리 정철) e Hyon, S. (현성 군), '음소 음성 인식 에서 심층 신뢰 망 을 리용 한 한가지 음향 모형화 방법'
[Un metodo di modellazione acustica basato su Deep Belief Networks nella conversazione telefonica riconoscimento], 김일성
종합 대학 학보: 자연 과학 [Kim Il Sung University Journal: Natural Science], vol. 62, n. 8 (agosto 2016), pagine 30–34.
12. Su Hinton vedi Boulanin, V., "Artificial intelligence: a primer", ed. V. Boulanin, The Impact of Artificial Intelligence on
Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic Perspectives (SIPRI: Stoccolma, maggio 2019), pp. 13-25, p. 17.
6. Sviluppi militari nell'intelligenza artificiale e loro impatto
sulla penisola coreana

Su Fei *

Le applicazioni dell'intelligenza artificiale (AI) in ambito militare da parte della Repubblica Democratica
Popolare di Corea (RPDC o Corea del Nord) e della Repubblica di Corea (Corea del Sud) si concentrano su
due piattaforme: sistemi senza pilota e tecnologie informatiche.
Dato che una delle maggiori preoccupazioni per la sicurezza nella penisola coreana rimane il programma
nucleare della Corea del Nord, è fondamentale capire come le applicazioni di intelligenza artificiale in queste
due piattaforme possano influenzare il rischio nucleare e la stabilità strategica nella penisola coreana.
Questo saggio continua (nella sezione I) descrivendo in dettaglio i progressi della Corea del Sud abilitati
dall'intelligenza artificiale nei sistemi senza pilota e nel cyberspazio. Quindi (nella sezione II) passa in
rassegna i progressi della Corea del Nord nelle reti neurali artificiali, nella robotica, nei sistemi senza pilota e
nel cyberspazio sulla base di una revisione di articoli di giornale. Utilizzando questa base tecnologica, il saggio
analizza quindi (nella sezione III) come questi sviluppi possano avere un impatto sulla stabilità nella penisola
coreana a livello nucleare. Conclude (nella sezione IV) discutendo le previsioni a breve e lungo termine in
caso di proliferazione della tecnologia di intelligenza artificiale a duplice uso.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono


necessariamente quelle di alcuna organizzazione a cui è affiliata.

I. Corea del Sud

Gli sforzi per applicare l'IA per uso difensivo possono essere visti sia nell'esercito sudcoreano che nella
cooperazione tra i settori pubblico e privato.
All'inizio del 2019, l'esercito sudcoreano ha lanciato un centro di ricerca e sviluppo di intelligenza artificiale. 1
L'obiettivo a breve termine di questo centro è costruire la visione e il concetto per le applicazioni militari dell'IA
e sviluppare la prossima generazione di potenza di combattimento. .
Allo stesso fine, il Korea Advanced Institute of Science and Technology (KAIST) ha annunciato nel febbraio
2018 che avrebbe collaborato con Hanwha Systems, l'unità aziendale della difesa di Hanwha Group, per
ricercare e sviluppare armi AI. 2 La loro cooperazione sulla tecnologia AI militare comprende quattro progetti:
algoritmi di navigazione per veicoli sottomarini senza pilota su larga scala (UUV), sistemi di comando basati
sull'IA, sistemi di addestramento per l'aviazione basati sull'IA e tecniche di tracciamento degli oggetti basate
sull'IA. Per supportare questi sforzi, KAIST ha istituito il Centro di ricerca per la convergenza della difesa
nazionale e dell'intelligenza artificiale con il supporto di Hanwha Systems. Oltre ai quattro progetti di cui sopra,
questo centro conduce anche ricerche relative alla guerra informatica e alla robotica AI. 3
Alla base di ciò, il Ministero della Difesa Nazionale della Corea del Sud (MND) ha identificato i veicoli aerei
senza pilota (UAV), inclusi UAV ad alta quota e veicoli aerei da combattimento senza pilota (UCAV), come uno
dei nuovi domini per rafforzare la capacità di combattimento. 4 L'esercito sudcoreano ha anche annunciato nel
2017 la sua intenzione di istituire un'unità specializzata, chiamata Dronebot Jeontudan ( 드론 봇 전투단 ), per
azionare UAV e veicoli terrestri senza pilota. 5
La Corea del Sud ha almeno tre ragioni fondamentali per cercare di adottare sistemi senza pilota nelle sue
forze armate. In primo luogo, la portata di queste piattaforme in terreni complessi come le alte e ripide
montagne della penisola coreana può fornire una migliore sorveglianza e ridurre errori di calcolo quando si
verifica un conflitto. In secondo luogo, i vicini della Corea del Sud, compresa la Corea del Nord, hanno già
operato sistemi e sciami senza pilota. Nel 2014 e nel 2016, gli UAV nordcoreani erano già stati avvistati
mentre si intromettevano nello spazio aereo sudcoreano.6 Terzo, gli UAV possono essere usati per
contrastare le provocazioni non nucleari della Corea del Nord senza vittime umane. 7
Un altro ambito a cui la Corea del Sud ha prestato particolare attenzione è la guerra informatica. Ciò è in gran
parte dovuto ai frequenti attacchi informatici che il paese ha dovuto affrontare, che sono stati collegati alla
Corea del Nord sia tramite canali governativi ufficiali sia tramite società tecnologiche e di software. 8 Un
esempio recente si è verificato nel gennaio 2019, quando un gruppo di giornalisti del Ministero
dell'Unificazione della Corea del Sud, responsabile delle relazioni con la Corea del Nord, ha ricevuto un invito
pieno di malware a una conferenza stampa per il secondo vertice tra il presidente Donald J. Trump degli Stati
Uniti e il leader nordcoreano, Kim Jong Un. 9 Mentre il ministero sta ancora indagando sull'incidente, una
società di sviluppo software con sede a Seoul, ESTsecurity, ha già attribuito l'hack a fonti nordcoreane.
Per prevenire e contrastare gli attacchi informatici, la Corea del Sud sta valutando lo sviluppo di mezzi basati
sull'intelligenza artificiale per la diagnosi precoce e la risposta alle minacce informatiche. 10 La prima strategia
nazionale per la sicurezza informatica della Corea del Sud, pubblicata nell'aprile 2019, afferma esplicitamente
che "amplierà l'ambito di rilevamento degli attacchi informatici per consentire il rilevamento e il blocco in tempo
reale e sviluppare tecnologie di risposta basate sull'intelligenza artificiale". 11 In particolare, la Korea Internet
and Security Agency (KISA) ha utilizzato i big data e le tecnologie di deep learning per comprendere meglio
come le macchine possono identificare e rilevare le minacce sulla base delle informazioni raccolte. Si è inoltre
concentrato sull'uso di sistemi autonomi per analizzare le vulnerabilità e per generare possibili soluzioni per gli
attacchi. Infine, ha lavorato sulla previsione delle minacce informatiche sulla base di informazioni note. 12

II. Corea del nord

L'interesse della Corea del Nord per lo sviluppo della tecnologia AI è già evidente nei settori civili e c'è un
grande potenziale per l'integrazione di questa tecnologia nei sistemi d'arma. Una delle applicazioni più
probabili è attraverso capacità informatiche avanzate. Un documento accademico pubblicato nel 2018 sul Kim
Il Sung University Journal dimostra che la Corea del Nord sta ricercando miglioramenti nel rilevamento di
operazioni informatiche intrusive tramite reti neurali artificiali e algoritmi genetici. 13
Oltre alle capacità difensive, si teme che la Corea del Nord sviluppi la capacità di condurre attacchi informatici
abilitati dall'intelligenza artificiale. 14
La Corea del Nord ha dimostrato di essere capace e disposta a utilizzare le proprie capacità informatiche per
condurre operazioni informatiche dirompenti. Presumibilmente è stato coinvolto in una serie di incidenti
informatici, come l'attacco informatico del 2014 a Sony Pictures e l'incidente di WannaCry del 2017 che ha
colpito oltre 150 paesi.15 Quando la Corea del Nord si trova di fronte a sanzioni internazionali, le sue
operazioni informatiche hanno portato guadagni finanziari e inserito questo piccolo e isolato paese
ulteriormente nel discorso politico internazionale. Le operazioni informatiche rappresentano un mezzo e
un'opportunità economicamente vantaggiosi per la Corea del Nord per proiettare il proprio potere, nonostante
le dimensioni e la forza limitate delle sue forze armate. È fondamentale per la strategia nazionale della Corea
del Nord e ci saranno maggiori investimenti in questo campo negli anni a venire. 16
Al di fuori del dominio cibernetico, anche la Corea del Nord si sta concentrando sugli sviluppi della robotica.
Un rapporto di ricerca pubblicato dalla Kim Il Sung University nel 2018 rivela che la Corea del Nord sta
lavorando all'applicazione di reti neurali in robot mobili autonomi. 17 Un altro documento mostra che la Corea
del Nord sta studiando come misurare la distanza e riconoscere gli ostacoli quando operano robot autonomi. 18
Tali tecnologie possono essere potenzialmente utilizzate per migliorare le sue capacità UAV.
Ad esempio, l'applicazione di reti neurali utilizzando database di immagini può consentire una migliore
valutazione dell'ambiente circostante. 19
In effetti, gli interessi della Corea del Nord nello sviluppo di UAV possono essere fatti risalire agli anni '70.
Negli ultimi decenni ha compiuto sforzi costanti per produrre e migliorare la sua capacità UAV ottenendo
tecnologia straniera e importando prodotti stranieri. 20
Non è chiaro quante piattaforme senza pilota possieda la Corea del Nord in totale. Un rapporto del 2016 per il
Consiglio di sicurezza delle Nazioni Unite stima il numero a 300, mentre nel 2017 gli esperti sudcoreani ne
stimavano 1000.21 Inoltre, UAV autodistruggenti sono stati esposti a una parata militare nel 2013. 22
La Corea del Nord ha anche lavorato alla miniaturizzazione degli UAV. Nel 2016 ha ridotto le dimensioni a un
metro, che è circa un terzo delle dimensioni degli UAV che si sono schiantati in Corea del Sud nel 2014. 23
Piattaforme così piccole sono difficili da rilevare per i radar sudcoreani. Tuttavia, con gli sforzi della Corea del
Sud per implementare sistemi contro-UAV per rilevare questi piccoli dispositivi, resta da vedere fino a che
punto questa tecnologia autonoma possa influenzare la ricognizione. 24 Uno degli ostacoli affrontati dagli UAV
della Corea del Nord, almeno nel caso di quello riscontrato nel 2017 in Corea del Sud, è la mancanza di un
sistema di guida all'atterraggio autonomo. 25

III. L'impatto sulla penisola coreana

Sistemi senza pilota

Una delle principali preoccupazioni sui sistemi senza pilota è la possibilità che uno stato dotato di armi
nucleari utilizzi un UAV o UUV per fornire un'arma nucleare come alternativa a un missile balistico
intercontinentale (ICBM). Tale tecnologia esiste già e la Corea del Nord possiede già testate nucleari. 26
Tuttavia, i vincoli tecnologici e le sanzioni internazionali indicano che è improbabile che questo sviluppo si
verifichi in Corea del Nord nel prossimo futuro. Sebbene la Corea del Nord abbia trovato i mezzi per aggirare i
vincoli finanziari attraverso mezzi informatici, le sanzioni hanno reso difficile importare i componenti e le
tecnologie necessarie.
Al contrario, la Corea del Sud ha le basi economiche e tecniche che consentono una migliore integrazione
della tecnologia AI nei suoi sistemi senza pilota. Uno sviluppo in Corea del Sud che potrebbe influire sui rischi
nucleari nella penisola coreana è Dronebot Jeontudan. Lo scopo principale di questa unità è svolgere compiti
di ricognizione
prendendo di mira i siti nucleari e missilistici della Corea del Nord. Potrebbe anche lanciare attacchi di sciami
in caso di conflitto. 27 A seconda dell'effetto reale quando l'unità opera, questo ha il potenziale per minare le
capacità di deterrenza nucleare della Corea del Nord.

Operazioni informatiche

Le operazioni informatiche sono uniche in quanto consentono alla Corea del Nord la portata geografica e la
portata di colpire gli Stati Uniti, che storicamente hanno fornito alla Corea del Sud protezione tramite una
deterrenza estesa sotto il suo ombrello nucleare. Rispetto alle operazioni informatiche più limitate della Corea
del Sud, che sono per lo più di natura difensiva, la Corea del Nord sembra più disposta a utilizzare strumenti
informatici per operazioni offensive.
Gli attacchi informatici abilitati dall'intelligenza artificiale possono facilitare l'identificazione da parte della Corea
del Nord delle vulnerabilità zero-day nei sistemi informatici della Corea del Sud e degli Stati Uniti. In questo
caso, i sistemi di comando, controllo e comunicazione nucleare (NC3) potrebbero essere compromessi e la
deterrenza nucleare estesa degli Stati Uniti per conto della Corea del Sud potrebbe perdere la sua efficacia. 28
Nel frattempo, negli Stati Uniti si è discusso sull'opzione di attacchi informatici "a sinistra del lancio" che
sconfiggerebbero le minacce nucleari poste dalla Corea del Nord prima che fosse in grado di lanciare un
missile nucleare.29 Tali attività suggeriscono che è necessario prestare maggiore attenzione alle dimensioni
cyber della deterrenza abilitate dall'intelligenza artificiale.

IV. Conclusioni

Molti degli sviluppi nelle applicazioni dell'IA ai sistemi senza pilota e alle operazioni informatiche sia nella
Corea del Nord che nella Corea del Sud rimangono in corso. È difficile valutare con precisione i loro possibili
impatti in questa fase.
È evidente che entrambi i paesi desiderano integrare l'IA nei loro sistemi d'arma militari. Tuttavia, le
implicazioni per il rischio nucleare rimangono limitate a causa dei vincoli tecnologici. Ciò, tuttavia, non esclude
possibili progressi e persino balzi in avanti di questi due paesi nell'uso militare dell'IA. In particolare, alcune
tecnologie AI a doppio uso potrebbero proliferare in Corea del Nord per aumentare le sue capacità militari e
questa rimane una tendenza da tenere d'occhio.

1. Dominguez, G., "RoKAF to launch AI research center", Jane’s Defense Weekly, 31 dicembre 2018.
2. Hanwha Systems, ‘ 한화 시스템 – KAIST, 국 방 AI 기술 개발 나선다’ [Hanwha Systems – KAIST step up the
development of defence AI technology], 20 febbraio 2018.
3. Korea Advanced Institute of Science and Technology (KAIST), "KAIST 2018 안 보 / 국 방 융 합 4.0 포 럼 환 영 사 "
[Welcome to the KAIST 2018 Security - Defense Convergence 4.0 Forum], 23 marzo 2018.
4. Ministero della Difesa Nazionale della Corea del Sud (MND), 2019 년 국방부 업무 보고: 국민 과 함께 - 평화 를
만드는 강한 국방 [Rapporto del Ministero della Difesa Nazionale 2019: con il popolo - difesa forte per fare la pace] (MND:
Seoul, 20 dicembre 2018).
5. Wong, K., "DX Korea 2018: RoKA delinea i piani per la nuova unità" Dronebot Warrior ", Jane's Defense Weekly, 14
settembre 2018.
6. Ahn, J. H., "Drone nordcoreano avvistato vicino al confine", NK News.org, 13 gennaio 2016.
7. Hironaka, M. e Yoon, S., "Droni proliferati: una prospettiva sul Giappone", Center for New American Security, [giugno 2016].
8. Park P., "Gli esperti esaminano l'approccio asiatico alla sicurezza informatica", Order from Chaos, Brookings, 28 agosto
2018.
9. "Gli hacker sostenuti dalla Corea del Nord intensificano la guerra delle informazioni, i furti finanziari", Korea Herald, 26
marzo 2019.
10. Ministero della Difesa Nazionale della Corea del Sud (nota 4).
11. Ufficio per la sicurezza nazionale della Corea del Sud, National Cybersecurity Strategy (National Security Office: Seoul,
aprile 2019, pag.16.
12. Korea Internet and Security Agency (KISA), "정보 보호 원천 기술 개발 및 보급" [Development and dissemination of
information safety technology], consultato il 23 maggio 2019.
13. Pak, S. (박성호) e Hwang, C. (황철진), '망 침입 검출 에서 속성 선택 에 의한 성능 개선' [Miglioramento delle
prestazioni tramite la selezione degli attributi nel sistema di rilevamento delle intrusioni di rete], 김일성 종합 대학 학보:
정보 과학
[Kim Il Sung University Journal: Information Science], vol. 64, n. 2 (2018), pagg. 34–39. Vedi anche Kang, J. ( 강진규) ‘북한,
보안 에 AI 적용 을 추진하고 있다’ [La Corea del Nord sta spingendo l'IA nella sicurezza], NK 경제 [NK
Economy], 6 novembre 2018.
14. '中 露 、 サ イ バ ー 攻 撃 に AI 活用 北 も 能力 獲得 か 手 口 を 学習 、 標的 選定 も 元 在 日 米 軍
司令部 サ イ バ ー セ キ ュ リ テ ィ ー も 能力 獲得 か手 口 を 学習 、 標的 選定 も 元 在 日 米 軍 司令
部 サ イ バ ー セ キ ュ リ テ ィ ー 長 が 'acquisire abilità, imparare trucchi e selezionare bersagli], Sankei Shimbun,
14 febbraio 2018; e Goud N., "La Corea del Nord, la Cina e la Russia lanciano l'iper guerra, afferma la NATO", Cybersecurity
Insiders, consultato il 25 luglio 2019.
15. Dipartimento di giustizia degli Stati Uniti, "programmatore sostenuto dal regime nordcoreano accusato di cospirazione per
condurre molteplici attacchi informatici e intrusioni", 6 settembre 2018.
16. Jun, J., LaFoy, S. e Sohn, E., Operazioni cibernetiche della Corea del Nord: strategia e risposte (Centro per gli studi
strategici e internazionali: Washington, DC, dicembre 2015); e Ko, L., "North Korea as a geopolitical and cyber actor", New
America, 6 giugno 2018.
17. Kang, J. ( 강진 규 ), " 북 한 , AI 적 용 이 동 형 로봇 연 구 중 [La Corea del Nord sta studiando l'applicazione della
tecnologia AI nei robot mobili]", NK 경제 [NK Economy], 4 ottobre 2018.
18. Han, H. (한학수) e Choe M. (최 명성), '안내 로보트 의 항행 을 위한 촬영기 와 레이 자 거리 수감부 의 교정
에 대한 연구' [Ricerca della calibrazione estrinseca di una fotocamera e di un raggio laser 2D sensore per la navigazione
del robot guidato], 김일성 종합 대학 학보: 자연 과학 [Kim Il Sung University Journal: Natural Science], vol. 63, n. 12
(dicembre 2016), pagg. 39–41. Vedi anche Kang T., "North Korea’s quest for autonome technology", The Diplomat, 13 luglio
2018.
19. Horowitz, M. C., "Intelligenza artificiale, concorrenza internazionale e equilibrio di potere", Texas National Security Review,
vol. 1, n. 3 (maggio 2018).
20. Bermudez, J. S., "North Korea drones on", 38 North, 1 luglio 2014.
21. Nazioni Unite, Consiglio di sicurezza, Rapporto del gruppo di esperti presentato ai sensi della risoluzione 1874 (2015), 18
gennaio 2016, S / 2016/157, 24 febbraio 2016; e Chung, G. ( 정구연) e Lee, K. (이기태), 과학 기술 발전 과 북한 의
새로운 위협 : 사이버 위협 과 무인기 침투 [Sviluppo scientifico e tecnologico e nuove minacce in Corea del Nord:
minacce informatiche e infiltrazione senza equipaggio] (Coreano Institute for National Unification: Seoul, dicembre 2016).
22. Lee, D. (이대우), ‘북한 무인기: 새로운 비대칭 무기’ [North Korean UAVs: A new asymmetric weapon], 정세 와
정책 [Situation and policy], maggio 2014, Sejong Institute.
23. "北 1m 신형 무인기 첫 확인 ..." 휴전선 도발 우려 "" [Prima conferma del nuovo UAV da 1 metro della Corea del
Nord: "DMZ provocation fear"], KBS News, 18 luglio 2016; e "Seoul examines" North Korea drone "", BBC, 2 aprile 2014.
24. Governo sudcoreano, ‘국지 방공 레이더 연구 개발 성공! 북한 소형 무인기 까지 탐지 가능해 ... ’[Successo nella
ricerca e nello sviluppo di radar nazionali! È possibile rilevare piccoli droni nordcoreani], Comunicato stampa, 14 luglio 2017.
25. Ahn, J. H., "Cosa rivela l'incidente di un drone nordcoreano sugli UAV del paese", NK News.org,
22 giugno 2017.
26. Mizokami, K., "What’s in North Korea’s drone arsenal", Popular Mechanics, 22 gennaio 2016 .; e Nuclear Threat Initiative,
"North Korea", visitato il 21 agosto 2019.
27. "La Corea del Sud per creare" "unità di combattimento drone-bot" per sciamare al Nord ", Financial Times, 6 dicembre
2017; e "S. L'esercito coreano formerà un'unità di droni armati il prossimo anno ", Yonhap News, 5 dicembre 2017.
28. Avin, S. e Amadae, S. M., "Autonomia e apprendimento automatico all'interfaccia di armi nucleari, computer e persone",
ed. V. Boulanin, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic Perspectives
(SIPRI: Stoccolma, maggio 2019), pp. 105-18, p. 107.
29. Ellison, R., "Left of launch", Missile Defense Advocacy Alliance, 16 marzo 2015; e Panda, A., "Il modo giusto per gestire
una Corea del Nord nucleare", Affari esteri, 19 novembre 2018.
7. Intelligenza artificiale e progressi militari in Russia

Vasily Kashin *

La tecnologia di intelligenza artificiale (AI), in particolare l'apprendimento automatico, è tra le priorità chiave del
governo russo.1 In quanto tale, è probabile che gli investimenti in ricerca e sviluppo sia nel settore militare che
in quello civile godano di una posizione privilegiata nel prossimo futuro. Questo saggio offre una panoramica
dei progressi della Russia nell'intelligenza artificiale, in particolare nelle applicazioni militari. Inizia (nella
sezione I) con una revisione delle politiche di difesa e della logica economica del governo russo, spiegando la
centralità dell'IA all'interno del suo modello di sviluppo complessivo. Quindi (nella sezione II) esplora il modo in
cui l'esercito russo sta applicando l'intelligenza artificiale nei suoi sistemi militari, evidenziando i progressi nella
robotica e nei sistemi senza pilota che hanno implicazioni sia per il combattimento che per la consegna
nucleare. Il saggio si conclude (nella sezione III) con una valutazione del futuro di questi sistemi, anticipando
una maggiore cooperazione con la Cina in futuro.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono


necessariamente quelle di alcuna organizzazione a cui è affiliato.

I. Politiche di difesa russe e basi economiche per l'IA

Le politiche di difesa della Russia sono dirette, essendo progettate per mantenere la credibilità delle sue
capacità di deterrenza e la competitività delle sue industrie di difesa interne. La sfida sta nel fatto che la
Russia deve farlo di fronte ai suoi mezzi finanziari limitati, a differenza degli avversari politici e dei concorrenti
industriali che dispongono di risorse molto maggiori. Il principale concorrente dell'industria russa della
tecnologia di difesa è la Cina, che sostanzialmente si rivolge agli stessi mercati di esportazione dei produttori
di armi russi (India e Vietnam sono due notevoli eccezioni). Il principale avversario politico della Russia sono
gli Stati Uniti poiché i due paesi si sono apertamente identificati come una delle principali fonti di minaccia
militare. Le relazioni politiche tra i due dovrebbero rimanere apertamente ostili per decenni.
La Russia ha un'economia molto più piccola rispetto ai suoi pari: il suo prodotto interno lordo (PIL) basato sulla
parità di potere d'acquisto nel 2018 era solo il 15,7 per cento di quello della Cina e il 19,4 per cento di quello
degli Stati Uniti.2 Anche la Russia ha lentamente diminuito le sue spese militari in percentuale del PIL e non si
prevede che aumenterà nel prossimo futuro. 3
L'unico modo per rimanere competitivi in un tale ambiente è concentrare le risorse disponibili su un insieme
limitato di priorità in arene in cui ci si può aspettare decisivi progressi tecnologici, trascurando relativamente gli
altri settori. Tra questi settori chiave, l'IA è in cima alla lista. Tuttavia, la Russia non dispone di un programma
nazionale completo per lo sviluppo dell'IA.
Nonostante il suo inizio relativamente tardivo, nel febbraio 2019 il presidente russo Vladimir Putin ha ordinato
che iniziassero i lavori su un tale programma. È attualmente in fase di sviluppo da parte del Ministero dello
sviluppo digitale, delle comunicazioni e dei mass media. 4
Putin ha sottolineato l'IA nei suoi discorsi annuali all'Assemblea federale nel 2018 e nel 2019 e ha affermato
che il paese che diventerà il leader nella tecnologia dell'IA sarà il "governatore del mondo". 5
A tal fine, AI, big data e machine learning occupano un posto di rilievo in un altro importante progetto
nazionale in corso: il programma nazionale per l'economia digitale, che è stato approvato dal Consiglio dei
ministri nel luglio 2017. 6 Questo programma mira alla modernizzazione dell'economia generale, dell'industria e
infrastruttura, con AI, big data e tecnologie neurali come tecnologie principali. 7 Il finanziamento governativo
approvato per questo programma per il 2019-24 è di 32,7 miliardi di dollari. 8 Con queste basi, la Russia è
pronta ad accelerare la sua integrazione militare dell'IA.

II. Applicazioni militari dell'IA

L'esercito russo è ancora più entusiasta dell'IA delle sue controparti civili. In campo militare, l'IA è una delle
principali aree di investimento dell'agenzia di ricerca russa per le tecnologie militari avanzate, la Russian
Foundation for Advanced Research Projects in the Defense Industry (Fond perspektivnykh issledovanii, FPI),
una controparte funzionale della US Defense Advanced Agenzia per i progetti di ricerca (DARPA). L'FPI è
impegnata nello sviluppo di standard industriali relativi all'IA per l'industria della difesa e l'economia in
generale.9
Gli analisti militari russi prevedono che i progetti di IA militare che saranno implementati più rapidamente
includeranno (a) modelli matematici di situazioni tattiche per pianificare le operazioni e calcolare la quantità di
forze e risorse necessarie per implementare i compiti; b) sistemi integrati di comando, controllo,
comunicazioni, computer, intelligence, sorveglianza e ricognizione (C4ISR);
(c) implementazione dell'IA nei sistemi di sciopero e ricognizione telecomandati; (d) sistemi autonomi per la
protezione di alcuni oggetti di alto valore; (e) sicurezza sul campo di battaglia; e (f) simulatori e sistemi di
addestramento.10
Alcuni dei sistemi di questo elenco sono già presenti nell'esercito russo.
Ad esempio, il sistema robotico Nerekhta, un piccolo veicolo da combattimento autonomo per proteggere le
strutture nucleari dai sabotatori nemici, è già stato messo in servizio dalla Forza missilistica strategica russa. 11
Ci sono anche esperimenti per integrare il sistema in unità di fanteria meccanizzata. 12 Si dice che la nuova
versione aggiornata del sistema di comando e controllo Akatsiya-M abbia un alto grado di autonomia
nell'implementazione di determinati compiti, come il controllo sull'esecuzione. di comandi e analisi di minacce
chimiche e biologiche.13

La Russia è uno dei pochi paesi che ha già acquisito una certa esperienza con l'uso di sistemi robotici terrestri
controllati a distanza nel combattimento reale. I veicoli Uran-9 - carri armati leggeri senza equipaggio con
cannoni da 30 millimetri e missili guidati anticarro - hanno mostrato alcune limitazioni quando operano insieme
ad altre truppe.
Ciò include una consapevolezza della situazione inadeguata dell'operatore del robot, che porta a difficoltà
quando si interagisce con altre unità. 14 Quindi, sebbene il veicolo sia stato adottato per la produzione di
massa, è ampiamente previsto che il suo utilizzo sarà limitato. Invece, è destinato a svolgere compiti
specializzati come la ricognizione armata contro le fortificazioni nemiche e le operazioni antiterrorismo. Inoltre,
la Russia sta cercando di ampliare l'uso della tecnologia AI in tali veicoli per renderli più autonomi. Ad
esempio, nel 2018 l'azienda produttrice di difesa Kalashnikov ha mostrato un prototipo di una torretta blindata
autonoma in grado di acquisire, identificare e ingaggiare obiettivi in modo indipendente. 15
La Russia sembra anche dare la priorità alla tecnologia dei veicoli sottomarini senza pilota (UUV) con una
nuova generazione di UUV incaricati di missioni strategiche. Un esempio è la piattaforma nucleare senza
pilota Poseidon con raggio intercontinentale (nota anche come Status-6), che è stata sottoposta a prove in
mare.16 Una delle sue missioni sarà come un sistema di consegna strategico nucleare, progettato per
migliorare il secondo -capacità di attacco. Come la Cina, la Russia sta considerando lo sviluppo degli UUV
come un modo per compensare il vantaggio complessivo degli Stati Uniti nella guerra navale. Di
conseguenza, la Russia sta investendo in importanti ricerche sull'IA.
Un'altra area in cui l'uso dell'IA sta procedendo rapidamente sono i sistemi di guerra elettronica. Tra questi ci
sono il nuovo sistema di allarme rapido RB-109A Bylina.
Secondo il produttore, questa piattaforma è in grado di funzionare autonomamente, con solo l'operatore che
fornisce la supervisione, per fornire la difesa aerea. 17
Secondo quanto riferito, l'FPI sta anche finanziando un progetto per sviluppare una tecnologia per analizzare
rapidamente le immagini satellitari utilizzando la tecnologia di apprendimento automatico. 18 strateghi e
professionisti militari russi prevedono un graduale aumento del ruolo dell'IA nelle piattaforme di combattimento
aereo, che potrebbe portare a un combattimento completamente autonomo. sistemi che avrebbero dominato
la sesta generazione di aerei da combattimento. Il veicolo aereo da combattimento senza pilota (UCAV) russo
Okhotnik è attualmente sottoposto a test e si prevede che costituirà la piattaforma di base per l'applicazione di
tale approccio.19
Con queste iniziative in corso, la fase successiva nell'uso militare dell'IA sarà molto probabilmente associata ai
progressi nella creazione di interfacce uomo-macchina, nonché a una nuova serie di sensori da includere nei
nuovi sistemi controllati dall'IA. Sono inoltre allo studio una nuova tecnologia di progettazione basata
sull'intelligenza artificiale, veicoli completamente autonomi e una nuova generazione di reti di comunicazione
altamente protette. In sostanza, si prevede che lo sviluppo dell'IA genererà importanti progressi in ogni tipo di
attività militare, dal combattimento ai servizi medici. 20

III. Conclusioni

La leadership militare e civile della Russia sta comprensibilmente prestando molta attenzione allo sviluppo
dell'IA. Spera di garantire una solida posizione futura per l'industria russa dell'IA concentrando significative
risorse finanziarie e umane verso questo obiettivo. Nell'attuale difficile contesto internazionale la Russia ha
perso molti canali di cooperazione con i partner occidentali.
Tuttavia, il potenziale di cooperazione con la Cina è attivamente esplorato e alcuni progetti sono già in corso,
come le discussioni sull'acquisizione da parte di Huawei di uno dei principali fornitori di tecnologia di
riconoscimento facciale della Russia. 21 In questo modo, è probabile che la collaborazione tra Russia e Cina nel
campo generale dell'IA crescerà.

1. Daws, R., "Putin delinea le priorità della strategia nazionale di IA della Russia", AI News, 31 maggio 2019.
2. Open Data della Banca Mondiale, <https://data.worldbank.org/indicator/NY.GDP.MKTP.PP.CD?locations=RU-CN-US>.
3. Radin, A. et. al., The Future of the Russian Military: Russia’s Ground Combat Capabilities and Implications for US-Russia
Competition (RAND Corporation: Santa Monica, CA, 2019), p. xii.
4. Presidente della Russia, "Перечень поручений по реализации Послания Президента Федеральному Собранию"
[Elenco delle istruzioni per l'attuazione del discorso presidenziale all'Assemblea federale del 27 febbraio 2019]; Manz, A.,
"Стратегия по искусственному интеллекту появится к концу мая" [Una strategia di intelligenza artificiale apparirà entro la
fine di maggio], Politika Segodiya, 7 marzo 2019; e Bendett, S., "Russia racing to complete national AI strategy by June 15",
Defense One, 14 marzo 2019.
5. Presidente della Russia, "Discorso presidenziale all'Assemblea federale", 1 marzo 2018; Presidente della Russia, "Discorso
presidenziale all'Assemblea federale", 20 febbraio 2019; e "Путин: лидер в сфере искусственного интеллекта станет
властелином мира" [Putin: il leader nel campo dell'intelligenza artificiale diventerà il sovrano del mondo (1 settembre 2017),
traduzione di RIA.
6. Presidente della Russia, "Istruzioni relative all'attuazione del programma nazionale per l'economia digitale della
Federazione russa", Federazione russa, 28 febbraio 2019.
7. "Программа" Цифровая экономика Российской Федерации "" [programma "Digital economy of the Russia Federation"],
adottato dall'ordinanza del governo russo n. 1632, 28 luglio 2017.
8. Balenko, E. e Posypkina, A., 'Медведев утвердил бюджет национальной программы «Цифровая экономика»'
[Medvedev ha approvato il budget del programma Digital, 17 settembre 2018.
9. Bendett, S., "La Russia corre per completare la strategia nazionale di IA entro il 15 giugno", Defense One, 14 marzo 2019.
10. Burenok, V. M., Durnev, R. A., Krukov, K. U., "Разумное вооружение: будущее искусственного интеллекта в в военном
деле. 1 (43) (gennaio 2018), pagg. 4–13.
11. "Боевой робот" Нерехта "охранял" Тополь-М "на учениях под Иркутском" [Il robot da combattimento "Nerekhta" ha
sorvegliato "Topol-Mosti" durante gli esercizi vicino a Irkutsk] 31 novembre 2016.
12. Shirokova, I., "РТК« Нерехта »: результаты испытаний" [RTK "Nerekhta": risultati dei test], Dyagterevets, no. 2 (10673)
(27 gennaio 2017), pagg. 2-3.
13. Solov'eva, N., "Минобороны закупает мобильные системы управления армией" [Il ministero della Difesa acquista
sistemi di controllo dell'esercito mobile], IT World, 30 giugno 2018.
14. Uferev, S., ‘Ненадёжный и ненаблюдательный. О недостатках боевого робота «Уран-9» "[Inaffidabile e inosservante:
sulle carenze del robot da combattimento" Uran-9 "], Voennoe Obozrenie, 21 giugno 2018.
15. Peshkov, A., "Калашников» показал боевой искусственный интеллект в действии "[Kalashnikov ha mostrato
combattere l'intelligenza artificiale in azione], TV Zvezda, 1 ottobre 2018.
16. "Fase chiave delle prove subacquee dei droni Poseidon completate, afferma Putin", TASS, 2 febbraio 2019; e "La Russia
inizia i test del drone nucleare sottomarino" Poseidon "", PressTV, 26 dicembre 2018. Su Poseidon vedi anche il capitolo 12 di
questo volume.
17. "В войска радиоэлектронной борьбы придет искусственный интеллект" [L'intelligenza artificiale arriverà alle truppe di
guerra elettronica], Mirovoe obozrenie, 4 aprile 2017; e Gavrilov, A. e Labunsky, A., 'Искусственный интеллект для ПВО'
[Intelligenza artificiale per la difesa aerea], Arsenal Otechestva, vol. 35, n. 3 (marzo 2018).
18. "ФПИ создаст технологию дешифровки снимков из космоса с помощью искусственного интеллекта". 18 gennaio
2018.
19. "БЛА« Охотник »станет прототипом истребителя следующего поколения" [UAV 'Okhotnik' diventerà il prototipo del
combattente di prossima generazione], Voennoe Oborenie, 20 luglio 2018.
20. Burenok et al. (nota 10).
21. Polyakova, A., '«Ъ»: Huawei задумалась о покупке российского разработчика систем распознавания лиц
«Вокордase" Lo sviluppatore russo dei sistemi di acquisizione di Vocus, il 25 gennaio di Vocatori »di Huawei sta acquisendo i
sistemi di riconoscimento facciale di Huawei,' K Vocers '. 2019.
8. Esplorazione dell'intelligenza artificiale e delle piattaforme
senza pilota in Cina

Lora Saalman *

La Cina ha a lungo mantenuto ambiguità sul ruolo dei veicoli senza pilota. 1 Ciò può essere contrastato con la
Russia, che ha l'obiettivo più chiaro di impiegare veicoli senza pilota che transitano per mare, aria e spazio
come piattaforme per armi nucleari. 2 Questo saggio esamina l'approccio cinese all'uso dell'intelligenza
artificiale (AI) e dell'autonomia nei veicoli senza pilota. Inizia (nella sezione I) con una panoramica delle ipotesi
sottostanti che sono alla base della ricerca sull'IA e l'autonomia in Cina. Quindi (nella sezione II) analizza
come questi sviluppi si stanno svolgendo nei progressi militari e nelle rivalità tra Cina, Russia e Stati Uniti. Il
saggio si conclude sottolineando l'importanza di combinare analisi di ipotesi e tecnologie quando si discute del
futuro delle relazioni di deterrenza tra i tre paesi (nella sezione III).

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono


necessariamente quelle di alcuna organizzazione a cui è affiliata.

I. Presupposti alla base della ricerca sull'IA e l'autonomia

Una revisione di 904 articoli, documenti e libri tecnici e strategici in lingua cinese rivela un focus
sull'integrazione dell'IA e dell'autonomia per facilitare il rilevamento e la diagnosi dei guasti; sistemi di
formazione incorporati, simulazione e modellazione; e accumulazione ed elaborazione dei dati per il
rilevamento a distanza e la consapevolezza della situazione. 3 Nessuna di queste attività è necessariamente
destabilizzante in sé e per sé, anche considerando il passaggio tra la ricerca e lo sviluppo civile e militare della
Cina. Per alcuni aspetti, i miglioramenti nelle capacità di ricognizione della Cina e nell'affidabilità di una serie di
sue piattaforme potrebbero essere una misura stabilizzante. Se la Cina acquisisce una maggiore
consapevolezza della situazione e può garantire le sue capacità di ritorsione nucleare, allora alcune delle sue
insicurezze su un primo attacco imprevisto potrebbero essere mitigate. Eppure le insicurezze cinesi non sono
semplicemente una questione di tecnologia. Sono anche radicati in una serie di preoccupazioni su falsi
negativi e ipotesi sulle capacità e gli intenti degli Stati Uniti.

Per comprendere meglio queste tendenze, è importante rivedere le ipotesi di fondo della Cina e degli Stati
Uniti, come rivelato da documenti sia ufficiali che non ufficiali. Negli Stati Uniti, gli analisti militari sono spesso
preoccupati per la preoccupazione che allarmi o sistemi di preallarme, attivati accidentalmente o addirittura
intenzionalmente, possano produrre falsi positivi. Gli analisti cinesi, al contrario, sono molto più interessati ai
falsi negativi. In altre parole, sono preoccupati dall'incapacità dei sistemi cinesi di identificare, tanto meno
contrastare, uno sciopero di precisione rapido e furtivo. Ciò rispecchia i timori riscontrati anche in Russia. 4 Le
ipotesi della Cina sulle proprie sfide nel preallarme, combinate con le sue preoccupazioni per i progressi degli
Stati Uniti nei sistemi ad alta precisione e ad alta velocità - dal Convenzionale Prompt Global Strike (CPGS)
alle piane spaziali - implicano che le tecnologie come l'intelligenza artificiale e l'autonomia potrebbero
assumere qualità destabilizzanti. 5 Man mano che la Cina sviluppa ulteriormente il suo concetto di "risposta
rapida" (快速 反应), come citato nella sua strategia militare del 2015, è probabile che la sua integrazione di IA
e autonomia nei sistemi militari aumenti. 6
Ciò spazia dalle accuse di lancio su allarme abilitato all'automazione per i suoi missili alla manovrabilità
abilitata all'autonomia e all'IA e alla guida di precisione per piattaforme di planata ipersoniche. 7
Sebbene questo concetto di "risposta rapida" non sia presente nella versione 2019 della strategia militare
cinese, la scrittura tecnica cinese rivela che è ancora presente nella pratica se non nella dottrina dichiarata. 8
Questi lavori sull'intelligenza artificiale e l'autonomia continuano a rivelare che la Cina ha una forte enfasi sui
veicoli aerei senza pilota (UAV) e sui veicoli sottomarini senza pilota (UUV), e sull'aumento della velocità e
dell'accuratezza della risposta. 9 In effetti, Lin Yang, tecnologia marina direttore delle apparecchiature presso
l'Istituto di automazione di Shenyang dell'Accademia cinese delle scienze, ha riferito che la Cina sta
sviluppando una serie di veicoli subacquei senza pilota extra-large (XLUUV). 10 Ciò è degno di nota, poiché lo
Shenyang Institute of Automation è un importante produttore di robot sottomarini per l'esercito cinese e Lin ha
sviluppato il primo veicolo sottomarino autonomo della Cina con una profondità operativa di oltre 6 chilometri.
Ora è il capo scienziato del Progetto 912, un programma classificato che secondo quanto riferito sta
sviluppando robot sottomarini militari di nuova generazione in tempo per il 100° anniversario del Partito
comunista cinese, nel 2021.11

Questi tipi di piattaforme senza pilota, che vanno da piccole a grandi, hanno una gamma di potenziali
applicazioni citate in tutti i lavori cinesi, inclusa una maggiore precisione nella ricognizione sul campo di
battaglia, sorveglianza, pattugliamento, ricognizione elettronica e comunicazioni; interferenza elettronica,
valutazione del combattimento e inganno radar; armi da fuoco a proiettile, guida laser, indicazione di bersagli e
bombardamenti di precisione; intercettazione e lancio di missili tattici e missili da crociera; capacità anti-
corazza, anti-radiazioni e anti-navali; e rilevamento e operazioni nucleari, chimiche e biologiche. Quando
sfruttano nuovi mezzi di guerra, gli esperti cinesi discutono anche dell'uso dei sistemi di sciame per una serie
di scopi, con applicazioni sul campo di battaglia incentrate sulla guerra anti-sottomarino e sul contrasto della
difesa aerea integrata.12
L'intelligenza artificiale e l'autonomia sono mezzi per fornire alla Cina l'opportunità di sfruttare una nuova
nicchia tecnologica di eccellenza, ma non sono fini a se stessi.
Questo è uno dei tanti motivi per cui la leadership cinese ha avuto dubbi riguardo al controllo degli armamenti
per i sistemi autonomi. Inoltre, la quantità di ricerca cinese già condotta in questo campo, in particolare a
livello universitario, è sostanziale ed è improbabile che diminuisca a breve termine. I programmi
sull'intelligenza artificiale e l'autonomia ricevono ampio sostegno dal governo attraverso fondi come il
Laboratorio di tecnologia di difesa nazionale per veicoli subacquei, il progetto per il laboratorio chiave
nazionale di elaborazione e controllo delle informazioni subacquee, il programma di ricerca e sviluppo di base
nazionale chiave, China Aviation Science Foundation, il National Science and Technology Major Project, il
National 973 Project, il National Key Laboratory Fund, il National 863 High il programma di ricerca e sviluppo
tecnologico e il progetto di ricerca di base applicata del ministero delle comunicazioni, tra una serie di altri. 13

II. Applicazioni militari di AI e autonomia

I vasti programmi cinesi per integrare l'intelligenza artificiale e l'autonomia nei sistemi d'arma, anche in ambiti
ambiziosi o ipotetici come gli sciami sottomarini, indicano l'enfasi che questa ricerca riceve all'interno della
gerarchia della pianificazione della difesa nazionale. Indipendentemente dal fatto che la Cina sia in grado di
raggiungere tutte queste capacità, il piano di sviluppo dell'intelligenza artificiale di nuova generazione della
Cina indica la vasta scala delle priorità nazionali e degli investimenti nell'IA. Dato il fondamento di questo
documento nella “fusione militare-civile” ( 军民 融合), merita un'analisi approfondita delle applicazioni a duplice
uso dell'IA e il confronto con le riviste tecniche cinesi per determinare cosa è stato raggiunto e quali capacità
appariranno presto.14 Le implicazioni dirette di sciami aerei e sottomarini per piattaforme nucleari e
convenzionali statunitensi più grandi e pesanti rimangono da vedere. Tuttavia, se gli Stati Uniti procedessero
con missili balistici e da crociera lanciati da sottomarini a basso rendimento, come proposto nella loro Nuclear
Posture Review del 2018, la Cina potrebbe schierare sciami per tracciare e potenzialmente intercettare le
piattaforme statunitensi a doppia capacità. 15 In breve, intenzionale o meno, potrebbe svilupparsi uno scenario
di escalation.
Il concetto di usare la coercizione o la forza nucleare per ridurre preventivamente un conflitto convenzionale -
come è implicito dalla US Nuclear Posture Review 2018 - va al centro delle preoccupazioni della Cina sulla
coercizione nucleare statunitense e sull'escalation intenzionale. Anche se interpretato come una risposta degli
Stati Uniti ai cambiamenti posturali percepiti dalla Russia, ci sarà anche un impatto sulla Cina. 16 La questione
non si limita ad abbassare la soglia per l'uso nucleare: questo cambiamento degli Stati Uniti sradica
ulteriormente il tabù contro l'uso nucleare. 17 Per la Cina, che ha ampliato il suo arsenale nucleare a un ritmo
relativamente modesto, la prospettiva che gli Stati Uniti riprendano la postura nucleare dispiegata e tattica
esacerba il suo senso di accerchiamento. Tale postura amplifica anche la percepita e reale vulnerabilità della
Cina alle ambizioni degli Stati Uniti di mettere in campo piattaforme sia cinetiche che di sorveglianza come il
veicolo di prova orbitale X-37B e i veicoli ipersonici X-43A e X-51, tra gli altri.
L'evoluzione di piattaforme più piccole senza pilota mobilitate in formazioni congiunte potrebbe ribaltare lo
svantaggio asimmetrico nucleare della Cina. Proprio come le esche, che possono essere utilizzate come
mezzo economico per confondere e saturare le difese missilistiche, sciami a basso costo di veicoli aerei,
acquatici e terrestri senza equipaggio insieme alle tecnologie informatiche potrebbero fornire un vantaggio in
stile guerriglia contro sistemi che gli USA considerano fornire un elemento di sorpresa, velocità e precisione.
Alcune di queste piattaforme sono già destinate alla distribuzione e forniranno alla Cina una maggiore
capacità di monitorare le attività degli Stati Uniti nella regione Asia-Pacifico. Tuttavia, se queste piattaforme
vengono adattate per il combattimento, nel tentativo di interrompere o affrontare piattaforme nucleari
statunitensi di minore rendimento e su scala ridotta o con doppia capacità, il potenziale di errore di calcolo
potrebbe aumentare.
Se la Cina potenzierà il suo sviluppo di missili da crociera e piattaforme di planata ipersonica applicando
l'intelligenza artificiale e l'autonomia, gli incontri a corto raggio al largo delle coste di Taiwan e nei mari della
Cina orientale e della Cina meridionale potrebbero diventare ancora più complicati. Si ritiene che il missile DH-
10 lanciato a terra dalla Cina trasporta una testata convenzionale, ma ci sono indicazioni che il missile CJ-10
lanciato dall'aria possa avere varianti sia nucleari che convenzionali. 18 Tra le altre piattaforme citate come
potenzialmente a doppia capacità ci sono i missili balistici mobili a raggio intermedio DF-26 e H-6K della
Cina.19 Inoltre, la Cina ha stabilito quale tipo di carico utile sarà trasportato dalle sue piattaforme di planata
ipersoniche, come il DF- ZF, progettato per sfondare le difese statunitensi. 20

III. Conclusioni

Con la pubblicazione della US Nuclear Posture Review e la successiva dichiarazione del presidente russo
Vladimir Putin secondo cui la Russia aveva sviluppato nuove armi nucleari, la Russia e gli Stati Uniti si sono
impegnati in un gioco di tit-for-tat. 21 Se anche la Cina agisse in questo modo, una nuova serie di variabili
destabilizzanti potrebbe essere introdotta in una regione già tesa e affollata, con operazioni di libertà di
navigazione svolte tra rivendicazioni territoriali concorrenti. Il rischio di collisione aerea o marittima è già
elevato ed è probabile che si aggravi.
Il lavoro della Cina sull'integrazione degli sciami che potrebbero essere utilizzati per affrontare piattaforme
statunitensi con capacità convenzionali e nucleari potrebbe comportare una maggiore probabilità di collisioni e
scontri in aria e in mare. Inoltre, le presunte discussioni cinesi sull'integrazione del lancio sull'allarme per i
missili e la copertura dei carichi utili convenzionali rispetto a quelli nucleari sui veicoli ipersonici creano
ambiguità: questo potrebbe stabilizzarsi nel rimanere nella mano degli Stati Uniti, ma potrebbe anche portare
a visto con il più recente US Nuclear Posture Review. Con una maggiore applicazione dell'IA e dell'autonomia
in sistemi rapidi e ad alta precisione come missili da crociera, piani spaziali e piattaforme di planata ipersonica,
tali ambiguità e le loro ipotesi sottostanti meritano maggiore attenzione.
Queste attività suggeriscono che le preoccupazioni della Cina sui falsi negativi potrebbero portare a una
maggiore automazione e autonomia iniettate nelle operazioni di comando e controllo che corrono il rischio di
produrre un falso positivo. Inoltre, le discussioni cinesi su come mantenere un essere umano nel ciclo negli
scritti tecnici rimangono limitate all'inesistente. 22 Ciò indica una lacuna nel discorso attuale, trascurando il
potenziale impatto negativo dell'IA e dell'autonomia sul comando e controllo militare. Pertanto, è tanto più
importante comprendere le ipotesi strategiche della Cina sui falsi negativi, l'escalation intenzionale e la
risposta rapida. Esplorare questi concetti e le loro applicazioni tecniche è fondamentale per valutare come
potrebbe la Cina integrare l'intelligenza artificiale e l'autonomia nelle sue piattaforme convenzionali e nucleari
e come altri paesi potrebbero rispondere.

1. Saalman, L. "Fear of false negative: AI and China’s nuclear posture", Bulletin of the Atomic Scientists, 24 aprile 2018.
2. Sayler, K. M., Hypersonic Weapons: Background and Issues for Congress, Congressional Research Service (CRS) Report
for Congress R45811, (Congresso degli Stati Uniti, CRS: Washington, DC, 11 luglio 2019); e Peck, M., "La Russia ha iniziato i
test subacquei del suo siluro termonucleare Poseidon", National Interest, 19 maggio 2019.
3. Questi scritti sono stati prodotti da un'ampia gamma di università e istituti cinesi, tra cui il China Electronics Technology
Group, l'Academy of Armoured Forces Engineering, la Tactical Weapons Division of the China Academy of Launch Vehicle
Technology, il Department of Information Operations and Command Formazione della PLA National Defense University,
dell'Istituto di ingegneria aeronautica navale di Qingdao, del Dipartimento di pianificazione dell'architettura della difesa
nazionale e ingegneria ambientale, Laboratorio di fibre ottiche speciali e reti di accesso ottico e Laboratorio chiave nazionale
di reti di servizi integrati e tecnologie chiave.
4. Podvig, P., "Russia and the Prompt Global Strike plan", PONARS Policy Memo no. 417, PONARS Eurasia, dicembre 2006.
5. Luo, G. (罗桂兰), Cheng, M. (成 茂荣) e Shi, W. (石文斌), '以 国家 安全 战略 需求 为 牵引 加快 推进 战略 预
警 系 统 建设' [Accelerazione della costruzione di una strategia sistema di preallarme basato sulle richieste della strategia di
sicurezza nazionale], 国防 科技 [National Defense Science & Technology], vol. 33, n. 6 (giugno 2012). Su CPGS vedere i
capitoli 13 e 14 in questo volume.
6. Chinese State Council, 中国 的 军事 战略 [Strategia militare cinese], Libro bianco (Ufficio informazioni del Consiglio di
Stato: Pechino, maggio 2015).
7. Acton, J. (ed.), Entanglement: Russian and Chinese Perspectives on Non-nucleari Weapons and Nuclear Risks (Carnegie
Endowment for International Peace: Washington, DC, 2017); e Saalman, L., "Prompt global strike: China and the spear",
articolo di facoltà indipendente, Asia-Pacific Center for Security Studies, aprile 2014.
8. Consiglio di Stato cinese, 新 时代 的 中国 国防 [Difesa nazionale della Cina nella nuova era], Libro bianco (Ufficio
informazioni del Consiglio di Stato: Pechino, luglio 2019).
9. Questa valutazione si basa sul prossimo lavoro e sulla ricerca dell'autore su 400 nuovi scritti tecnici in lingua cinese.
10. Glass, P., "I sottomarini robotici cinesi si appoggeranno molto all'IA: report", Defense One, 23 luglio 2018; e Chen, S.,
"L'esercito cinese sviluppa sottomarini robotici per lanciare una nuova era di potenza marittima", South China Morning Post,
22 luglio 2018.
11. Vetro (nota 10).
12. An, M. (安梅 岩), Wang, Z. (王兆魁) e Zhang, Y. (张育林), '人工智能 集群 控制 演示 验证 系统 ' [Sistema di
dimostrazione e verifica per controllo artificiale intelligente dello sciame ', 机器人[Robot], vol. 38, n. 3 (marzo 2016), pagg.
265–75. Vedere anche il capitolo 4 in questo volume.
13. Saalman, L., "L'integrazione cinese delle reti neurali in veicoli di planata ipersonici", ed. ND Wright, AI, China, Russia, and
the Global Order: Technological, Political, Global, and Creative Perspectives, Strategic Multilayer Assessment (SMA) Periodic
Publication (Department of Defense: Washington, DC, Dec.2018), pp. 153– 60; e Saalman, L., "Factoring Russia into the US-
Chinese equation on hypersonic glide vehicles", SIPRI Insights on Peace and Security no. 2017/1, gennaio 2017.
14. Consiglio di Stato cinese, ‘新一代 人工智能 发展 规划’ [New Generation Artificial Intelligence Development Plan],
decreto n. 35, 8 luglio 2017; Miracola, S., "Beijing's ultimate goal: the military-civilian fusion", Istituto Italiano di Studi Politici
Internazionali, 3 agosto 2018; e Saalman (nota 1).
15. Dipartimento della difesa degli Stati Uniti (DOD), Nuclear Posture Review (DOD: Washington, DC, febbraio 2018), pagg.
54-55.
16. Schneider, M. B., "Escalate to de-escalate", Atti (US Naval Institute), vol. 143, n. 2 (febbraio 2017).
17. Li, B. e Zhao, T. (a cura di), Understanding Chinese Nuclear Thinking (Carnegie Endowment for International Peace:
Washington, DC, 2016); e Li, B., "Pensiero cinese sulle armi nucleari", Arms Control Today, vol. 45, n. 10 (dicembre 2015).
18. "DH-10 / CH-10 / CJ-10 Land-Attack Cruise Missiles (LACM) Hong Niao / Chang Feng / Dong Hai-10", GlobalSecurity.org,
accesso 22 aprile 2019.
19. Ufficio del Segretario della Difesa, Relazione annuale al Congresso: sviluppi militari e di sicurezza che coinvolgono la
Repubblica popolare cinese 2019 (Dipartimento della difesa: Washington, DC, 3 maggio 2019), pag. 41.
20. Saalman, "Factoring Russia into the US-Chinese equation on hypersonic glide vehicles" (nota 13).
21. "Putin della Russia svela armi nucleari" invincibili "", BBC, 1 marzo 2018.
22. Ni, J. (倪建军) et al., '关于 无人机 数据 链 系统 智能化 问题 的 思考' [Sul problema intellettuale dei collegamenti
dati UAV], 第五届 中国 指挥 控制 大会 论文集 [Atti di la 5a China Command and Control Conference] (China Command
and Control Society: Beijing, 2017).
Seconda parte. Il futuro del controllo degli armamenti e
della stabilità strategica con l'intelligenza artificiale

Questa parte si basa sulle tecnologie e dinamiche presenti nella parte I per esplorare come l'intelligenza
artificiale (AI) sta trasformando la stabilità strategica e il controllo degli armamenti nell'Asia orientale. La
stabilità strategica non è più solo competenza degli Stati dotati di armi nucleari e dei loro alleati. Invece, gli
autori dei seguenti saggi sostengono che la stabilità strategica sarà sempre più guidata dai progressi dell'IA
che promettono di rimodellare le asimmetrie tecnologiche e di sfidare le basi delle strutture di controllo degli
armamenti esistenti.
Questi saggi aggiornano e ampliano le definizioni storiche e i quadri normativi per formulare un insieme più
reattivo e adattivo di misure di rafforzamento della fiducia (CBM). Riconoscendo la difficoltà di controllare una
sfera intrinsecamente a duplice uso come l'intelligenza artificiale, questa parte fornisce al lettore una base per
affrontare il futuro dell'integrazione dell'IA nelle forze nucleari all'interno di strutture esistenti come il Trattato di
non proliferazione del 1968 e la Convenzione del 1980 sulla certezza Armi convenzionali, tra le altre.
Nei primi due saggi, Jiang Tianjiao (capitolo 9) e Cai Cuihong (capitolo 10) delineano sistematicamente una
struttura per comprendere come l'IA stia contribuendo a un insieme sempre più complesso di relazioni di
stabilità strategica e deterrenza. Nel primo saggio, Jiang contestualizza le minacce alla stabilità legate all'IA in
termini di deterrenza nucleare, proliferazione e terrorismo; leggi e norme; e interazione e conflitto uomo-
macchina. Cai promuove questa panoramica mappando il modo in cui varie applicazioni relative all'IA stanno
plasmando la stabilità strategica attraverso dinamiche di potere, percezioni delle minacce e posture nucleari.
In combinazione con la panoramica di Jiang, il saggio di Cai fornisce un layout concettuale per la parte II
analizzando il miglioramento dell'IA mentalità delle armi nucleari e convenzionali, nonché i rischi
comportamentali e le ansie psicologiche che ciò crea tra i paesi.
La seconda coppia di saggi descrive in dettaglio le varie minacce poste dall'IA e dai sistemi senza pilota sia
alle dinamiche di stabilità che all'ambiente fisico, insieme ai mezzi per affrontare queste sfide tramite i controlli.
Vadim Kozyulin (nel capitolo 11) esplora come l'intelligenza artificiale nei sistemi d'arma autonomi letali
(LAWS) e nei sistemi di comando, controllo, comunicazioni, computer, intelligence, sorveglianza e ricognizione
(C4ISR) possa esacerbare la pressione strategica del tempo. Nell'affrontare questi rischi, suggerisce i mezzi
per migliorare gli organismi e i meccanismi di regolamentazione esistenti. Portando ulteriormente queste
preoccupazioni, Hwang Il-Soon e Kim Ji-Sun (nel capitolo 12) usano il danno ambientale previsto dalla testata
nucleare e dal fallout del reattore nucleare dal veicolo sottomarino senza pilota Poseidon (UUV) come cartina
di tornasole per l'efficacia e la reattività di il regime di non proliferazione nucleare nell'affrontare le minacce
emergenti.
La terza serie di saggi descrive in dettaglio le applicazioni dell'IA nelle forze nucleari e nel controllo degli
armamenti.
Arie Koichi (nel capitolo 13) discute prima di come i progressi militari cinesi, russi e statunitensi stiano avendo
un impatto sulle dinamiche regionali dell'Asia orientale. Egli osserva che le attuali discussioni sui sottomarini
nucleari Poseidon UUV e AI potenziati rimangono a livello operativo o tattico, con una comprensione limitata o
nulla a livello strategico. Raccomanda che, per evitare una serie a cascata di rischi nucleari inesplorati, siano
essenziali più esercizi di costruzione di scenari. Nishida Michiru (nel capitolo 14) espande quindi le future
opzioni CBM discutendo di come l'IA si inserisce e si discosta dal tradizionale controllo degli armamenti.
Evidenziando la natura a duplice uso della tecnologia AI, si concentra su approcci basati sul comportamento e
CBM come via da seguire.

Lora Saalman
9. L'impatto dell'intelligenza artificiale militare sulla guerra

Jiang Tianjiao *

Gli studiosi cinesi hanno prestato molta attenzione all'applicazione dell'intelligenza artificiale (AI) in campo
militare e alla sua natura di arma a doppio taglio. Sul lato positivo, la tecnologia di apprendimento automatico
può migliorare le prestazioni dei sistemi d'arma e rafforzare i sistemi di comando e controllo. Armi intelligenti e
sistemi di supporto decisionale miglioreranno notevolmente l'efficienza delle guerre future, consentendo il
potenziale per la guerra ad alta velocità. Tuttavia, le applicazioni AI militari avranno anche effetti negativi sulla
pace e la stabilità nel mondo.
Questo saggio descrive in dettaglio questi impatti e come possono essere affrontati. Inizia (nella sezione I) con
una discussione sui costi umani della guerra, che probabilmente diminuiranno con l'introduzione di sistemi
senza pilota mentre, al contrario, aumenterà la volontà dei paesi di impegnarsi in conflitti. Quindi considera
(nella sezione II) come le leggi e le norme potrebbero essere rimodellate e solleva interrogativi sulle dinamiche
tra uomini e macchine in guerra. Conclude (nella sezione III) offrendo raccomandazioni su come affrontare lo
squilibrio e l'instabilità attacco-difesa che possono derivare dai progressi dell'IA.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono necessariamente
quelle di alcuna organizzazione a cui è affiliato. È stato tradotto dal cinese all'inglese dall'editrice
del volume, Lora Saalman.

I. Costi e soglie

La combinazione di IA e piattaforme di combattimento senza pilota ha portato a un calo significativo del costo
delle guerre future.1 Di conseguenza, è destinata ad essere un graduale declino della soglia di guerra e un
aumento delle tendenze belligeranti tra gli Stati. Uno dei motivi principali per cui la guerra è oggi meno
frequente e meno intensa è che, dopo le due guerre mondiali, i regolamenti internazionali della Carta delle
Nazioni Unite sostenevano la risoluzione pacifica delle controversie internazionali e gli atti di guerra proibiti, se
non per legittima difesa.2
Questo desiderio di pace derivava dal fatto che l'umanità ha sperimentato dolorosi sacrifici e sofferenze
durante le due guerre mondiali. Tuttavia, con l'ascesa dell'IA e delle piattaforme di combattimento senza pilota,
le guerre future potrebbero non costare più il sangue dei soldati, tanto meno le loro vite. Una volta che le
piattaforme di combattimento senza pilota saranno prodotte in serie, il costo della guerra diminuirà. Il lancio
della guerra non solo non affronterà più tabù politici e legali, ma probabilmente stimolerà anche le catene
industriali pertinenti a rendere più redditizio il combattimento abilitato dall'intelligenza artificiale.
Un motivo fondamentale per cui la guerra non è scoppiata tra le maggiori potenze dalla guerra fredda fino ad
oggi è stata l'esistenza delle armi nucleari. Tuttavia, è probabile che l'IA e le sue applicazioni militari generino
conflitti poiché mina la stabilità strategica nucleare. Ciò è particolarmente vero quando la tecnologia AI è
combinata con il telerilevamento e la sorveglianza di veicoli aerei senza pilota (UAV), che aiutano a rilevare più
accuratamente lo spiegamento del potere strategico di un avversario. Ciò riduce la stabilità strategica, che si
basa su un certo livello di incertezza. Inoltre, alcune piattaforme d'arma autonome, compresi i veicoli
sottomarini senza pilota (UUV), aumentano i rischi di lancio accidentale e guerra nucleare. Lo fanno attraverso
il rischio di incidenti e la mancanza di controllo umano.
La proliferazione dell'IA e delle relative piattaforme di combattimento senza pilota aumenta anche il rischio di
terrorismo. Sarà difficile per la comunità internazionale garantire che le tecnologie pertinenti non cadano nelle
mani dei terroristi. È probabile che anche le apparecchiature correlate, inclusi gli UAV, si diffondano se si
bloccano accidentalmente o vengono abbattute e catturate. Soprattutto quando questi dispositivi senza pilota
sono dotati di sistemi d'arma, comprese armi nucleari a basso rendimento, questa proliferazione può
provocare disastri globali.

II. Leggi, norme ed etica

Simile alla guerra informatica, l'IA rappresenta una nuova rivoluzione tecnologica e non ha concetti e
definizioni corrispondenti nel diritto e nelle norme internazionali. Ad esempio, restano serie sfide se e come i
concetti chiave tradizionali del diritto di guerra, come la distinzione tra civili e combattenti e i principi di
proporzionalità nei conflitti armati, possano essere applicati all'IA e alle relative piattaforme di combattimento
senza pilota.
La seconda edizione del Manuale di Tallinn sulla guerra cibernetica, compilato da studiosi di diritto della
comunità internazionale, offre alcune indicazioni. 3 Tuttavia, la discussione sulle leggi e i regolamenti sull'IA
deve essere ulteriormente rafforzata. Prima di definire la norma sull'uso militare dell'IA, non si può escludere
che i paesi utilizzino scappatoie e aree grigie nelle regole per minare la pace e la stabilità regionale.
L'applicazione militare dell'IA porterà alla fine a questioni etiche di conflitto uomo-macchina. L'umanità
dovrebbe mettere il proprio destino nelle mani di macchine più intelligenti dell'umano? Le macchine possono
sostituire gli esseri umani nel processo decisionale e persino determinare la direzione finale della civiltà
umana? Una volta che l'IA sarà ampiamente utilizzata in campo militare, questi dilemmi diventeranno
inevitabili.

III. Conclusioni

Nonostante questi effetti negativi, l'attuale sviluppo della tecnologia AI è ancora agli inizi. Sono molti i casi di
utilizzo che possono essere previsti, ma pochi sono effettivamente disponibili per la ricerca e l'analisi. In effetti,
proprio come con la rivoluzione della tecnologia informatica, è probabile che il ruolo sovversivo dell'IA a livello
militare e strategico sia stato esagerato. La cultura strategica tradizionale cinese sottolinea che la pura
rivoluzione tecnologica da sola non può determinare l'esito della guerra: il fattore centrale resta il ruolo degli
esseri umani e le intenzioni politiche che stanno dietro di essi.
Ad esempio, con la combinazione di IA e strategia di deterrenza, qual è l'obiettivo finale? Se si tratta
semplicemente di sconfiggere un avversario, la tecnologia AI aumenterà senza dubbio l'efficienza della guerra.
Tuttavia, se l'obiettivo strategico è dissuadere gli avversari dall'agire avventatamente o costringere l'avversario
ad agire in un certo modo, l'IA potrebbe non essere in grado di svolgere un ruolo enorme. Negli anni '80,
studiosi di relazioni internazionali, tra cui Robert Jervis e Richard Ned Lebow, hanno criticato la teoria della
deterrenza, sostenendo che la cosiddetta 'razionalità' esisteva solo in uno stato ideale. 4 In realtà, i leader
affrontano troppe complessità nel processo decisionale, compresi fattori storici, culturali, etnici, religiosi e altri
fattori, che portano a pregiudizi cognitivi. Combinati con gli interessi concorrenti dei dipartimenti burocratici,
questi fattori spesso portano a una decisione apparentemente irrazionale. In questo complesso sistema
decisionale, è discutibile quale ruolo possa svolgere l'AI.
Tuttavia, l'IA è naturalmente conforme alle leggi generali di interazione tra una tale rivoluzione tecnologica e le
relazioni internazionali. Tali rivoluzioni tecnologiche si sono verificate in passato con i progressi nucleari e
informatici. L'emergere di una nuova rivoluzione tecnologica inizia spesso con la concorrenza tra i paesi, in
particolare le maggiori potenze. Secondo questa logica, non appena la nuova tecnologia sarà padroneggiata,
l'equilibrio attacco-difesa verrà spezzato e uno Stato potrà ottenere un potere maggiore. Tuttavia, l'esperienza
storica mostra che la diffusione della tecnologia è spesso molto più rapida di quella prevista dalle grandi
potenze.
Quando non saranno in grado di monopolizzare la tecnologia rivoluzionaria, i paesi si impegneranno in una
corsa agli armamenti fino a quando la non proliferazione diventerà nel loro interesse comune. Pertanto, è
imperativo impegnarsi nella riflessione e nella critica precoce delle nuove tecnologie al fine di aiutare la
comunità internazionale a formare un nuovo insieme di norme e quadri giuridici. Una volta che la tecnologia AI
raggiunge un livello maturo di sviluppo e diffusione tecnologica, questa base può essere utilizzata per
introdurre una maggiore riflessione e moderazione.

1. Scharre, P. e Burg, D., "To save money, go unmanned", War on the Rocks, 22 ottobre 2014; Lewis, M. W., "Drones: in realtà
la forma di guerra più umana di sempre", The Atlantic, 21 agosto 2013; e Walsh, J. I. e Schulzke, M., The Ethics of Drone
Strikes: Does Reducing the Cost of Conflict Encourage War? (US Army War College, Strategic Studies Institute: Carlisle, PA,
settembre 2015).
2. Carta delle Nazioni Unite, firmata il 26 giugno 1945, entrata in vigore il 24 ottobre 1945.
3. Schmitt, M. N. (ed.), Tallinn Manual 2.0 on the International Law Applicable to Cyber Operations (Cambridge University
Press: Cambridge, 2017).
4. Jervis, R., "Rational deterrence: theory and evidence", World Politics, vol. 41, n. 2 (gennaio 1989), pagg. 183–207; e Lebow,
R. N. e Stein, J. G., "Rational deterrence theory: I think, quindi I deterrence", World Politics, vol. 41, n. 2 (gennaio 1989), pagg.
208–24.
10. La formazione della stabilità strategica mediante
l'intelligenza artificiale

Cai Cuihong *

Il mondo ha già iniziato a entrare nell'era dell'intelligenza artificiale (AI). L'IA e i veicoli senza pilota sono stati
definiti la "seconda arma nucleare" con il potenziale per cambiare i modi in cui verranno combattute le guerre
future.1 Cina, Russia e Stati Uniti, tra le altre potenze, hanno gareggiato nello sviluppo dell'IA. Il mondo sta
quindi intraprendendo, o forse si potrebbe dire che sia già iniziata, una nuova guerra fredda, questa volta
guidata dall'IA.
Alla luce di questi sviluppi, questo saggio valuta se l'IA avrà un impatto altrettanto profondo sulla stabilità
strategica delle grandi potenze. Inizia (nella sezione I) con una revisione delle strategie nazionali di IA.
Descrive quindi (nella sezione II) come la stabilità strategica nucleare della guerra fredda si sia sviluppata in
una moderna stabilità strategica complessa. Il saggio considera quindi le condizioni in cui l'IA potrebbe avere
un impatto sulla stabilità strategica (nella sezione III) e quali forme potrebbe assumere questo impatto (nella
sezione IV). Termina considerando (nella sezione V) come l'IA deve essere inclusa in qualsiasi quadro per
mantenere la stabilità strategica.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono necessariamente
quelle di alcuna organizzazione a cui è affiliata. È stato tradotto dal cinese all'inglese dall'editrice
del volume, Lora Saalman.

I. Strategie nazionali di IA

Negli ultimi anni il governo degli Stati Uniti ha pubblicato una serie di documenti sulla strategia di IA. 2 In tutti
questi documenti, gli Stati Uniti sottolineano l'uso dell'innovazione tecnologica per preservare il vantaggio
militare degli Stati Uniti nel futuro, nota come Terza strategia di offset. 3 Inoltre, questi documenti sottolineano
che nessun'altra tecnologia avrebbe un impatto così grande sulle operazioni militari statunitensi quanto
l'intelligenza artificiale e le tecnologie intelligenti, indipendentemente dal fatto che vengano utilizzate in reti di
telerilevamento, di comando e controllo, operazioni o reti di supporto logistico. 4 Nel giugno 2017 il governo
degli Stati Uniti ha considerato di limitare gli investimenti della Cina nell'IA negli Stati Uniti. 5 In tal modo, in
conformità con le caratteristiche e i vantaggi della tecnologia AI, le forze armate statunitensi hanno cercato di
assumere l'iniziativa di proporre un nuovo concetto operativo di guerra algoritmica con il machine learning e la
tecnologia di deep learning al centro.

Sebbene gli sviluppi dell'intelligenza artificiale in Cina siano iniziati in ritardo, si sono anche sviluppati
rapidamente. La Cina è già diventata una forza importante che guida l'innovazione globale e lo sviluppo
dell'IA. Nel maggio 2016 numerosi ministeri e agenzie cinesi hanno stabilito il piano d'azione triennale per l'IA
“Internet Plus” per guidare l'innovazione tecnologica e lo sviluppo industriale dell'IA. 6 Nel luglio 2017 il
Consiglio di Stato ha emesso il Piano di sviluppo dell'intelligenza artificiale di nuova generazione, che descrive
in dettaglio il mezzo -e implementazione sistematica a lungo termine dello sviluppo dell'IA in Cina. 7 L'uso
dell'IA è diventata una strategia di sviluppo nazionale e il governo cinese ha aumentato il sostegno finanziario
e politico.
Secondo il presidente russo Vladimir Putin, l'IA è "il futuro, non solo per la Russia, ma per tutta l'umanità" e
"chiunque diventerà leader in questa sfera diventerà il dominatore del mondo". 8 Quindi, sebbene le dimensioni
dell'industria russa dell'IA e il suo sviluppo complessivo dell'IA siano rimaste indietro rispetto a Cina e Stati
Uniti, i suoi risultati in alcune aree non dovrebbero essere sottovalutati. L'esercito russo sta attualmente
applicando l'intelligenza artificiale al suo programma di rinnovo delle apparecchiature: si è gradualmente
formato un sistema di apparecchiature intelligenti tridimensionali, che comprende veicoli terrestri senza pilota,
veicoli aerei senza pilota (UAV) e veicoli sottomarini senza pilota (UUV). 9
Anche altri poteri tecnologici si sono uniti alla corsa allo sviluppo dell'IA con i propri punti di forza scientifici e
tecnologici. Il governo giapponese ha proposto un piano per una società super intelligente, la strategia Society
5.0.10 Il governo britannico ha pubblicato un rapporto sull'intelligenza artificiale: opportunità e implicazioni per il
futuro del processo decisionale nel 2016 e un “accordo settoriale” sull'IA tra il governo e il settore britannico
dell'IA nel 2018. 11 La Francia ha anche cercato di diventare un leader europeo nell'IA, con il governo che ha
lanciato la strategia nazionale di IA del paese nel 2017 e ha pubblicato una visione di "AI for Humanity" nel
2018.12
La strategia tedesca "Industria 4.0" include la percezione della macchina, la pianificazione, la politica e
l'interazione uomo-macchina tra le principali direzioni di ricerca del suo sviluppo dell'IA. 13

II. Dalla stabilità strategica nucleare alla stabilità strategica complessa

La stabilità strategica è un concetto dell'era della guerra fredda. La sua definizione generale deriva
principalmente da una dichiarazione congiunta sovietico-statunitense del 1990 sulla non proliferazione e la
stabilità strategica.14 Secondo questa dichiarazione, la "stabilità strategica" può essere intesa come un
equilibrio di forze strategiche tra l'Unione Sovietica e gli Stati Uniti. In altre parole, il rapporto strategico tra le
due maggiori potenze è tale che nessuna delle due parti ha la motivazione per lanciare un primo attacco
nucleare.15 Il concetto di stabilità strategica nato nel periodo della guerra fredda ha due componenti: stabilità
della crisi e stabilità della corsa agli armamenti. Il suo scopo diretto era quello di utilizzare la struttura degli
armamenti per eliminare la possibilità di una guerra nucleare tra le due superpotenze. Questa teoria divenne il
fondamento principale della strategia nucleare sovietica e statunitense, guidando la distruzione
reciprocamente assicurata (MAD) e avendo un impatto sullo sviluppo delle forze nucleari strategiche dei due
paesi durante la guerra fredda. Sebbene il concetto di stabilità strategica abbia incontrato alcune sfide nell'era
post-guerra fredda, rimane la base per influenzare l'equilibrio delle forze strategiche internazionali.
Dalla fine della guerra fredda, la struttura bipolare sovietico-statunitense che guidava l'ambiente di sicurezza
internazionale ha subito enormi cambiamenti. Molti studiosi cinesi e stranieri hanno rapidamente concluso che
il concetto di stabilità strategica non era più applicabile alla nuova situazione internazionale. Tuttavia, il
concetto continua a svilupparsi. La stabilità strategica era stata limitata a una relazione in cui mancava
l'opportunità o la motivazione per distruggere tutte le forze nucleari dell'avversario. 16 Gli esperti russi tendono
a dividerlo in un senso stretto e in un senso ampio. 17 In senso stretto, stabilità strategica si riferisce a uno stato
in cui le forze militari e le potenzialità delle forze strategiche sono più o meno uguali e nessuna delle parti
cerca di cambiare l'equilibrio militare da acquisire un vantaggio prolungato.
In senso lato, la stabilità strategica si riferisce all'attuazione cumulativa da parte di due paesi o alleanze di
misure politiche, economiche, militari e di altro tipo che rendono impossibile per entrambe le parti lanciare
un'offensiva militare. In altre parole, la stabilità strategica può essere definita in senso stretto come l'equilibrio
tra le maggiori potenze, in particolare l'equilibrio delle forze e delle capacità delle armi strategiche.
Più in generale, può essere definita come una condizione in cui gli attori globali mantengono l'autocontrollo e il
controllo reciproco su scala globale, generando così una situazione strategica relativamente stabile ed
equilibrata all'interno del sistema internazionale. 18
Come rilevato in una dichiarazione congiunta rilasciata da Cina e Russia nel giugno 2016, la comunità
internazionale è abituata a considerare la "stabilità strategica" come un concetto puramente militare nel campo
delle armi nucleari. Ciò non riflette la natura ampia e multiforme delle questioni strategiche contemporanee.
Per raggiungere l'obiettivo della pace e della sicurezza, la stabilità strategica dovrebbe essere valutata da una
prospettiva più globale.19
Ovviamente, questo tipo di stabilità strategica non significa che non si verifichino disaccordi. Tuttavia, queste
differenze non dovrebbero influire sullo sviluppo delle relazioni generali. In quanto tale, si potrebbe sostenere
che la stabilità strategica nucleare durante il periodo della guerra fredda si è sviluppata nella complessa
stabilità strategica di oggi, che è un equilibrio strategico globale in cui sia l'ambito che il soggetto sono
diversificati e intrecciati. Nel passaggio dal concetto ristretto a quello ampio di stabilità strategica, ci sono stati
due importanti cambiamenti, come descritto di seguito.
In primo luogo, l'ambito della stabilità strategica si è espanso dalle relazioni di potenza nucleare attraverso le
relazioni militari e di sicurezza alle relazioni strategiche generali. Il fulcro del mantenimento della stabilità
strategica è il raggiungimento della deterrenza reciproca. Per questo motivo, il concetto di deterrenza cross-
domain ha iniziato a sostituire il concetto di deterrenza nucleare tra i decisori. Negli ultimi anni, gli Stati Uniti si
sono impegnati a creare un sistema di deterrenza strategica che gli conferisca un ruolo globale dominante.
Allo stesso tempo, sta anche aggiustando gradualmente questo sistema di deterrenza strategica a livello
cognitivo e operativo. A livello cognitivo, la più grande minaccia degli Stati Uniti si è trasformata dal terrorismo
nucleare alla competizione strategica e alle minacce cross-domain. A livello operativo, i mezzi di deterrenza
cross-domain sono stati rafforzati in vari campi: rimodellare l'assoluta superiorità degli Stati Uniti nella
deterrenza nucleare, stabilire una deterrenza convenzionale offensiva e difensiva e migliorare le sue capacità
offensive emergenti nel cyberspazio e nello spazio. 20 Ciò viene fatto allo scopo di ottenere combinazioni di
vantaggi complementari e flessibili tra questi vari deterrenti.
Inoltre, i sistemi avanzati di intelligenza artificiale possono fornire deterrenza contro potenziali minacce,
proprio come le armi nucleari della guerra fredda.
In secondo luogo, i protagonisti della stabilità strategica si sono espansi dalle due maggiori coalizioni guidate
da USA e URSS fino a includere vari attori globali.
Durante la guerra fredda, le figure preminenti nella stabilità strategica erano le due superpotenze nucleari,
USA e URSS, che conferivano alla stabilità strategica alcune caratteristiche. Poiché il gioco del potere globale
a quel tempo era altamente concentrato sui due superpoteri, era difficile per le forze di terze parti influenzare
l'equilibrio di potere tra i due campi. Di conseguenza, la stabilità strategica è stata identificata con le dinamiche
tra i due. Nel lungo periodo che seguì la fine della guerra fredda, il fulcro della stabilità strategica globale
rimase anche la stabilità strategica bilaterale tra le due superpotenze nucleari, Russia e USA.
Mentre il mondo entra nella prossima era nucleare, tuttavia, la questione della stabilità strategica non è più
limitata allo scontro nucleare strategico tra due forze armate.
Nel sistema nucleare globale, non sono più solo due superpotenze nucleari che possono influenzare e
svolgere un ruolo decisivo. Inoltre, i paesi con potenza nucleare strategica non sono più limitati ai cinque stati
definiti come stati dotati di armi nucleari dal Trattato di non proliferazione (TNP) del 1968. 21 In effetti, molte
armi convenzionali possono già sostituire alcune delle funzioni delle armi nucleari. 22 Con l'aggravarsi della
globalizzazione, l'ambiente nucleare sta diventando sempre più frammentato. All'interno di questo ambiente
complesso, più attori possono influenzare la stabilità strategica globale attraverso mezzi asimmetrici ad alta
tecnologia come l'IA.

III. La fattibilità dell'IA che ha un impatto sulla stabilità strategica

L'impatto dell'IA sulla stabilità strategica è condizionato. Si basa su tre criteri: (a) l'apertura dell'ambiente di
stabilità strategica, (b) il razionalismo strumentale nel pensiero di stabilità strategica e (c) l'espansione dei
fattori di stabilità strategica.

L'apertura dell'ambiente di stabilità strategica

Un percorso importante affinché l'IA abbia un impatto sulla stabilità strategica tra le grandi potenze è l'apertura
dell'ambiente di stabilità strategica. Questa condizione dipende dal contesto internazionale generale e si
riflette in due aspetti: i cambiamenti nella distribuzione del potere e la fragilità della stabilità strategica.

Cambiamenti nella distribuzione del potere


L'apertura all'egemonia e lo status di grande potere per incorporare più attori possono derivare da
cambiamenti nella distribuzione del potere tra gli stati. Dall'ascesa e caduta storica di grandi potenze, nel
tempo sono stati evidenti i cambiamenti nella loro forza, come il declino dell'antica Roma e dell'Impero
britannico. Se la distribuzione del potere tra i paesi cambia, le grandi potenze emergenti sfideranno
inevitabilmente l'ordine egemonico esistente. L'apertura di uno status di grande potere può essere dovuta alla
perdita del fondamento dominante su cui le grandi potenze hanno fatto affidamento. Ad esempio, i vantaggi
dell'era della potenza marittima sono stati gradualmente superati e sostituiti dalla comodità del trasporto
terrestre e del traffico aereo.
L'apertura di uno status di grande potere può anche essere dovuta all'omogeneizzazione della superiorità
tecnologica. Le potenze egemoniche traggono vantaggio dall'innovazione nei metodi di produzione
fondamentali, distinguendole dagli altri paesi. 23
Tuttavia, questo vantaggio non durerà a lungo. Man mano che la tecnologia si diffonde e altri paesi imparano
da quelli che sono riusciti nella competizione per sopravvivere nella comunità internazionale, le grandi potenze
si comporteranno sempre più allo stesso modo, il mondo presto tenderà all'omogeneizzazione e l'egemonia
sarà indebolita.
Ad esempio, nonostante gli sforzi della comunità internazionale per controllare la proliferazione nucleare, la
tendenza è che più stati acquisiscano armi nucleari. A causa della grande tentazione delle capacità nucleari,
alcuni paesi sono ancora desiderosi di provare a svilupparle.
L'apertura di uno status di grande potere può anche derivare dall'effetto asimmetrico di nuove forze. Nell'era
dell'intelligenza artificiale e dei mezzi informatici, gli attori con forze convenzionali deboli possono utilizzare
approcci asimmetrici per provocare conflitti. Secondo la logica delle armi cibernetiche e dell'asimmetria delle
armi IA, i poteri forti preferirebbero strategie difensive, piuttosto che lanciare attacchi. Questo perché tali paesi
dipendono maggiormente dalle reti ad alta tecnologia e hanno maggiori perdite previste nei conflitti. Anche se
un paese debole e un paese forte mostrano la stessa aggressività, un attacco lanciato da un paese debole
dovrebbe essere più distruttivo.
La logica intrinseca alla base di un paese debole che lancia un simile attacco è quella di utilizzare l'effetto
asimmetrico per infliggere danni maggiori. 24

La fragilità della stabilità strategica


L'apertura può anche derivare dalla fragilità del rapporto di stabilità strategica tra le grandi potenze. Durante la
guerra fredda, questa fragilità derivava principalmente dall'equilibrio del terrore. Le principali potenze nucleari
credevano che l'uso della forza nucleare avrebbe portato a ritorsioni inaccettabili, quindi hanno mantenuto un
rapporto di stabilità strategica principalmente assicurando la capacità di utilizzare armi nucleari per
contrattaccare. Tuttavia, l'attuale equilibrio del terrore nucleare ha iniziato a essere minacciato, in particolare a
seguito del ritiro degli Stati Uniti dal Trattato sui missili anti-balistici del 1972 (Trattato ABM) nel 2002. 25
L'unilateralismo minaccia la stabilità strategica. Con la distruzione di questo meccanismo di non proliferazione
nucleare, il mondo è caduto in un dilemma multilaterale di sicurezza nucleare. Tuttavia, la reciproca
vulnerabilità nel campo nucleare non è l'unico pilastro che sostiene la stabilità strategica.
Attualmente, oltre ai fattori nucleari, anche le relazioni di stabilità strategica tra le grandi potenze sono
caratterizzate dall'interdipendenza. Ciò comprende interessi comuni crescenti, come la risposta congiunta al
terrorismo internazionale e la proliferazione di armi nucleari, nonché lo sviluppo di altre tecnologie avanzate,
come l'IA. Le sfide comuni includono anche stati falliti, cambiamenti climatici e altre minacce che possono
mettere a repentaglio la crescita economica e la prosperità.
Con l'approfondirsi delle interazioni economiche e politiche, le grandi potenze scoprono che l'interdipendenza
l'una dall'altra e il sistema internazionale è in costante crescita. 26 In questo modo è possibile mantenere
relazioni di stabilità strategica tra le grandi potenze. Questo non solo perché la vulnerabilità reciproca significa
che questi stati hanno la capacità di procurarsi un danno insopportabile a vicenda, ma anche perché devono
raggiungere obiettivi più importanti e affrontare sfide e minacce comuni. Allo stesso tempo, mentre
l'interdipendenza economica e politica sono tra le pietre angolari per il mantenimento della stabilità strategica
tra le grandi potenze, anche gli eventi nella sfera economica e politica possono indurre instabilità.
Nel complesso, gli interessi comuni e l'interdipendenza contribuiscono alla stabilità strategica delle grandi
potenze, ma questa stabilità è fragile.

Razionalismo strumentale nel pensiero di stabilità strategica

Il secondo criterio per valutare il ruolo dell'IA nella stabilità strategica delle grandi potenze si basa
sull'esistenza universale del razionalismo strumentale nelle relazioni internazionali. Il pensiero realista alla
base del razionalismo strumentale crede nella tecnologia e nel potere, tipicamente enfatizzando il loro uso per
raggiungere direttamente il suo scopo. La stabilità strategica al livello più alto è la stabilità della volontà a
livello politico. Tuttavia, sotto il ruolo prevalente del razionalismo strumentale, ciò non può accadere. Il
razionalismo strumentale può creare un dilemma, in quanto spesso non si presta attenzione all'efficacia dello
strumento. Invece, è spesso dominato da un panico estremo per essere superato da un avversario, causando
così instabilità strategica.27 L'esistenza del razionalismo strumentale nel pensiero della stabilità strategica ha
notevolmente accresciuto l'importanza e l'enfasi posta dai grandi poteri sull'IA tra le tecnologie più avanzate ,
rafforzando così il suo ruolo nel mantenere la stabilità strategica tra i paesi.

Ci sono tre ragioni per la proliferazione del razionalismo strumentale.


Il primo è la mentalità della guerra fredda. Il razionalismo strumentale è nato per la prima volta dal fatto che
questo costrutto della guerra fredda non è stato superato. In effetti, la stabilità strategica è un'eredità di questo
modo di pensare. Come solo un esempio, la strategia di sicurezza nazionale dell'amministrazione statunitense
del presidente Donald J. Trump, emanata nel dicembre 2017, ha posizionato la Cina come un concorrente
strategico.28 Una mentalità da guerra fredda ha causato una grande competizione di potere per sostituire la
minaccia terroristica come un nuova preoccupazione strategica per gli USA. Trump crede che il mondo sia
entrato in una nuova era di concorrenza, in modo tale che la forza militare, la forza economica e la
competitività politica di un paese siano di fondamentale importanza internazionale.
Nel gennaio 2018, il Dipartimento della Difesa degli Stati Uniti (DOD), in una sintesi della Strategia di difesa
nazionale degli Stati Uniti, ha dimostrato sfacciatamente che gli Stati Uniti vogliono continuare a utilizzare vari
mezzi, tra cui l'intelligenza artificiale, per mantenere la sua assoluta superiorità militare e prepararsi per
concorrenza strategica a lungo termine tra le maggiori potenze. 29
In secondo luogo, il razionalismo strumentale deriva anche dalla mancanza di fiducia strategica reciproca tra
le grandi potenze. Si potrebbe sostenere che l'attuale stabilità strategica globale tra le maggiori potenze deve
ancora essere basata sulla stabilità strategica nel campo militare tradizionale. Mentre le grandi potenze, come
la Cina e gli Stati Uniti, possono avere buone intenzioni e stanno lavorando duramente per mantenere le loro
relazioni bilaterali, garantire una mancanza di conflitto e confronto tra le grandi potenze non può fare
affidamento esclusivamente sulla volontà e sulle intenzioni dei paesi interessati. Con l'attuale diffusa
mancanza di fiducia reciproca tra le maggiori potenze, le loro intenzioni sono spesso difficili da chiarire e quasi
impossibili da verificare.30 Il relativo equilibrio nel potere militare è la chiave per garantire che non vi siano
conflitti o scontri. Pertanto, i razionalisti strumentali credono che, anche in tempi di pace, debbano mantenere
un potere militare più forte e una forza strategica per garantire che i potenziali aggressori possano essere
bloccati in qualsiasi momento.
Il terzo è il realismo fatalista, da cui deriva anche la razionalità strumentale.
John Mearsheimer riassume la tendenza al conflitto tra un potere in ascesa e un potere stabilito come una
tragedia della politica del grande potere. 31 Nelle relazioni Cina-USA, il realismo fatalista sostiene che l'ascesa
della Cina sfiderà inevitabilmente la posizione dominante degli Stati Uniti e porterà i due paesi a lottare per
l'egemonia. La fede in un conflitto inevitabile modellerà inevitabilmente la cognizione e il comportamento l'uno
dell'altro e pone una delle minacce più gravi alla relazione di stabilità strategica tra i due. Molti esperti cinesi
considerano istintivamente qualsiasi azione intrapresa dagli Stati Uniti che potrebbe avere un impatto negativo
sulla Cina come "blocco" ( 遏 阻 ) o "contenimento" ( 围 堵 ). Allo stesso modo, studiosi, media e politici
statunitensi affermano spesso che la modernizzazione militare e le attività della Cina nel mondo hanno una
reale ma taciuta intenzione di sfidare la posizione dominante degli Stati Uniti. 32 Se entrambe le parti credono
che il conflitto sia inevitabile, entrambi i paesi saranno interessati. Di conseguenza, il realismo fatalista
potrebbe eventualmente erodere tutti i pilastri che mantengono la stabilità strategica delle grandi potenze e
sfociare in una profezia che si autoavvera.

L'espansione dei fattori di stabilità strategica

Un altro criterio per l'IA per influenzare la stabilità strategica è attraverso l'espansione dei fattori di stabilità
strategica nella nuova era. Le armi nucleari non sono più l'unica considerazione. Limitare la stabilità strategica
al campo delle armi nucleari strategiche non garantisce una sicurezza globale ed efficace per un paese.
Le armi nucleari difendono solo i principali interessi di sicurezza di un paese: garantire che il territorio centrale
del paese non debba affrontare un attacco su larga scala da parte di nemici stranieri.
Non forniranno un sostegno efficace agli interessi non fondamentali di un paese. 33 Per ogni grande potenza,
oltre a difendere gli interessi fondamentali del territorio centrale del paese, ci sono molti altri interessi
nazionali. Per proteggere efficacemente questi interessi è necessario un maggiore ambito di stabilità che
includa le forze militari convenzionali.
Inoltre, i fattori che influenzano la stabilità strategica non si limitano allo sviluppo di forze militari strategiche:
coprono anche nuove minacce e instabilità. In altre parole, la stabilità strategica è diventata un problema con
più driver. Fattori come l'unilateralismo, la proliferazione nucleare, il terrorismo nucleare e lo sviluppo di armi
convenzionali si stanno evolvendo come nuove variabili intervenienti che influenzano la stabilità strategica. 34
Inoltre, IA, sicurezza informatica, conflitti regionali, questioni energetiche, influenza politica e diplomatica,
dipendenza economica, il livello dello sviluppo scientifico, tecnologico ed economico e la portata della
partecipazione agli affari internazionali sono tutte considerazioni per valutare la stabilità strategica tra le grandi
potenze.
I suddetti elementi di stabilità strategica possono essere suddivisi in tre categorie: fattori tecnici, fattori
comportamentali e fattori istituzionali.35
In altre parole, la stabilità strategica non è solo correlata alla deterrenza di un paese sotto specifici modelli di
attacco e difesa, ma anche al suo comportamento e ai relativi meccanismi o sistemi. I fattori tecnici
stabiliscono la base materiale per il confronto della forza strategica tra i paesi. Non solo determinano la
dimensione delle forze armate nucleari, ma anche il livello di modernizzazione della tecnologia militare e delle
forze convenzionali. Sono i fattori fondamentali nel determinare la stabilità strategica. I fattori comportamentali
sono catalizzatori, guidando la capacità di amplificare o ridurre il potere materiale. I fattori istituzionali sono il
risultato dell'interazione comportamentale degli stati tra loro. Possono cambiare sottilmente le azioni dello
stato, stabilire una nuova norma per lo sviluppo della tecnologia delle armi e quindi ricostituire e modificare i
fattori tecnici e comportamentali. 36
Essendo una delle tecnologie più all'avanguardia nella categoria dei fattori tecnici, l'IA gioca un ruolo
importante in tutti gli aspetti della stabilità strategica. Questo non solo perché può influenzare le relazioni
nucleari tradizionali, il confronto delle forze convenzionali e così via, ma anche perché è una nuova variabile
con un impatto sulla stabilità strategica. Dopo la guerra fredda, il vantaggio del potere convenzionale si è
chiaramente spostato a ovest. Di conseguenza, la stabilità strategica garantita dalla deterrenza reciproca delle
armi nucleari è diventata, in sostanza, l'ultimo pilastro per mantenere l'equilibrio del potere militare
internazionale. Tuttavia, l'intelligenza artificiale e i mezzi informatici offrono un'opportunità per un numero di
paesi di ottenere un vantaggio. Pertanto, con l'aumentare della maturità dell'IA, la stabilità strategica è
modellata dall'estensione dei fattori AI tra gli elementi tecnici.

IV. I modi in cui l'IA potrebbe plasmare il futuro percorso di stabilità


strategica

Le competenze chiave della tecnologia AI guidata da algoritmi di apprendimento profondo includono


cognizione, previsione, processo decisionale e soluzioni integrate. 37 La cognizione si riferisce alla percezione
e alla descrizione del mondo attraverso la raccolta e l'interpretazione delle informazioni, comprese tecniche
come l'elaborazione del linguaggio naturale, la visione artificiale e l'elaborazione audio. La previsione si basa
sull'ottenimento di un'ampia gamma di informazioni, sull'analisi di diversi scenari che possono verificarsi
attraverso reti neurali multistrato e sulla previsione anticipata di comportamenti e risultati che possono
verificarsi in vari scenari. Il processo decisionale comprende un'analisi efficace delle informazioni raccolte e il
completamento delle previsioni riguardanti scenari specifici, per determinare una linea d'azione basata su
obiettivi prestabiliti. Una volta che l'IA è combinata con altre tecnologie complementari, fornisce una soluzione
integrata per attività estremamente complesse.
Mentre il ruolo fondamentale dell'IA avviene tramite queste quattro competenze chiave, il percorso dell'impatto
dell'IA sulla stabilità strategica può essere suddiviso in cinque aspetti: (a) il suo effetto di potenziamento sulle
armi nucleari, (b) il suo effetto di potenziamento sulle forze militari convenzionali, ( c) il suo effetto di
penetrazione globale sulle capacità strategiche, (d) il suo effetto di rischio comportamentale che porta
all'escalation del conflitto e (e) i suoi effetti di ansia psicologica.

Tabella 10.1. L'effetto di potenziamento dell'IA sulle armi nucleari


Applicazione AI Possibili risultati Impatto sulla stabilità
strategica
Sorveglianza, acquisizione Rischio maggiore o percepito maggiore di decapitare vv xx
del bersaglio e ricognizione l'attacco di un avversario con armi convenzionali;
maggiore fiducia reciproca grazie alla maggiore
trasparenza
Allerta precoce Possibile minor rischio di lancio accidentale o vv x
disinformato di armi nucleari
Difesa aerea e spaziale e Minore fiducia nella sopravvivenza della capacità di x
difesa dai missili balistici ritorsione di secondo colpo
Capacità di attacco nucleare Possibile maggior rischio di utilizzo accidentale o xx
non autorizzato di armi nucleari; rischio di escalation
più elevato
Comando e controllo AI come consulente di fiducia; possibile rischio v x
sempre più basso, dovuto a pirateria informatica o
lancio accidentale o disinformato di armi nucleari
Sistemi di protezione per le Attacco alle forze nucleari o comando e controllo x
forze nucleari nucleare mediante sistemi d'arma convenzionali;
rischio più elevato o rischio percepito di
decapitazione dello sciopero da parte di un avversario
x = effetto negativo; v = effetto positivo; AI = intelligenza artificiale.
Fonte: Derivato dalle presentazioni di Nishida Michiru e Petr Topychkanov e dalla successiva discussione al seminario
dell'Asia orientale: L'impatto dell'apprendimento automatico e dell'autonomia sul rischio nucleare, Pechino, 6–7 settembre
2018.

L'effetto di potenziamento dell'IA sulle armi nucleari

Uno dei modi in cui l'IA gioca un ruolo nella stabilità strategica è attraverso il suo effetto di potenziamento sulle
armi nucleari. Le applicazioni dell'intelligenza artificiale che possono potenziare le armi nucleari includono il
rilevamento ambientale, l'ubicazione dell'obiettivo, l'allarme tempestivo, i sistemi di difesa missilistica aerea e
spaziale, i sistemi di comando delle armi nucleari e i sistemi di protezione per le attrezzature di trasporto e
stoccaggio nucleare.
Quasi tutti gli scenari risultanti possono avere un effetto sulla stabilità strategica nucleare, positivo o negativo
(vedi tabella 10.1). Esperti nucleari e ricercatori di intelligenza artificiale sembrano concordare sul fatto che
l'intelligenza artificiale avanzata potrebbe seriamente minare la stabilità della strategia nucleare e aumentare il
rischio di una guerra nucleare. 38 Tuttavia, non tutti sono d'accordo su come e perché l'IA avrebbe un impatto.
In effetti, l'IA ha un impatto a doppio taglio sulla stabilità strategica nucleare.
L'uso dell'IA in due scenari - nel tracciamento dei missili e come aiuto decisionale sull'uso delle armi nucleari -
illustra il ruolo che l'IA può svolgere nella guerra nucleare da entrambe le parti. 39 Se l'IA viene applicata nel
tracciamento dei missili, migliorerà notevolmente la precisione del monitoraggio dei potenziali attacchi nemici.
Questa maggiore trasparenza può aumentare la fiducia reciproca strategica tra le due parti, riducendo così la
possibilità di una guerra nucleare e migliorando la stabilità strategica. Tuttavia, in caso di crisi, l'utilizzo o la
fornitura di intelligence, sorveglianza e ricognizione (ISR) abilitata dall'intelligenza artificiale può anche
aumentare le tensioni e la possibilità di un'escalation inaspettata del conflitto. Inoltre, se la funzione di
tracciamento missilistico dell'IA è difettosa o compromessa, la probabilità di innescare una guerra nucleare
aumenterà notevolmente, riducendo così la stabilità strategica. Di conseguenza, il supporto decisionale dell'IA
ha un duplice impatto sulla guerra nucleare.
Con l'uso dell'IA, il numero di fattori che hanno un impatto nel fragile equilibrio nucleare basato sulla MAD
aumenterà in modo significativo. L'autonomia abilitata dall'intelligenza artificiale e l'integrazione dei sensori
sono di importanza strategica poiché possono migliorare l'ISR, il riconoscimento automatico del bersaglio
(ATR) e le capacità di guida del terminale, che possono indebolire seriamente la sopravvivenza della forza
nucleare. Ciò scuoterebbe quindi il senso di sicurezza di un paese e minerebbe la stabilità della crisi. Ciò ha
un impatto maggiore su Cina e Russia, poiché si basano principalmente sulla telefonia mobile
intercontinentale
missili balistici (ICBM) per la deterrenza. Ovviamente, la capacità di sviluppare ATR, integrazione di sensori ed
elaborazione del segnale rimane estremamente difficile. Secondo un rapporto, in un ambiente strategico
sempre più multipolare, è probabile che l'intelligenza artificiale porti alla rottura dell'equilibrio delle armi
nucleari e al fallimento degli attuali mezzi di deterrenza nucleare entro il 2040. 40
Inoltre, il coinvolgimento della tecnologia AI introdurrà anche nuove variabili nella stabilità del sistema globale
di deterrenza nucleare. In un'era di debole intelligenza artificiale, solo una combinazione di tecnologia di
intelligenza artificiale e armi nucleari può formare un efficace sistema deterrente. Quando la tecnologia AI è
coinvolta in tutti gli aspetti di una struttura deterrente nucleare, il sistema originale di stabilità cambierà. Come
strumento di dati, l'IA fornisce ai paesi nuove capacità offensive e ha un impatto diretto sull'affidabilità dell'uso
delle armi nucleari. In un ambiente di big data, tuttavia, ci sono anche una serie di fattori soggettivi, come
l'imprevedibilità della volontà nazionale e l'intento strategico. Se sottoposto ad algoritmi di apprendimento
profondo, l'intento può essere chiarito. Questi cambiamenti potrebbero provocare uno squilibrio nel sistema di
deterrenza nucleare basato sulla MAD. La parte con il comando della tecnologia AI avrà la capacità di valutare
chiaramente la possibilità e la distruttività del contrattacco nucleare dell'altra parte, avendo così opzioni
strategiche più flessibili, mentre la parte con tecnologie relativamente arretrate avrà capacità di ritorsione
meno credibili.41 Il divario tra le potenze militari si espanderà nuovamente e gli obiettivi strategici militari dei
paesi verranno di conseguenza riadattati. In altre parole, il tradizionale sistema di sicurezza internazionale
diventerà instabile.

L'effetto di potenziamento dell'IA sulle forze militari convenzionali

Il secondo modo in cui l'IA ha un impatto sulla stabilità strategica è attraverso il potenziamento delle forze
militari convenzionali. Mentre le armi nucleari erano il pilastro più importante della stabilità strategica durante
la guerra fredda, non erano un'opzione operativa nella grande competizione di potenza.

Tabella 10.2. L'effetto di potenziamento dell'IA sulla forza militare convenzionale


Applicazione AI Possibile risultato Impatto sulla stabilità
strategica
Consapevolezza dellaL'intelligenza artificiale ha la capacità di raccogliere vv xx
situazione del paese diinformazioni sul campo di battaglia in modo più
destinazione e del campo dicompleto ed efficiente. L'uso di sistemi di elaborazione
battaglia del linguaggio naturale può raccogliere ed elaborare in
modo più efficiente i segnali audio. La visione artificiale
può migliorare la capacità dei sistemi d'arma automatici
di identificare e analizzare le condizioni del campo di
battaglia. Ciò consente una maggiore trasparenza, fiducia
reciproca strategica, ridotta motivazione a lanciare la
guerra. Tuttavia, informazioni false possono anche
aumentare la percezione del rischio.
Comanda militare nel processoUn sistema di comando intelligente con funzioni di v xx
decisionale cooperativo uomo-ragionamento, analisi, previsione, processo decisionale,
macchina ecc. Può migliorare notevolmente la precisione e
l'efficacia delle attività di comando militare.
L'intelligenza artificiale può elaborare rapidamente le
informazioni sul campo di battaglia e ha la capacità di
risposta rapida che manca agli umani. L'intelligenza
artificiale offre capacità di elaborazione multithread, può
gestire contemporaneamente più operazioni militari e può
proporre strategie complesse che vanno oltre le capacità
del pensiero umano.
Attività assistenziale umana Ciò include apparecchiature elettroniche portatili e unità v xx
di alimentazione ausiliarie per garantire che i soldati
ricevano aiuto in una varietà di possibili emergenze. Ciò
potrebbe rafforzare la distribuzione del potere esistente
tra gli stati e allo stesso tempo ridurre la paura delle
attività di guerra.
Operazioni collaborativeQuesto copre tutto, dall'identificazione in tempo reale di v xx
(squadre di combattimentodifetti e vulnerabilità da parte di sistemi informatici che
avanzate con o senza pilota) mancano completamente dell'intervento umano, alla
capacità di completare rapidamente e automaticamente la
riparazione del software e la difesa del sistema in miliardi
di righe di codice, alla creazione di un robot hacker con
entrambi offensivi e capacità difensive. A causa della non
letalità, l'uso può aumentare. I paesi sviluppati e
intermedi possono essere i maggiori beneficiari
dell'empowerment delle armi autonome.
Sistemi d'arma autonomi letali Questo include l'auto-scoperta degli obiettivi, xx
l'autodeterminazione e l'implementazione degli attacchi.
È relativamente controllabile tra attori statali razionali,
ma è incontrollabile nel caso di attori non statali come le
organizzazioni terroristiche.
x = effetto negativo; v = effetto positivo; AI = intelligenza artificiale.

Ciò era dovuto all'equilibrio del terrore nucleare e alle conseguenze della reciproca distruzione. Con
l'espansione del concetto di stabilità strategica, le forze militari convenzionali sono diventate una
considerazione importante. L'esercito mondiale si è trasformato da un'era di meccanizzazione a un'era di
informazione. L'intelligenza artificiale basata su algoritmi è un importante promotore di questa rivoluzione
militare. Si prevede di dare vita a nuovi stili di combattimento e di cambiare il meccanismo per vincere le
guerre. In tal modo, è diventato un mezzo importante per cambiare le regole del gioco in guerra e per
plasmare capacità militari sovversive (vedi tabella 10.2). 42
L'intelligenza artificiale può anche svolgere un ruolo ampio nelle forze non nucleari. Ad esempio, la
proliferazione di armi autonome non è limitata a campi tradizionali come gli UAV, ma piuttosto può essere
completamente implementata in una varietà di campi militari. Uno studioso ha avvertito che "Se le armi
autonome vengono sviluppate e dispiegate, alla fine troveranno una casa in ogni dominio: aria, spazio, mare,
terra e cyber".43 A differenza dei precedenti cambiamenti tecnologici, la tecnologia AI in campo militare ha
guidato ai cambiamenti in tutti gli aspetti: dalle armi militari alla progettazione strategica e dall'equilibrio del
potere militare globale all'etica militare, tutti saranno inevitabilmente influenzati.
In termini di consapevolezza della situazione ambientale sul campo di battaglia, l'IA ha la capacità di
raccogliere informazioni più complete sul campo di battaglia. Ad esempio, l'uso della visione artificiale può
migliorare la capacità del sistema d'arma automatico di identificare e analizzare le condizioni del campo di
battaglia. Inoltre, il sistema di elaborazione del linguaggio naturale può raccogliere ed elaborare in modo
efficiente i segnali audio. Per l'ambiente strategico dei concorrenti in tempo di pace, l'intelligenza artificiale è
anche in grado di utilizzare i big data per l'analisi statistica per rilevare i cambiamenti nella postura strategica
in modo tempestivo. In termini di comando militare, un sistema di comando intelligente con funzioni di
ragionamento, analisi, previsione e processo decisionale, tra le altre capacità, può migliorare notevolmente
l'accuratezza e l'efficacia della formulazione del comando militare. I comandanti di combattimento sono quindi
in grado di cogliere le informazioni sul campo di battaglia e di ottenere consigli tattici più precisi.
In pratica, prima dell'inizio di un conflitto, il sistema di intelligenza artificiale sarebbe in grado di fornire un set
più completo di informazioni sul campo di battaglia, simulare le capacità di dispiegamento e combattimento di
entrambe le parti, completare un formato relativamente accurato del campo di battaglia da simulazioni
deduttive e quantificare tutti i potenziali risultati da una serie di probabilità derivate da varie strategie militari. In
linea con questa probabilità quantitativa, potrebbe essere selezionato e realizzato un efficace piano operativo
di distribuzione della forza e dispiegamento strategico. Questo perché l'IA ha due vantaggi che gli esseri
umani non sono in grado di eguagliare. In primo luogo, i sistemi di intelligenza artificiale possono superare la
capacità umana di elaborare rapidamente le informazioni sul campo di battaglia e impegnarsi in una risposta
rapida. In secondo luogo, i sistemi di intelligenza artificiale hanno capacità di elaborazione multithreading che
possono intraprendere più operazioni militari contemporaneamente e proporre strategie complesse che i
modelli di pensiero umano non sono in grado di comprendere. 44 L'IA può anche aiutare gli esseri umani con
azioni complementari, come apparecchiature elettroniche portatili e unità di alimentazione ausiliarie, per
aiutare in una varietà di possibili emergenze.
Gli esseri umani possono coordinare le operazioni con i sistemi di intelligenza artificiale e ottimizzare le
tattiche di guerra, adattandosi in modo flessibile alle condizioni del campo di battaglia e agli obiettivi di
combattimento per massimizzare il vantaggio sul campo di battaglia. La tecnologia automatizzata consente a
un sistema d'arma di ottenere una maggiore flessibilità e autodeterminazione per risolvere i problemi. Un
sistema d'arma intelligente non solo raggiunge una sostanziale separazione tra uomo e arma, ma trasforma
anche completamente l'attività bellica in un compito del sistema d'arma. Ciò porta il tasso di vittime tra i
combattenti quasi a zero e massimizza l'efficienza dell'uso delle armi e il coordinamento tra i vari sistemi
d'arma. Ancora più importante, l'uso di armi intelligenti fa perdere il loro significato pratico alle tradizionali leggi
sul combattimento, come uccidere i combattenti nemici. 45
Allo stesso tempo, la collaborazione uomo-macchina può anche portare a termine una buona parte del lavoro
che non può essere svolto solo dagli esseri umani. Gli Stati Uniti e l'Europa hanno compiuto passi avanti su
una serie di tecnologie chiave come il volo sinergico UAV, il combattimento di colonie di api senza pilota, il
rilevamento della rete sommergibile senza pilota e le prove di volo in formazione di aerei da combattimento
con o senza pilota.

Oltre a queste capacità, l'empowerment della rete e le armi autonome ad alta velocità per gli attacchi
informatici e la guerra elettronica sono aree in cui l'IA è particolarmente promettente. Le armi cibernetiche
devono operare al di fuori del raggio di comunicazione e rispondere rapidamente. Di conseguenza, gli attacchi
avviati e controllati dai sistemi di intelligenza artificiale hanno un grande potenziale. Inoltre, la natura non letale
delle armi cibernetiche potrebbe aumentarne l'uso. Detto questo, lo sviluppo di armi cibernetiche autonome
può differire dalle armi tradizionali in quanto i requisiti a livello tecnico sono più elevati. In questo caso, si
potrebbe sostenere che un paese di medie dimensioni tecnologicamente sviluppato potrebbe essere il più
grande beneficiario di armi autonome e potrebbe riscrivere la distribuzione di energia convenzionale,
iniettando così più incertezza e instabilità nel sistema internazionale. 46
Inoltre, i paesi stanno anche sviluppando vigorosamente sistemi d'arma autonomi letali (LEGGI) in grado di
identificare in modo indipendente obiettivi, esprimere giudizi indipendenti ed eseguire attacchi. Questi tipi di
sistema hanno la capacità di impegnarsi in attacchi automatici e possono impegnarsi in uccisioni disumane.
Per un attore nazionale con un modello decisionale razionale, tali sistemi sono relativamente controllabili. Ciò
che veramente influenza la stabilità strategica e il sistema internazionale è l'uso delle LEGGI da parte di attori
non statali, come le organizzazioni terroristiche irrazionali. Questo perché la rapida ricerca di nuove tecnologie
avanzate non solo ha consentito a grandi potenze di sviluppare e dispiegare nuovi sistemi d'arma per una
rivoluzione negli affari militari, ma ha anche fornito nuove possibilità per la proliferazione di armi di distruzione
di massa e LEGGI.
L'effetto di potenziamento dell'IA sulle forze militari convenzionali si traduce anche in altre due forme di
cambiamento nella stabilità strategica tra le grandi potenze. A causa di questo aggiornamento, i paesi
tecnologicamente avanzati possono incontrare rischi inferiori, combinati con strumenti di attacco più efficaci, in
modo tale da essere in grado di rappresentare una seria sfida alla deterrenza strategica del loro avversario.
Pertanto, per i paesi che storicamente hanno avuto la capacità di respingere un attacco, l'introduzione di
maggiori capacità di mobilità, occultamento e autonomia con la prossima generazione di apparecchiature
potrebbe rendere inefficace la loro strategia di deterrenza basata sulla ritorsione. 47 L'impatto della tecnologia
AI aggraverà quindi lo squilibrio del confronto tra le forze militari convenzionali. Le forze armate prive di
tecnologia AI troveranno sempre più difficile compensare i loro svantaggi sul campo di battaglia attraverso
tattiche e strategie. Il confronto convenzionale non sarà più un'opzione strategica razionale e dovranno
ricorrere alla guerra asimmetrica. 48 Allo stesso tempo, lo sviluppo di nuove armi senza pilota può anche
cambiare il tradizionale numero di vittime dei conflitti, aumentando così il tasso di utilizzo di queste armi.
Queste tendenze senza dubbio non sono utili per la stabilità strategica di un grande potere. Tuttavia,
aumenterà anche la fiducia reciproca strategica generata dalla consapevolezza della situazione sul campo di
battaglia reciproca abilitata dall'intelligenza artificiale e dalle capacità di attacco, il che sarà vantaggioso in una
certa misura.

L'effetto penetrativo globale dell'IA sulle capacità strategiche

Il terzo modo in cui l'IA ha un impatto sulla stabilità strategica è attraverso il suo pieno effetto penetrante sulle
capacità strategiche. Dal punto di vista privilegiato della politica internazionale, il valore più importante dell'IA
risiede in un potenziale cambiamento nell'allocazione della capacità strategica tra i paesi. 49 La concorrenza
nella scienza e nella tecnologia è una parte importante del jockey strategico tra grandi potenze e la
concorrenza nel campo dell'IA è un elemento fondamentale. Pertanto, la velocità e l'impatto della promozione
dell'applicazione dell'IA in vari campi non solo influenzeranno profondamente la futura vittoria in guerra, ma
anche la competitività strategica delle grandi potenze (vedi tabella 10.3).
In senso lato, la competitività strategica delle grandi potenze è in definitiva il fondamento della stabilità
strategica in tempo di pace.
L'effetto di penetrazione globale dell'IA sulle capacità strategiche è dovuto principalmente al suo elevato
vantaggio di penetrazione. L'intelligenza artificiale è diventata una tendenza tecnologica irresistibile e sta
entrando in tutti gli aspetti della vita e in tutti i campi sociali. Dal punto di vista dello sviluppo tecnologico, la
nuova generazione di AI non solo rappresenta una nuova direzione nella scienza e nella tecnologia, ma ha
anche un impatto estremamente importante sul percorso degli strumenti di ricerca e sviluppo (R&S), sui costi
e persino sul paradigma di come la R&S è condotto in altri campi scientifici. Da un punto di vista economico,
una nuova generazione di IA ricostruirà tutti gli aspetti delle attività economiche, come produzione,
distribuzione, scambio e consumo. Formerà anche nuove richieste intelligenti a livello macro e micro e
promuoverà il progresso di nuove tecnologie, nuovi prodotti e nuove industrie. Questi importanti cambiamenti
strutturali promuoveranno la trasformazione e l'aggiornamento industriale, realizzando un nuovo salto di
produttività.

Tabella 10.3. L'effetto penetrativo globale dell'IA sulla stabilità strategica


Applicazione AI Risultato Possibile Effetto sulla stabilità strategica Impatto sulla stabilità
strategica
Economia Porta a grandi cambiamenti Il vincitore prende tutto (x) v x x
nella struttura economica,
promozione e aggiornamento Riduzione del ciclo di recupero
della trasformazione industriale della tecnologia AI (v)
e raggiungimento di un nuovo
salto di produttività
Società Migliora notevolmente il livello v x x
dei servizi pubblici mirati e
migliora in modo completo la
qualità della vita delle persone
Politica Aumenta la governance politica v x x
del paese e migliora la libertà
di parola
Sicurezza Aumenta il mantenimento delle v x x
misure di sicurezza nazionale e
migliora la competitività
nazionale
x = effetto negativo; v = effetto positivo; AI = intelligenza artificiale.

All'interno dello sviluppo sociale, una nuova generazione di intelligenza artificiale porterà nuove opportunità
per la costruzione sociale. L'ampia applicazione dell'IA nell'istruzione, nell'assistenza medica, nell'assistenza
agli anziani, nella protezione ambientale, nelle operazioni urbane e nei servizi giudiziari migliorerà
notevolmente il livello di servizio pubblico mirato per migliorare in modo completo la qualità della vita delle
persone. In termini di concorrenza globale, l'IA è diventata un nuovo fulcro della competizione internazionale. I
principali paesi sviluppati considerano lo sviluppo dell'IA una strategia fondamentale per migliorare la
competitività nazionale e salvaguardare la sicurezza nazionale. Chiunque sia in prima linea nel
raggiungimento di scoperte nel campo dell'IA dominerà lo sviluppo futuro.
Inoltre, l'IA è una tecnologia strategica che influenza il destino di sviluppo di un paese ed è correlata alla forza
complessiva del paese. Al fine di cogliere l'iniziativa all'interno di questa competizione tecnologica, i paesi
hanno pianificato strategie nazionali di IA. Al momento, le maggiori potenze tecnologiche del mondo - Cina,
Russia e Stati Uniti tra gli altri - attribuiscono grande importanza allo sviluppo dell'IA.
Un rapporto del 2018 che ha esaminato sistematicamente il possibile impatto dell'IA sulla sicurezza nazionale
da una prospettiva economica, informativa e militare raccomanda agli Stati Uniti di prestare particolare
attenzione al controllo del potenziale rischio catastrofico dell'utilizzo dell'IA da parte di paesi ostili o di incidenti
imprevisti.50 Un rapporto parallelo suggerisce che gli Stati Uniti dovrebbero introdurre una strategia nazionale
globale di IA il più presto possibile. 51 Ciò significherebbe garantire che gli Stati Uniti siano il leader globale
nella progettazione di alto livello, nella pianificazione complessiva e negli investimenti chiave nella tecnologia
AI, per consentire vincere la competizione strategica nel campo dell'IA contro Cina, India, Russia e Corea del
Sud, tra gli altri.
I punti di forza delle tecnologie all'avanguardia, abilitate dall'IA e dai big data, possono contribuire alla
formazione di un nuovo equilibrio strategico. Da un lato, questo perché la quarta rivoluzione industriale
incentrata sull'intelligenza artificiale può portare a una situazione di chi vince prende tutto tra i paesi. L'effetto
di penetrazione globale dell'IA sulle capacità strategiche non favorisce l'equilibrio strategico delle maggiori
potenze.
Questo è un motivo importante per cui i paesi sperano di cogliere l'opportunità in questo stato instabile. D'altra
parte, l'accorciamento del ciclo di recupero tecnologico dell'IA è favorevole all'equilibrio strategico tra le
maggiori potenze. Nelle precedenti rivoluzioni industriali, il vantaggio in termini di tempo del paese leader
rispetto a coloro che lavoravano per recuperare il ritardo era notevole. Ad esempio, quando il Regno Unito
lanciò la prima guerra dell'oppio nel 1839, la Cina era ancora una società agricola. Il divario tecnologico tra i
due paesi avrebbe potuto essere misurato in decenni, se non secoli. Tuttavia, nell'era della rivoluzione
intelligente, i paesi sviluppati hanno realizzato risultati come smartphone, auto senza conducente e pagamenti
senza contanti. Di conseguenza, i paesi in via di sviluppo hanno la possibilità di compiere progressi simili entro
un anno o due di questi progressi. Di conseguenza, la differenza di tempo sta diventando sempre più piccola.
Ciò contribuisce anche alla formazione di un mondo multipolare e al miglioramento della stabilità strategica.

L'effetto del rischio comportamentale dell'IA che porta all'escalation dei conflitti

Il quarto percorso per l'impatto dell'IA sulla stabilità strategica è attraverso la sua formazione del rischio
comportamentale che potrebbe contribuire all'escalation dei conflitti. Può farlo in tre modi (vedi tabella 10.4).
In primo luogo, l'IA può offuscare i confini tra guerra convenzionale e nucleare, provocando così un'escalation
dei conflitti. Come sottolinea Paul Bracken della Yale University, USA, il continuo miglioramento di tecnologie
come l'IA ha il potenziale per indebolire la strategia di deterrenza nucleare minima e per offuscare i confini tra
guerra convenzionale e nucleare. 52 La tecnologia AI può aiutare a raggiungere nuovi traguardi nel
monitoraggio, nel targeting e nella guerra anti-sottomarino o rendere più facile per le munizioni convenzionali
ad alta precisione distruggere i silos ICBM rinforzati. 53 Questa capacità di destabilizzare è particolarmente
significativa perché i responsabili politici hanno maggiori probabilità di minacciare di utilizzare armi
convenzionali che di condurre qualsiasi forma di attacco nucleare. In una crisi, la minaccia dell'uso di armi
convenzionali può esercitare un'enorme pressione sull'avversario. Ciò potrebbe costringere il paese a cedere,
ma potrebbe anche innescare una guerra nucleare. Le ragioni dell'escalation del conflitto sono che l'avversario
ritiene che sia necessario utilizzare armi nucleari (a) prima di essere disarmato, (b) per contrastare un attacco
parzialmente riuscito, o (c) in caso di crisi che porta a un uso accidentale.

Tabella 10.4. L'effetto del rischio comportamentale dell'IA che porta all'escalation dei conflitti
Applicazione AI Rischio comportamentale Impatto principale Impatto sulla stabilità
dell'applicazione dell'IA strategica
Sfuma i confini tra guerra L'avversario ritiene che sia Provoca l'escalation dei x x
convenzionale e nucleare necessario utilizzare armi conflitti
nucleari prima di essere
disarmato o per contrastare
un attacco che non riesce a
decapitare con successo.
Aumenta le opzioni di Le applicazioni di x x
comportamento armato intelligenza artificiale come
le armi autonome non
implicano necessariamente
vittime umane e possono
alleviare la pressione
dell'opinione pubblica
interna che un paese può
affrontare quando lancia e
partecipa a operazioni
militari straniere.
L'intenzione che sta dietro Ciò può essere interpretato x x
all'uso dell'IA per eseguire come una seria
attività potrebbe essere provocazione contro gli
Applicazione AI Rischio comportamentale Impatto principale Impatto sulla stabilità
dell'applicazione dell'IA strategica
fraintesa interessi di sicurezza di un
paese bersaglio, che porta a
misure di risposta più
rigorose. L'hacking può
portare a valutazioni errate
o a una risposta crescente.
x = effetto negativo; v = effetto positivo; AI = intelligenza artificiale.

In secondo luogo, l'IA può aumentare le opzioni per il comportamento armato e causare l'escalation dei
conflitti. Per gli attori nazionali, uno dei vantaggi delle applicazioni di intelligenza artificiale come le armi
autonome è che non implicano necessariamente vittime umane (sul lato attaccante). Possono alleviare la
pressione dell'opinione pubblica nazionale che i responsabili delle decisioni possono affrontare quando si
lanciano e partecipano a operazioni militari straniere, aumentando nel contempo gli strumenti disponibili per
svolgere i compiti. In particolare, le applicazioni di IA come le armi autonome possono ridurre il costo
potenziale di alcune posture e attività che potrebbero essere necessarie ma che potrebbero portare a un
eccessivo deterioramento della situazione. 54 Allo stesso tempo, per i problemi che potrebbero essere risolti
attraverso la negoziazione diplomatica e altri mezzi, aumenta il rischio di conflitto.
In terzo luogo, l'intenzione alla base dell'uso dell'IA può essere fraintesa, aumentando il rischio di escalation
dei conflitti. Con lo sviluppo della tecnologia e l'evoluzione della situazione globale, gli attori nazionali possono
utilizzare sempre più armi AI.
Ma quanto bene inviano segnali inequivocabili per dimostrare il loro intento è una sfida quando si eseguono
queste attività. Invece, queste attività possono essere interpretate come una seria provocazione agli interessi
di sicurezza, portando a una risposta più rigorosa da parte del paese di destinazione. Ciò potrebbe
comportare un'escalation di conflitti non necessaria.

Inoltre, le armi autonome dipendono fortemente dalla percezione e dallo scambio di informazioni sull'ambiente
esterno. Di conseguenza, aumenta la probabilità di incidenti e di interventi dolosi indotti dall'uomo. Ad
esempio, se un drone è soggetto a un attacco hacker o ad un'altra forma di interferenza elettromagnetica
durante l'esecuzione di una missione di ricognizione e ciò si traduce in un comportamento anormale come un
incidente, un impatto o un'esplosione, il bersaglio potrebbe giudicare male o dare una risposta escalatoria. 55

L'effetto dell'ansia psicologica dell'IA

Il quinto modo in cui l'IA può influenzare la stabilità strategica è attraverso il suo effetto di ansia psicologica.
Ciò può portare a sospetti strategici reciproci e corse agli armamenti e quindi influire sulla stabilità strategica
(vedi tabella 10.5).
In primo luogo, i paesi temono che il loro livello di tecnologia AI venga superato. La tecnologia è il fondamento
di varie capacità strategiche nelle forze nucleari, spaziali e convenzionali. Si ritiene quindi generalmente che
una nuova generazione di IA diventerà un importante deterrente strategico. Come descritto sopra, l'intelligenza
artificiale potrebbe ribaltare le fondamenta della strategia di deterrenza nucleare entro il 2040. 56 Proprio come
la guerra fredda degli anni Quaranta e Cinquanta, ciascuna parte ha motivo di temere che i suoi avversari
possano ottenere un vantaggio tecnico. Alla fine del 2017, il presidente Putin ha suggerito che l'intelligenza
artificiale potrebbe essere il modo in cui la Russia riequilibra il potere degli Stati Uniti in difesa. 57
I media statali russi hanno successivamente riferito che l'IA è la chiave della sconfitta degli Stati Uniti da parte
della Russia.58
In secondo luogo, ci sono preoccupazioni tra gli stati che il sistema di regole relative all'IA sarà formulato
preventivamente dalle maggiori potenze. Gli elementi di stabilità strategica includono fattori tecnici e
comportamentali, oltre a quelli istituzionali. Il sistema di regole della tecnologia e delle applicazioni AI può
ricostruire fattori tecnici e comportamentali. Al momento, tuttavia, la ricerca sull'IA è ancora agli inizi. Di
conseguenza, le norme internazionali a livello tecnico e comportamentale pertinente sono ancora
sostanzialmente non scritte. Lo sviluppo storico mostra che i pionieri di successo dello sviluppo tecnologico
sono spesso i creatori delle regole e dei regolamenti.
In generale, i ritardatari possono accettare solo passivamente regole e regolamenti. Anche se è possibile per
loro formulare nuove regole, questo è difficile. Pertanto, i principali paesi hanno intensificato la ricerca e lo
sviluppo relativi all'intelligenza artificiale, sperando di assumere un ruolo guida in questo round di
competizione decisionale.
La terza preoccupazione degli stati è come la loro perdita dello status di grande potere possa avere un impatto
sulla loro voce nella diplomazia internazionale. L'intelligenza artificiale diventerà un altro status symbol di
grande potere. Senza occupare le vette imponenti dell'IA, sarà difficile avere un ruolo di primo piano nella
futura arena internazionale.

Tabella 10.5. L'effetto dell'ansia psicologica dell'IA


Effetto ansia psicologica sulla Impatto principale Impatto sulla stabilità strategica
stabilità strategica
Preoccupazione per il superamento L'ansia psicologica porta alla cieca x x
della tecnologia AI ricerca del vantaggio strategico,
piuttosto che stabilità strategica Il
Preoccupazione per la dubbio reciproco strategico può x x
regolamentazione preventiva relativa essere causato dall'ansia psicologica
all'IA
Preoccupazione per la perdita dello x x
status di grande potere e il suo
impatto sulla voce diplomatica
internazionale di un paese
x = effetto negativo; AI = intelligenza artificiale.

Le armi nucleari una volta erano il simbolo più importante di uno status di grande potere.
Oggi, le capacità strategiche dell'IA non solo illustrano la potenza militare, ma dimostrano anche il livello di
sviluppo tecnologico e industriale di un paese.
Avere capacità strategiche di intelligenza artificiale migliorerà notevolmente la voce di un paese nella lotta
diplomatica internazionale.
Naturalmente, oltre alle preoccupazioni che riguardano la stabilità strategica, le grandi potenze hanno anche
sottolineato altre preoccupazioni sull'IA e la sicurezza nazionale in documenti importanti, come le strategie di
sicurezza nazionale e le strategie di sviluppo della scienza e della tecnologia. Tra questi c'è la paura di
perdere il controllo della tecnologia AI.
In sostanza, l'IA è facile da ottenere con mezzi tecnici, estremamente difficile da controllare e ha una bassa
soglia di abuso. Può facilmente cadere nelle mani di individui estremisti, bande criminali o persino
organizzazioni terroristiche, rappresentando così una grave minaccia per la sicurezza politica e la stabilità
sociale. Un altro esempio è la paura dei principali rischi per la sicurezza nelle applicazioni AI. L'applicazione
della tecnologia AI presenta molte incertezze. Pertanto, senza capacità predittive, di allerta precoce e
preventive, i rischi sistematici e catastrofici in quella che potremmo chiamare l '"era dell'IA" sono inevitabili.
L'impatto dell'ansia psicologica causata dall'intelligenza artificiale può essere suddiviso in due categorie.
Primo, l'ansia causata dalla cieca ricerca del vantaggio strategico è un fattore distruttivo quando si tratta di
stabilità strategica. A causa della razionalità strumentale del pensiero della stabilità strategica, l'obiettivo
strategico di una grande potenza spesso non è la stabilità strategica, ma piuttosto la ricerca del vantaggio
strategico. Tuttavia, vale la pena perseguire la stabilità strategica invece del vantaggio strategico. La stabilità
strategica è uno stato in cui le grandi potenze possono perseguire un vantaggio strategico. Secondo un
rapporto del 2017, si stanno verificando fenomeni simili allo sviluppo di armi nucleari da parte degli Stati Uniti
e dell'URSS dopo la seconda guerra mondiale. 59 I paesi possono concordare di proporre una Convenzione di
Ginevra digitale che limiti le armi AI, ma ciò non impedisce a gruppi nazionalisti indipendenti, milizie,
organizzazioni criminali, terroristi e altri paesi di sviluppare IA e condurre attacchi di IA. Inoltre, un paese può
recedere da qualsiasi trattato. Quindi, è quasi certo che una delle parti trasformerà l'IA in un'arma, anche se
questo si basa solo sul desiderio di impegnarsi nell'autodifesa. Tra vantaggio strategico e stabilità strategica, il
perseguimento cieco dei vantaggi strategici legati all'IA è un potenziale pericolo per il mantenimento della
stabilità strategica, perché la tecnologia è vista come un fattore importante nel cambiare l'equilibrio tra attacco
e difesa. Secondo la teoria dell'offesa e della difesa, quando l'equilibrio tra i due turni rende l'offesa dominante,
il sistema d'arma con maggiore mobilità e autoprotezione aumenterà il vantaggio dell'attacco e aumenterà la
possibilità che venga lanciato un attacco preventivo.
In secondo luogo, anche il dubbio strategico reciproco causato dall'ansia psicologica è un fattore distruttivo
della stabilità strategica. Dal punto di vista dell'IA, nessuno può prevedere con precisione che tipo di condizioni
saranno prodotte dai veicoli senza pilota e dalla guerra intelligente. Soglie di guerra abbassate, scale di
arsenali ampliate e percorsi di evoluzione tecnologica incerti rendono queste corse agli armamenti legate all'IA
una nuova fonte di sfiducia strategica reciproca tra gli stati. 60 La padronanza incompleta dell'IA aumenterà solo
l'incertezza sulla capacità dell'IA di un particolare avversario di impegnarsi in attacco e difesa. Secondo alcuni
esperti nucleari e ricercatori di intelligenza artificiale, Cina e Russia sembrano credere che gli Stati Uniti stiano
cercando di utilizzare l'intelligenza artificiale per minacciare la vitalità delle loro forze nucleari strategiche e
suscitare sospetti reciproci. 61 Di conseguenza, in caso di crisi possono verificarsi conseguenze disastrose. La
sfiducia reciproca strategica ha anche portato a una mancanza di condivisione delle informazioni tra le
principali potenze nel campo dell'IA. Ciò espone i responsabili delle decisioni al rischio di giudizi
potenzialmente imprudenti e riduce la stabilità strategica.

V. Conclusioni

La stabilità strategica non si è conclusa con la guerra fredda. Al contrario, il concetto di stabilità strategica si è
ampliato dopo la conclusione della guerra fredda.
La stabilità strategica nucleare durante la guerra fredda si è trasformata nella complessa stabilità strategica di
oggi. Le sue categorie si sono espanse dalle relazioni di potenza nucleare attraverso le relazioni militari e di
sicurezza alle relazioni strategiche generali. I suoi protagonisti sono cresciuti oltre gli Stati Uniti e l'Unione
Sovietica per includere vari attori globali.
Esiste una base fattibile perché l'IA come "seconda arma nucleare" abbia un impatto sulla stabilità strategica.
Ciò si basa sull'apertura dell'ambiente di stabilità strategica, che include l'egemonia, lo status di grande potere
e la fragilità delle relazioni di stabilità strategica di grande potere. Si basa anche sul razionalismo strumentale
derivato dal pensiero della guerra fredda, dal realismo fatalistico e dalla scarsa fiducia strategica tra le grandi
potenze. Ancora più importante, la crescita numerica di questi fattori suggerisce che l'IA ha un grande
potenziale per la stabilità strategica. Tra i tre elementi di stabilità strategica - fattori tecnici, fattori
comportamentali e fattori istituzionali - i fattori tecnici costituiscono la base materiale per il confronto della forza
strategica tra i paesi. I fattori tecnici non solo determinano il livello delle forze nucleari, ma anche la capacità di
impegnarsi nella modernizzazione militare e il livello delle forze armate convenzionali. Questi sono elementi
fondamentali per determinare la stabilità strategica.
Ci sono cinque percorsi affinché l'IA abbia un impatto sulla stabilità strategica: il suo effetto di potenziamento
sulle armi nucleari, il suo effetto di potenziamento sulle forze militari convenzionali, il suo effetto penetrante
completo sulle capacità strategiche, gli effetti del rischio comportamentale che portano all'escalation dei
conflitti e l'ansia psicologica effetto. Sebbene alcuni fattori possano migliorare la stabilità strategica, l'impatto
dell'IA può essere negativo nella maggior parte dei casi, come l'offuscamento dei confini tra guerre
convenzionali e nucleari, aumentando le scelte di comportamento armato e risultando in incomprensioni di
intenti quando impiegato. L'escalation del conflitto, la ricerca psicologica del vantaggio strategico invece della
stabilità strategica e la sfiducia strategica reciproca tra i paesi sono fattori distruttivi che hanno un impatto sulla
stabilità strategica.
Le applicazioni AI hanno un grande potenziale e possono avere un impatto significativo sulla stabilità
strategica. Tuttavia, molti dei limiti di queste applicazioni meritano anche l'attenzione degli strateghi. Tra le
molte caratteristiche dell'IA ci sono il suo uso militare e civile, la facile proliferazione e la dipendenza dai dati.
Porterà sfide significative alle leggi esistenti, alla sicurezza e all'etica. In termini di sicurezza, i sistemi di
intelligenza artificiale sono intrinsecamente fragili e imprevedibili. In quanto tali, gli incidenti di sistema e gli
attacchi informatici nemici possono essere catastrofici. Gli attori dannosi possono utilizzare queste
vulnerabilità per infiltrarsi nei sistemi di armi nucleari, mentre lo stato ferito potrebbe non essere a
conoscenza. Il Nuclear Posture Review 2018 degli Stati Uniti affronta specificamente l'impatto delle minacce
informatiche sui sistemi di comando, controllo e comunicazione nucleare (NC3). 62
Inoltre, lo sviluppo di armi AI rappresentato dalle LEGGI e dalle corse agli armamenti potrebbe mettere in
pericolo la pace, la stabilità e persino la sopravvivenza umana. Sul fronte legale, il rapido sviluppo dell'IA e le
tendenze della militarizzazione hanno seriamente compromesso i principi fondamentali di distinzione,
proporzionalità e umanità nel diritto internazionale esistente sui conflitti armati. Dal punto di vista etico,
l'ascesa delle macchine determinata dall'intelligenza artificiale ha portato enormi sfide all'uomo tradizionale -
relazioni macchina. Se, cosa e come gli standard morali umani debbano essere incorporati in macchine
sempre più intelligenti deve essere studiato a fondo.

Dato il potenziale impatto dell'IA sulla stabilità strategica, è necessario progettare un quadro per mantenere la
stabilità strategica nell'era dell'IA il prima possibile. Per quanto riguarda i fattori tecnici, i paesi possono
cooperare alla ricerca sulla vulnerabilità dei sistemi di IA, massimizzando il ruolo dell'IA. Riguardo ai fattori
comportamentali, i principali paesi dovrebbero non solo stabilire un canale di comunicazione per la gestione
delle crisi, ma anche prendere in considerazione un piano di risposta per l'apprendimento automatico, il
giudizio e l'esecuzione. Gli attacchi nucleari non possono essere ritirati, quindi il vero dilemma è come
prevenire le crisi nucleari e come mitigare la trasformazione del comportamento tradizionale in crisi nucleari.
Una volta che si è verificata una potenziale crisi nucleare, è necessario impedirne un'ulteriore escalation. In
termini di fattori istituzionali, i principali paesi devono costruire congiuntamente meccanismi relativi all'IA per
prevenire la proliferazione illegale e l'uso dannoso della tecnologia AI, regolare razionalmente l'applicazione
militare dell'IA e prevenire un'eccessiva dipendenza dall'IA. Ancora più importante, i paesi dovrebbero
costruire una fiducia reciproca strategica nell'era dell'IA sulla base di tutti questi fattori, promuovendo così la
stabilità strategica e facendo avanzare il processo di pace e sviluppo mondiale.
1. '日 媒 称 日本 正 加快 引入 “第二 核武器” 紧追 中 美俄 步伐 ' [i media giapponesi dicono che il Giappone sta
accelerando l'introduzione della 'seconda arma nucleare' e segue da vicino il ritmo di Cina e Stati Uniti e Russia], 参考 消息
[Notizie di riferimento], 28 gennaio 2019.
2. Consiglio nazionale per la scienza e la tecnologia degli Stati Uniti (NSTC), sottocomitato per la ricerca e lo sviluppo nel
settore delle reti e delle tecnologie dell'informazione, il piano strategico nazionale per la ricerca e lo sviluppo sull'intelligenza
artificiale (Casa Bianca: Washington, DC, ottobre 2016); Ufficio esecutivo del presidente degli Stati Uniti e comitato per la
tecnologia del National Science and Technology Council (NSTC), Preparing for the Future of the Artificial Intelligence (Casa
Bianca: Washington, DC, ottobre 2016); Ufficio esecutivo del presidente degli Stati Uniti, Intelligenza artificiale, automazione
ed economia (Casa Bianca: Washington, DC, dicembre 2016); Dipartimento della difesa degli Stati Uniti (DOD), Riepilogo
della strategia di intelligenza artificiale del Dipartimento della difesa 2018: sfruttare l'intelligenza artificiale per promuovere la
nostra sicurezza e prosperità (DOD: Washington, DC, febbraio 2019); e "Mantenere la leadership americana nell'intelligenza
artificiale", l'Ordine Esecutivo n. 13859, 11 febbraio 2019.
3. Hagel, C., Segretario alla difesa degli Stati Uniti, discorso programmatico, Reagan National Defense Forum, 15 novembre
2014.
4. Liao, K. (廖 凯), '透视 美军 抵消 战略 的 变 与 不变' [La prospettiva mutevole e immutabile della terza strategia di
offset degli Stati Uniti], 解放军报 [PLA Daily], 5 settembre 2017, p. 7.
5. Stewart, P., "Gli Stati Uniti pesano la limitazione degli investimenti cinesi nell'intelligenza artificiale", 14 giugno 2017,
Reuters.
6. Commissione nazionale cinese per lo sviluppo e la riforma, Ministero della scienza e della tecnologia, Ministero
dell'Industria e della tecnologia dell'informazione e Commissione dell'ufficio centrale per gli affari del cyberspazio, '“ 互联网 +”
人工智能 三年 行动 实施 方案' [intelligenza artificiale 'Internet Plus' tre -year action plan], 18 maggio 2016.
7. Consiglio di Stato cinese, ‘新一代 人工智能 发展 规划’ [New Generation Artificial Intelligence Development Plan],
decreto n. 35, 8 luglio 2017.
8. "普京 大帝 谈 AI: 得 人工智能 者 得 天下" [Putin the Great discute AI: ottenere AI significa ottenere il mondo], 搜狐
网 [Sohu.com], 4 settembre 2017, (traduzione dell'autore); e '普京 警告: 发展 AI 最 成功 国家 将 统治 全世界, 未来
是 无 人机 的 战争' [Putin avverte: i paesi che hanno più successo nello sviluppo dell'IA governeranno il mondo, le guerre
dei droni sono il futuro], 搜狐 网 [ Sohu.com], 3 settembre 2017; e "Chiunque guiderà nell'intelligenza artificiale dominerà il
mondo": Putin to Russian children on Knowledge Day ", RT, 1 settembre 2017.
9. Wang, H. (王慧 媞), "发展 人工智能 已成 全球 之 势 " [Lo sviluppo dell'IA è diventata una tendenza globale], 人民
论坛 [People’s Tribune], gennaio 2018, pagg. 20-21. Vedere anche il capitolo 7 in questo volume.
10. Japanese Cabinet Office, "Society 5.0", visitato il 26 aprile 2019.
11. Innovate UK, "Artificial Intelligence 2020 National Strategy", blog Gov.uk, visitato il 26 aprile 2019; Governo britannico,
Strategia industriale: accordo sul settore dell'intelligenza artificiale (Department for Business, Energy and Industrial Strategy:
London, 2018); e Jin, D. (a cura di), Reconstructing Our Orders: Artificial Intelligence and Human Society (Shanghai University
Press / Springer: Shanghai / New York, 2018).
12. Governo francese, "#FranceIA: la strategia nazionale di intelligenza artificiale è in corso", 26 gennaio 2017; e Villani, C.,
Per un'intelligenza artificiale significativa: verso una strategia francese ed europea (Conseil national du numérique: Parigi,
marzo 2018).
13. Wang (nota 9).
14. Dichiarazione congiunta Unione Sovietica-Stati Uniti sui futuri negoziati sulle armi nucleari e spaziali e sull'ulteriore
rafforzamento della stabilità strategica, Washington, DC, 1 giugno 1990.
15. Wu, T. (吴 艇), '从 中美 战略 稳定性 看 太空 武器 化 问题' [Esame dell'armamento spaziale tramite stabilità
strategica cinese-USA], tesi di Master, Fudan University, aprile 2012, p. 16.
16. Logan, J., Programma spaziale cinese: opzioni per la cooperazione tra Stati Uniti e Cina, Rapporto del Congressional
Research Service (CRS) per il Congresso RS22777 (Congresso degli Stati Uniti, CRS: Washington, DC, 29 settembre 2008);
e Colby, E. A. e Gerson, M. S. (a cura di), Strategic Stability: Contending Interpretations (US Army War College, Strategic
Studies Institute: Carlisle, PA, 2013).
17. Dvorkin, V., "Preservare la stabilità strategica nel confronto USA-Russia", Carnegie Moscow Center, febbraio 2019; Berls,
R. E. e Ratz, L., Rising Nuclear Dangers: Assessing the Risk of Nuclear Use in the Euro-Atlantic Region (Nuclear Threat
Initiative: Washington, DC, Oct.2015); e Margoev, A., Pursuing Enhanced Strategic Stability through Russia-US Dialogue
(Centro PIR: Mosca, maggio 2019).
18. Li, Z. (李 喆), '“第二 核 时代” 战略 稳定性 研究' [Studio sulla stabilità strategica nella 'seconda era nucleare'], 江
南 社会 学院 学报 [Journal of Jiangnan Social University], vol . 17, n. 4 (aprile 2015), pp. 32–36, p. 32.
19. 中华人民共和国 主席 和 俄罗斯 联邦 总统 关于 加强 全球战略 稳定 的 联合 声明 [Dichiarazione congiunta
del presidente della Repubblica popolare cinese e del presidente della Federazione russa sul rafforzamento della stabilità
strategica globale], Pechino, 25 giugno 2016, (traduzione dell'autore).
20. Luo, X. (罗 曦), '美国 构建 全 域 制胜 型 战略 威慑 体系 与 中美 战略 稳定性' [deterrenza su tutto il dominio
statunitense e sue implicazioni per la stabilità strategica sino-americana], 外交 评论 [Foreign Affairs Review ], vol. 35, n. 170
(marzo 2018), pagg. 37–62.
21. Trattato di non proliferazione delle armi nucleari (Trattato di non proliferazione, TNP), aperto alla firma il 1° luglio 1968,
entrato in vigore il 5 marzo 1970.
22. Li (nota 18), p. 32.
23. Liu, M. (刘 鸣), ‘美国 霸权 实力 何以 能 持久 延续? '[Come può il potere egemonico degli Stati Uniti durare per
sempre?], 社会 科学 [Journal of Social Sciences], vol. 29, n. 3 (novembre 2007), pagg. 43–53, pag. 44.
24. Liu, Y. (刘杨 钺), ‘网络 空间 国际 冲突 与 战略 稳定性’ [Conflitto internazionale e stabilità strategica nel cyber
spazio], 外交 评论 [Rivista degli affari esteri], vol. 33, n. 157 (aprile 2016), pp. 106-29, p. 114.
25. Trattato sovietico-statunitense sulla limitazione dei sistemi missilistici antibalistici (Trattato ABM), firmato il 26 maggio
1972, entrato in vigore il 3 ottobre 1972, non in vigore dal 13 giugno 2002, United Nations Treaty Series, vol. 944 (1974),
pagg. 13-17.
26. Finger, T. (托马斯 • 芬加) e Fan, J. (樊 吉 社), '中美 关系 中 的 战略 稳定 问题' [Strategic stability in Chinese-
US relations], 外交 评论 [Foreign Affairs Review], vol . 31, n. 138 (gennaio 2014), pagg. 43–55, pagg. 44.
27. Ge, T. (葛腾飞), '工具 理性 主义 的 困境 与 美国 冷战 决策 模式 的 批判 - <保罗 · 尼采: 核 时代 美国 国
家 安全 战略 的 缔 造 者> 评介' [Il dilemma del razionalismo strumentale e una critica al modello decisionale della guerra
fredda statunitense - una recensione di Paul Nietzsche: il fondatore della strategia di sicurezza nazionale degli Stati Uniti
nell'era nucleare], 美 国 研究 [Chinese Journal of American Studies], no. 3, 2018, pagg. 135–44, pag. 139.
28. Casa Bianca, Strategia di sicurezza nazionale degli Stati Uniti d'America (Casa Bianca: Washington, DC, dicembre 2017).
29. Dipartimento della Difesa degli Stati Uniti (DOD), Riepilogo della strategia di difesa nazionale 2018 degli Stati Uniti
d'America: Sharpening the American Military’s Competitive Edge (DOD: Washington, DC, Jan. 2018). La strategia completa è
classificata.
30. Da, W. (达 巍) e Zhang, Z. (张昭曦), '中美 关系 新 阶段 中 的 战略 “失语” 与 战略 稳定 探索' ["afasia"
strategica e stabilità strategica in una nuova fase del cinese –US relations], 国 际 安 全 研 究 [Journal of International
Security Studies], n. 5, 2016, pagg. 39–59, pagg. 57.
31. Mearsheimer, J., The Tragedy of Great Power Politics (W. W. Norton & Co .: New York, 2014).
32. Finger and Fan (nota 26), p. 48.
33. Bo, E. (波尔特), '战略 稳定 概念 对 美国 安全 战略 的 影响 及 启示' [L'impatto e le implicazioni del concetto di
stabilità strategica sulla strategia di sicurezza degli Stati Uniti], 国际 论坛 [Forum internazionale], No . 5, 2016, pag. 48.
34. Li, D. (李德顺), ‘战略 稳定性 中 的 相互依赖 因素’ [Gli elementi dell'interdipendenza nella stabilità strategica],
tesi di dottorato, Tsinghua University, maggio 2012, p. 19.
35. Yu, Q. (俞倩倩), '从 战略 稳定性 看 反卫星 武器 的 发展' [Uno sguardo allo sviluppo degli ASAT dal punto di vista
della stabilità strategica], tesi di Master, Fudan University, 2008, pagg. 18.
36. Li (nota 34), p. 19.
37. Feng, S. (封 帅) e Zhou, Y. (周亦奇), '人工智能 时代 国家 战略 行为 的 模式 变迁 —— 走向 数据 与 算法
的 竞 争 ' [Il modello di cambiamento nel comportamento strategico nazionale nell'era dell'intelligenza artificiale: verso la
competizione tra dati e algoritmi], 国际 展望 [Global Review], n. 4, 2018, pagg. 40–41.
38. Geist, E. e Lohn, A. J., In che modo l'intelligenza artificiale potrebbe influire sul rischio di una guerra nucleare? (RAND
Corporation: Santa Monica, CA, 2018). Questo rapporto si basa su una serie di 3 seminari nel maggio-giugno 2017.
39. Geist e Lohn (nota 38).
40. Geist e Lohn (nota 38).
41. Feng, S. (封 帅), '人工智能 时代 的 国际 关系: 走向 变革 且 不平等 的 世界' [Relazioni internazionali nell'era
dell'IA: verso un mondo di cambiamento e disuguaglianza], 外交 评论 [Foreign Affairs Review ], no. 1, 2018, pagg. 140–41.
42. Long, K. (龙 坤) e Zhu, Q. (朱启超), '“算法 战争” 的 概念 、 特点 与 影响' [Il concetto, le caratteristiche e
l'impatto della 'guerra algoritmica'], 国防 科技 [National Defense Science E tecnologia], vol. 38, n. 6 (2017), pag. 39
43. Roff, H., "Per vietare o regolare le armi autonome: una risposta degli Stati Uniti", Bulletin of the Atomic Scientists, vol. 72,
n. 2 (marzo 2016), pagg. 122–24; e Roff, H., "Banning and regulating autonomous arms", Bulletin of the Atomic Scientists, 24
novembre 2015.
44. Feng (nota 41), p. 140.
45. Feng (nota 41), p. 139.
46. Work, R. O. e Brimley, S. 20YY: Preparing for War in the Robotic Age (Center for a New American Security: Washington,
DC, gennaio 2014), p. 33.
47. Liu, Y. (刘杨 钺), ‘全球 安全 治理 视 域 下 的 自主 武器 军备控制’ [Arms control of autonome arms under
global security governance], 国际 安全 研究 [Journal of International Security Studies], no. 2, 2018, pagg. 49–71, pag. 64.
48. Feng (nota 41), p. 140.
49. Liu (nota 47), p. 50.
50. Horowitz, M. C. et al., Intelligenza artificiale e sicurezza internazionale (Center for a New American Security: Washington,
DC, luglio 2018).
51. Horowitz, M. C. et al., Strategic Competition in an Era of Artificial Intelligence (Center for a New American Security:
Washington, DC, luglio 2018).
52. Bracken, P., "The intersection of cyber and nuclear war", Strategy Bridge, 17 gennaio 2017.
53. Holmes, J., "I cambiamenti del mare: il futuro della deterrenza nucleare", Bulletin of the Atomic Scientists, vol. 72, n. 4
(luglio 2016), pagg. 228–33.
54. Liu (nota 47), p. 67.
55. Liu (nota 47), p. 65.
56. Geist e Lohn (nota 38).
57. Presidente della Russia, "Расширенное заседание коллегии Министерства обороны" [Riunione estesa del consiglio del
ministero della Difesa], 22 dicembre 2017.
58. ‘新 的 冷战? 专家 警告 说, 人工智能 是 全球 军备竞赛 的“首选 武器 ”’ [Nuova guerra fredda? Gli esperti
avvertono che l'intelligenza artificiale è "l'arma preferita" della corsa agli armamenti globale], 网易 号 [NetEase], 31 gennaio
2018.
59. Allen, G. e Chan, T., Artificial Intelligence and National Security (Harvard Kennedy School, Belfer Center for Science and
International Affairs: Cambridge, MA, luglio 2017).
60. Liu (nota 47), p. 63.
61. Geist e Lohn (nota 38).
62. Dipartimento della Difesa degli Stati Uniti (DOD), Nuclear Posture Review (DOD: Washington, DC, febbraio 2018).
11. Quadri normativi per l'intelligenza artificiale militare

Vadim Kozyulin *

Tra i sistemi abilitati dall'intelligenza artificiale (AI), i sistemi autonomi rappresentano minacce che meritano
maggiore attenzione e analisi, con l'obiettivo finale di stabilire quadri normativi internazionali. Questo saggio
inizia (nella sezione I) delineando in generale le minacce militari poste dall'IA. Quindi (nella sezione II) esplora
queste varie applicazioni dell'IA nel dominio militare e (nella sezione III) i possibili approcci alla loro
regolamentazione. Il saggio esamina (nella sezione IV) il ruolo della stabilità strategica prima di concludere
(nella sezione V) riunendoli in raccomandazioni pratiche per la futura regolamentazione.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono necessariamente
quelle di alcuna organizzazione a cui è affiliato.

I. Minacce militari da AI

Le minacce militari poste dall'IA possono essere suddivise in tre gruppi principali.
Il primo è il timore che i sistemi d'arma autonomi letali (LAWS) saranno in grado di selezionare e ingaggiare i
loro bersagli utilizzando algoritmi sconosciuti e senza un controllo umano significativo o una supervisione
umana diretta. Numerosi analisti di intelligenza artificiale, organizzazioni per i diritti umani e avvocati ritengono
che le LEGGI violerebbero il diritto internazionale umanitario, le norme morali e l'etica e porterebbero a un
divario di responsabilità per atti illegali commessi da armi autonome. 1
Il secondo gruppo è il potenziale indebolimento della stabilità strategica. L'adozione dell'IA in nuovi tipi di armi,
come la difesa missilistica, gli strumenti di attacco informatico, la soppressione elettronica e le armi
ipersoniche e spaziali, apre la porta al dominio militare o addirittura a un primo attacco disarmante.
Il terzo gruppo di minacce deriva dalla riduzione radicale del tempo necessario per l'analisi dei dati per
comando, controllo, comunicazioni, computer, intelligence, sorveglianza e ricognizione (C4ISR). Questo
rappresenta un nuovo campo per la distribuzione di programmi per computer basati su AI. In quello che può
essere chiamato "esternalizzazione C4ISR" o "pressione strategica del tempo", l'intelligenza artificiale può
portare i militari a trasferire gradualmente la raccolta dei dati, l'elaborazione e le funzioni operative a sistemi
basati sull'intelligenza artificiale, abbreviando così i tempi di reazione e imponendo un processo decisionale
troppo rapido.

II. Applicazioni militari dell'IA

Nel complesso, le tendenze rivoluzionarie nell'intelligenza artificiale militare promettono di passare


dall'evoluzione alla rivoluzione in un processo graduale. Ciò avverrà attraverso tre fasi chiave. Sotto "comando
per direttiva", l'utente deve dire agli agenti software esattamente cosa fare in ogni fase del processo per
raggiungere l'obiettivo. Con "comando per piano", il software è in grado di determinare il modo migliore per
raggiungere quei waypoint per evitare determinati ostacoli. Infine, "comando per intento" fornisce al sistema
solo l'obiettivo, come pattugliare e mettere in sicurezza un'area. Non richiede ulteriori istruzioni su come
raggiungere i waypoint o qualsiasi altra attività richiesta per dichiarare un'area sicura. 2
In ciascuna di queste fasi, i programmi guidati dall'intelligenza artificiale si manifestano in un'ampia gamma di
domini militari, in cui sono destinati a potenziare e persino a sostituire gli umani. Questi includono (a) analisi di
dati di intelligence, sorveglianza e ricognizione (ISR) da varie fonti, come immagini satellitari, dati radar e
social network; b) compilazione di mappe basate sulla sorveglianza di veicoli aerei senza equipaggio e
aerospaziale (UAV); (c) rilevamento, localizzazione e classificazione di infrastrutture, armi e armi; d) uso di dati
biometrici intelligenti, come l'identificazione umana tramite viso, andatura e gesti; e) riconoscimento vocale in
un ambiente acustico complesso; (f) ricerca di parole chiave nei segnali vocali e digitali; g) allerta precoce con
analisi e selezione di metodi di soppressione del segnale radio; (h) automazione del processo decisionale con
l'uso di armi letali; i) puntare su bersagli in condizioni di scarsa visibilità e di disturbo; (j) controazione delle
informazioni, come notizie false o "verità virtuale"; (k) assistenza nel processo decisionale e nella gestione
delle risorse, come il controllo delle truppe e la logistica; e (l) controllo del traffico senza equipaggio.

Tali applicazioni possono essere valutate nella pratica attraverso programmi come il rifornimento autonomo
dell'ultimo miglio del Regno Unito, che consente un supporto logistico proattivo per le truppe in situazioni
difficili utilizzando l'apprendimento automatico e la modellazione matematica. 3 Anche se nel contesto di una
potenza europea, ciò nondimeno potrebbe essere applicato in Asia orientale. Con questo sistema, i sistemi
basati sull'intelligenza artificiale leggono il terreno e calcolano i percorsi più veloci e sicuri. Inoltre, UAV e
veicoli terrestri senza pilota diventeranno un elemento importante della logistica futura.
Le nuove tecnologie introdurranno nuovi tipi di unità militari, inclusi i sistemi di difesa missilistica, il comando
informatico, le forze spaziali, l'ISR basato sull'intelligenza artificiale, la tariffa della guerra dell'informazione, il
preallarme, le contromisure elettroniche, le armi laser, i veicoli autonomi, i veicoli sottomarini senza pilota
(UUV), veicoli anti-UAV e ipersonici. 4 Sulla base di questi sviluppi ci saranno nuove fusioni di forze. Ad
esempio, è probabile che la difesa aerea e missilistica dimostri un duplice aumento dell'efficacia se integrata
con i sistemi di guerra elettronica. 5
L'utilizzo dell'IA in ambito militare porterà alla graduale introduzione della robotica e dell'automazione in ogni
possibile ambito, dai materiali alla logistica. La logistica del futuro è in grado di avere un serio impatto sulla
stabilità strategica in ogni area, dall'elevata automazione dei processi logistici alla consegna autonoma di
munizioni sul campo di battaglia. Lo scambio di informazioni tra i rami dei servizi si svilupperà sia
verticalmente che orizzontalmente, dai piloti di aerei in volo ai leader di plotone a terra. L'intelligenza artificiale
filtrerà le informazioni in modo che ciascuna parte riceva solo i dati che gli sono utili, rimuovendo il rumore dei
dati. Questa è l'idea alla base della difesa aerea e missilistica integrata DiamondShield, attualmente in fase di
sviluppo da Lockheed Martin.6 I dati raccolti in aria, nello spazio e sulla terra, anche attraverso il Progetto
Maven del Dipartimento della Difesa degli Stati Uniti (DOD), saranno elaborati da reti neurali e distribuiti in
tempo reale a comandanti di tutti i livelli. 7 AI dirigerà le azioni di unità militari, creando la cosiddetta guerra
algoritmica.
L'IA è anche destinata a monitorare le azioni clandestine in tempi di pace. Il programma di raccolta e
monitoraggio tramite pianificazione per scenari situazionali attivi (COMPASS) dell'Agenzia statunitense per i
progetti di ricerca avanzata della difesa (DARPA) è un esempio di questo tipo. 8 Il suo obiettivo è analizzare il
comportamento in una situazione di zona grigia, intesa come un conflitto limitato al confine tra la concorrenza
regolare tra gli stati e ciò che è tradizionalmente considerato guerra. In un tale ambiente, la pressione
strategica del tempo porta all'automazione e all'esternalizzazione a sistemi di comando e analisi basati
sull'intelligenza artificiale per condurre valutazioni delle minacce nazionali e dell'uso delle armi. La simbiosi di
programmi analitici e di comando sulla base di reti neurali aumenta il rischio che il modello di interazione
uomo-macchina lasci poco spazio agli umani, che potrebbero avere solo tempo e opzioni limitati per
approvare le decisioni prese dalle macchine.

Queste configurazioni di sistemi analitici e di controllo basati sull'intelligenza artificiale sono destinate ad
essere altamente classificate, causando così ulteriori preoccupazioni tra il pubblico.
Ad un certo punto il cervello umano non sarà in grado di tenere il passo con il supercomputer intelligente nel
controllare sciami di veicoli senza pilota a terra, in aria e in mare in un ambiente in mutamento. In tali
condizioni, la sfera militare può assistere a qualcosa di simile al settore bancario quando i robo-traders sono
stati introdotti in borsa: gli esseri umani ora mappano le priorità di trading solo ai robo-trader, che agiscono in
modo autonomo ed effettuano migliaia di transazioni al giorno. 9 Un'ipotetica scheda di controllo della futura
guerra di combattimento potrebbe lasciare agli umani un'opzione per scenari compilati dall'IA che, una volta
avviati, verranno eseguiti da programmi guidati dall'IA. Gli esseri umani potrebbero dover solo scegliere lo
scenario e premere il pulsante di avvio. In quanto tale, l'esternalizzazione delle funzioni C4ISR all'IA
comporterà una pressione strategica del tempo e comporterà rischi per la sicurezza globale e regionale a
causa dell'insufficiente controllo umano, della mancanza di comprensione tra macchina e umano e della
mancanza di tempo per la valutazione delle situazioni e del processo decisionale .

III. Possibili approcci normativi

Alla luce di questi vari programmi e delle potenziali minacce future, sono stati compiuti numerosi sforzi per
esplorare la questione del controllo umano significativo. Ciò è stato ampiamente trattato in una serie di
rapporti del Comitato internazionale della Croce Rossa (CICR), del Comitato internazionale per il controllo
delle armi robotiche (ICRAC), dell'Istituto delle Nazioni Unite per la ricerca sul disarmo (UNIDIR) e del SIPRI,
tra gli altri think tank e istituzioni. Gli esperti internazionali includono i seguenti elementi quando esplorano
questo problema: (a) lacune di responsabilità; b) rischi di violazione dei diritti umani, delle leggi di guerra, della
dignità umana e dell'etica; (c) minacce ai principi morali fondamentali dovute alla decisione di usare la forza; e
(d) preoccupazioni per la natura indiscriminata di questi sistemi e la mancanza di controllo.
Affrontando queste sfide, nel dicembre 2016 la quinta conferenza di revisione della Convenzione del 1980 su
alcune armi convenzionali (Convenzione CCW) ha istituito un gruppo di esperti governativi (GGE) con il
mandato di esplorare e concordare possibili raccomandazioni sulle opzioni relative alle tecnologie emergenti in
l'area delle LEGGI.10 Nel 2018 il GGE ha adottato possibili principi guida, tra cui che “La responsabilità per lo
sviluppo, il dispiegamento e l'uso di qualsiasi sistema d'arma emergente nel quadro della CCW deve essere
garantita in conformità con il diritto internazionale applicabile, anche attraverso il funzionamento di tali sistemi
all'interno di un catena di comando e controllo umano”. 11 All'interno di questa struttura, gli stati hanno la facoltà
di scegliere di intraprendere misure su questi sistemi d'arma in conformità con le loro preoccupazioni legali e
di sicurezza e in base alle condizioni globali. Tra queste misure, una dichiarazione politica può essere la più
facilmente realizzabile in quanto getta le basi per misure di follow-up, come strumenti di verifica e obblighi
giuridicamente vincolanti degli Stati parti.

Un'altra strada potenziale sarebbe un accordo politicamente vincolante che costituirebbe un documento
formale ma non vincolante. Come percorso alternativo, sebbene il mondo non abbia ancora acquisito
sufficiente esperienza nella regolamentazione delle LEGGI per implementare le linee guida di buona pratica
per il loro controllo, ci sono alcuni modelli esistenti che potrebbero essere adottati. Tra questi vi sono la
dottrina del Regno Unito sul suo approccio ai sistemi di aeromobili senza pilota. 12 La direttiva DOD
statunitense sull'autonomia nei sistemi d'arma potrebbe anche servire da guida. 13 Più in generale, un codice di
condotta sarebbe appropriato come mezzo per codificare attività consentite e vietate relative alle LEGGI.
In termini di approcci guidati a livello internazionale che potrebbero essere considerati per l'adattamento nel
contesto dell'Asia orientale, il Manuale di Tallinn sul diritto internazionale applicabile alle operazioni
informatiche servirebbe come un altro esempio di come definire e regolare le tecnologie dirompenti. 14 A parte
la scissione politica causata da questo documento, il suo contenuto formale offre un approccio accademico e
legale rigoroso per affrontare le questioni inerenti alle LEGGI.
Infine, c'è il mezzo tradizionale per affrontare le minacce globali da un sistema d'arma: il divieto ai sensi della
Convenzione CCW. Tuttavia, l'attuazione di un divieto preventivo sullo sviluppo, la verifica, il trasferimento, la
diffusione e l'uso delle LEGGI richiederebbe soluzioni organizzative e tecnologiche complesse, che al
momento sembrano possibilità lontane.

IV. Il ruolo della stabilità strategica

La stabilità strategica continua a svolgere un ruolo fondamentale nel raggiungimento di un accordo sui quadri
normativi sopra descritti. La dichiarazione congiunta Unione Sovietica-Stati Uniti del 1990 sulla non
proliferazione e la stabilità strategica delinea i fondamenti teorici della stabilità strategica, definita come uno
stato di relazioni strategiche tra due potenze in cui nessuna delle due ha l'incentivo per un primo attacco
nucleare.15 i partiti hanno sollevato due forme di stabilità strategica: stabilità in crisi e stabilità della corsa agli
armamenti. La stabilità della crisi è stata interpretata come una situazione, anche una crisi, in cui nessuna
delle parti ha serie opportunità o incentivi per effettuare il primo attacco nucleare. La stabilità della corsa agli
armamenti è stata guidata dalla presenza di incentivi per aumentare il potenziale strategico di un paese. Negli
anni che seguirono, le linee guida per il controllo degli armamenti sancite nella dichiarazione congiunta del
1990 vennero integrate da concetti di stabilità al primo colpo e persino stabilità strategica intersettoriale. 16

L'IA militare ha il potenziale per minare la stabilità all'interno di una qualsiasi di queste variazioni concettuali
fintanto che aumenta la capacità di primo colpo e fornisce un mezzo per evitare ritorsioni. Le nuove tecnologie
inducono i militari a presumere che le armi robotiche e senza pilota possano eludere le difese missilistiche
stratificate, difendere le basi militari dagli attacchi missilistici e fungere da sostituto delle armi nucleari e delle
armi convenzionali a guida di precisione. Alcuni strateghi statunitensi di alto rango nel DOD hanno già
affermato che i robot autonomi potrebbero garantire il dominio militare globale. Credono che i veicoli aerei da
combattimento senza pilota (UCAV) sostituiranno le armi nucleari e le munizioni ad alta precisione e
consentiranno di attuare la cosiddetta Terza strategia di offset. 17 Ovviamente, tecnologie come
l'apprendimento automatico e l'autonomia aprono nuove opportunità per l'utilizzo del nucleare. munizioni per
missioni tattiche e viceversa. Solo un esempio potrebbe essere una bomba nucleare B61-12 ad alta
precisione e capacità ridotta.
Allo stesso tempo, un numero crescente di compiti strategici può essere gestito utilizzando armi non
strategiche. Ad esempio, lo sviluppo di veicoli ipersonici con elevate capacità di penetrazione della difesa
porta a una soglia di conflitto nucleare inferiore.
Il veicolo di prova orbitale X-37B degli Stati Uniti, lo spazioplano XS-1 e il veicolo ipersonico sperimentale X-
43A cambieranno il modello degli scontri nello spazio. Combinando lo Space Tracking and Surveillance
System (STSS) con il sistema Command and Control, Battle Management, and Communications (C2BMC), gli
Stati Uniti hanno dimostrato capacità di attacco completamente nuove dei missili balistici. 18 La strategia di
neutralizzare i sistemi missilistici al lancio utilizzando dispositivi cyber e radio-elettronici a sinistra del lancio
(che sconfiggerebbero la minaccia di un missile balistico nucleare prima che venga lanciato) apre una nuova
road map per la difesa missilistica. Il calcolo quantistico e le armi informatiche di hack-back automatizzate, che
identificano gli attacchi di hacking a un sistema e cercano di identificarne l'origine, sono ulteriori modi in cui il
software può essere utilizzato in modo offensivo.
La rapida diffusione delle tecnologie UAV in tutto il mondo e la competizione in erba per il mercato globale tra i
principali produttori di UAV da attacco sono motivo di allarme. Oggi, gli Stati Uniti hanno decine di migliaia di
veicoli senza pilota, comprese diverse centinaia di UCAV. 19 Piccoli UCAV che in futuro potrebbero fornire
attacchi come uno sciame autonomo che distribuisce funzioni senza il contributo di un operatore sono ora in
fase di sviluppo e non solo negli Stati Uniti. Sebbene la Cina non abbia ufficialmente rivelato il numero di UAV
in servizio con l'Esercito popolare di liberazione (PLA), è probabile che sia più o meno uguale a quello degli
Stati Uniti.20 La Cina produce ed esporta attivamente UAV strategici in grado sia di missioni di intelligence che
di attacco.21 A seguito del programma statunitense MQ-25 Stingray, la Cina sta sviluppando UAV basati su
navi e veicoli senza pilota in grado di interagire con aerei con equipaggio. Inoltre, il Regno Unito, Israele,
Turchia, Iran e Giappone sono anche tra i principali produttori mondiali di UAV. Gli strateghi militari di piccoli e
grandi stati sono giunti a credere che i veicoli senza pilota costituiranno la futura spina dorsale delle loro forze
aeree. Come solo un esempio, nel 2015 il segretario della marina statunitense, Ray Mabus, ha affermato che
l'F-35 sarebbe stato probabilmente l'ultimo aereo da combattimento con equipaggio e che i sistemi senza
pilota diventeranno "la nuova normalità aree in continuo aumento".22

V. Conclusioni

Sebbene l'attuale clima internazionale sia sfavorevole per il ripristino della fiducia e la riduzione delle tensioni,
molte misure internazionali per il controllo degli armamenti e il rafforzamento della fiducia rimangono valide.
Pertanto, alcuni continuano a sostenere la ripresa del dialogo sulle sfide alla sicurezza. Il Documento di
Vienna 2011 sulle misure di rafforzamento della fiducia e della sicurezza rimane uno degli strumenti chiave di
trasparenza che attende la sua prossima modernizzazione. 23 Secondo questo documento, i paesi dovrebbero
scambiarsi dati sui principali sistemi d'arma e di equipaggiamento, compresi i numeri di ciascun tipo e
informazioni sui piani di spiegamento nella zona di applicazione (ossia Europa, Asia centrale e spazio
marittimo e aereo adiacente).
Gli UCAV azionati a distanza o autonomi potrebbero essere inclusi nell'allegato III del Documento di Vienna,
insieme agli aerei da combattimento e agli elicotteri. Altre misure di trasparenza in questo documento che
potrebbero essere rilevanti anche per le LEGGI includono le visite alle basi aeree; dimostrazione di nuovi tipi
di principali sistemi d'arma e di equipaggiamento; notifica preventiva di alcune attività militari; e l'osservazione
di alcune attività militari.
Quando le condizioni politiche renderanno possibile negoziare un aggiornamento del Documento di Vienna - o
anche una duplicazione in Asia orientale - la questione dei veicoli aerei e terrestri autonomi potrebbe essere
inclusa nell'agenda. Il Trattato del 1990 sulle forze armate convenzionali in Europa (CFE) ha stabilito limiti
globali su cinque categorie chiave di attrezzature militari convenzionali (carri armati, veicoli corazzati da
combattimento, artiglieria, aerei da combattimento ed elicotteri d'attacco) nell'area dall'Oceano Atlantico agli
Urali.24 Quando le mutevoli realtà politiche consentono l'avvio di nuove discussioni sul controllo delle forze
convenzionali in Europa o nell'Asia orientale, è possibile rivedere gli approcci che hanno guidato gli Stati parti
alla conclusione del Trattato CFE. Nuove categorie di armi convenzionali dovrebbero integrare le cinque
precedenti, con l'indicazione di nuovi limiti e misure di trasparenza - questo farebbe rivivere il controllo delle
armi tradizionali nelle aree dei missili da crociera e ipersonici, degli UCAV e dei veicoli da combattimento a
terra autonomi.
Inoltre, per facilitare queste misure di rafforzamento della fiducia, la tecnologia blockchain in rapido sviluppo
ha il potenziale per aprire nuove opportunità di catalogazione e controllo tecnico affidabile sull'uso dei robot sia
durante esercitazioni militari che in combattimento. 25 Globalizzazione e progetti transfrontalieri, le corporazioni
transnazionali, la cooperazione internazionale, i satelliti di osservazione, l'intelligence radioelettronica e
persino i social network rendono il mondo più trasparente. Esistono già molti "occhi e orecchie" artificiali che
potrebbero essere utili per avvertire di nuove minacce prima ancora che si materializzino. L'utilizzo di queste
manifestazioni più positive di trasparenza e controllo dell'IA può integrare lo sviluppo di un quadro normativo
per affrontare le sue applicazioni militari al fine di migliorare la sicurezza internazionale.

1.
2. Hennig, J., Schwartz, P. e Bailey, K., "Mission command on semi-automatic", Army AL&T, aprile - giugno 2017, pagg. 51–55.
3. Walker, A., "Rifornimento autonomo dell'ultimo miglio: robot TITAN messo alla prova", Qinetiq, 9 aprile 2018.
4. Ad es. L'unità militare Dronebot Jeontudan della Corea del Sud vedi il capitolo 6. in questo volume.
5. Speed, J. e Stathopoulos, P., "SEAD operations of the future: the necessity of jointness", Journal of the Joint Air Power
Competence Center, no. 26 (primavera / estate 2018), pp. 38–43.
6. Lockheed Martin, "Difesa aerea e missilistica integrata DiamondShield", accesso 24 aprile 2019.
7. Pellerin, C., "Progetto Maven per distribuire algoritmi informatici in zone di guerra entro la fine dell'anno", Dipartimento della
Difesa degli Stati Uniti, 21 luglio 2017.
8. Barlos, F., "Collection and Monitoring via Planning for Active Situational Scenarios (COMPASS)", US Defense Advanced
Research Projects Agency (DARPA), accesso 24 aprile 2019.
9. Pearlstein, R., "The robots-vs.-robots trading that has hijacked the stock market", Washington Post, 7 febbraio 2018. Vedi
anche Scheftelowitsch, D., "The state of artificial intelligence: An engineerer's sistemi autonomi ', ed. V. Boulanin, The Impact
of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic Perspectives (SIPRI: Stoccolma, maggio
2019), pp. 26–31, pagg. 29.
10. Convenzione sui divieti o le restrizioni all'uso di alcune armi convenzionali che possono essere considerate
eccessivamente dannose o aventi effetti indiscriminati (Convenzione CCW, o Convenzione sulle armi disumane), aperta alla
firma il 10 aprile 1981, entrata in vigore 2 dicembre 1983; 5a conferenza di revisione della convenzione CCW, documento
finale della quinta conferenza di revisione, 23 dicembre 2016, decisione 1; e Ufficio delle Nazioni Unite a Ginevra, "2017
Group of Governmental Experts on Lethal Autonomous Weapons Systems"
(LAWS) ", visitato il 24 aprile 2019.
11. Group of Governmental Experts of the CCW Convention, Report of the 2018 session of the Group of Governmental
Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems, 23 ottobre 2018, par. 21 (c); e
Kostopoulos, L., "Caratteristiche del sistema e coinvolgimento umano con sistemi d'arma autonomi letali (LAWS)", Medium, 23
settembre 2018.
12. Capi di stato maggiore britannici, sistemi di velivoli senza pilota, pubblicazione di dottrina congiunta n. 0-30.2 (Ministero
della difesa, dello sviluppo, dei concetti e della dottrina Center: Swindon, agosto 2017).
13. Dipartimento della Difesa degli Stati Uniti, "Autonomia nei sistemi d'arma", Direttiva n. 3000.09, 21 novembre 2012,
aggiornato l'8 maggio 2017.
14. Schmitt, M. N. (a cura di), Tallinn Manual on the International Law Applicable to Cyber Operations (Cambridge University
Press: Cambridge, 2013); e Schmitt, M. N. (a cura di), Tallinn Manual 2.0 on the International Law Applicable to Cyber
Operations (Cambridge University Press: Cambridge, 2017).
15. Dichiarazione congiunta Unione Sovietica-Stati Uniti sui futuri negoziati sulle armi nucleari e spaziali e sull'ulteriore
rafforzamento della stabilità strategica, Washington, DC, 1 giugno 1990.
16. Kent, G.A. e Thaler, D. E., First-Strike Stability: A Methodology for Evaluating Strategic Forces (RAND Corporation: Santa
Monica, CA, agosto 1989); e Mallory, K., "New Challenges in Cross-Domain Deterrence", Perspective, RAND Corporation,
2018. Vedi anche il capitolo 10 in questo volume.
17. Ellman, J., Samp, L. e Coll, G., Assessing the Third Offset Strategy (Center for Strategic and International Studies:
Washington, DC, marzo 2017). Vedi anche il capitolo 10 in questo volume.
18. Missile Defense Advocacy Alliance, "Command and Control, Battle Management and Communications (C2BMC)", accesso
10 agosto 2019.
19. Walker, J., "Unmanned aerial vehicles (UAVs) —comparing the USA, Israel, and China", Emerj, 3 febbraio 2019.
20. China Power, "La Cina è in prima linea nella tecnologia dei droni?", Center for Strategic and International Studies, 13
febbraio 2019; e Easton, I. M. e Hsiao, L. C. R., Il progetto di veicoli aerei senza pilota dell'Esercito popolare cinese di
liberazione: capacità organizzative e capacità operative (Istituto 2049 del progetto: 11 marzo 2013).
21. Waldron, G., "La Cina trova il suo punto debole per l'esportazione di UAV", FlightGlobal, 14 giugno 2019
22. LaGrone, S., "Mabus: F-35 sarà" l'ultimo combattente d'attacco con equipaggio "che la Marina, i Marines" compreranno o
voleranno mai"", USNI News, 15 aprile 2015.
23. Documento di Vienna 2011 sulle misure per rafforzare la fiducia e la sicurezza (Documento di Vienna 2011), adottato il 30
novembre 2011, entrato in vigore il 1 ° dicembre 2011.
24. Trattato sulle forze armate convenzionali in Europa (Trattato CFE), firmato il 19 novembre 1990, entrato in vigore il 9
novembre 1992.
25. Sull'uso della blockchain nella verifica del controllo degli armamenti si vedano anche Kaspersen, A. e King, C., "Mitigating
the challenge of nucleare risk whileuring the benefits of technology", ed. Boulanin (nota 9), pagg. 119–27, pagg. 126.
12. L'impatto ambientale delle armi autonome a propulsione
nucleare

Hwang Il-Soon e Kim Ji-Sun *

Lo sviluppo di sistemi d'arma nucleare senza pilota e a propulsione nucleare, in particolare veicoli sottomarini
senza pilota (UUV), minaccia di danneggiare irrevocabilmente il Trattato di non proliferazione (NPT) del 1968
e il globo.1 Ciò è dovuto all'imprevedibilità di queste piattaforme autonome il potenziale di ricaduta estesa di
radioisotopi a lunga vita nella biosfera causata dall'esplosione delle testate nucleari e dei reattori nucleari
montati su questi sistemi d'arma.
Per obiettivi su larga scala, una potenziale esplosione di questi sistemi d'arma potrebbe rilasciare una quantità
significativa di radionuclidi transuranici, contaminando la biosfera per decine di migliaia di anni. Il loro sviluppo
incoraggia gli stati non dotati di armi nucleari e i terroristi a considerare i propri dispositivi di dispersione delle
radiazioni, mina l'uso pacifico dell'energia nucleare e ostacola le prospettive a lungo termine per la
cooperazione in materia di sicurezza nucleare. Pertanto, lo sviluppo di questi sistemi d'arma nucleare
autonomi a propulsione nucleare dovrebbe essere vietato.
Per illustrare il danno che potrebbe essere causato dalle armi autonome a propulsione nucleare, questo
saggio esamina prima l'attuale sviluppo russo di due di queste armi (nella sezione I). Quindi (nella sezione II)
stima l'entità del danno che l'uso di tali armi rischia e conclude (nella sezione III) raccomandando alcune
misure a breve e lungo termine per rimediare ai rischi del dispiegamento e della proliferazione di tali
piattaforme.

* Le opinioni espresse in questo saggio sono quelle degli autori e non riflettono necessariamente
quelle di nessuna organizzazioni a cui sono affiliati.

I. Sviluppo di armi autonome a propulsione nucleare

Lo sviluppo da parte della Russia di un UUV a lunghissimo raggio montato con una testata nucleare è stato
rivelato per la prima volta dai media russi nel novembre 2015. 2 Poseidon (noto anche come Status-6) è stato
caratterizzato come un siluro senza pilota con una lunghezza di 24 metri e un diametro di 1,6 metri. 3 Nel
marzo 2018 il presidente russo Vladimir Putin ha annunciato formalmente lo sviluppo di successo di questo
sistema di armi nucleari senza pilota a propulsione nucleare nel suo discorso annuale all'Assemblea federale
russa.4 Ha anche svelato un missile da crociera nucleare intercontinentale in fase di sviluppo per il
dispiegamento nei prossimi 5-10 anni. Secondo il suo racconto e le analisi successive, questi sistemi d'arma
hanno la capacità di eludere i sistemi di difesa missilistica esistenti sfruttando l'autonomia e la tecnologia di
propulsione nucleare ad alta velocità.
Fino a sei unità Poseidon stealth possono essere caricate e lanciate da un sottomarino, ciascuna con una
portata di 10.000 chilometri, navigando a una profondità massima di 1000 metri a una velocità di 185 km
all'ora.5 A dicembre 2018, i resoconti dei media hanno dettagliato le prove in mare, con immagini video
coerenti con questa descrizione. 6 Fino a sei testate nucleari nella sezione anteriore sono schermate da un
piccolo reattore modulare che eroga potenza di propulsione utilizzando un sistema di turbina a vapore
integrato.7 La piccola nave reattore modulare ha circa lo stesso diametro della testata nucleare situata nel
compartimento di combattimento anteriore. Sia la testata che il reattore sono alloggiati nel guscio monolitico di
Poseidone, senza alcuna disposizione per la separazione prima dell'attacco finale al bersaglio.

Si dice che gli obiettivi di Poseidone includano basi navali nemiche e porti militari. 8 Le testate nucleari
raggiungono i 2 megatoni, meno dei 100 megatoni dichiarati nel 2015. 9 Inoltre, questo sistema d'arma
potrebbe essere salato, utilizzando il cobalto-60, una sorgente di radiazioni la cui radiotossicità può durare per
diversi decenni. Secondo quanto riportato dalla stampa, la detonazione avverrebbe probabilmente sott'acqua
vicino a una costa, provocando una potente esplosione seguita da enormi effetti di maremoto. 10 Pertanto, si
prevede che il reattore esploderà, insieme alla testata nucleare, con un impatto ambientale significativo.
Il missile da crociera intercontinentale annunciato da Putin allo stesso tempo è il Burevestnik, che secondo
quanto riferito ha un motore a propulsione nucleare, dandogli una portata illimitata. 11 Secondo quanto riferito, il
missile può navigare a bassa quota e ad alta velocità per sfidare i sistemi di difesa missilistica nemici.
Inizialmente ci si aspettava che sarebbe stato condotto solo un test statico a terra del motore nucleare del
missile. Tuttavia, secondo funzionari anonimi del Dipartimento della Difesa (DOD), il missile da crociera si è
schiantato durante i test nell'Artico alla fine del 2017 e all'inizio del 2018. 12 Sebbene non vi fossero indicazioni
di ricadute radioattive dopo questi incidenti, questa piattaforma potrebbe essere stata coinvolta in un altro
presunto incidente nell'agosto 2019 che ha innescato un'esplosione radioattiva. 13 Simile a Poseidon, sia la
testata nucleare di Burevestnik che il suo reattore a propulsione integrale esploderebbero sul bersaglio. Ciò
solleva serie preoccupazioni per le future ricadute radioattive.

II. Contaminazione radioattiva da esplosione di reattori di propulsione

I reattori di propulsione producono reazioni nucleari lente durante i viaggi a lungo raggio. Pertanto, la
radioattività nucleare dell'esplosione di un reattore di propulsione è generalmente più longeva di quella di una
testata nucleare. Sebbene i periodi di potenza e di funzionamento dei reattori nucleari dei veicoli senza pilota
russi non siano noti, è possibile effettuare una valutazione rudimentale utilizzando valori standard. Una tipica
testata per missili termonucleari W87 da 300 kilotoni rilascia circa 1300 terajoule di energia. 14
Un tipico reattore micro-modulare elettrico da 10 megawatt emette approssimativamente la stessa quantità di
energia se utilizzato ininterrottamente per un anno.
Quando si calcolano i costi ambientali, la maggior parte dell'energia rilasciata proviene dalla reazione di
fissione in proporzione alla quantità di prodotti fissili. Tuttavia, la radioattività rimanente è dominata dagli
attinidi transuranici che hanno una persistenza insolitamente lunga. Per la stessa quantità di energia rilasciata,
la loro radioattività - comprese le sorgenti radioattive di salatura opzionali - dovrebbe essere paragonabile ai
prodotti fissili. Al contrario, un'esplosione di testata nucleare di breve durata non produrrebbe una quantità
significativa di attinidi a lunga vita. Di conseguenza, la radioattività dei reattori nucleari dura circa 1000 volte di
più di quella delle armi nucleari, estendendo il loro impatto a oltre 100 000 anni. 15 Ciò è dovuto ai sottoprodotti
transuranici, che possiedono un'emivita estremamente lunga.
Considerando l'ampiezza e la durata della ricaduta della radioattività, tutti i sistemi di consegna di testate
nucleari dovrebbero essere considerati come dispositivi di dispersione radiologica massivi, che contaminano
vaste aree per un periodo di tempo prolungato. Infatti, nel 1948 la Commissione delle Nazioni Unite per gli
armamenti convenzionali includeva "armi materiali radioattive" nella sua definizione di armi di distruzione di
massa.16
Al vertice sulla sicurezza nucleare del 2012 a Seoul, i partecipanti hanno concordato di compiere uno sforzo
concertato per controllare i materiali di origine radioattiva per arginare la produzione di dispositivi di
dispersione radiologica.17 Se alcuni paesi sono autorizzati a dispiegare bombe sporche a propulsione
nucleare, costringerà altri a prendere contromisure. È possibile che sorgenti di radioisotopi o combustibili
nucleari esauriti dalla ricerca o dalla produzione di energia possano essere deviati in risposta allo
spiegamento di bombe sporche a propulsione nucleare.
Al di là dei loro carichi utili, l'autonomia e la furtività di queste piattaforme di consegna a propulsione nucleare
le rendono difficili da controllare per l'attaccante e per il bersaglio da intercettare una volta lanciate da una
base o da un sottomarino.18 Tuttavia, ci sono alcune carenze in questi veicoli che potrebbero essere sfruttate
per mitigare il loro impatto. L'ampia gamma di veicoli a propulsione nucleare potrebbe dare tempo ai difensori
di intraprendere azioni difensive che impiegano l'apprendimento automatico, tra cui l'alterazione delle
condizioni al contorno e i dati dei segnali di avvelenamento. Inoltre, la dipendenza dell'intelligenza artificiale
(AI) dal confronto empirico di modelli di dati lascerà sicuramente scappatoie impreviste che potrebbero essere
utilizzate per minare l'efficacia di queste piattaforme. Tuttavia, per quanto queste lacune possano essere
sfruttate per mitigare la minaccia, tali armi possono comunque provocare reazioni apocalittiche da tutte le
parti. Questo livello di escalation è inaccettabile.

III. Conclusioni

Lo sviluppo continuo di veicoli nucleari autonomi a propulsione nucleare potrebbe innescare una guerra
nucleare a causa dei rischi sia nell'imprevedibilità del processo decisionale autonomo sia nella prevedibilità
della ricaduta di radiazioni a lunga durata nella biosfera. Questo è un passo categorico lontano dal controllo
degli armamenti e viola direttamente il TNP, in particolare l'articolo VI in base al quale ciascuna delle parti si
impegna a portare avanti i negoziati in buona fede su misure efficaci relative alla cessazione della corsa agli
armamenti nucleari in disarmo nucleare e su un trattato sul disarmo generale e completo sotto stretto ed
efficace controllo internazionale”.19 Pertanto, lo sviluppo, il dispiegamento e l'uso di questi sistemi d'arma
devono essere sollevati nelle riunioni sul disarmo e affrontati con una risoluzione ai sensi del TNP, insieme al
consenso internazionale sul divieto di qualsiasi autonomia che tenga l'essere umano fuori dal giro. Mentre si
costruisce questo consenso internazionale, l'applicazione dell'IA nei sistemi d'arma, in particolare nei sistemi
d'arma nucleare, dovrebbe essere evitata.
Inoltre, con l'avvento della propulsione nucleare, i lunghi periodi di funzionamento dei sistemi senza
equipaggio comporteranno inevitabilmente guasti alle apparecchiature dovuti all'invecchiamento associato a
vibrazioni, urti, corrosione e usura. A differenza dei veicoli con equipaggio, per i quali esistono disposizioni e
procedure per ispezionare, mitigare e riparare il degrado precoce, i difetti emergenti in questi sistemi senza
pilota possono deteriorarsi a ritmi inaccettabilmente più rapidi. Incidenti successivi con guasti ai limiti di
pressione possono provocare una significativa contaminazione radioattiva dell'acqua di mare. Per affrontare
tali carenze, la Convenzione del 1986 sulla notifica tempestiva di un incidente nucleare istituisce un sistema di
notifica degli incidenti nucleari 'da cui si verifica o è probabile che si verifichi un rilascio di materiale radioattivo
e che ha provocato o può comportare un rilascio transfrontaliero internazionale che potrebbe avere
importanza per la sicurezza radiologica per un altro Stato”. 20 Questa convenzione richiede allo Stato
responsabile di segnalare l'ora, il luogo e la natura dell'incidente e altri dati essenziali per valutare la
situazione. La segnalazione è obbligatoria per qualsiasi reattore nucleare, indipendentemente da dove si trovi
e anche quando tali strutture sono utilizzate per la generazione di energia in oggetti spaziali. 21 Considerando
l'elevata vulnerabilità dei sistemi d'arma senza pilota a propulsione nucleare a incidenti gravi, l'applicazione
della Convenzione sui primi La notifica di un incidente nucleare dovrebbe essere applicata il prima possibile.

1. Trattato di non proliferazione delle armi nucleari (Trattato di non proliferazione, TNP), aperto alla firma il 1° luglio 1968,
entrato in vigore il 5 marzo 1970, IAEA INFCIRC / 140, 22 aprile 1970.
2.
3. "Status-6 / Kanyon - Ocean Multipurpose System", GlobalSecurity.org, accesso 10 agosto 2019; Mathew, A., "Russian MoD
rilascia filmati del veicolo sottomarino senza pilota nucleare Poseidon (Kanyon / Status-6)", DefPost, 19 luglio 2018; e
Gallacher, S., "La Russia lancia un sottomarino che trasporterà il siluro del drone nucleare del giorno del giudizio",
ArsTechnica, 25 aprile 2019.
4. Presidente della Russia, "Discorso presidenziale all'Assemblea federale", 1 marzo 2018.
5. "Status-6 / Kanyon - Ocean Multipurpose System" (nota 3).
6. "Le prove subacquee dei droni Poseidon confermano la sua velocità, portata illimitata - fonte", TASS, 6 febbraio 2019.
7. "Status-6 / Kanyon - Ocean Multipurpose System" (nota 3).
8. "Il drone sottomarino nucleare della Russia potrebbe innescare tsunami di 300 piedi, diretti al campo di battaglia entro il
2027", fronte sud, 21 maggio 2018; e "Fonte: drone sottomarino russo Poseidon in grado di trasportare testate nucleari da 2
megatonne", TASS, 17 maggio 2018.
9. "La Russia inizia i test del drone nucleare sottomarino" Poseidon "", PressTV, 26 dicembre 2018.
10. "Il drone sottomarino nucleare della Russia potrebbe innescare tsunami di 300 piedi, diretti al campo di battaglia entro il
2027" (nota 8).
11. Stratfor Worldview, "Russia's New Weapons: From Doomsday Nuclear Torpedoes to Skyfall Missiles", National Interest, 20
agosto 2019.
12. Macias, A., "Putin ha affermato che un nuovo missile a propulsione nucleare aveva una portata illimitata, ma ha volato solo
22 miglia nel suo test di maggior successo", CNBC, 21 maggio 2018.
13. "Le nuove armi della Russia danno spazio agli Stati Uniti per una pausa", Stratfor Worldview, 16 agosto 2019; Kramer, A.
E., "La Russia conferma che i materiali radioattivi sono stati coinvolti in un'esplosione mortale", New York Times, 10 agosto
2019; e Reuters, "Esperti con sede negli Stati Uniti sospettano che l'esplosione della Russia abbia coinvolto missili a
propulsione nucleare", Moscow Times, 10 agosto 2019.
14. Medalia, J., "Dirty Bombs": Background tecnico, prevenzione e risposta agli attacchi, Issues for Congress, Congressional
Research Service (CRS) Report for Congress (Congresso degli Stati Uniti, CRS: Washington, DC, 24 giugno 2011).
15. American Physical Society (APS), "Nuclear energy fission", APS Physics, accesso 22 agosto 2019.
16. Risoluzione 36/97 B dell'Assemblea generale delle Nazioni Unite, "Conclusione di una convenzione internazionale che
proibisce lo sviluppo, la produzione, lo stoccaggio e l'uso di armi radiologiche", A / RES / 36/97, 9 dicembre 1981; e Nazioni
Unite, Consiglio di sicurezza, Commissione per gli armamenti convenzionali, Risoluzioni adottate dalla Commissione nella sua
tredicesima riunione, il 12 agosto 1948, e una seconda relazione sui progressi della Commissione, S / C.3 / 32 / Rev.1, 18
agosto. 1948, p. 2.
17. Vertice di Seul sulla sicurezza nucleare del 2012, comunicato, 26-27 marzo 2012.
18. Etzioni, A. and Etzioni, O., 'Pro and cons of autonome arms systems', Military Review, May-June 2017, pp. 72–81.
19. Trattato di non proliferazione delle armi nucleari (nota 1), articolo VI.
20. Convenzione sulla notifica anticipata di un incidente nucleare, aperta alla firma il 26 settembre 1986, entrata in vigore il 27
ottobre 1986, IAEA INFCIRC / 335, 18 novembre 1986, articolo 1, paragrafo 1.
21. Convenzione sulla notifica tempestiva di un incidente nucleare (nota 20), articolo 1, paragrafo 2, lettera a)
13. Dinamiche di sicurezza dell'Asia orientale modellate
dall'apprendimento automatico e dall'autonomia

Arie Koichi *

La natura attuale delle dinamiche delle armi nucleari è altamente complessa e abbraccia tutto, dalle testate
nucleari e dai veicoli di consegna al comando e controllo.
Questa complessa rete è ulteriormente integrata con armi convenzionali avanzate, come la difesa missilistica.
Sebbene le piattaforme correlate siano attualmente gestite e gestite da esseri umani, ci si aspetta che
includano una qualche forma di apprendimento automatico e autonomia in futuro, poiché l'intelligenza
artificiale (AI) entra in quasi tutti i campi dell'attività umana. Data questa complessità sempre crescente, è
essenziale per la pace e la sicurezza dell'Asia orientale che sia mantenuta la stabilità strategica tra tre stati
dotati di armi nucleari - Cina, Russia e Stati Uniti. All'interno di questo insieme trilaterale di relazioni, devono
anche far fronte alla Repubblica Democratica Popolare di Corea (RPDC o Corea del Nord), uno stato che
continua a sviluppare armi nucleari.
Man mano che procedono con le applicazioni di intelligenza artificiale all'interno dei propri sistemi di armi
nucleari e dei relativi sistemi convenzionali, il rischio di escalation nucleare può aumentare.
Questo saggio considera come le dinamiche di sicurezza dell'Asia orientale saranno modellate
dall'apprendimento automatico e dall'autonomia. Innanzitutto (nella sezione I) esamina i modi in cui l'IA può
essere applicata nelle forze nucleari. Successivamente (nella sezione II) discute come queste applicazioni
potrebbero avere un impatto sulla deterrenza nucleare e sul controllo degli armamenti in Asia orientale. Si
conclude (nella sezione III) delineando le misure per evitare l'escalation nucleare e mantenere la stabilità
strategica nell'Asia orientale.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono necessariamente
quelle di nessuna organizzazione a cui è affiliato.

I. Applicazioni dell'IA nelle forze nucleari

Esistono quattro tipi di possibile applicazione dell'AI legata alla forza nucleare: (a) nelle armi nucleari; b)
nell'intelligence, sorveglianza e ricognizione (ISR) rafforzate contro le forze nucleari nemiche; c) nel comando,
controllo e comunicazioni nucleari (NC3); e (d) nei sistemi d'arma convenzionali che sono rilevanti per le forze
nucleari.
In primo luogo, le armi nucleari basate sull'intelligenza artificiale, se dispiegate, potrebbero eludere le
contromisure1 esistenti per colpire con successo un obiettivo. Ad esempio, la Russia sta ora sviluppando il
veicolo sottomarino senza pilota (UUV) con capacità nucleare Poseidon, che il Ministero della Difesa russo
considera invulnerabile alle contromisure.
Tuttavia, è probabile che i paesi interessati da questo sviluppo escogitino nuovi mezzi per contrastare queste
piattaforme, anche con una nuova arma nucleare basata sull'intelligenza artificiale.

Tuttavia, è probabile che i paesi interessati da questo sviluppo escogiteranno nuovi mezzi per contrastare
queste piattaforme, con persino una nuova arma nucleare basata sull'intelligenza artificiale potenzialmente
sviluppata per contrastare questo UUV. Un tale sviluppo porterebbe a una destabilizzante corsa agli
armamenti nucleari.
In secondo luogo, l'IA consente ai sistemi ISR di rilevare, identificare e tracciare i missili nucleari di un
avversario prima del lancio, anche se queste piattaforme sono mobili e possono essere nascoste in tunnel,
foreste e caverne.2 Il progetto Maven, che il Dipartimento della Difesa degli Stati Uniti ha avviato nel 2017 con
l'aiuto di Google e di altre società tecnologiche, include l'uso dell'IA per identificare oggetti dai dati video
raccolti da veicoli aerei senza pilota (UAV). Secondo quanto riferito, il progetto sta esplorando modi per
utilizzare l'IA per trovare missili nucleari nemici. 3 Questi tipi di applicazione renderebbero vulnerabili le forze
nucleari di ritorsione e minerebbero la stabilità della deterrenza.
In terzo luogo, l'introduzione dell'apprendimento automatico in NC3 sembra essere il tipo di applicazione più
controverso. Da un lato, l'intelligenza artificiale, con prestazioni sempre più super umane, sarebbe migliore nel
supportare i responsabili delle decisioni nucleari rispetto ai consulenti umani quando si tratta di dispiegamento
e utilizzo del nucleare. D'altra parte, un sistema NC3 orientato all'apprendimento automatico e all'autonomia
può anche essere compromesso dall'hacking, dall'avvelenamento dei dati di addestramento e dalla
manipolazione degli input.4
Quarto, l'introduzione dell'IA nei sistemi d'arma convenzionali potrebbe anche influenzare la deterrenza
nucleare. La Russia ha ripetutamente espresso preoccupazione per il fatto che il programma US Conventional
Prompt Global Strike (CPGS), se combinato con le sue capacità di difesa missilistica globale, potrebbe negare
le forze nucleari di ritorsione della Russia. 5 La Cina ha anche mostrato preoccupazioni simili su un attacco non
nucleare statunitense, se contro le sue forze convenzionali o nucleari. 6 Se l'IA fosse introdotta nel programma
CPGS, ciò minerebbe seriamente la stabilità nucleare trilaterale Cina - Russia - USA.

II. L'impatto sulla deterrenza nucleare e sul controllo degli armamenti


nell'Asia orientale

Qualsiasi tipo di applicazione dell'IA nelle forze nucleari ha il potenziale per destabilizzare l'ambiente
strategico.7 In Asia orientale, la stabilità nucleare tra Cina, Russia e Stati Uniti è essenziale per la sicurezza
regionale complessiva. Tuttavia, ciascuno potrebbe avere un incentivo a colpire per primo durante una grave
crisi nella regione se l'IA dovesse aumentare la vulnerabilità delle sue forze nucleari di ritorsione. Un'altra fonte
di rischio nucleare è l'orea del nord, che fa affidamento su un modesto numero di missili balistici nucleari per la
deterrenza. Tuttavia, la capacità di sopravvivenza di questi missili è stata notevolmente minata dai rapidi
progressi tecnologici nel rilevamento a distanza, nell'elaborazione dei dati e nella comunicazione. 8 sistemi ISR
che sono stati migliorati dall'intelligenza artificiale anticipano queste tendenze. In circostanze estreme, la
Corea del Nord potrebbe essere tentata di utilizzare missili nucleari per paura di perderli.

Le applicazioni dell'intelligenza artificiale nelle forze nucleari hanno il potenziale complessivo di contribuire
all'escalation involontaria o deliberata a livello nucleare. Con l'introduzione dell'IA in NC3, un consulente AI
potrebbe essere suscettibile di errori e hacking, portando a un'escalation nucleare accidentale nell'Asia
orientale. Il falso allarme nucleare sovietico nel 1983, comunemente chiamato incidente Petrov, illustra in parte
questo punto.9 Anche se funzionasse correttamente, un sistema abilitato all'IA potrebbe deliberatamente
consigliare agli operatori umani o ai responsabili delle decisioni di usare armi nucleari per prevalere in un
stallo militare convenzionale tra gli stati dotati di armi nucleari nella regione.
Anche la deterrenza nucleare estesa degli Stati Uniti per il Giappone e la Repubblica di Corea (Corea del Sud)
sarebbe indebolita se i rischi nucleari sopra menzionati si materializzassero insieme a maggiori applicazioni
dell'IA nelle forze nucleari. Questi due paesi potrebbero essere molto interessati a come funzionerebbe la
deterrenza nucleare estesa degli Stati Uniti nel contesto delle applicazioni di intelligenza artificiale emergenti
nelle forze nucleari di Cina, Russia e Stati Uniti. Di conseguenza, è essenziale che questi Stati non dotati di
armi nucleari siano consultati per affrontare tali rischi.
Oltre ai rischi, questi sistemi abilitati all'IA presentano alcuni vantaggi in termini di controllo degli armamenti. In
Asia orientale, i sistemi ISR potenziati dall'intelligenza artificiale potrebbero aumentare la trasparenza tra gli
stati dotati di armi nucleari. Questi sistemi potrebbero essere impiegati per la verifica dei trattati e il
monitoraggio della conformità per le forze nucleari. 10 Per consentire questi usi, le informazioni acquisite
devono essere condivise tra gli stati dotati di armi nucleari nella regione. Inoltre, ciascuno di questi paesi deve
essere disposto a divulgare i dati sulle proprie forze nucleari. Ciò sarebbe più fattibile se accompagnato da
misure tradizionali di rafforzamento della fiducia (CBM) come il disallarme o il de-targeting delle forze nucleari.
In altre parole, è necessario un maggior grado di fiducia tra gli Stati interessati.
Tuttavia, le tendenze attuali suggeriscono che gli stati dotati di armi nucleari nell'Asia orientale si stanno
dirigendo nella direzione opposta. C'è il rischio che competano tra loro per esplorare migliori applicazioni
dell'IA nelle loro forze nucleari. Come notato sopra, la Russia sta sviluppando il Poseidon UUV con capacità
nucleare.11 Secondo quanto riferito, la Cina sta anche lavorando all'introduzione di un consigliere AI nei suoi
sottomarini nucleari al fine di supportare la consapevolezza situazionale e il processo decisionale dei
comandanti dei sottomarini.12
A meno che non vengano messe in atto le necessarie misure di controllo degli armamenti, queste tendenze
potrebbero manifestarsi sotto forma di una corsa agli armamenti sulle applicazioni dell'IA legate alla forza
nucleare nell'Asia orientale.
Queste tendenze si applicano anche ai sistemi d'arma convenzionali che sono rilevanti per le forze nucleari.
Un sistema di difesa missilistica convenzionale installato con AI potrebbe intercettare i missili balistici nucleari
nordcoreani in modo più efficiente. Tuttavia, un tale sistema potrebbe anche sollevare preoccupazioni in Cina
e Russia che i loro missili nucleari di ritorsione potrebbero essere intercettati. Alcuni CBM devono essere
intrapresi tra Cina, Russia e Stati Uniti per affrontare l'introduzione dell'IA nei sistemi di difesa missilistica.
Altrimenti, la stabilità della corsa agli armamenti nucleari sarebbe messa a repentaglio se le contromisure
militari crescenti fossero prese per proteggere le loro forze nucleari.

III. Conclusioni

Nella discussione dei quattro tipi di applicazione dell'IA nelle forze nucleari, gli usi specifici - che includono
piattaforme come Poseidon e sottomarini nucleari potenziati dall'IA - rimangono in gran parte focalizzati sul
livello operativo o tattico, piuttosto che su quello strategico. Esiste il pericolo che l'utilizzo delle capacità di IA a
livello operativo possa essere svincolato da considerazioni strategiche. 13 Se così fosse, l'uso nucleare
innescato dall'IA a livello tattico potrebbe portare a un'ulteriore escalation nucleare.
Di conseguenza, una serie a cascata di rischi nucleari potrebbe mettere a repentaglio la stabilità strategica
nell'Asia orientale.
Al fine di ridurre al minimo i potenziali impatti dell'IA sui rischi nucleari nella regione, è necessario esplorare e
analizzare scenari futuri plausibili relativi a tali rischi per la formulazione delle politiche. La costruzione dello
scenario dovrebbe includere esperti di tutte le parti interessate nella sicurezza regionale. In questo modo, non
solo gli Stati dotati di armi nucleari, ma anche il Giappone e la Corea del Sud possono contribuire alla futura
stabilità nucleare e, si spera, trovare una soluzione su come l'IA potrebbe essere meglio integrata e applicata
per ridurre al minimo i rischi nucleari e promuovere la trasparenza per il controllo degli armamenti nucleari.
Asia orientale.

1. Gady, F.-S., "La Russia inizia le prove in mare del drone sottomarino" Poseidon "con capacità nucleare", The Diplomat, 21
luglio 2018. Su Poseidon vedi anche il capitolo 12 di questo volume.
2. Vedi ad es. capitoli 2 e 11 in questo volume.
3. Stewart, P., "Deep in the Pentagon, un programma segreto di intelligenza artificiale per trovare missili nucleari nascosti",
Reuters, 5 giugno 2018.
4. Geist, E. e Lohn, A. J., In che modo l'intelligenza artificiale potrebbe influire sul rischio di una guerra nucleare? (RAND
Corporation: Santa Monica, CA, 2018). Vedi anche Avin, S. e Amadae, S. M., "Autonomy and machine learning at the interface
of nucleari, computer and people", ed. V. Boulanin, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk,
vol. I, Euro-Atlantic Perspectives (SIPRI: Stoccolma, maggio 2019), pp. 105–18.
5. Acton, J. M., "Convenzionale rapido sciopero globale e forze nucleari della Russia", Carnegie Endowment for International
Peace, 4 ottobre 2013.
6. Roberts, B., "Stabilità strategica sotto Obama e Trump", Survival, vol. 59, n. 4 (agosto - settembre 2017), pagg. 47–84,
pagg. 51.
7. Trenin, D., "Mappatura della stabilità strategica globale nel ventunesimo secolo", Consiglio per gli affari internazionali russi,
1 novembre 2018.
8. Lieber, K. A. e Press, D. G., "La nuova era della controforza: cambiamento tecnologico e futuro di
deterrenza nucleare ", International Security, vol. 41, n. 4 (primavera 2017), pagg. 9–49, pagg. 37–46.
9. Tucker, P., "Rischio di una guerra nucleare" accidentale "in crescita, dice il gruppo di ricerca delle Nazioni Unite", Defense
One, 19 aprile.
2017. Vedi anche Topychkanov, P., "Autonomy in Russian Nuclear Forces", ed. Boulanin (nota 4), pagg. 69–75, pagg. 70.
10. Geist e Lohn (nota 4), pag. 6.
11. Vedi anche i capitoli 7 e 12 di questo volume.
12. Chen, S., "Il piano della Cina di utilizzare l'intelligenza artificiale per potenziare le capacità di pensiero del sottomarino
nucleare commanders ', South China Morning Post, 4 febbraio 2018.
13. Karlin, M., "The implications of artificial intelligence for national security strategy", Brookings Institution, 1 novembre 2018.
14. Controllo degli armamenti e sviluppi dell'apprendimento
automatico e dell'autonomia

Nishida Michiru *

Il controllo degli armamenti può essere definito come "tutte le forme di cooperazione militare tra potenziali
nemici nell'interesse di ridurre la probabilità di una guerra, la sua portata e la violenza se si verifica, e i costi
politici ed economici di essere preparati per essa". 1 Le misure di rafforzamento della fiducia (CBM) possono
quindi essere considerate come un tipo di controllo degli armamenti. Le CBM possono essere classificate
come un approccio incentrato sulle armi o un approccio incentrato sul comportamento. Un esempio di
approccio incentrato sulle armi è proibire o controllare la quantità di un certo tipo di arma. Un approccio
incentrato sul comportamento limiterebbe, ad esempio, un certo tipo di attività in relazione allo sviluppo o
all'uso delle armi.
Questo saggio identifica potenziali misure di controllo delle armi, comprese le CBM, che potrebbero essere
applicate a sistemi d'arma autonomi e il loro impatto sulle forze nucleari, attingendo a pratiche precedenti in
altre aree del controllo degli armamenti. Per esaminare meglio il futuro dei due approcci - incentrato sulle armi
e incentrato sul comportamento - in relazione alle tecnologie emergenti, fornisce innanzitutto una breve storia
delle misure di controllo degli armamenti (nella sezione I). Valuta quindi come adattare i futuri approcci al
controllo degli armamenti per tenere conto delle caratteristiche uniche dei sistemi d'arma autonomi (nella
sezione II). Conclude (nella sezione III) individuando la più promettente di queste misure.

* Le opinioni espresse in questo saggio sono quelle dell'autore e non riflettono necessariamente
quelle di alcuna organizzazione a cui è affiliato.

I. Breve storia del controllo degli armamenti

Le tradizionali misure di controllo degli armamenti, comprese le CBM, nel campo delle armi nucleari possono
essere suddivise in tre epoche relativamente distinte. Il primo, l'era prima degli Strategic Arms Limitation Talks
(SALT) tra l'Unione Sovietica e gli Stati Uniti, comprendeva un approccio prevalentemente incentrato sul
comportamento. Ciò è stato esemplificato dal Memorandum d'intesa sovietico-americano del 1963 per quanto
riguarda l'istituzione di un collegamento di comunicazioni dirette, noto come accordo hotline. 2 Fu seguito
dall'accordo sovietico-americano del 1971 sulle misure per ridurre il rischio di scoppio di una guerra nucleare,
che conteneva misure di notifica pre-lancio dei missili. 3 La seconda era è stata quella dei negoziati SALT e del
Trattato per la riduzione delle armi strategiche (START), che comprendevano un approccio incentrato
principalmente sulle armi. Questi portarono al Trattato sui missili anti-balistici (ABM) sovietico-USA del 1972 e
al Trattato sovietico-USA sulla riduzione e la limitazione delle armi strategiche offensive (START I) del 1991,
tra gli altri.4 La terza era è stata l'era post-guerra fredda, che ha incluso approcci incentrati sulle armi e sul
comportamento. Queste hanno incluso le iniziative nucleari presidenziali (PNI) del 1991, il trattato sul divieto
totale di test nucleari (CTBT) del 1996 e il trattato russo-statunitense del 2010 sulle misure per l'ulteriore
riduzione e limitazione delle armi strategiche offensive (nuovo START). 5
Perché il controllo degli armamenti abbia successo, sono generalmente necessari i seguenti quattro fattori. In
primo luogo, dovrebbe esserci un significativo merito di stabilità strategica in un tale accordo. In secondo
luogo, è imperativa una chiara definizione dell'oggetto da controllare: l'oggetto preso di mira dal controllo delle
armi deve essere chiaramente distinguibile dalle altre armi non controllate. In terzo luogo, la misura di
controllo deve essere verificabile. Anche se un oggetto è distinguibile e definibile, se la misura di controllo non
è verificabile, il controllo delle armi non è possibile. In quarto luogo, la natura a duplice uso - cioè se ha usi sia
militari che non militari o usi sia nucleari che non nucleari - di un oggetto di controllo degli armamenti dovrebbe
essere minima. Ad esempio, il controllo delle armi nucleari è iniziato con il controllo di missili e lanciatori
perché erano più facilmente verificabili delle testate nucleari, che dovevano attendere fino a quando New
START non offriva procedure di ispezione in loco specifiche per la loro verifica.
Sebbene si possa dire che il controllo delle armi nucleari si basi principalmente su un approccio incentrato
sulle armi, molte misure di controllo delle armi nel campo delle armi convenzionali hanno adottato un
approccio incentrato sul comportamento sotto forma di CBM. Ad esempio, lo Studio completo del 1981 del
Gruppo di esperti governativi delle Nazioni Unite sulle misure di rafforzamento della fiducia elencava una serie
di CBM legate all'esercito, tra cui (a) lo scambio di informazioni e comunicazioni sulle attività militari; (b)
riduzione delle spese militari; c) notifica preventiva delle attività militari; (d) scambi e visite; e) istituzione di un
meccanismo di consultazione; f) misure per alleviare le tensioni militari; (g) limitazioni o esclusione di
determinate attività militari comprese le zone smilitarizzate; (h) verifica delle CBM, degli accordi sul controllo
degli armamenti e sul disarmo; e (i) gestione delle crisi e risoluzione delle controversie. 6 Molte di queste CBM
sono state adottate in accordi sul controllo degli armamenti nucleari sotto forma di consultazioni, verifiche,
accordi di hotline e notifiche pre-lancio di missili.

II. Controllo degli armamenti dei sistemi d'arma autonomi

Una differenza fondamentale e fondamentale tra il controllo degli armamenti delle piattaforme nucleari
tradizionali e convenzionali e quello dei sistemi d'arma autonomi è che l'apprendimento automatico è
altamente a duplice uso. Di conseguenza, è estremamente difficile distinguere tra ciò che sarà consentito e ciò
che sarà vietato in base a qualsiasi accordo sul controllo degli armamenti. Un'altra differenza fondamentale è
che l'apprendimento automatico è molto incline alla proliferazione. L'architettura nucleare internazionale è
stata in gran parte guidata dai cinque stati dotati di armi nucleari ai sensi del Trattato di non proliferazione
(NPT) del 1968.7 Tuttavia, poiché l'apprendimento automatico prolifera rapidamente, è molto probabile che i
paesi in possesso di sistemi d'arma autonomi superino questi cinque stati...
Queste differenze portano alla domanda su come il controllo degli armamenti possa essere applicato al meglio
al futuro impatto dei sistemi d'arma autonomi sulle forze nucleari. Il tipo di sistema d'arma autonomo correlato
alle forze nucleari che è più facile da immaginare sarebbero le forze nucleari abilitate dall'intelligenza artificiale
(AI). Tuttavia, i sistemi d'arma autonomi e l'intelligenza artificiale sono tutt'altro che statici. Sono invece
multidimensionali e abbracciano un ampio spettro dall'attacco alla difesa (vedi figura 14.1).
Lungo questo spettro, le forze nucleari abilitate dall'intelligenza artificiale sono le più offensive per natura.
Questo è in particolare il caso del riconoscimento automatico del bersaglio (ATR) e del targeting e ingaggio
autonomi, che potrebbero comportare un rischio maggiore di escalation e l'uso accidentale o non autorizzato
di armi nucleari. Il secondo elemento più offensivo nello spettro è un attacco alle forze nucleari o al loro
comando e controllo da parte di sistemi d'arma autonomi convenzionali. Ciò comporterebbe un rischio
maggiore, o almeno percepito come maggiore, di uno sciopero decapitante da parte di un avversario. Il terzo
caso più offensivo nello spettro è l'intelligenza, la sorveglianza e la ricognizione (ISR) abilitate dall'IA. Quando
viene confrontato con le forze nucleari di un avversario e combinato con armi strategiche non nucleari, come il
US Conventional Prompt Global Strike (CPGS), questo aumenta le preoccupazioni dell'avversario per un
primo attacco decapitante.
Il quarto caso, la difesa missilistica abilitata dall'intelligenza artificiale, è dove lo spettro inizia a diventare più
orientato alla difesa. Questa difesa missilistica più capace contribuisce ad abbassare la fiducia dell'avversario
nella sopravvivenza della sua capacità di ritorsione di secondo colpo. Questo è seguito nello spettro da sistemi
di allarme precoce abilitati dall'intelligenza artificiale che hanno il potenziale per ridurre le possibilità di un
lancio accidentale o disinformato di armi nucleari. Il caso più orientato alla difesa nello spettro è l'IA come
consulente di fiducia, in cui i suggerimenti di un sistema di IA sono trattati in modo simile o migliore di quelli dei
consulenti umani nel processo decisionale nucleare. 8 Da un lato, questo potrebbe ridurre il rischio di lanci
accidentali o male informati. D'altra parte, la vulnerabilità in questo ultimo caso riguarda la suscettibilità di tali
sistemi all'hacking e ad altre forme di interferenza che potrebbero portare al lancio accidentale o disinformato
di armi nucleari.

Figura 14.1. Spettro dei sistemi d'arma autonomi in relazione alle forze nucleari AI = intelligenza
artificiale; ISR = intelligence, sorveglianza e ricognizione.

Questo spettro non è affatto esaustivo. Tuttavia, potrebbe servire come base per formulare standard, controlli
o CBM nel campo dell'autonomia relativa alle forze nucleari. Inoltre, nello studio del potenziale controllo degli
armamenti e delle CBM nel campo dei sistemi d'arma autonomi relativi alle forze nucleari, dovrebbero essere
prese in considerazione due nozioni fondamentali.
In primo luogo, poiché l'obiettivo più importante di qualsiasi forma di controllo degli armamenti è garantire un
livello più elevato di stabilità strategica, qualsiasi misura dovrebbe cercare di massimizzare i fattori stabilizzanti
e ridurre al minimo i fattori destabilizzanti. In altre parole, l'enfasi dovrebbe essere spostata dall'estremità
offensiva all'estremità più difensiva dello spettro.
In secondo luogo, dovrebbero essere applicati, quando possibile, approcci incentrati sulle armi e sul
comportamento a ciascuna delle condizioni dello spettro. Per le forze nucleari abilitate dall'intelligenza
artificiale, il rischio potenziale di lancio accidentale di armi nucleari dovrebbe essere ridotto o evitato. Affinché
ciò avvenga, il principio del controllo umano significativo o del giudizio umano significativo potrebbe essere
istituito in un accordo - forse in uno strumento legalmente vincolante - tra Stati dotati di armi nucleari. Tuttavia,
non è chiaro come si possa verificare efficacemente l'attuazione di tale principio. Visite regolari e di
familiarizzazione reciproca sarebbero qualcosa da considerare a questo proposito.
Per quanto riguarda un attacco alle forze nucleari o al comando e controllo nucleare da parte di sistemi d'arma
autonomi non nucleari, è necessario mitigare un circolo vizioso di sfiducia che potrebbe portare
involontariamente a un conflitto. Pertanto, è stato suggerito che un accordo verificabile - non basare o
dispiegare sistemi d'arma autonomi che potrebbero essere utilizzati per un attacco disarmante o decapitante
entro una certa distanza dai lanciamissili mobili dell'altro - potrebbe essere un'opzione da prendere in
considerazione.9
L'ISR abilitato dall'intelligenza artificiale diretta alle forze nucleari di un avversario non dovrebbe essere
interpretato come un fattore destabilizzante, ma piuttosto come stabilizzante in termini di trasparenza.
Tuttavia, quando l'ISR abilitato all'IA è accoppiato con capacità di disarmo convenzionale o non
convenzionale, come il CPGS, diventa rapidamente destabilizzante.
Poiché è quasi impossibile vietare lo sviluppo e il dispiegamento di CPGS, l'opzione migliore per il controllo
focalizzato sulle armi sarebbe il controllo quantitativo, non il divieto.
La difesa missilistica abilitata dall'IA è essenzialmente un sistema difensivo. Tuttavia, come mostra la storia
della difesa missilistica, un avversario può percepire questa difesa missilistica potenziata unita a capacità
nucleari offensive come una minaccia alla capacità di sopravvivenza delle sue forze nucleari. 10 Si tratta di una
classica dinamica offensiva-difensiva senza una reale soluzione efficace nel prossimo futuro. Un qualche tipo
di CBM, come le visite di familiarizzazione, potrebbe essere l'unica via da seguire. Più avanti lungo lo spettro, i
sistemi di allarme rapido abilitati dall'IA potrebbero essere fattori stabilizzanti e quindi devono essere migliorati.
Un modo per andare avanti sarebbe la “trasparenza radicale” in cui un algoritmo di intelligenza artificiale
utilizzato per fornire supporto decisionale sull'escalation potrebbe essere condiviso con gli avversari. 11 Infine,
l'intelligenza artificiale come consulente di fiducia potrebbe anche essere un fattore stabilizzante e dovrebbe,
pertanto, essere migliorato. In quanto tale, potrebbe valere la pena esplorare la fattibilità di un accordo sul
principio di non impegnarsi in attacchi fisici o hacking.
Su questo spettro (nella figura 14.1), l'approccio incentrato sulle armi potrebbe teoricamente essere applicato
al primo e forse al quarto caso. Tuttavia, il controllo quantitativo tradizionale non risolverebbe i potenziali rischi
posti da queste manifestazioni offensive delle applicazioni AI. Il problema non riguarda i numeri, ma piuttosto
due scenari: il rischio potenziale o percepito di (a) un lancio accidentale di sistemi d'arma nucleari autonomi e
(b) un attacco decapitante da parte di sistemi d'arma autonomi convenzionali. Nell'affrontare questi due
scenari, il controllo degli armamenti con un approccio incentrato sulle armi potrebbe teoricamente vietare forze
nucleari abilitate dall'intelligenza artificiale o sistemi d'arma autonomi. Tuttavia, resta la questione se un tale
accordo supererebbe o meno il test di distinguibilità e verificabilità.
Ad esempio, se il software potesse essere semplicemente sostituito prima e dopo qualsiasi verifica, come
potrebbe essere sostenibile ed efficace qualsiasi forma di controllo degli armamenti?

Al contrario, l'approccio incentrato sul comportamento potrebbe essere applicato essenzialmente a qualsiasi
caso lungo lo spettro. Come discusso in precedenza, questo include il concetto di divieto contro i sistemi
d'arma autonomi utilizzati per condurre un attacco decapitante contro le forze nucleari entro una certa
distanza. La notifica preventiva delle attività militari - come la notifica preventiva sui missili balistici - è
tradizionalmente servita come misura chiave incentrata sul comportamento. Tuttavia, ci sono domande sul
fatto che questo possa funzionare come originariamente previsto in termini di autonomia in relazione alle forze
nucleari. Ad esempio, come reagirebbe il sistema d'arma autonomo dell'avversario a una tale pre-notifica? Il
sistema d'arma autonomo dell'avversario potrebbe distinguere tra tempo di pace e crisi? Esiste un modo per
limitare il rischio di escalation, dovuto all'interazione imprevedibile tra sistemi d'arma autonomi?
Allo stesso modo, non è chiaro se una misura di gestione delle crisi, come una hotline, sarebbe significativa.
In un mondo di sistemi d'arma autonomi che hanno un impatto sulle forze nucleari, ci sarebbe tempo limitato
per rispondere. Potrebbe non esserci tempo per i leader politici per scambiarsi opinioni, discutere
internamente con il proprio personale e decidere come rispondere. Le visite di familiarizzazione e la verifica
avrebbero un problema simile se il software potesse essere facilmente sostituito prima e dopo tali visite e
verifiche. Ai fini della verifica, questo problema può essere grave, ma forse non così grave ai fini delle visite di
familiarizzazione, che non richiedono un livello di fiducia così elevato come la verifica. Attraverso visite regolari
e persistenti, la fiducia potrebbe essere gradualmente creata a lungo termine.
Questo vale anche per la consultazione. Tuttavia, questo è un processo lungo e l'integrazione dell'autonomia
sta avanzando rapidamente.

III. Conclusioni

Alcune misure di controllo degli armamenti, comprese le CBM, per i sistemi d'arma autonomi legati alle forze
nucleari potrebbero includere misure come la pubblicazione o lo scambio di politiche e pratiche nazionali. Ciò
potrebbe essere condotto al fine di accumulare le migliori pratiche internazionali in futuro. Potrebbero essere
previste anche visite di familiarizzazione reciproca regolari o ad hoc e consultazioni a livello bilaterale,
regionale e internazionale. Altre aree di controllo potrebbero includere il divieto di forze nucleari abilitate
dall'intelligenza artificiale o almeno l'adozione del principio del controllo umano significativo per le forze
nucleari abilitate dall'intelligenza artificiale. Potrebbe anche esserci l'esplorazione di un divieto contro l'attacco
al comando e controllo nucleare da parte di sistemi d'arma autonomi o un divieto contro il dispiegamento di
sistemi d'arma autonomi che si impegnano in un attacco decapitante contro le forze nucleari entro una certa
distanza.
Oltre ai controlli posti su progressi più offensivi, potrebbe esserci una maggiore attenzione all'estremità
difensiva dello spettro, come con l'incoraggiamento dei sistemi di allarme rapido abilitati all'IA e la "trasparenza
radicale". Inoltre, un uso moderato dell'IA come consulente fidato potrebbe essere un passo avanti, soprattutto
se combinato con il divieto di attaccare o hackerare questi sistemi. Come notato all'inizio di questo saggio,
molte di queste misure di controllo degli armamenti e delle CBM sono ancora fittizie e richiedono un certo
grado di cambiamento sistemico tra i potenziali firmatari di qualsiasi accordo di questo tipo. Tuttavia, possono
servire come base per un'ulteriore esplorazione di misure concrete per affrontare la proliferazione di sistemi
d'arma autonomi che hanno un impatto sulle forze e posizioni nucleari e sulla stabilità regionale dell'Asia
orientale.
1.
2. Memorandum d'intesa per quanto riguarda l'istituzione di un collegamento di comunicazioni dirette, firmato ed entrato in
vigore il 20 giugno 1963, United Nations Treaty Series, vol. 472 (1963), pagg. 163–69. Vedi anche Davenport, K., "Hotline
agreement", Arms Control Association, aprile 2018.
3. Accordo sovietico-USA sulle misure per ridurre il rischio di scoppio di una guerra nucleare, firmato ed entrato in vigore il 30
settembre 1971, United Nations Treaty Series, vol. 807 (1972), pagg. 57–62.
4. Trattato Sovietico-USA sulla limitazione dei sistemi missilistici antibalistici (Trattato ABM), firmato il 26 maggio 1972, entrato
in vigore il 3 ottobre 1972, non in vigore dal 13 giugno 2002, United Nations Treaty Series, vol. 944 (1974), pagg. 13-17; e il
Trattato Sovietico-USA sulla riduzione e la limitazione delle armi strategiche offensive (START I), firmato il 31 luglio 1991,
entrato in vigore il 5 dicembre 1994, scaduto il 5 dicembre 2009.
5. Kimball, D., "Le iniziative nucleari presidenziali (PNI) sulle armi nucleari tattiche a colpo d'occhio", Arms Control Association,
luglio 2017; Trattato per la messa al bando totale degli esperimenti nucleari (CTBT), aperto alla firma il 24 settembre 1996,
non in vigore; Ufficio delle Nazioni Unite per gli affari del disarmo, "Trattato per la messa al bando completa dei test nucleari
(CTBT)", visitato il 25 aprile 2019; Trattato Russia-USA sulle misure per l'ulteriore riduzione e limitazione delle armi strategiche
offensive (Nuovo START, Trattato di Praga), firmato l'8 aprile 2010, entrato in vigore il 5 febbraio 2011; e US Department of
State, Bureau of Arms Control, Verification and Compliance, "New START", consultato il 25 aprile 2019.
6. Nazioni Unite, Assemblea generale, Studio completo del gruppo di esperti governativi sulle misure di rafforzamento della
fiducia, A / 36/474, 6 ottobre 1981, par. 128.
7. Trattato di non proliferazione delle armi nucleari (Trattato di non proliferazione, TNP), aperto alla firma il 1 luglio 1968,
entrato in vigore il 5 marzo 1970, IAEA INFCIRC / 140, 22 aprile 1970. Il TNP definisce un nucleare Stato arma è uno stato
che ha prodotto ed esploso un'arma nucleare o un altro dispositivo esplosivo nucleare prima del 1 gennaio 1967. Secondo
questa definizione, ci sono 5 stati dotati di armi nucleari: Cina, Francia, Russia, Regno Unito e Stati Uniti.
8. Geist, E. e Lohn, A. J., In che modo l'intelligenza artificiale può influire sul rischio di una guerra nucleare? (RAND
Corporation: Santa Monica, CA, 2018), pagg. 18-20.
9. Geist e Lohn (nota 8), pagg. 16-18.
10. Arbatov, A. e Dworkin, V. (a cura di), Missile Defense: Confrontation and Cooperation (Carnegie Moscow Center: Mosca,
2013); e Saalman, L., "China’s evolution on balistic missile defence", Carnegie Endowment for International Peace, 23 agosto
2012.
11. Geist e Lohn (nota 8), pagg. 21-22.
CONCLUSIONE

15. L'impatto dell'intelligenza artificiale sull'asimmetria


nucleare e sui segnali nell'Asia orientale

Lora saalman

Questo volume modificato è la seconda puntata di una trilogia che esplora le prospettive e le tendenze
regionali relative all'impatto che i recenti progressi nell'intelligenza artificiale (AI) potrebbero avere sul rischio
nucleare e sulla stabilità strategica. Raccoglie le opinioni di 13 esperti provenienti dall'Asia orientale, dalla
Russia e dagli Stati Uniti, 10 dei quali hanno partecipato a un workshop sul tema organizzato dal SIPRI e dal
China Institutions of Contemporary International Relations (CICIR) nel settembre 2018 a Pechino.
Questo capitolo conclusivo esplora il ruolo dell'asimmetria e della segnalazione nell'Asia orientale come
applicato all'IA e al rischio nucleare. Inizia (nella sezione I) con una panoramica dei rischi e delle dinamiche
dell'uso dell'apprendimento automatico e dell'autonomia da parte degli stati dell'Asia orientale dotati di armi
nucleari. Continua (nella sezione II) considerando le misure di rafforzamento della fiducia (CBM) che possono
essere applicate alle applicazioni militari dell'IA.
Conclude (nella sezione III) una discussione sui mezzi attraverso i quali il disallineamento nelle ipotesi e nelle
capacità può essere affrontato.

I. Rischi e dinamiche dell'apprendimento automatico e dell'autonomia

Come dimostra questo volume, molti dei rischi e delle dinamiche che si manifestano nelle analisi e negli
scenari dell'Asia orientale continuano a incentrarsi su Cina, Russia e Stati Uniti. Tuttavia, i risultati del
seminario e di questo volume indicano che ogni stato della regione potrebbe essere visto come detentore del
potere di uno stato dotato di armi nucleari, indipendentemente dal fatto che si tratti o meno di una vera
potenza nucleare, dato l'impatto dell'apprendimento automatico e autonomia sulla stabilità strategica e rischio
nucleare. In effetti, alcune delle discussioni più esaustive sul controllo degli armamenti e sulle CBM sono
contenute nei saggi di esperti degli stati non dotati di armi nucleari del Giappone e della Repubblica di Corea
(Corea del Sud), che affrontano alcuni dei rischi più intrattabili associati a l'integrazione di queste tecnologie
nelle dinamiche nucleari regionali. 1
Questi due paesi continuano a svolgere un ruolo centrale nella deterrenza estesa e ad essere in prima linea
nella difesa missilistica e nell'escalation nucleare relativa non solo alla Repubblica Democratica Popolare di
Corea (RPDC o Corea del Nord), ma anche al trilaterale cinese - russo - statunitense dinamica. In quanto tali,
sono qualificati in modo univoco per fornire approfondimenti di terze parti sul modo migliore per affrontare il
cambiamento tecnologico e strategico nell'Asia orientale. Inoltre, quando si parla di asimmetria, la Corea del
Nord ha probabilmente la preoccupazione più pervasiva sulla sua inferiorità strategica e il potenziale di
decapitazione, aumentando il suo bisogno percepito di una maggiore integrazione dell'IA e una risposta
rapida.2
Tuttavia, quando si tratta di asimmetrie e carenze di segnalazione che possono avere l'impatto più deleterio
sul rischio nucleare, le dinamiche cinesi, russe e statunitensi continuano a dominare le attuali analisi dell'Asia
orientale. In parte, ciò è dovuto alle loro tensioni di lunga data e all'impatto dei loro considerevoli arsenali
nucleari e dei progressi dell'IA sulle dinamiche nucleari. Di fronte a queste sfide asimmetriche, i saggi in
questo volume rivelano che l'automazione e l'autonomia sono di forte interesse per gli stati armati nucleari più
deboli con sistemi di allerta precoce meno capaci e con arsenali nucleari e convenzionali più piccoli e meno
capaci. Per integrare queste carenze, le piattaforme potenziate dall'IA sono considerate capaci di
anticipazione, discriminazione, reazione e risposta più rapide. Tuttavia, per quanto questa tecnologia di
intelligenza artificiale sia vista come un mezzo per compensare gli squilibri per le potenze più deboli, è anche
considerata probabile che penda la bilancia a favore di potenze più forti.

Questo porta a un tradizionale dilemma sulla sicurezza. Come ha osservato un esperto cinese al seminario
dell'Asia orientale, l'automazione della risposta nucleare è un "fatto, piuttosto che un'ipotesi", poiché il lancio
su allarme non è più semplicemente preso in considerazione da Russia e Stati Uniti. Oltre a una maggiore
capacità di lancio, sia gli esperti cinesi che quelli russi fanno riferimento alla minaccia della difesa missilistica
degli Stati Uniti e del Convenzionale Prompt Global Strike (CPGS) per la resilienza e la sopravvivenza delle
forze convenzionali e nucleari dei loro due paesi. 3 Inoltre, i partecipanti al seminario cinese hanno notato una
particolare preoccupazione per le manovre con e senza equipaggio statunitensi intorno alla prima e alla
seconda catena di isole che circondano la Cina per monitorare, sfidare e persino potenzialmente entrare in
collisione con sottomarini e navi cinesi. 4 Quando tali piattaforme statunitensi saranno potenziate
dall'intelligenza artificiale, è probabile che queste preoccupazioni crescano. Di conseguenza, gli attori regionali
dell'Asia orientale sono sempre più costretti a sviluppare e distribuire piattaforme con maggiore resistenza e
portata, come veicoli sottomarini senza pilota (UUV), veicoli aerei senza pilota (UAV) e piane spaziali per
migliorare sia la sorveglianza che la deterrenza nucleare in tutta la regione.
Di fronte a un simile futuro, il workshop sull'Asia orientale e questo volume suggeriscono che i paesi che
affrontano asimmetrie sia percepite che reali possono essere inclini ad accettare i rischi dell'apprendimento
automatico e dell'autonomia per evitare i maggiori pericoli di essere colti alla sprovvista. Sebbene la
dipendenza di una parte da queste piattaforme abilitate dall'intelligenza artificiale possa portare ad alcune
vulnerabilità che possono essere sfruttate, a questi sistemi avanzati viene attribuito il rafforzamento della
capacità dei paesi di anticipare e rispondere alle minacce. Questo problema di compressione del tempo, se
combinato con la natura black box dell'apprendimento automatico nei sistemi di supporto decisionale, si
traduce in un duplice dilemma sia del tempo di attacco che di quello di risposta. 5 Di fronte a questo dilemma
del tempo di risposta, un esperto giapponese ha affermato al seminario dell'Asia orientale che le capacità di
apprendimento automatico rimangono ancora in gran parte nel segmento "osserva" del ciclo di osservazione -
orienta - decisione - azione (OODA). Tuttavia, dato che una serie di nuovi sistemi nucleari saranno sviluppati e
messi in campo nei prossimi 10 anni, è fondamentale disporre di un mezzo per comprendere quali tecnologie
nascenti vengono prese in considerazione per l'integrazione e dove si trovano nel circuito OODA. In
particolare, i bias e le ipotesi programmate negli algoritmi sono importanti tanto quanto il punto in cui questi
algoritmi vengono inseriti all'interno del ciclo decisionale.
Pertanto, nella ricerca di risposte su come vengono applicati questi algoritmi, i missili balistici e da crociera
nucleari a basso rendimento lanciati da sottomarini menzionati nella US Nuclear Posture Review 2018, le
prove in mare russe dell'UUV a propulsione nucleare e con armi nucleari Poseidon, e lo sviluppo cinese del
veicolo di planata ipersonico DF-ZF può servire come forti punti di partenza e test decisivi sia per
l'integrazione dell'IA che per le CBM. 6 Piuttosto che sviluppi indipendenti, queste piattaforme costituiscono un
complesso dilemma di sicurezza intrecciato basato sia su presupposti nazionali che sui progressi tecnologici.
La discussione degli Stati Uniti sulle piattaforme a basso rendimento è ampiamente percepita come una
risposta alla presunta posizione della Russia di intensificare un conflitto per ridurlo, mentre si pensa
comunemente che sia la Cina che la Russia stiano cercando di mantenere le loro capacità di secondo colpo
con l'ipersonico veicoli e UUV di fronte all'inseguimento statunitense della difesa missilistica e del CPGS. 7
Pertanto, le risposte cinesi in alcuni casi hanno iniziato a rispecchiare il contrattacco russo delle capacità
statunitensi per evitare di essere colti alla sprovvista. Le ricerche tecnologiche della Cina indicano che sta
adottando una posizione più offensiva e orientata al futuro in tutto, dal lancio sull'avvertimento allo sviluppo di
piattaforme rapide ad alta precisione. Come notato da un esperto cinese al seminario dell'Asia orientale,
mentre la Cina non ha cambiato la sua posizione ufficiale di non primo utilizzo, se questi progressi abilitati
dall'IA nelle forze convenzionali e nucleari statunitensi trasformano la capacità di secondo attacco della Cina in
un "terzo attacco" - in modo che quest'ultimo possa essere vittima di attacchi successivi e non avere
possibilità di ritorsione - la Cina dovrebbe adottare contromisure in anticipo. Pertanto, mentre i cambiamenti di
posizione nucleare di Cina e Russia rimangono in discussione e spesso vengono negati, resta il fatto che gli
Stati Uniti stanno modellando il loro deterrente nucleare su presupposti e risultati basati sui progressi
tecnologici di Cina e Russia, piuttosto che semplicemente sulle loro dottrine dichiarate.

Quindi, sebbene ci siano certamente differenze nelle risposte nazionali all'interno dell'Asia orientale, ci sono
alcuni punti in comune quando si tratta dell'impatto dell'apprendimento automatico e dell'autonomia sul rischio
nucleare. La maggior parte di questi si riferisce al paradosso di stabilità-instabilità di queste tecnologie. 8 In
termini di trasparenza, gli esperti dell'Asia orientale tendono a concordare sul fatto che l'apprendimento
automatico migliora la ricognizione, con il risultato potenzialmente destabilizzante che diventerà più difficile
nascondere le forze nucleari.9
A causa delle basse profondità del Mar Cinese Meridionale e del relativo rumore della loro propulsione, gli
esperti cinesi sostengono che i sottomarini nucleari cinesi soffrono già di una ridotta capacità di
sopravvivenza, che è solo esacerbata dalle navi senza equipaggio. 10
Ciò può essere contrastato con il ruolo potenzialmente stabilizzante dell'apprendimento automatico nel
nascondere le forze nucleari per migliorare la sopravvivenza e la mutua vulnerabilità, consentendo
l'anticipazione o la confusione del monitoraggio da parte di satelliti, UAV e UUV. 11
In termini di tempistica, sia i partecipanti russi che quelli statunitensi al seminario dell'Asia orientale hanno
citato il pericolo che si verifichi un pregiudizio dell'automazione - compiacenza o eccessivo affidamento a
sistemi automatizzati o autonomi - che potrebbe portare a pressioni strategiche di tempo e azioni avventate. 12
Tuttavia, hanno anche affermato che la capacità stessa della macchina di elaborare le informazioni più
velocemente aumenta il tempo a disposizione degli esseri umani per analizzare e verificare grandi volumi di
dati e per prendere decisioni in caso di crisi. Sulla comunicazione, i partecipanti al seminario dell'Asia orientale
hanno espresso la preoccupazione che l'instabilità possa derivare dall'infiltrazione dei sistemi di comando e
controllo, poiché la raccolta di informazioni basata sull'intelligenza artificiale è vasta e dispersa. 13 Esperti
giapponesi, sudcoreani e statunitensi hanno sostenuto nei vari seminari SIPRI che ciò può provocare
disinformazione e segnalazioni ambigue. 14 Tuttavia, hanno anche notato che un maggior numero di canali di
flusso di informazioni, facilitato dall'apprendimento automatico, può anche consentire un comprensione più
completa ed equilibrata dell'ambiente di minaccia.
II. Rafforzamento della fiducia e uso militare dell'IA

Attraverso la comprensione delle differenze e dei punti in comune nei punti di vista degli esperti dell'Asia
orientale, in particolare in termini di stabilità - paradosso instabilità, il seminario dell'Asia orientale e questo
volume hanno prodotto una serie di potenziali CBM. In termini di gestione delle crisi, alcuni esperti sostengono
che, poiché l'apprendimento automatico non è ancora allo stato dell'arte, il mondo ha una breve finestra in cui
tornare al controllo degli armamenti. 15 Tuttavia, questo suggerimento ha anche suscitato critiche nei vari
workshop SIPRI la persistente difficoltà nel definire cosa controllare nei sistemi d'arma autonomi letali (LAWS)
e la natura ossificata delle attuali strutture di controllo degli armamenti, che sono già sature di controversie di
lunga data.16 Esperti statunitensi hanno inoltre notato nei seminari che gli accordi sul controllo delle armi
tradizionali erano basato su limiti allo sviluppo e al test, che nel caso dell'IA non è più fattibile a causa della
velocità con cui viene acquisito e delle difficoltà di verifica. Tuttavia, gli esperti giapponesi in questo volume
suggeriscono che concentrarsi sui controlli basati sul comportamento e sulla creazione di scenari potrebbe
superare alcune di queste barriere. 17
Per quanto riguarda le autorizzazioni e il disimpegno, algoritmi preprogrammati o kill switch sono stati citati per
l'inclusione in armi autonome per molti anni senza molti progressi. Pertanto, gli esperti di tecnologia del
seminario dell'Asia orientale hanno suggerito di incorporare un requisito nell'architettura del sistema, in modo
tale che ogni segmento del sistema non sarebbe in grado di superare il proprio livello di autorità. Tuttavia,
durante tali discussioni, la difficoltà di applicare controlli tecnologici continua a confrontarsi con i pregiudizi e le
ipotesi preprogrammate - spesso inconsapevolmente - negli algoritmi di ciascun paese. Nell'affrontare questa
realtà, un partecipante statunitense al seminario dell'Asia orientale ha affermato che è difficile per un
comandante militare fare affidamento su un sistema quando le informazioni sui principi programmati nel suo
comportamento sono scarse o assenti. 18 Un altro partecipante statunitense si è inoltre lamentato di come gli
scenari esistenti e la formazione in esercizi da tavolo continuino a seguire una serie di eventi eccessivamente
lineare e sequenziata, quando una crisi effettiva è molto più complessa, con un misto simultaneo di incidenti e
parti interessate.
Di fronte a queste sfide, i partecipanti dell'Asia orientale ai vari seminari SIPRI e i contributori a questo volume
hanno suggerito alcune aree in cui si potrebbero fare progressi. Esperti provenienti da Cina e Russia
suggeriscono la necessità di adattare la stabilità strategica per accogliere la natura stabilizzante e
destabilizzante dei progressi nell'apprendimento automatico e nell'autonomia. 19 In tal modo, vi è un invito
persistente e pervasivo a tornare al coinvolgimento delle parti interessate, in particolare nell'Asia orientale,
dove i paesi spesso si vedono in una situazione di svantaggio asimmetrico nell'IA, nelle tecnologie nucleari e
convenzionali. In questo volume e nel seminario dell'Asia orientale, è stata suggerita una serie di forum in cui i
paesi possono essere coinvolti anche se i loro incentivi per l'integrazione dell'IA sono diversi.

A livello bilaterale, sono stati proposti esercizi da tavolo e dialoghi strategici tra Russia e Stati Uniti e tra Cina e
Stati Uniti. Riconoscendo che queste relazioni diadiche si stanno deteriorando, tuttavia, esperti russi, cinesi e
statunitensi hanno raccomandato di utilizzare gruppi multilaterali come la Commissione per il disarmo delle
Nazioni Unite come organo deliberativo e universale aperto a un nuovo dibattito, nonché di utilizzare un nuovo
gruppo di esperti governativi (GGE) istituita dall'Assemblea generale delle Nazioni Unite come piattaforma per
discussioni tecniche approfondite. 20
Notando che le agende delle Nazioni Unite sono già sature, i partecipanti cinesi ai vari workshop SIPRI hanno
anche suggerito altri forum come il gruppo Brasile - Russia - India - Cina - Sud Africa (BRICS) o la Shanghai
Cooperation Organization (SCO) come sedi possibili. Tuttavia, ciò ha provocato domande da parte dei
partecipanti statunitensi sulla capacità di tali organismi di andare oltre i programmi e i blocchi politici.
III. Affrontare le lacune nelle ipotesi e capacità dell'IA

Piuttosto che evitare la questione dei diversi programmi e prospettive politiche, il seminario dell'Asia orientale
e questo volume hanno cercato di affrontare le differenze di percezioni, politiche, tecnologie e forze armate a
testa alta. Ciò ha lo scopo di facilitare una migliore comprensione di alcuni pregiudizi e ipotesi nazionali e
regionali che stanno plasmando l'impatto dell'IA sulla stabilità strategica e sul rischio nucleare a livello tecnico
e strategico. Sebbene ciascuno dei paesi e dei punti di vista presentati in questo volume sia unico, ci sono
abbastanza preoccupazioni comuni sulla stabilità dell'IA - paradosso dell'instabilità che potrebbe esserci
maggiore spazio per esplorare come affrontare i problemi di asimmetria, segnalazione e escalation
intenzionale e non intenzionale che sono descritti.
A tal fine, è fondamentale concentrarsi e persino creare una matrice di ciò che rende ogni paese dell'Asia
orientale simile e distintivo nel modo in cui affronta l'integrazione dell'IA nelle forze nucleari. Ciò potrebbe
concentrarsi sugli elementi spesso mancati di percezione delle minacce, cultura strategica, geografia, attori di
terze parti, alleanze e attori non statali. Molti degli autori di questo volume hanno già offerto le proprie tabelle e
diagrammi di come questi elementi interagiscono a livello tecnico e strategico. 21 Questo può essere
ulteriormente ampliato per paese e regione.
Tuttavia, al di là dei concetti, queste variabili devono essere triangolate con le tecnologie relative all'IA in fase
di sviluppo e le piattaforme implementate.
Ciò indicherebbe non solo come vengono costruiti gli algoritmi di intelligenza artificiale, ma anche come si
adattano all'ambiente nucleare e ai progressi all'interno dell'Asia orientale e oltre.

1. Vedere i capitoli 5, 12, 13 e 14 in questo volume.


2. Vedere i capitoli 5 e 6 in questo volume.
3. Vedere i capitoli 4, 11 e 14 in questo volume.
4. Huang, E., "China's master PLAN: how Beijing wants to break free of the" island chains "", National Interest, 19 maggio
2017.
5. Vedere il capitolo 10.
6. Dipartimento della difesa degli Stati Uniti (DOD), Nuclear Posture Review (DOD: Washington, DC, febbraio 2018), pagg.
54–55. Vedi anche i capitoli 4, 8 e 12 in questo volume.
7. Vedere i capitoli 8 e 10 in questo volume. Vedi anche Schneider, M. B., "Escalate to de-escalate", Proceedings (US Naval
Institute), vol. 143, n. 2 (febbraio 2017); e Oliker, O. e Baklitskiy, A., "The Nuclear Posture Review and Russian" de-
escalation": a dangerous solution to a inexistent problem", War on the Rocks, 20 febbraio 2018.
8. Vedere il capitolo 10 in questo volume.
9. Vedere i capitoli 5, 6, 8, 10, 11 e 14 in questo volume.
10. Wu, R., "Survivability of China's Sea-based Nuclear Forces", Science & Global Security, vol. 19, no. 2 (2011), pagg. 91-
120; e Zhao, T., Tides of Change: China’s Nuclear Ballistic Missile Submarine and Strategic Stability (Carnegie Endowment for
International Peace: Washington, DC, 2018).
11. Vedi ad es. capitolo 2 in questo volume.
12. Vedi anche ad es. capitolo 10 in questo volume; e Horowitz, M. C., "Intelligenza artificiale e stabilità nucleare", ed. V.
Boulanin, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic Perspectives (SIPRI:
Stoccolma, maggio 2019), pp. 79–83.
13. Vedi anche i capitoli 5 e 6 di questo volume.
14. Vedi anche ad es. capitoli 10 e 11 di questo volume.
15. Vedere i capitoli 11 e 14 di questo volume.
16. Vedi anche ad es. capitolo 11 in questo volume.
17. Vedi i capitoli 13 e 14 di questo volume.
18. Vedi anche ad es. Hagström, M., "Applicazioni militari di apprendimento automatico e sistemi autonomi", ed. Boulanin
(nota 12); e Rickli, J.-M., "Le prospettive destabilizzanti dell'intelligenza artificiale per la strategia nucleare, la deterrenza e la
stabilità", ed. Boulanin (nota 12).
19. Vedi anche ad es. capitoli 10 e 11 di questo volume.
20. Vedi anche ad es. capitolo 11 in questo volume.
21. Vedi anche ad es. capitoli 10 e 14 in questo volume.
Riguardo agli Autori *

* In conformità con le regole linguistiche in Cina, Giappone e Corea, i nomi degli autori di questi
paesi compaiono prima con il cognome in tutto questo volume.

Arie Koichi (Giappone) è ricercatrice senior presso il National Institute for Defense Studies, Tokyo. Si
classifica come tenente colonnello nel Japan Ground Self-Defense Force (JGSDF) e ha servito come
comandante di unità e personale in tutto il Giappone.
Ha prestato servizio nel sud dell'Iraq nel 2004 come parte del primo contingente dell'Unità di supporto alla
ricostruzione dell'Iraq, per il quale è stato incorporato come ufficiale di collegamento JGSDF nella sede della
Divisione multinazionale (sud-est). La sua area di competenza è la strategia nucleare e la deterrenza
nucleare. Dal 2012 è docente part-time presso la Graduate School of International Cooperation Studies,
Takushoku University, dove insegna strategia nucleare statunitense. Ha conseguito un master presso l'Istituto
nazionale per i titoli accademici e l'istruzione universitaria e un dottorato presso la Takushoku University.

Cai Cuihong (Cina) è professore presso il Center for American Studies della Fudan University, Shanghai. In
precedenza, ha lavorato per l'Ufficio per gli affari esteri dell'università tra il 1996 e il 2001. È stata visiting
scholar presso il Georgia Institute of Technology, Stati Uniti, nel 2002, e presso l'Università della California,
Berkeley, USA, nel 2007, come così come un borsista invitato nel programma 2007 sulla sicurezza nazionale
degli Stati Uniti sponsorizzato dal Dipartimento di Stato degli Stati Uniti. È membro della Shanghai Association
of American Studies. Ha conseguito una laurea e un master in biofisica e un dottorato in relazioni
internazionali presso l'Università di Fudan e una laurea in lingua e letteratura inglese presso la Shanghai
International Studies University.

Hwang Il-Soon (Corea del Sud) è professore presso il Dipartimento di ingegneria nucleare della Seoul
National University. È uno specialista dell'energia nucleare. In qualità di direttore del Nuclear Power
Performance Research Center, era responsabile della sicurezza degli impianti nucleari e della gestione
dell'invecchiamento, stabilendo un protocollo di revisione periodica della sicurezza. Mentre prestava servizio
come direttore del Nuclear Transmutation Energy Research Center of Korea (NuTREK), ha usato la sua
esperienza sul deposito di scorie nucleari del Yucca Mountain Project per sviluppare il reattore resistente alla
proliferazione, rispettoso dell'ambiente, tollerante agli incidenti, continuo ed economico ( PEACER) e il sistema
PyroGreen. Presiede o co-presiede la Korean Nuclear Plant Management Network, Nypro Engineering and
Technology (NET), Nuclear Power Infrastructure Development, l'Informal Heavy Liquid Metal Coolant Interest
Group, una task force congiunta dell'Organizzazione per la cooperazione e lo sviluppo economico (OCSE) e
l'Agenzia per l'energia nucleare (NEA), un gruppo di consulenza dell'Agenzia internazionale per l'energia
atomica (AIEA), il Forum sui cambiamenti climatici e la politica energetica e il Vertice d'onore sugli atomi per la
pace e l'ambiente (SHAPE). Ha conseguito una laurea presso la Seoul National University e un dottorato
presso il Massachusetts Institute of Technology, USA.

Hwang Ji-Hwan (Corea del Sud) è professore associato presso l'Università di Seoul. I suoi interessi di ricerca
includono la politica diplomatica e il rapporto tra la Corea del Nord e la Corea del Sud. Ha conseguito una
laurea in diplomazia presso la Seoul National University, un master in scienze politiche presso la Seoul
National University e l'Università del Colorado, USA, e un dottorato in scienze politiche presso l'Università del
Colorado.
Jiang Tianjiao (Cina) è un assistente professore presso il Dipartimento di Relazioni Internazionali
dell'Università di Studi Internazionali di Shanghai. In precedenza, è stato assistente ricercatore presso il
Center for Cyberspace Governance Studies presso la Fudan University. È stato visiting scholar presso il Sigur
Center for Asian Studies, George Washington University, USA, nel 2017. Ha un dottorato presso la Fudan
University, dove si è specializzato in controllo degli armamenti e sicurezza regionale.

Vasily Kashin (Russia) è un senior fellow presso la Higher School of Economics e l'Accademia russa delle
scienze (RAS), Mosca. È anche affiliato al Russian International Affairs Council e al RAS Institute of Far
Eastern Studies. È un esperto del complesso militare - industriale cinese.

Kim Ji-Sun (Corea del Sud) è professore presso il Dipartimento di Ingegneria Nucleare, Università Nazionale
di Seoul.

Vadim Kozyulin (Russia) è direttore del progetto dell'Asian Security Project e dell'Emerging Technologies and
Global Security Project presso il PIR Center di Mosca.
È stato esperto di scienze politiche e professore presso l'Accademia russa di scienze militari. In precedenza
era un ufficiale del Ministero degli Affari Esteri sovietico e poi russo, ha lavorato al Moscow News Review e in
seguito è stato un rappresentante in Russia di Kazspetsexport. Nel 2000-2002, ho completato il programma
sulla gestione della cooperazione militare e tecnica presso l'Accademia russa per il commercio estero. I suoi
interessi di ricerca includono il Trattato sul commercio delle armi del 2013, la cooperazione militare e tecnica
della Russia con i paesi stranieri e la stabilità in Asia centrale e Afghanistan. Si è laureato all'Istituto statale di
relazioni internazionali di Mosca (MGIMO).

Li Xiang (Cina) è un assistente ingegnere presso il China Shipbuilding Information Center. Ha conseguito un
master presso la Renmin University di Pechino.

Liu Yangyue (Cina) è professore associato presso il College of Humanities and Social Sciences della National
University of Defense Technology (NUDT), Changsha. È anche ricercatore presso il NUDT College of
International Studies and Cultural Security Studies Group. I suoi interessi di ricerca includono la politica di
Internet, la politica asiatica e le relazioni internazionali. Ha un dottorato presso il Dipartimento di studi asiatici e
internazionali della City University di Hong Kong.

Nishida Michiru (Giappone) è a capo dell'Unità per il disarmo della Divisione per il controllo degli armamenti e
il disarmo del Ministero degli affari esteri giapponese (MFA) e un'assistente speciale per le questioni relative al
disarmo e alla non proliferazione. In precedenza ha servito come primo segretario con la delegazione
giapponese alla Conferenza sul disarmo a Ginevra, principalmente incaricato di questioni nucleari e spaziali. È
stato anche professore associato in visita presso il Centro di ricerca per l'abolizione delle armi nucleari
dell'Università di Nagasaki. Prima di essere distaccato a Ginevra, è stato capo dell'Unità di controllo delle
esportazioni della Divisione Non proliferazione, scienza ed energia nucleare dell'AMF. È stato capo della
Sezione politica del Consolato generale del Giappone a Karachi, in Pakistan, e membro della delegazione
giapponese ai colloqui a sei nel 2005.

Lora Saalman (USA) è senior fellow in armamento e disarmo al SIPRI e senior fellow del Global Cooperation
in Cyberspace Program dell'EastWest Institute, New York. Ha anche lavorato come professore associato
presso il Daniel K.Inouye Asia - Pacific Center for Security Studies, Honolulu, USA, un associato nel
programma di politica nucleare presso il Carnegie - Tsinghua Center for Global Policy, Pechino, un professore
aggiunto presso Tsinghua University, ricercatore associato al Wisconsin Project on Nuclear Arms Control, e
visiting fellow presso la Observer Research Foundation, India, e il James Martin Center for Nonproliferation
Studies e stagista presso l'AIEA, Vienna. Ha conseguito una laurea presso l'Università di Chicago e un master
con un certificato di non proliferazione presso il Monterey Institute of International Studies. È stata la prima
cittadina statunitense a conseguire un dottorato presso il Dipartimento di Relazioni Internazionali
dell'Università di Tsinghua, completando tutti i suoi corsi di cinese.

Su Fei (Cina) è ricercatore all'interno del China and Global Security Program presso SIPRI. La sua attuale
ricerca si concentra sull'impegno della Cina con la Corea del Nord, la Corea del Sud e il Giappone. Prima del
suo attuale incarico, ha vissuto e studiato a Seoul per tre anni, dove ha rafforzato la sua fluidità in coreano e
ha conseguito un master in amministrazione pubblica con un focus sulla governance presso la Graduate
School of Public Administration della Seoul National University, dove ha ha scritto la sua tesi in coreano.

Potrebbero piacerti anche