Sei sulla pagina 1di 69

O DELL'INTELLIGENZA ARTIFICIALE

SULLA STABILITÀ STRATEGICA E


SUL RISCHIO NUCLEARE

Volume III
Prospettive dell'Asia meridionale
L'IMPATTO DELLA
a cura di Petr Topychkanov

Aprile 2020 INTELLIGENZA ARTIFICIALE


SULLA STABILITÀ STRATEGICA
E SUL RISCHIO NUCLEARE
ISTITUTO DI RICERCA INTERNAZIONALE PER LA PACE DI STOCCOLMA

Il SIPRI è un istituto internazionale


Volume III indipendente dedicato alla ricerca sui conflitti, sugli armamenti,
sul controllo degliProspettive
armamenti edell'Asia
sul disarmo.
meridionale
Istituito nel 1966, SIPRI fornisce dati, analisi e raccomandazioni, basate su fonti aperte, a
responsabili politici, ricercatori,
a cura media e pubblico interessato.
di Petr Topychkanov
Il consiglio di amministrazione non è responsabile delle opinioni espresse nelle pubblicazioni
dell'Istituto. Aprile 2020
CONSIGLIO DIRETTIVO
Ambasciatore Jan Eliasson, Presidente (Svezia)
Dr Vladimir Baranovsky (Russia)
Espen Barth Eide (Norvegia)
Jean-Marie Guéhenno (Francia)
Dr Radha Kumar (India)
Dr Patricia Lewis (Irlanda / Regno Unito)
Dr Jessica Tuchman Mathews (Stati Uniti)

DIRETTORE
Dan Smith (Gran Bretagna)
ISTITUTO DI RICERCA INTERNAZIONALE
PER LA PACE DI STOCCOLMA

Il SIPRI è un istituto internazionale indipendente dedicato alla ricerca sui conflitti,


sugli armamenti, sul controllo degli armamenti e sul disarmo.
Istituito nel 1966, SIPRI fornisce dati, analisi e raccomandazioni,
basate su fonti aperte, a responsabili politici, ricercatori, media e pubblico interessato.
Il consiglio di amministrazione non è responsabile delle
opinioni espresse nelle pubblicazioni dell'Istituto.

CONSIGLIO DIRETTIVO
Ambasciatore Jan Eliasson, Presidente (Svezia)
Dr Vladimir Baranovsky (Russia)
Espen Barth Eide (Norvegia)
Jean-Marie Guéhenno (Francia)
Dr Radha Kumar (India)
Dr Patricia Lewis (Irlanda / Regno Unito)
Dr Jessica Tuchman Mathews (Stati Uniti)

DIRETTORE
Dan Smith (Gran Bretagna)
L'IMPATTO DELL'INTELLIGENZA
ARTIFICIALE
SULLA STABILITÀ STRATEGICA E
SUL RISCHIO NUCLEARE
Volume III - Prospettive dell'Asia
meridionale

a cura di Petr Topychkanov

Aprile 2020
Prefazione
Ringraziamenti
Abbreviazioni
Sintesi

Introduzione

1. Introduzione
Riquadro 1.1. Definizioni chiave
Parte I. L'impatto dell'intelligenza artificiale sulle armi nucleari e sulla guerra

2. L'ampio ruolo dell'intelligenza artificiale nella trasformazione militare


I. AI nei sistemi di lancio di armi nucleari
II. AI nelle tecnologie militari non nucleari
III. Conclusioni

3. Razionali per introdurre l'intelligenza artificiale nel programma di modernizzazione militare dell'India
I. Fattori rilevanti per l'applicazione dell'autonomia e dell'apprendimento automatico
II. Applicazioni militari dell'autonomia e dell'apprendimento automatico in India
III. Impatti regionali
IV. Conclusioni

4. L'intelligenza artificiale avanza nelle armi strategiche russe


I. Definizione di AI in Russia
II. Applicazioni dell'IA nei sistemi d'arma nucleare russi
III. Conclusioni

5. La prospettiva indiana sull'enorme potenziale di danno delle tecnologie militari avanzate


I. Tecnologie che possono cambiare le guerre future
II. Ricerca e sviluppo di tecnologie emergenti per applicazioni militari in India
III. Conclusioni

Seconda parte. L'impatto dell'intelligenza artificiale militare sulla strategia

6. Intelligenza artificiale e stabilità strategica in Asia meridionale: nuovi cavalli per un vecchio carro?
I. Il concetto di stabilità strategica nella guerra fredda
II. Stabilità strategica in Asia meridionale
III. L'arrivo dell'IA nelle dinamiche di escalatory regionale
IV. Conclusioni

7. Applicazioni militari dell'intelligenza artificiale in Pakistan e impatto sulla stabilità strategica


nell'Asia meridionale
I. AI e sistema di comando e controllo nucleare del Pakistan
II. Vantaggi e rischi dell'IA per la stabilità strategica in Asia meridionale
III. Conclusioni
Parte III. Misure di controllo degli armamenti e di rafforzamento della fiducia nel settore
dell'intelligenza artificiale e delle armi nucleari

8. Un divieto preventivo sui sistemi d'arma autonomi letali


I. Problemi inerenti ai sistemi d'arma autonomi letali
II. Divieto di sviluppo, produzione e uso di armi autonome

9. Armi autonome nel contesto dell'Asia meridionale: rischi e contromisure


I. Armi autonome e contesto dell'Asia meridionale
II. Misure di rafforzamento della fiducia e riduzione del rischio nucleare
III. Conclusioni

Conclusioni

10. Le opportunità e i rischi dell'intelligenza artificiale per la stabilità strategica nell'Asia meridionale
I. Lo stato di adozione dell'IA militare in Asia meridionale
II. L'impatto dell'IA sulla stabilità strategica nell'Asia meridionale
III. Misure di controllo degli armamenti e di rafforzamento della fiducia nel settore dell'IA e delle armi nucleari
IV. Osservazioni finali

Riguardo agli Autori


Prefazione

Il panorama strategico globale del dopo guerra fredda è attualmente in un lungo processo di ridisegno. Molte
tendenze diverse sono in gioco qui. È importante sottolineare che le dinamiche sottostanti dell'ordine mondiale
si stanno spostando con l'ascesa economica, politica e militare della Cina, la riaffermazione da parte della
Russia di un grande ruolo di potere e il disincanto dell'attuale amministrazione degli Stati Uniti verso le
istituzioni internazionali che questo paese ha avuto una mano importante nella creazione.
Come risultato di queste tendenze, una giustapposizione nucleare binaria russo-statunitense, un'eredità del
vecchio confronto sovietico-americano, viene gradualmente aumentata da competizioni nucleari regionali.
Mentre il quadro di controllo degli armamenti che l'Unione Sovietica e gli Stati Uniti hanno creato alla fine della
guerra fredda si disintegra, l'impegno dei due stati con i più grandi arsenali nucleari a perseguire la stabilità
strategica attraverso il controllo degli armamenti e il disarmo è in dubbio a un livello senza precedenti.
A ciò si aggiunge l'impatto dei nuovi sviluppi tecnologici. Il mondo sta attraversando una "quarta rivoluzione
industriale", caratterizzata da rapidi e continui progressi in molteplici tecnologie tra cui intelligenza artificiale
(AI), robotica, tecnologia quantistica, nanotecnologia, biotecnologia e fabbricazione digitale. La domanda su
come verranno utilizzate queste tecnologie non è stata ancora completamente risolta. È fuori discussione,
tuttavia, che gli stati dotati di armi nucleari cerchino di sfruttare queste tecnologie per la loro sicurezza
nazionale.
Il potenziale impatto di questi sviluppi sulla stabilità strategica e sul rischio nucleare non è stato ancora
documentato e analizzato sistematicamente. Il progetto SIPRI "Mappatura dell'impatto dell'apprendimento
automatico e dell'autonomia sulla stabilità strategica" è un primo tentativo di presentare un'analisi sfumata di
quale impatto lo sfruttamento dell'IA potrebbe avere sui paesaggi strategici globali e regionali. Questo volume
modificato sulle prospettive dell'Asia meridionale è la terza pubblicazione principale di questo progetto di
ricerca biennale. Gli autori sono esperti provenienti da India, Paesi Bassi, Pakistan, Russia e Sri Lanka.
Questo volume è stato preceduto da volumi sulle prospettive euro-atlantiche e dell'Asia orientale e sarà
seguito da un rapporto finale.
Il SIPRI raccomanda questo studio ai responsabili delle decisioni nel campo del controllo degli armamenti,
della difesa e degli affari esteri, ai ricercatori e agli studenti nei dipartimenti di politica, relazioni internazionali e
informatica, e ai membri del pubblico in generale che hanno un interesse professionale e personale nel
soggetto.

Dan Smith
Direttore, SIPRI
Stoccolma, aprile 2020
Ringraziamenti

Esprimo la mia sincera gratitudine alla Carnegie Corporation di New York per il suo generoso sostegno
finanziario a questo progetto, e alla Pathfinder Foundation per aver co-ospitato con SIPRI il terzo workshop di
progetto dal 25 al 26 febbraio 2019 a Colombo.
Sono anche in debito con tutti gli studiosi che hanno partecipato a questo seminario e hanno accettato di
contribuire a questo volume. I saggi che seguono si basano sulle presentazioni fornite durante il workshop. Le
opinioni espresse nei saggi sono quelle degli autori e non devono essere interpretate in modo da riflettere le
opinioni di SIPRI, Carnegie Corporation o Pathfinder Foundation.
Sono anche grato ai miei colleghi SIPRI, il dott. Vincent Boulanin, la dott.ssa Lora Saalman e Pieter D.
Wezeman per i loro commenti esaurienti e costruttivi sulla bozza del volume, e la redazione del SIPRI per il
suo prezioso lavoro.

Petr Topychkanov
Abbreviazioni

AI = intelligenza artificiale
ASAT = Anti-satellite (arma)
ATR = Riconoscimento automatico del bersaglio
BMD = Difesa contro i missili balistici
CAIR = Center for Artificial Intelligence and Robotics (of India)
CCW = (Convenzione su) alcune armi convenzionali
CBM = misura di rafforzamento della fiducia
DRDO = Defense Research and Development Organization (of India)
FCAS = Future Combat Air System
ICBM = missile balistico intercontinentale
IHE = alto esplosivo insensibile
ISR = Intelligence, sorveglianza e ricognizione
LEGGI = Sistemi d'arma autonomi letali
MEMS = Sistemi microelettromeccanici
nEM = materiale nanoenergetico
NC3 = Comando, controllo e comunicazioni nucleari
N/MEMS = Sistemi nano e microelettromeccanici
NRRC = Nuclear Risk Reduction Center (degli Stati Uniti)
R&D = Ricerca e sviluppo
SPD = Divisione Piani Strategici (del Pakistan)
SRF = Strategic Rocket Forces (della Russia)
SSBN = sottomarino missilistico balistico a propulsione nucleare
UAV = Veicolo aereo senza pilota
UN = Nazioni Unite
UUV = Veicolo subacqueo senza pilota
WMD = Armi di distruzione di massa
Sintesi

La rinascita in corso dell'intelligenza artificiale (AI) sta rimodellando il mondo. Proprio come molti altri paesi in
via di sviluppo, India e Pakistan, i due stati con armi nucleari dell'Asia meridionale, stanno esplorando le
successive opportunità di cambiamento economico e sociale. I loro leader politici sembrano dare la priorità
alle applicazioni civili dell'IA rispetto a quelle militari e l'attenzione pubblica riflette le priorità politiche. Gli sforzi
nazionali per militarizzare l'IA non ricevono la stessa copertura pubblica degli sviluppi dell'IA civile.
Nel frattempo, secondo le informazioni open source disponibili, India e Pakistan sono sempre più interessati ai
potenziali benefici dell'IA per la difesa e la sicurezza. Questo potrebbe essere uno dei motivi per cui negli
ultimi anni è iniziato un dibattito di esperti sulle opportunità e sui rischi posti dalla rinascita dell'IA nel regno
militare. Tuttavia, il dibattito soffre di ampie lacune, in particolare nella discussione emergente sul potenziale
impatto dell'IA sulla stabilità strategica e sul rischio nucleare nell'Asia meridionale. Questo problema è stato
sottoesplorato dagli studiosi che studiano l'Asia meridionale sia dall'interno che dall'esterno della regione.
Questo volume modificato - che segue i volumi precedenti sulle prospettive euro-atlantiche e dell'Asia
orientale - cerca di colmare le lacune nel dibattito accademico su questo importante argomento e di facilitare
un ulteriore dibattito regionale. Si basa su un seminario tenutosi a Colombo nel febbraio 2019. Gli otto
collaboratori esperti - dell'Asia meridionale e di tutto il mondo - riflettono la varietà di questioni, approcci e punti
di vista.
È chiaro da uno studio comparativo sullo stato di adozione dell'IA nell'Asia meridionale che India e Pakistan
stanno recuperando terreno nella competizione mondiale sull'IA militare. Rispetto a Stati Uniti, Cina e Russia, i
progressi dell'India sono modesti, mentre quelli del Pakistan sono ancora meno visibili. Uno dei motivi sembra
essere la scarsità di risorse e le inefficienze nella ricerca nel settore della difesa e nelle industrie statali.
Questi vietano lo sviluppo e l'adozione di tecnologie emergenti entro un lasso di tempo ragionevole.
Tuttavia, secondo i contributori dell'India e del Pakistan, entrambi i paesi sono ben consapevoli del significato
strategico dell'IA. Vedono l'IA come uno dei tanti fattori abilitanti del reciproco equilibrio strategico. L'India deve
anche prendere in considerazione il ruolo dell'IA nel potenziamento militare della Cina, una delle sue
preoccupazioni per la sicurezza a lungo termine.
Nel valutare il significato strategico dell'IA, i collaboratori esperti, indipendentemente dalla loro origine,
concordano sul fatto che l'IA è un'arma a doppio taglio. Da un lato, l'intelligenza artificiale potrebbe migliorare il
comando e il controllo nucleare, il preallarme, la sorveglianza e la ricognizione dell'intelligence (ISR) e la
sicurezza fisica delle capacità nucleari, tra le altre aree. In questo modo migliorerebbe il senso di sicurezza
degli Stati. D'altra parte, gli stessi progressi potrebbero mettere in dubbio la sopravvivenza delle loro rispettive
capacità di secondo colpo. Questo dubbio stimolerebbe posture nucleari più aggressive che potrebbero
aumentare il rischio nucleare.
Esistono diversi scenari in cui le armi abilitate all'IA potrebbero essere coinvolte nelle dinamiche di escalation
in Asia meridionale. Dato che ci sono state poche applicazioni militari dell'intelligenza artificiale in India o in
Pakistan, i contributori non condividono l'opinione che l'uso di sistemi di intelligenza artificiale potrebbe
causare una guerra nucleare tra India e Pakistan o tra India e Cina, almeno per il prossimo futuro. . Tuttavia, la
maggior parte concorda sul fatto che l'introduzione dell'IA nelle capacità e nelle posizioni nucleari dell'India e
del Pakistan potrebbe influenzare la stabilità strategica nell'Asia meridionale. Per questo motivo, la maggior
parte dei contributori sostiene l'idea che gli stati dell'Asia meridionale dovrebbero intraprendere azioni per
ridurre il rischio nucleare.
La questione di come progettare questi passaggi è più divisiva. Per alcuni, la soluzione sta nello sviluppo di un
accordo internazionale legalmente vincolante che limiterebbe l'uso militare dell'IA. Altri sostengono che
l'elaborazione di misure di trasparenza regionale e di rafforzamento della fiducia sarebbe un'opzione più
fattibile. Un punto di partenza a loro avviso sarebbe quello di stabilire un dialogo regionale sulle dottrine e le
capacità nucleari che includerebbe una discussione sull'IA militare. Dato il successo di diversi dialoghi sulla
seconda traccia sulla sicurezza tra Cina, India e Pakistan, tale iniziativa sembra essere relativamente
realistica.
1. Introduzione

Petr Topychkanov

Questo volume esplora la questione di come l'intelligenza artificiale (AI) abbia un impatto sulla stabilità
strategica e sul rischio nucleare nell'Asia meridionale. A prima vista, questo è un argomento ristretto che ha
poco significato per questa regione. Quando le principali sfide alla sicurezza della regione riguardano le forze
nucleari e convenzionali e il terrorismo transfrontaliero, il ruolo delle tecnologie emergenti nei sistemi di armi
nucleari può sembrare marginale o almeno prematuro. Tuttavia, questa percezione è errata: la tecnologia
dell'informazione (IT), compresa l'IA, ha avuto un impatto sulla visione della sicurezza e della stabilità dei
paesi dell'Asia meridionale per diversi decenni. Più di 30 anni fa alla Conferenza sul disarmo a Ginevra, l'India
ha presentato le sue preoccupazioni riguardo alla combinazione di tecnologie emergenti e armi nucleari:

La combinazione dei più recenti progressi nel campo dell'elettronica con la letalità del potere
esplosivo nucleare si rivelerà mortale. Allo stesso tempo, le funzioni di [ricognizione],
sorveglianza, identificazione dei bersagli, valutazione delle uccisioni e valutazione vengono
riprogettate per fare un uso maggiore di tutte le tecnologie satellitari e di altri sensori sofisticati e
l'elaborazione dei dati utilizzando computer di quinta generazione. Con tali implementazioni, i
sistemi di comando e controllo rischiano di diventare sempre più automatizzati. 1

A quel tempo, né l'India né il Pakistan erano uno stato dotato di armi nucleari. Successivamente hanno varcato
la soglia nucleare con test di armi nucleari nel 1998. Oggi in Asia meridionale, la concorrenza nucleare tra
India e Pakistan e tra India e Cina sta acquistando slancio. India e Pakistan stanno entrambi espandendo le
loro scorte di armi nucleari e stanno sviluppando nuovi sistemi di consegna come sottomarini con missili
balistici a propulsione nucleare (SSBN) e missili da crociera. 2 Stanno anche sviluppando tecnologie emergenti
come veicoli senza pilota e guerra informatica. L'IA militare gioca un ruolo significativo in molti di questi
sistemi.
In questo volume, i contributori descrivono gli attuali sviluppi nei dibattiti sulla tecnologia AI in Asia meridionale
ed esplorano le connessioni tra le tecnologie emergenti e i sistemi di armi nucleari in India, Pakistan e quei
paesi che sono significativi per la regione - come fonte di minaccia o di. tecnologia e idee. Come negli altri due
volumi di questa serie, l'analisi dei contributori si basa su tre concetti: AI, stabilità strategica e rischio nucleare
in relazione alla regione.3 Le discussioni sulla stabilità strategica e sul rischio nucleare tendono ad essere
specifiche per ciascuna regione , ma l'IA è comune a tutte le regioni.

Il termine "intelligenza artificiale" ha molti significati, essendo passato attraverso molte interpretazioni sin dagli
anni '50 ed essendo correlato a un ampio spettro di tecnologie e attività. In generale, questo volume segue la
comprensione dell'IA proposta nel primo volume di questa serie (vedi riquadro 1.1). La combinazione di AI e
stabilità strategica come argomento di interesse è apparsa negli studi accademici oltre 30 anni fa. 4 Tuttavia,
solo di recente l'interesse per questa combinazione si è diffuso nelle comunità accademiche ed esperte. Nella
maggior parte delle pubblicazioni, l'attenzione è rivolta ai paesi che hanno ottenuto progressi nelle applicazioni
militari dell'IA e delle tecnologie correlate, come gli Stati Uniti e la Cina. 5 Per gli studi dell'Asia meridionale,
questa combinazione è un oggetto di interesse di ricerca relativamente nuovo. 6
L'ampia gamma di pubblicazioni sulla stabilità strategica nell'Asia meridionale mostra diverse prospettive tra gli
studiosi sul significato di stabilità strategica, piuttosto che una visione condivisa. 7 Una delle questioni
attivamente dibattute in letteratura è se si applica la stabilità strategica come durante la guerra fredda alle
relazioni tra gli stati dotati di armi nucleari nell'Asia meridionale. Se la stabilità strategica è intesa in termini di
stabilità al primo colpo - quando i leader di entrambe le parti non hanno motivo di fare il primo attacco nucleare
e non si aspettano il primo attacco dall'altra parte - allora il concetto potrebbe ancora applicarsi all'Asia
meridionale oggi. Tuttavia, esiste una più ampia comprensione della stabilità strategica che riflette le realtà
dell'era post-guerra fredda.8
Questo concetto più ampio sembra avere un'applicazione limitata in Asia meridionale.

Riquadro 1.1. Definizioni chiave

Intelligenza artificiale
L'intelligenza artificiale è un termine generico che si riferisce a un ampio insieme di tecniche computazionali che
consentono a computer e robot di risolvere problemi complessi e apparentemente astratti che in precedenza
avevano ceduto solo alla cognizione umana.

Sistemi d'arma nucleare


I sistemi d'arma nucleare dovrebbero essere intesi nel senso più ampio. Includono non solo le testate nucleari e i
sistemi di consegna, ma anche tutti i sistemi legati alla forza nucleare come i sistemi di comando e controllo
nucleari, i sistemi di allerta precoce e i sistemi di intelligence, ricognizione e sorveglianza. Le armi strategiche non
nucleari rilevanti includono missili ad alta precisione a lungo raggio, veicoli aerei da combattimento senza pilota
(UCAV) e sistemi di difesa contro i missili balistici.

Stabilità strategica
La stabilità strategica ha molte definizioni. Viene qui inteso come "uno stato di cose in cui i paesi sono fiduciosi
che i loro avversari non sarebbero in grado di minare la loro capacità di deterrenza nucleare" utilizzando mezzi
nucleari, convenzionali, informatici o altri mezzi non convenzionali. a

a
Podvig, P., "Il mito della stabilità strategica", Bulletin of the Atomic Scientists, 31 ottobre 2012.

Fonte: Boulanin, V., "Artificial intelligence: A primer", ed. V. Boulanin, The Impact of Artificial Intelligence on
Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic Perspectives (SIPRI: Stoccolma, maggio 2019), p. 13.

Il rischio nucleare in Asia meridionale ha ricevuto meno attenzione rispetto alla stabilità strategica nella
letteratura accademica ed esperta. Una possibile ragione è che il termine "rischio nucleare" manca di un
contesto esplicito perché viene utilizzato sia nei settori delle armi nucleari e della non proliferazione sia in
relazione alla sicurezza nucleare e alle violazioni della protezione.
I ricercatori in India e Pakistan generalmente evitano di esplorare le possibilità dell'uso di armi nucleari e le
violazioni della sicurezza e della protezione nucleare nei propri paesi perché possono essere visti come
esponenti di vulnerabilità.
Sebbene questo volume utilizzi liberamente il termine "Asia meridionale", la sua portata è criticata nella
letteratura di ricerca, specialmente in India e in particolare nel contesto delle armi nucleari. 9 Per gli autori
indiani, questo termine, quando applicato alla stabilità strategica e al rischio nucleare, non comprende lo
spettro di minacce nucleari che l'India deve affrontare, la minaccia dalla Cina soprattutto. A rigor di termini, la
stabilità strategica nell'Asia meridionale descrive in modo più appropriato la situazione del Pakistan e la sua
dottrina nucleare incentrata sull'India; è meno appropriato descrivere il caso indiano di deterrenza nucleare
contro Cina e Pakistan.
In questo contesto, questo volume (e il progetto in generale) combina questi concetti e collega prospettive
globali e regionali, dimensioni tecnologiche e politiche, armi nucleari e capacità non nucleari che influenzano
gli equilibri tra possibili avversari e, ultimo ma non meno importante, le narrazioni in Stati dotati di armi nucleari
e stati senza armi nucleari.

Panoramica

Questo volume contiene otto saggi (capitoli 2-9) raggruppati in tre parti tematiche seguite da un capitolo finale
(capitolo 10) che riassume le principali conclusioni tratte dai saggi.
L'impatto dell'intelligenza artificiale sulle armi nucleari e sulla guerra

La parte I esplora gli sviluppi militari e tecnologici dell'IA che hanno il potenziale per cambiare il volto della
guerra, concentrandosi su India, paesi occidentali e Russia.
Nel capitolo 2, Maaike Verbruggen, ricercatrice di dottorato presso l'Istituto per gli studi europei di Bruxelles,
fornisce un'analisi delle diverse applicazioni dell'IA nelle forze nucleari e nelle tecnologie non nucleari che
potrebbero anche influenzare la stabilità strategica. La sua attenzione è sugli Stati Uniti e sui suoi alleati
europei. Sostiene che l'IA si sta integrando ampiamente negli SSBN e negli aerei con capacità nucleare. Nelle
tecnologie non nucleari - di proprietà degli stati con armi nucleari e degli stati senza armi nucleari allo stesso
modo - l'IA aumenta le capacità di rilevamento, la precisione e la velocità.
Questi progressi, se applicati alle armi nucleari, insieme rischiano di accelerare l'escalation della crisi.
Nel capitolo 3, Kritika Roy, analista ricercatore presso l'Institute for Defense Studies and Analyzes di New
Delhi, esplora i fattori relativi all'applicazione dell'autonomia e dell'apprendimento automatico nei sistemi di
armi nucleari, prestando particolare attenzione al caso dell'India. Afferma che, nonostante l'interesse dell'India
nell'integrare l'autonomia e l'apprendimento automatico nei suoi sistemi d'arma nucleare e convenzionale, è
improbabile che ciò accada presto a causa dei suoi processi di approvvigionamento avversi al rischio.
Nel capitolo 4, Dmitry Stefanovich, ricercatore presso l'Istituto Primakov di economia mondiale e relazioni
internazionali dell'Accademia delle scienze russa, analizza le applicazioni russe dell'IA nei suoi sistemi di armi
nucleari. Sostiene che l'IA è un'area essenziale per lo sviluppo militare russo, comprese le forze nucleari. La
Russia utilizza o prevede di utilizzare sistemi autonomi, apprendimento automatico e altre tecnologie correlate
al fine di migliorare la logistica e la manutenzione, i sistemi di allarme preventivo, i sistemi di comando,
controllo e comunicazione nucleare (NC3) e le capacità di combattimento.
Nel capitolo 5, Sanatan Kulshrestha, un contrammiraglio indiano in pensione, esamina l'enorme potenziale di
danno delle tecnologie militari avanzate. Delinea gli sviluppi in materiali nanoenergetici, sciami e
nanotecnologie e le loro applicazioni militari e poi descrive gli sforzi indiani per sviluppare tecnologie guidate
dall'intelligenza artificiale per scopi militari. Sostiene che la combinazione di queste tecnologie e
dell'intelligenza artificiale influenzerà lo sviluppo delle armi strategiche esistenti e potrebbe rendere possibile
causare danni devastanti simili a un attacco nucleare senza le radiazioni di accompagnamento.

L'impatto dell'intelligenza artificiale militare sulla stabilità strategica nell'Asia meridionale

La Parte II comprende due saggi che indagano sull'impatto che l'attuale o potenziale incorporazione dell'IA nei
sistemi militari, sia convenzionali che nucleari, potrebbe avere sulla stabilità strategica nell'Asia meridionale,
concentrandosi su India e Pakistan.
Nel capitolo 6, il presente autore, ricercatore senior presso SIPRI, descrive le caratteristiche della stabilità
strategica nell'Asia meridionale e identifica i potenziali effetti stabilizzanti e destabilizzanti dell'integrazione
dell'IA in vari aspetti dei sistemi d'arma nucleare.
Nel capitolo 7, Saima Aman Sial, un alto funzionario di ricerca presso il Center for International Strategic
Studies di Islamabad, esamina l'uso dell'IA nel comando e controllo nucleare del Pakistan. Sostiene che lo
sviluppo di dottrine preventive e il dispiegamento di una varietà di sistemi strategici offensivi e difensivi abilitati
dall'intelligenza artificiale possono avere effetti sia positivi che negativi sulla stabilità e sulla deterrenza
nucleare nell'Asia meridionale. Da un lato, potrebbe accentuare il rischio nucleare.
Dall'altro, potrebbe svolgere un ruolo stabilizzante, ad esempio, migliorando la consapevolezza della
situazione, potenziando i sistemi di allerta precoce e garantendo la credibilità della deterrenza nucleare. Nel
complesso, offre motivo di preoccupazione per quanto riguarda l'integrazione dell'IA e dell'apprendimento
automatico nei sistemi di armi nucleari.

Misure di controllo degli armamenti e di rafforzamento della fiducia nel settore dell'intelligenza artificiale e delle
armi nucleari
I due saggi della parte III offrono due diversi approcci alla questione della prevenzione e mitigazione del
rischio nucleare derivante dall'introduzione dell'IA nei sistemi d'arma nucleare. Il primo approccio si basa sulle
leggi umanitarie e sui diritti umani e il secondo sulle misure di rafforzamento della fiducia (CBM).
Nel capitolo 8, Yanitra Kumaraguru, docente presso la facoltà di giurisprudenza dell'Università di Colombo e
coordinatrice del braccio srilankese della campagna globale per fermare i robot assassini, spiega perché l'uso
di sistemi d'arma autonomi letali (LAWS) è contrario agli aiuti umanitari e umani leggi sui diritti. Delinea una
proposta di divieto dello sviluppo, della produzione e dell'uso di questi sistemi al fine di mantenere un controllo
umano significativo sulle funzioni critiche delle armi. Descrive inoltre gli strumenti legali di controllo delle armi
che possono aiutare a ridurre al minimo gli effetti destabilizzanti dell'integrazione dell'IA nei sistemi di armi
convenzionali e nucleari.
Nel capitolo 9, Malinda Meegoda, ricercatrice associata al Lakshman Kadirgamar Institute di Colombo, offre
una prospettiva dallo Sri Lanka, uno Stato non dotato di armi nucleari la cui sicurezza sarà compromessa in
caso di crisi nucleare tra Cina, India e Pakistan. Evidenzia le differenze nell'attuale contesto di sicurezza
nucleare dell'Asia meridionale rispetto ad altri rapporti nucleari geostrategici avversari, come quello tra
l'Unione Sovietica e gli Stati Uniti durante la guerra fredda. Propone una varietà di CBM che possono in parte
aiutare a gestire gli scenari di crisi nell'Asia meridionale, compresa l'istituzione di centri di riduzione del rischio
nucleare e la creazione di un accordo sugli incidenti in mare.
Il volume si conclude nel capitolo 10 con una sintesi delle principali conclusioni tratte dai saggi. In particolare,
il capitolo discute la misura in cui i partecipanti concordano sulle opportunità e sui rischi che la rivoluzione
dell'IA porta nel campo dei sistemi di armi nucleari e della stabilità strategica nel contesto dell'Asia
meridionale.

1. Singh, K. N., Ministro indiano per gli affari esteri, Dichiarazione nella plenaria della Conferenza sul disarmo, Ministero
indiano per gli affari esteri, Documento degli affari esteri, vol. 34, n. 1 (gennaio 1988), p. 74.
2. Kile, S. N. e Kristensen, H. M., "Forze nucleari indiane" e "Forze nucleari pakistane", SIPRI Yearbook 2019: Armaments,
Disarmament and International Security (Oxford University Press: Oxford, 2019), pp. 325–31 e pagg. 332–37.
3. Boulanin, V. (ed.), The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic
Perspectives (SIPRI: Stoccolma, maggio 2019); e Saalman, L. (a cura di), The Impact of Artificial Intelligence on Strategic
Stability and Nuclear Risk, vol. II, Prospettive dell'Asia orientale (SIPRI: Stoccolma, ottobre 2019).
4. Din, A. M. (a cura di), Arms and Artificial Intelligence: Weapons and Arms Control Applications of Advanced Computing
(SIPRI: Stockholm, 1987).
5. Altmann, J. e Sauer, F., "Sistemi d'arma autonomi e stabilità strategica", Survival, vol. 59, n. 5 (2017), pagg. 117-42; Geist,
E. e Lohn, A. J., How Might Artificial Intelligence Affect the Risk of Nuclear War?, Perspectives series, 24 aprile 2018 (RAND
Corporation: Santa Monica, 2018); Fitzpatrick, M., "Intelligenza artificiale e comando e controllo nucleare", Blog di Survival
Editor, International Institute for Strategic Studies, 26 aprile 2019; Saalman, L., "Fear of false negative: AI and China’s nuclear
posture", Bulletin of the Atomic Scientists, 24 aprile 2018; e Sharikov, P., "Intelligenza artificiale, attacco informatico e armi
nucleari: una combinazione pericolosa", Bulletin of the Atomic Scientists, vol. 74, n. 6 (2018), pagg. 368–73.
6. Vedi ad es. Ahmad, K., "Intelligenza artificiale e futuro della guerra", Centro per la ricerca strategica e contemporanea, 2
settembre 2018; Arif, S., "Tendenze emergenti dell'intelligenza artificiale nell'Asia meridionale e le sue implicazioni per il
Pakistan", NUST Journal of International Peace and Stability, vol. 2, no. 2 (luglio 2019), pp. 55-66; Khan, M., "Impatto delle
tecnologie emergenti sulla stabilità strategica dell'Asia meridionale", Strategic Studies Institute Islamabad, 28 dicembre 2019;
Kumar, A., "AI - nuclear menace: Emerging trends", Center for Land Warfare Studies, 13 febbraio 2019; Pant, A., Future
Warfare and Artificial Intelligence: The Visible Path, Institute for Defense Studies and Analyzes (IDSA) Occasional Paper no.
49 (IDSA: New Delhi, 2018); Pant, H. V. e Joshi, Y., "Tecnologie emergenti e deterrente nucleare indiano", War Fare, Observer
Research Foundation, 5 febbraio 2019; e Rajagopalan, R. P., "Managing Nuclear Risk: The Emerging Technologies
Challenge", The Diplomat, 24 maggio 2019.
7. Ad esempio Cheema, Z. I., Deterrenza nucleare indiana: la sua evoluzione, sviluppo e implicazioni per la sicurezza dell'Asia
meridionale (Oxford University Press: Karachi, 2010); Ganguly, Š. e Kapur, P., India, Pakistan, and the Bomb: Debating
Nuclear Stability in South Asia (Columbia University Press: Delhi, 2010); Gregory, S., Rethinking Strategic Stability in South
Asia, South Asian Strategic Stability Institute (SASSI) Research Report no. 3 (SASSI: Bradford, settembre 2005); Krepon, M. e
Gagné, C. (a cura di), The Stability - Instability Paradox: Nuclear Weapons and Brinksmanship in South Asia, Stimson Center
Report no. 38 (Stimson Center: Washington, DC, giugno 2001); Sahgal, A., Examining Efficacy of Strategic Stability in South
Asia: An Analysis, Sandia Report no. SAND2019-0177 (Sandia National Laboratories: Albuquerque, 1 gennaio 2019); e
Topychkanov, P., Nuclear Weapons and Strategic Security in South Asia, Working Paper no. 3 (Carnegie Moscow Center:
Mosca, 2011).
8. Arbatov, A., Dvorkin, V., Pikaev, A. e Oznobishchev, S., Strategic Stability after the Cold War (Institute of World Economy
and International Relations (IMEMO): Moscow, 2010), p. 8.
9. Ad esempio Nayan, R., "Nuclear India and the global nucleare order", Strategic Analysis, vol. 42, n. 3 (2018), pag. 235.
Parte I. L'impatto dell'intelligenza artificiale sulle armi nucleari
e sulla guerra

I quattro saggi nella prima parte del volume esplorano gli sviluppi militari e tecnologici nell'intelligenza
artificiale (AI) che hanno il potenziale per cambiare il volto della guerra. Gli autori esplorano quattro domande:
quali tipi di applicazioni basate sull'intelligenza artificiale si possono trovare nei sistemi d'arma militari,
comprese le capacità di deterrenza nucleare? In che modo i recenti progressi nell'intelligenza artificiale,
nell'apprendimento automatico e nell'autonomia possono essere utilizzati nelle capacità di comando e
controllo, offesa strategica e difesa e deterrenza non nucleare? Che posto danno India, Pakistan, Russia e
Stati Uniti e i suoi alleati europei all'IA e ad altre tecnologie emergenti nei loro piani di modernizzazione
militare? Infine, quale impatto, sia positivo che negativo, avranno questi sviluppi sugli Stati dotati di armi
nucleari e sui loro vicini?
Maaike Verbruggen esamina i casi degli Stati Uniti e di alcuni dei suoi alleati europei nel capitolo 2. Dmitry
Stefanovich risponde a queste domande per il caso della Russia nel capitolo 4. Kritika Roy e Sanatan
Kulshrestha offrono la prospettiva indiana su queste domande nei capitoli 3 e 5 , rispettivamente. Mentre il
capitolo 4 si concentra sul caso specifico russo, i capitoli 2, 3 e 5 descrivono tendenze più ampie nella ricerca
e sviluppo militare dell'IA e delle relative tecnologie emergenti.

Petr Topychkanov
2. L'ampio ruolo dell'intelligenza artificiale nella
trasformazione militare ma aike verbruggen

C'è un interesse diffuso in tutto il mondo nello sviluppo dell'intelligenza artificiale (AI) per scopi militari.
Esistono progetti di ricerca per sviluppare l'intelligenza artificiale per quasi tutte le applicazioni militari
immaginabili, dal supporto di operazioni non di combattimento al dominio strategico. L'intelligenza artificiale è
una tecnologia generica che non è autonoma ma migliora o aggiunge funzionalità quando integrata in sistemi
militari.
In quanto tale, lo sforzo di ricerca e sviluppo (R&S) sulle applicazioni militari dell'IA è molto più ampio degli
sforzi faro per condurre la ricerca fondamentale sull'IA. In pratica, la ricerca e lo sviluppo sull'intelligenza
artificiale è integrata in progetti di ricerca e sviluppo militari su tutto lo spettro. Data l'ampia gamma di possibili
applicazioni dell'IA, il suo impatto sulla stabilità strategica va ben oltre la sua integrazione nelle sole armi
nucleari.
L'uso dell'IA nei sistemi militari non è un cambiamento rivoluzionario. Molte applicazioni, come il supporto
decisionale di comando e controllo, sono in uso da decenni. Tuttavia, la funzionalità dell'IA sta migliorando e
svolgerà un ruolo sempre più importante nelle operazioni quotidiane. Ciò pone rischi ben documentati come
l'eccessiva fiducia e la scarsa fiducia nelle macchine, difficoltà nel passaggio tra i diversi livelli di
coinvolgimento umano quando sorgono calamità, vulnerabilità nella sicurezza informatica e pregiudizi negli
algoritmi.1 I rischi dell'IA non si limitano al suo anche l'uso nei sistemi di armi nucleari e l'IA nelle tecnologie
militari non nucleari potrebbero influenzare il dominio nucleare.
Per valutare l'impatto dell'IA sulla stabilità strategica e sul rischio nucleare, questo saggio utilizza un'ampia
lente nell'esaminare il ruolo ampio che l'IA gioca nella trasformazione militare. Per prima cosa (nella sezione I)
esamina le applicazioni dell'IA nei sistemi di rilascio per armi nucleari e poi (nella sezione II) si rivolge all'IA
nelle tecnologie militari non nucleari.

I. AI nei sistemi di lancio di armi nucleari

Nei paesi occidentali in prima linea nella ricerca e sviluppo dell'IA per i militari, l'IA gioca un ruolo importante
nel miglioramento e nello sviluppo di forze aeree e navali con capacità nucleare. Ad esempio, Francia, Regno
Unito e Stati Uniti stanno sviluppando nuove classi di sottomarini missilistici balistici a propulsione nucleare
(SSBN): rispettivamente lo SNLE 3G (ovvero SSBN di terza generazione), la classe Dreadnought e la classe
columbia.2 Si prevede che il Dreadnought entrerà in servizio alla fine degli anni '20 e le altre due classi
all'inizio degli anni '30. 3 L'IA giocherà un ruolo significativo nella navigazione e nel controllo di questi
sottomarini, nonché nel miglioramento del rilevamento subacqueo. 4
Anche gli Stati Uniti e la Francia stanno entrambi investendo nei loro aerei con capacità nucleare, dove anche
l'IA è ampiamente utilizzata. Ad esempio, gli Stati Uniti stanno sviluppando il bombardiere strategico B-21
Raider, che dovrebbe entrare in servizio intorno al 2025, modernizzando il suo bombardiere strategico B-2 e
rendendo il velivolo da combattimento F-35 dotato di capacità nucleare, entrambi già in servizio. 5 Insieme alla
Germania, la Francia ha annunciato piani per sviluppare il Future Combat Air System (FCAS), un aereo da
combattimento con capacità nucleare che dovrebbe entrare in servizio intorno al 2040, come parte del suo
piano Next-Generation Weapon Systems. 6 L'IA è integrata in una serie di diverse funzioni in questi aeromobili,
inclusi la navigazione e il controllo; subentrare in situazioni di emergenza; acquisire, filtrare e fondere i dati per
presentare al pilota le informazioni più rilevanti; suggerendo linee d'azione per eseguire le missioni; e
coordinandosi con altre piattaforme. L'FCAS è progettato per volare in una configurazione eterogenea con uno
sciame di veicoli aerei senza pilota (UAV), e sia il B-21 che l'FCAS saranno opzionalmente equipaggiati.
Tuttavia, sia la Francia che gli Stati Uniti hanno dichiarato che, per ora, tutte le missioni nucleari saranno
presidiate.7
II. AI nelle tecnologie militari non nucleari

L'intelligenza artificiale verrà utilizzata in molte più applicazioni militari rispetto alle armi nucleari e ai loro
sistemi di consegna. L'analisi dell'impatto dell'IA sulla stabilità strategica, nonché qualsiasi possibile misura
normativa per mitigare gli impatti negativi, dovrà tener conto delle tecnologie militari non nucleari. Il compito è
complicato dal fatto che le tecnologie militari non nucleari coprono un'ampia gamma di sistemi d'arma
sviluppati sia da stati dotati di armi nucleari che da stati senza armi nucleari. Questa sezione descrive varie
applicazioni non nucleari dell'IA, raggruppate in base ai vantaggi che l'IA può portare - capacità di rilevamento,
precisione, velocità, processo decisionale e accesso a domini di guerra - e le implicazioni di ciascuna
applicazione per la stabilità strategica.

AI per il rilevamento

L'intelligenza artificiale migliora le capacità di consapevolezza situazionale militare. Consente ai sistemi militari
di setacciare grandi quantità di dati al fine di trovare informazioni rilevanti, di fondere insieme i dati di diversi
sensori e di osservare se le situazioni sono cambiate. Queste capacità aumentano le possibilità di rilevare
oggetti e attività in tutti i domini della guerra.
Un'importante applicazione è nella guerra antisommergibile. L'intelligenza artificiale può aiutare a rilevare
oggetti sott'acqua attraverso un controllo più efficiente delle capacità, come il sonar attivo a bassa frequenza, il
rumore ambientale e sensori non acustici (ad es. Luci laser rimbalzanti). 8 Inoltre, l'intelligenza artificiale è utile
per mappare il fondale marino e tracciare le correnti, in modo che gli oceani diventino più trasparenti e
accessibili.9
l'applicazione della formica consiste nell'analisi delle immagini satellitari; ad esempio, per rilevare la
costruzione militare, il trasporto di lanciatori mobili o le modifiche alle installazioni militari. 10
L'occultamento è uno dei metodi principali per gli stati dotati di armi nucleari per garantire la sopravvivenza
delle loro armi nucleari. 11 Questo è un pilastro fondamentale delle politiche di deterrenza nucleare. Russia,
Regno Unito e Stati Uniti fanno affidamento sugli SSBN, che sono difficili da rilevare sott'acqua, per garantire
la capacità di un secondo colpo. 12 Tuttavia, i sistemi di rilevamento avanzati nei domini navale e aereo
possono erodere le politiche di occultamento.
Un paese potrebbe essere più propenso a lanciare un primo attacco se si sente sicuro di poter rilevare e
distruggere gli asset nucleari del suo avversario o se ha paura che l'avversario possa distruggere i suoi asset
in uno scenario di "usalo o perderlo". 13

AI per precisione

L'intelligenza artificiale consente di mirare con maggiore precisione. I miglioramenti nella selezione e nel
tracciamento di un bersaglio, anche mentre sia l'arma che il bersaglio sono in movimento, possono aumentare
notevolmente la letalità delle armi convenzionali esistenti. Ciò che queste armi convenzionali potenziate
dall'intelligenza artificiale mancano di potere distruttivo rispetto alle armi nucleari, compensano con precisione.
Questo apre il loro uso nelle operazioni di controforza per colpire lanciatori nucleari rinforzati, che fino ad ora
avevano bisogno di armi nucleari per violare le loro difese. 14 La maggiore precisione contro i bersagli in
movimento consente anche l'uso di armi antisommergibili a una distanza maggiore rispetto a quanto possibile
in precedenza.15 Ciò aumenta il valore strategico delle armi convenzionali (specialmente in convergenza con
altre tecnologie come l'ipersonica), alterando così l'equilibrio convenzionale-nucleare.
AI per la velocità

La terza qualità dell'IA è la velocità: le macchine potenziate dall'IA possono rispondere molto più velocemente
degli umani. Un esempio è il riconoscimento automatico dei bersagli (ATR), che è stato utilizzato per decenni
nei sistemi di difesa aerea come i sistemi Aegis e Patriot. 16 Tuttavia, mentre i progressi nell'IA probabilmente
continueranno a migliorare progressivamente le capacità di difesa aerea esistenti, in particolare nel regno dei
sensori, non ci sono indicazioni che gli attuali progressi nell'IA miglioreranno fondamentalmente la difesa
aerea a tal punto da alterare le relazioni strategiche. 17 Più importante potrebbe essere l'effetto dell'IA nelle
armi convenzionali. È possibile che a un certo punto solo le armi autonome saranno abbastanza veloci da
rispondere ad altre armi autonome. Ciò potrebbe rendere necessario che tutti i paesi sviluppino tali armi,
portando a una corsa agli armamenti destabilizzante.

IA e processo decisionale militare

L'uso dell'IA ha implicazioni per il processo decisionale militare. Se integrata nel software di pianificazione
logistica militare, l'intelligenza artificiale può ridurre drasticamente il tempo necessario per il dispiegamento
delle forze, come già dimostrato nella prima guerra del Golfo del 1990-1991. 18
Ciò rende disponibili le opzioni militari in un breve lasso di tempo senza precedenti. Se la velocità del conflitto
aumenta, c'è meno tempo per la consultazione e il contributo dei responsabili delle decisioni civili. I leader
militari potrebbero perdere la possibilità di riflettere attentamente e lasciare che prevalgano le teste più fredde.
L'intelligenza artificiale può essere utilizzata per generare immagini false altamente convincenti (ad es. Di
immagini satellitari della costruzione o del trasporto di lanciatori (mobili)), ingannando sia i militari che il
pubblico.19 Questo può portare all'indignazione del pubblico e alla richiesta di ritorsioni dal basso verso l'alto,
alimentato da grandi botnet che diffondono informazioni fuorvianti e creano la sensazione che l'indignazione
sia più ampia di quanto non sia in realtà. Anche se l'IA non è la causa principale, può esacerbare la difficoltà di
affrontare le crisi nell'ecosistema dell'informazione esistente. L'intelligenza artificiale potrebbe peggiorare la
pressione esistente sui responsabili delle decisioni in crisi. 20
Sia il processo decisionale accelerato che le decisioni basate sulla disinformazione possono portare
all'escalation della crisi in modo sempre più rapido, creando un ambiente strategico rischioso, potenzialmente
a livello globale.

AI per l'accesso a domini di guerra

L'intelligenza artificiale inoltre apre o migliora l'accesso a domini di guerra a cui in precedenza era difficile
accedere. Il dominio sottomarino è menzionato sopra come un dominio che diventerà più facile da penetrare
grazie all'IA. Altri domini difficili includono le regioni polari e lo spazio. Grazie all'intelligenza artificiale, i sistemi
senza pilota possono operare in ambienti estremamente ostili all'uomo, come lo spazio esterno o il fondale
marino al di sotto e intorno alla banchisa artica. I satelliti possono utilizzare l'intelligenza artificiale per navigare
nelle orbite più facilmente, evitare detriti spaziali e altri oggetti e condurre analisi geospaziali in tempo reale. 21
I sensori senza pilota nell'Artico possono monitorare il traffico di superficie, aereo e sottomarino. 22
In qualsiasi dominio, l'IA può essere utilizzata per pianificare missioni e monitorare lo stato dei sistemi e, se
necessario, effettuare riparazioni. Tuttavia, la tradizione degli stati dotati di armi nucleari fa affidamento
sull'inaccessibilità di questi regni per proteggere le proprie risorse nucleari. La Russia staziona una parte
significativa della sua flotta SSBN nell'Artico ei satelliti fanno parte dell'infrastruttura di comando, controllo e
comunicazione nucleare degli Stati Uniti (NC3).
Una migliore accessibilità aumenta la vulnerabilità degli impianti nucleari di stanza lì.
L'intelligenza artificiale svolge anche un ruolo importante nei domini della guerra cibernetica e della guerra
elettromagnetica, poiché tutte e tre le tecnologie sono altamente convergenti. L'intelligenza artificiale consente
al software dannoso di adattarsi a cyberdefence costantemente aggiornate e di testare nuovi metodi per
penetrare nei sistemi antagonisti. Ormai è chiaro che le tecnologie informatiche hanno un ruolo importante
nella stabilità strategica. Operazioni informatiche da intraprendere
i sistemi di difesa aerea oi missili diminuiscono l'affidabilità delle armi nucleari.
L'intelligenza artificiale è anche fondamentale per l'uso di armi elettromagnetiche, poiché setaccia grandi
quantità di dati e aiuta a trovare la frequenza ottimale per operare in uno spettro affollato. 23 Poiché queste armi
hanno effetti non cinetici, i leader potrebbero essere più propensi a usarle se ritengono che il loro uso sarà
meno intensivo rispetto alle armi con effetti cinetici. Un possibile utilizzo è disabilitare il comando, il controllo e
le comunicazioni condotte attraverso i satelliti. 24 Ciò aumenta il rischio di intrappolamento tra il regno
convenzionale e quello nucleare. Nella nebbia di guerra, ci sarà molta incertezza sulle intenzioni di attacchi
informatici ed elettromagnetici, creando un rischio di ritorsione con armi nucleari. 25

III. Conclusioni

L'intelligenza artificiale non è una tecnologia autonoma. È altamente convergente con altre tecnologie e i suoi
effetti dipendono dall'integrazione in altri sistemi. Ha una gamma incredibilmente ampia di applicazioni ed è
più accessibile della tecnologia nucleare. L'impatto dell'IA sulla stabilità strategica va quindi ben oltre il suo uso
in armi o installazioni nucleari. L'applicazione dell'IA alle tecnologie non nucleari aumenta le capacità di
rilevamento, rendendo le risorse nucleari più difficili da nascondere e proteggere dal primo attacco. Aumenta
anche la precisione di mira nelle armi convenzionali per consentirne l'uso contro SSBN e lanciamissili
rinforzati. Inoltre, aumenta la velocità del processo decisionale, il che rischia che gli Stati risalgano la scala
dell'escalation del conflitto. L'intelligenza artificiale apre anche nuovi domini geografici e virtuali della guerra,
creando nuove vulnerabilità per gli asset nucleari e aumentando la probabilità di ritorsioni.

1. Hawley, J. K., Patriot Wars: Automation and the Patriot Air and Missile Defense System, Voices from the Field series
(Center for a New American Security: Washington, DC, Jan 25, 2017); e Istituto delle Nazioni Unite per la ricerca sul disarmo
(UNIDIR), Algorithmic Bias and the Weaponization of Growingly Autonomous Technologies: A Primer, UNIDIR Resources no. 9
(UNIDIR: Ginevra, 2018).
2. Assemblea nazionale francese, Commissione per la difesa nazionale e le forze armate, "Audition de l'amiral Bernard-
Antoine Morio de l'Isle, commandant des force sous-marines et de la force Océanique stratégique (ALFOST)" [Audizione
dell'ammiraglio Bernard- Antoine Morio de l'Isle, comandante delle forze sottomarine e forza oceanica strategica (ALFOST)], 5
giugno 2019; Allison, G., "A guide to the Dreadnought class balistic missile submarine", UK Defense Journal, 24 ottobre 2017;
e "Dai sottomarini d'attacco alle spie: la US Navy chiede di più alla sua flotta sottomarina", Naval Technology, 12 dicembre
2018.
3. Vavasseur, X., "Ecco la prima immagine della prossima generazione di SSBN della Marina francese - SNLE 3G", Navy
Recognition, 3 ottobre 2018; e Szondy, D., "Rising tide: Submarines and the future of underwater warfare", New Atlas, 5 luglio
2017.
4. Clark, B., The Emerging Era in Undersea Warfare (Center for Strategic and Budgetary Assessments: Washington, DC, 22
gennaio 2015); Mukherjee, T., Securing the Maritime Commons: The Role of Artificial Intelligence in Naval Operations,
Observer Research Foundation (ORF) Occasional Paper (ORF: New Delhi, 16 luglio 2018).
5. Evans, D. e Schwalbe, J., The Long-Range Standoff (LRSO) Cruise Missile and Its Role in Future Nuclear Forces (John
Hopkins Applied Physics Laboratory: Laurel, ML, 2017).
6. Everstine, B., "L'aeronautica militare francese inizia la ricerca sugli aerei di sesta generazione", Air Force Magazine, 7
febbraio 2019.
7. Sayler, K. e Scharre, P., "The B-21 Bomber should be unmanned on day 1", Defense One, 31 maggio 2016; e Sprenger, S.,
"Con in mente le bombe nucleari, i funzionari francesi puntano sui must per gli aerei da guerra franco-tedeschi", Defense
News, 15 novembre 2018.
8. Wilson, J. R., "Technology comes to bear on radar and sonar", Military & Aerospace Electronics, 1 febbraio 2017.
9. Clark (nota 4).
10. Stewart, P., "Deep in the Pentagon, un programma segreto di intelligenza artificiale per trovare missili nucleari nascosti",
Reuters, 5 giugno 2018.
11. Lieber, K. A. e Press, D. G., "La nuova era della controforza: cambiamento tecnologico e futuro della deterrenza nucleare",
International Security, vol. 41, n. 4 (aprile 2017), p. 9.
12. Brixey-Williams, S., "L'Atlantico diventerà trasparente?", 3a edizione, British Pugwash, novembre 2016.
13. Vedi ad es. Rickli, J.-M., "Le prospettive destabilizzanti dell'intelligenza artificiale per la strategia nucleare, la deterrenza e
la stabilità", ed. V. Boulanin, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic
Perspectives (SIPRI: Stockholm, 2019), pp. 91–98, pagg. 94.
14. Koblentz, G., Strategic Stability in the Second Nuclear Age (Council on Foreign Relations: New York, novembre 2014).
15. Clark (nota 4).
16. Scheer, J. A. e Holm, W. A., "Introduzione e panoramica del radar", a cura di M. A Richards, J. A. Scheer e W. A. Holm,
Principles of Modern Radar: Basic Principles (SciTech Publishing: Raleigh, NC, 2010), pp. 46–47.
17. Judson, J. "Hyten: per affrontare le minacce missilistiche russe e cinesi, è tutta una questione di sensori", Defense News,
7 agosto 2018.
18. Hedberg, S. R., "DART: Revolutionizing Logistics Planning", IEEE Intelligent Systems, vol. 17, n. 3 (maggio / giugno 2002),
p. 81.
19. Tucker, P., "La più recente arma abilitata all'IA: foto della Terra" fasulle ", Defense One, 31 marzo 2019.
20. Three Tweets to Midnight: Nuclear Crisis Stability and the Information Ecosystem, Policy Dialogue Brief (Stanley
Foundation: Muscatine, IA, febbraio 2018).
21. Erwin, S., "La corsa agli armamenti dell'intelligenza artificiale che accelera nello spazio", SpaceNews, 3 maggio 2018.
22. Keller, J., "DARPA si avvicina all'industria per sensori senza pilota per monitorare il traffico terrestre, marittimo e aereo
artico", Military & Aerospace Electronics, 25 febbraio 2015.
23. Pomerleau, M., "La nuova intelligenza artificiale dell'esercito sta tagliando i campi di battaglia soffocati dai dati",
C4ISRNET, 20 dicembre 2018.
24. "La fonte rivela i dettagli tecnici del nuovo aereo da guerra anti-satellite russo", Sputnik, 9 luglio 2018.
25. Acton, J. M., "Escalation through entanglement: How the vulnerability of command-and-control raise the risk of an
involontent nucleare war", International Security, vol. 43, n. 1 (agosto 2018), pag. 56.
3. Razionali per introdurre l'intelligenza artificiale nel
programma di modernizzazione militare dell'India

Kritika roy

La miscela di autonomia e intelligenza artificiale (AI) è nota per moltiplicare l'efficacia di qualsiasi sistema
d'arma. La crescente popolarità dei sistemi autonomi intelligenti come area vitale di ricerca e sviluppo (R&S) è
dimostrata dall'obiettivo della Cina di diventare leader mondiale nel campo dell'IA e dalla rinnovata spinta degli
Stati Uniti alla tecnologia come terza strategia di offset. 1
L'India è consapevole della promessa delle tecnologie di intelligenza artificiale e apprendimento automatico.
Sebbene il paese abbia adottato un approccio più civile alla sua strategia nazionale di IA concentrandosi su
come `` sfruttare l'IA per la crescita economica, lo sviluppo sociale e la crescita inclusiva'', l'India sta ora
agevolando la ricerca e lo sviluppo verso un ecosistema militare guidato dall'intelligenza artificiale. 2 A giugno
Nel 2018 la Task Force AI del Ministero della Difesa ha presentato il suo rapporto finale, che includeva la
raccomandazione che l'India diventi `` una potenza significativa dell'IA nella difesa, in particolare nel settore
dell'aviazione, navale, sistemi terrestri, cyber, nucleare e biologico. guerra”. 3 Sebbene al momento non vi
siano indicazioni chiare che l'apprendimento automatico sarà integrato direttamente nei sistemi mission-
critical, tale integrazione non può essere esclusa nel futuro sviluppo militare. Ad esempio, l'India sta
utilizzando la sua crescente infrastruttura biotecnologica per sostenere la ricerca e lo sviluppo della difesa
biologica, compreso lo sviluppo di contromisure che vanno dai dispositivi di protezione ai farmaci ai vaccini. 4
L'integrazione dell'IA nel settore della biotecnologia per misure di rilevamento, diagnosi e decontaminazione
(ad esempio, l'utilizzo di veicoli terrestri senza pilota e robot in zone contaminate) può aiutare a rafforzare
l'architettura di biodefence indiana.
Questo saggio esamina prima (nella sezione I) i fattori rilevanti per l'applicazione dell'intelligence autonoma in
generale, poi (nella sezione II) gli sviluppi in India per esplorare la sua potenziale applicazione in aree
specifiche militari, e infine (nella sezione III) considerazioni regionali.

I. Fattori rilevanti per l'applicazione dell'autonomia e


dell'apprendimento automatico

Ci sono diversi fattori "centrali nel dibattito" sull'applicazione dell'autonomia e dell'apprendimento automatico
all'interno dei sistemi d'arma.5 Il termine "autonomia" in relazione alle macchine ha varie definizioni, ma la
comprensione generale è che significa "la capacità di una macchina di eseguire un compito previsto senza
l'intervento umano utilizzando l'interazione dei suoi sensori e dell'ambiente di programmazione del computer". 6
"Machine learning" è definito come "un approccio allo sviluppo del software che consiste nel costruire un
sistema in grado di apprendere e poi insegnargli cosa fare utilizzando una varietà di metodi". 7

Grado di coinvolgimento umano

Nelle discussioni sulle armi autonome, la posizione del processo decisionale umano - "in the loop", "on the
loop" o "out of the loop" - è oggetto di accesi dibattiti. 8 L'apprendimento automatico fornisce a una macchina la
capacità di eseguire le attività previste senza l'intervento umano in modi che vanno oltre il semplice stimolo -
automazione della risposta, ma non fornisce ancora alla macchina la capacità di prendere decisioni complesse
come un essere umano. In altre parole, questa tecnologia non è ancora maturata nella misura in cui potrebbe
eguagliare la profondità, la robustezza, la flessibilità e le dimensioni etiche della cognizione e dell'intuizione
umana che informano il processo decisionale umano.
Ad esempio, l'autonomia e l'apprendimento automatico possono essere integrati in sistemi missilistici offensivi
per migliorarne le prestazioni. Tuttavia, consentire a questi sistemi di prendere una decisione autonomamente
significa anche lasciare spazio all'errore, come nell'incidente del 1983, quando il tenente colonnello Stanislav
Petrov dell'Unione Sovietica decise di seguire i propri istinti piuttosto che le informazioni della macchina,
dichiarando un “falso allarme” e quindi scongiurare una crisi nucleare. 9

Compiti offensivi e difensivi

Un altro fattore importante nell'integrazione dell'autonomia e dell'apprendimento automatico all'interno di


qualsiasi sistema d'arma è se il sistema è destinato a svolgere compiti offensivi o difensivi. Questa è una
domanda potente se questa considerazione influenzerebbe la postura strategica di un avversario e la stabilità
strategica complessiva della regione.
Ad esempio, rendere i sistemi d'arma offensivi completamente autonomi può indurre un senso di paura
nell'avversario, che potrebbe quindi credere che effettuare un attacco preventivo sia la migliore difesa. 10 Allo
stesso tempo, sistemi autonomi intelligenti potrebbero essere utilizzati nei sistemi di difesa missilistica. in
modo che il monitoraggio e la ritorsione immediata fossero in linea con la portata dell'attacco.

Tipo di target da coinvolgere

Un altro fattore rilevante per l'introduzione dell'autonomia e dell'apprendimento automatico nei sistemi d'arma
è il tipo di bersaglio; cioè, il sistema d'arma prende di mira piattaforme militari, missili in arrivo o la popolazione
locale? Il livello di integrazione dell'autonomia all'interno di un sistema deve essere adeguato al target.
Ad esempio, l'intercettazione dei missili necessita di una risposta di ritorsione immediata e quindi un sistema
d'arma autonomo potrebbe agire come una forza positiva. Tuttavia, se il sistema viene utilizzato per prendere
di mira le popolazioni umane, devono essere messe in atto misure di sicurezza efficaci, poiché un piccolo
problema tecnico potrebbe portare a gravi vittime.

Tipo di ambiente strategico

Un altro fattore importante è l'ambiente strategico dello stato che sta integrando l'autonomia e l'apprendimento
automatico nei suoi sistemi d'arma, ovvero se lo stato è politicamente instabile o stabile, quanto sono sicure le
sue risorse strategiche, se il governo civile è dominante o il governo militare prevale.
I sistemi d'arma autonomi possono essere personalizzati per diversi tipi di governo. Ad esempio, un regime
militare potrebbe utilizzare un tale sistema per rafforzare la sua presa su popolazioni irrequiete. Uno stato
debole può essere tentato di adottare la tecnologia non solo per rafforzare il proprio potere, ma anche per
equipaggiare delegati come gruppi ribelli o terroristici. Inoltre, alcuni stati potrebbero fornire sistemi d'arma
autonomi ai terroristi, che potrebbero usarli per provocare il caos.
Prevedibilità delle prestazioni del sistema

Con i crescenti progressi nelle tecnologie, i sistemi ad alta velocità sono sempre più in grado di svolgere
compiti più complessi in configurazioni più complesse. Se l'apprendimento automatico viene applicato in questi
sistemi, potrebbero avere la capacità di modificare il loro "comportamento" in modi non previsti dai loro
sviluppatori.
Ad esempio, i bot sono stati utilizzati nel trading di azioni da un po 'di tempo poiché sono noti per eseguire uno
scambio in millisecondi e persino microsecondi. Il 6 maggio 2010 il Dow Jones Industrial Average ha registrato
inspiegabilmente una serie di cali che hanno portato a una perdita stimata di 1 trilione di dollari USA nel
mercato azionario statunitense. Sebbene il sistema bot fosse visto come una macchina di allocazione del
capitale efficiente e intelligente, quando questi bot iniziarono a interagire creavano comportamenti inaspettati
che portavano a un “flash crash”. 11 Immagina uno scenario simile in un campo di battaglia che utilizza sistemi
d'arma autonomi: qualsiasi comportamento inaspettato potrebbe portare a vittime di massa. 12
La difficoltà nel prevedere in anticipo i confini del comportamento dei sistemi autonomi intelligenti lo rende una
considerazione cruciale nell'applicazione dell'apprendimento automatico e dell'autonomia ai sistemi d'arma.

II. Applicazioni militari dell'autonomia e dell'apprendimento automatico


in India

I piani di modernizzazione militare dell'India hanno una prospettiva a lungo termine. 13 L'India è un'economia in
crescita e il suo obiettivo è sempre stato quello di utilizzare le sue risorse in modo ottimale e in modo
conveniente. L'implementazione dell'autonomia e dell'apprendimento automatico nei suoi sistemi militari
potrebbe avere il potenziale per cambiare il modo in cui operano le forze armate tradizionali, dalla formazione
e dalla gestione della logistica, attraverso la catena di comando allo spiegamento delle forze.
In effetti, è già stato svolto un lavoro sostanziale nell'implementazione dell'intelligenza artificiale nel settore
civile, con diverse società indiane che hanno acquisito una notevole esperienza in questo settore. 14 Non
richiederebbe quindi molti sforzi per trasferire la tecnologia, le conoscenze e le competenze già presenti nel
settore civile per soddisfare le esigenze militari, almeno a livello preliminare.
L'Organizzazione indiana per la ricerca e lo sviluppo della difesa (DRDO), che esamina le esigenze militari del
paese, ha svolto un lavoro nell'area ma ha ancora molta strada da fare. Ha istituito il Center for Artificial
Intelligence and Robotics (CAIR), un laboratorio dedicato per la ricerca basata sull'IA. Come suggerisce il
nome, la ricerca del CAIR si concentra principalmente sull'intelligenza artificiale, la robotica e i sistemi di
controllo intelligenti.15 Un risultato notevole del CAIR è il progetto di tecniche di intelligenza artificiale per Net
Centric Operations (AINCO), una suite personalizzata di tecnologie per la creazione di knowledge base,
semantica ricezione e trattamento delle informazioni, ragionamento sulle interferenze e correlazione degli
eventi”.16 Esiste anche una proposta per sviluppare una serie di robot intelligenti per scopi di intelligence,
sorveglianza e ricognizione (ISR). Questi avrebbero la capacità di navigare in ambienti semi-strutturati con la
capacità di rilevare i blocchi stradali e il feedback in tempo reale. Altre iniziative CAIR includono il progetto
MARF (Multi-Agent Robotics Framework), che include diversi tipi di robot come Wall Climber e Snake, e la
ricerca su applicazioni come il riconoscimento di immagini per il rilevamento e la classificazione dei bersagli. 17
Di seguito sono descritte alcune aree in cui l'applicazione dell'autonomia e dell'apprendimento automatico
avvantaggia attualmente i servizi militari indiani, insieme ad aree probabili per applicazioni future. 18
Nonostante i progressi dell'India in queste aree, l'integrazione dell'autonomia e dell'apprendimento automatico
all'interno di sistemi mission-critical richiederà ancora molti anni e probabilmente avrà bisogno di un'altra
rivoluzione nell'IA. Questo perché le procedure stabilite in India sono avverse al rischio, rendendo l'adozione di
nuove tecnologie militari relativamente lenta. Inoltre, l'autonomia e l'apprendimento automatico sono visti più
come modi collaborativi per migliorare l'efficacia dei sistemi esistenti che come soluzioni complete.
Capacità di intelligence, sorveglianza e ricognizione

Le capacità ISR sono un elemento chiave della consapevolezza della situazione. A questo proposito,
l'autonomia e l'apprendimento automatico potrebbero essere utilizzati per la raccolta e l'elaborazione
simultanea di dati da varie fonti. Ciò sarebbe estremamente utile nel monitoraggio in tempo reale dei dati in un
ambiente incentrato sulla rete, facilitando la visualizzazione dinamica degli eventi reali sul terreno. Le forze
armate indiane hanno già iniziato a utilizzare veicoli aerei senza pilota (UAV) per la ricognizione, la sicurezza
delle frontiere e il pattugliamento marittimo. Il DRDO ha progettato e sviluppato con successo molti UAV
versatili tra cui Nishant, Lakshya e Rustom. 19 Insieme a IdeaForge, il DRDO ha sviluppato Netra, un mini
quadricottero UAV utilizzato per operazioni di sorveglianza e ricognizione, che ha un sistema di navigazione e
guida autonomo.20
I dati ISR raccolti e raccolti utilizzando vari mezzi potrebbero essere analizzati utilizzando l'autonomia per
fornire intuizioni molto più approfondite, per aumentare le capacità umane o per dare agli esseri umani più
tempo per concentrarsi su importanti aspetti del processo decisionale. Il CAIR sta sviluppando un sistema
chiamato CIDSS (Command Information and Decision Support System) che faciliterebbe l'archiviazione, il
recupero, l'elaborazione (filtraggio, correlazione, fusione) e la visualizzazione dei dati tattici e fornirebbe un
supporto decisionale efficace ai comandanti al momento necessario. 21

Sistemi di preallarme e controllo

I sistemi di preallarme e controllo sono strumenti strategici vitali per rilevare le minacce in arrivo. L'autonomia
e l'apprendimento automatico potrebbero essere utilizzati per potenziare le capacità di rilevamento dei sistemi
di allerta precoce esistenti.
Himshakti è un sistema di guerra elettronica integrato sviluppato da DRDO.
Può essere utilizzato per la sorveglianza, l'analisi, l'intercettazione, il rilevamento della direzione, il rilevamento
della posizione, l'intelligence del segnale e il disturbo di tutti i segnali di comunicazione e radar proteggendo le
risorse elettroniche sul campo di battaglia. 22

Protezione dalle minacce informatiche

L'autonomia e l'apprendimento automatico possono essere impiegati per automatizzare il rilevamento delle
minacce e facilitare le capacità integrate per contrastare le minacce informatiche alle risorse strategiche di un
paese.23 Ad esempio, la tecnologia potrebbe essere utilizzata per riparare le vulnerabilità di un paese
sfruttando quelle del suo avversario.

Gestione delle risorse e supporto logistico

L'autonomia e l'apprendimento automatico possono essere utilizzati nella gestione delle risorse e nel
monitoraggio dell'inventario per consentire la creazione di una posizione centrale per inviare segnali quando
sono necessarie ispezioni e per indicare con precisione quali parti richiedono la riparazione.
Questa posizione centrale può anche inviare automaticamente segnali a una cella di produzione locale per
indicare altre esigenze (ad esempio requisiti di carburante) di un'unità. Lo svolgimento autonomo di tali attività
potrebbe consentire al personale di essere coinvolto in compiti più importanti.
Manutenzione predittiva

Il processo di rilevamento e diagnosi dei guasti potrebbe essere eseguito da sistemi autonomi per indicare
l'usura e anche per tenere traccia della manutenzione e di altri requisiti nei sistemi d'arma per garantire che
siano sempre pronti per la missione. In questo contesto, il CAIR ha sviluppato robot per test non distruttivi di
parti composite del suo aereo da combattimento leggero, l'HAL Tejas. 24

Simulazioni

L'autonomia e l'apprendimento automatico potrebbero essere impiegati per eseguire simulazioni e giochi di
guerra per scopi di formazione e ricerca e sviluppo. 25

III. Impatti regionali

L'India è affiancata da altri due Stati dotati di armi nucleari: Cina e Pakistan. È diffidente nei confronti della
modernizzazione in corso delle attuali forze nucleari cinesi e dell'arsenale in costante crescita del Pakistan,
che ora include armi nucleari tattiche e armi convenzionali. 26 Inoltre, l'approfondimento della partnership
strategica tra questi stati è una preoccupazione crescente per l'India. 27
Tuttavia, la regione è all'ombra del paradosso stabilità - instabilità (soprattutto nel caso India - Pakistan). 28 Ciò
evidenzia che, sebbene il possesso di armi nucleari abbia fermato una guerra totale tra i paesi, un conflitto
armato di bassa intensità o una guerra limitata non può essere escluso nemmeno in un futuro prevedibile. 29
Qualsiasi nuovo sviluppo nella regione - sia esso lo sviluppo di piccoli arsenali convenzionali, UAV o guerra
dell'informazione - sconvolge la stabilità regionale. Pertanto, l'introduzione dell'autonomia e dell'apprendimento
automatico nei sistemi militari si aggiunge alla profonda instabilità nella regione.
Se l'India facilita l'applicazione dell'autonomia e dell'apprendimento automatico in sistemi mission-critical come
sistemi di armi nucleari o sistemi missilistici, l'impatto sulla stabilità regionale potrebbe variare da positivo a
negativo.
Sul lato positivo, queste tecnologie possono aiutare a migliorare le capacità militari fornendo migliori
informazioni, potenziando la capacità decisionale e aumentando la velocità dell'impegno. Con ulteriori
progressi, le tecnologie potrebbero anche facilitare il monitoraggio dello sviluppo relativo alle armi nucleari,
condurre operazioni di verifica e rilevare attacchi informatici o intercettazioni di terze parti.
Sul lato negativo, queste tecnologie possono allo stesso tempo rappresentare una grave minaccia. Le stesse
capacità di rilevamento potrebbero portare a una corsa agli armamenti o possono dare una falsa percezione
delle capacità degli avversari, portando ad attacchi preventivi nella regione. Esiste anche una minaccia
credibile derivante dagli attacchi di spoofing umano o dall'avvelenamento dei dati, considerando che i dati
sono l'ingrediente centrale dell'apprendimento automatico. 30
IV. Conclusioni

L'India oggi segue una rivoluzione tecnologica nel modello degli affari militari dove da un lato il paese ha
messo in atto procedure e sistemi d'arma, mentre dall'altra c'è una R&S militare dedicata all'autonomia e
all'apprendimento automatico all'interno dei sistemi d'arma. Il consenso generale all'interno del paese è stato
che l'IA ha il potenziale per avere un impatto trasformativo sulla sicurezza nazionale e fornire superiorità
militare. Il rapporto del 2018 della Task Force AI del Ministero del Commercio e dell'Industria indiano afferma
che gli imperativi di sicurezza nazionale richiedono lo sviluppo di "moltiplicatori di forza basati sulla tecnologia"
e che "le aree in cui i sistemi basati sull'intelligenza artificiale potrebbero essere utilmente implementati" sono
sistemi di mitigazione degli attacchi e contrattacco ", sistemi di comunicazione adattivi, sorveglianza autonoma
e sistemi di combattimento e" sistemi decisionali basati sulla fusione di dati multi-sensore". 31 Tuttavia, il
processo di approvvigionamento militare avverso al rischio dell'India ostacolerà questa trasformazione.
Man mano che la tecnologia avanza e l'India adotta misure per applicare lentamente e costantemente
l'autonomia e l'apprendimento automatico per rafforzare le sue capacità difensive e offensive, la stabilità della
regione potrebbe subire alcune turbolenze in cui anche gli stati avversari, come Cina e Pakistan, lavorano
nella stessa direzione per sviluppare la capacità di deterrenza. Tuttavia, questi sviluppi tecnologici non sono i
soli responsabili dell'instabilità della regione.

1. Cadell, C. e Jourdan, A., "La Cina mira a diventare leader mondiale nell'IA, sfida gli Stati Uniti dominance ', Reuters, 20
luglio 2017; e Thomas-Noone, B., "Gli Stati Uniti giocano al recupero mentre il vantaggio tecnologico erode", The Strategist,
17 luglio 2018. Vedi anche Saalman, L., "Exploring artificial intelligence and unmanned platform in China", ed. L. Saalman,
The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. II, Prospettive dell'Asia orientale (SIPRI:
Stoccolma, ottobre 2019), pp. 43-47; e Stoutland, P., "Intelligenza artificiale e modernizzazione delle forze nucleari
statunitensi", ed. V. Boulanin, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic
Perspectives (SIPRI: Stockholm, 2019), pp. 63–67.
2. National Institution for Transforming India (NITI Aayog), National Strategy for Artificial Intelligence: #AIforall, Discussion
paper (NITI Aayog: New Delhi, giugno 2018), p. 7.
3. Ministero della Difesa indiano, Ufficio informazioni per la stampa, "La task force AI consegna il rapporto finale a RM",
comunicato stampa, 30 giugno 2018.
4. Nanjappa, V., "L'India non ha mai perseguito un programma offensivo di armi biologiche", Rediff, 21 dicembre 2012.
5. Questa sezione prende i suoi titoli dall'elenco dei fattori centrali in Gill, T. D., "Armi senza pilota e autonome: hanno lasciato
la legge alle spalle?", Presentazione, Università di Amsterdam e Accademia per la difesa dei Paesi Bassi, diapositiva 10.
6. Boulanin, V. e Verbruggen, M., Mapping the Development of Autonomy in Weapon Systems (SIPRI: Stoccolma, novembre
2017), p. vii. Vedi anche Boulanin, V., 'Artificial intelligence: A primer', ed. V. Boulanin, The Impact of Artificial Intelligence on
Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic Perspectives (SIPRI: Stockholm, 2019), pp. 13–25.
7. Boulanin e Verbruggen (nota 6), pag. 16.
8. Tucker, P., "Report: Weapons AI sempre più sostituendo, non aumentando, il processo decisionale umano", Defense One,
26 settembre 2016.
9. Irving, D., "Come l'intelligenza artificiale potrebbe aumentare il rischio di una guerra nucleare", RAND Corporation, 24 aprile
2018. Vedi anche Topychkanov, P., "Autonomy in Russian Nuclear Forces", ed. Boulanin (nota 6), pagg. 68-75, riquadro 8.2.
10. Klare, M. T., "Sistemi d'arma autonomi e leggi di guerra", Arms Control Today, vol. 49 no 2
(Marzo 2019).
11. Salmon, F. e Stokes, J., "Algorithms take control of Wall Street", Wired, 27 dicembre 2010.
12. Horowitz, M. C., "Intelligenza artificiale e stabilità nucleare", ed. Boulanin (nota 6), pagg. 80–83.
13. Dutta, A., "India’s defence modernization: Challenges and prospects", Indian Defense Review, 7 luglio 2016.
14. Sachitanand, R., "Ecco perché le aziende indiane stanno scommettendo in grande sull'intelligenza artificiale", Economic
Times (New Delhi), 10 febbraio 2019.
15. Sul CAIR vedere anche il capitolo 5 in questo volume.
16. Chakravorty, P. K., "Intelligenza artificiale e il suo impatto sulle forze armate indiane", Indian Defense Review, 5 maggio
2017.
17. Chakravorty (nota 16).
18. Reddy, R. S., "How AI can help the Indian Armed Forces", LiveMint, 5 marzo 2018.
19. Organizzazione indiana di ricerca e sviluppo per la difesa (DRDO), "Tecnologie e sistemi aerei senza pilota", Technology
Focus, vol. 18, no. 6 (dicembre 2010), p. 1.
20. Bhardwaj, V., "DRDO Netra mini unmanned aerial vehicle (UAV), quadcopter, Indian Armed Forces", AerMech.IN, 23
ottobre 2015.
21. Organizzazione indiana per la ricerca e lo sviluppo della difesa (DRDO), "Prodotti principali", [n.d.].
22. "Himshakti EW: India indigenous electronic warfare system", Indian Defense Update, 4 agosto 2018.
23. Seth, V., "Tecnologia antivirus informatica basata sull'intelligenza artificiale", Startup @ IITD, Indian Institute of Technology
Delhi, [n.d.].
24. Chakravorty (nota 16).
25. Pant, A., "Internet of things centricity of future military operations", Journal of Defense Studies, vol. 13, n. 2 (aprile - giugno
2019), p. 37.
26. Bommakanti, K. e Kelkar, A., "China’s military modernization: Recent trends", Observer Research Foundation (ORF) Issue
Brief no. 286, marzo 2019; e Ahmed, M., "Le armi nucleari tattiche del Pakistan e il loro impatto sulla stabilità", Regional
Voices on the Challenges of Nuclear Deterrence Stability in Southern Asia, Carnegie Endowment for International Peace, 30
giugno 2016.
27. Press Trust of India, "China to boost military Cooperation with Pakistan: Report", Economic Times (New Delhi), 12 luglio
2018.
28. La "stabilità - paradosso dell'instabilità" è la relazione inversa tra la probabilità di un conflitto militare nucleare e
convenzionale - dove ci sono due potenze nucleari, generalmente la probabilità di un conflitto nucleare diminuisce
all'aumentare del rischio di una guerra convenzionale. Allo stesso modo, con l'aumentare della probabilità di un conflitto
nucleare, il rischio di una guerra convenzionale diminuisce.
29. Kumar, A., "Teorie della deterrenza e della deterrenza nucleare nel subcontinente", ed. E. Sridharan, The India-Pakistan
Nuclear Relationship: Theories of Deterrence and International Relations (Routledge India: New Delhi, 2018), capitolo 6.
30. Avin, S. e Amadae, S. M., "Autonomia e apprendimento automatico all'interfaccia di armi nucleari, computer e persone",
ed. Boulanin (nota 6), pagg. 105–18.
31. Task Force on Artificial Intelligence, Report of Task Force on Artificial Intelligence (Ministry of Commerce and Industry: New
Delhi, marzo 2018), p. 25.
4. L'intelligenza artificiale avanza nelle armi strategiche russe

Dmitry Stefanovich

L'esercito è storicamente un'area di progressi scientifici e di rapida adozione di tecnologie all'avanguardia.


Una serie di nuove tecnologie note sotto il termine generico di "intelligenza artificiale" (AI) è attualmente in
fase di sviluppo su larga scala, compresi i sistemi relativi al nucleare e ad altre forze strategiche. L'esercito
russo non fa eccezione: l'IA è un'area importante per la ricerca e lo sviluppo (R&S) militare russo, comprese le
forze nucleari, e le tecnologie relative all'IA sono già ampiamente applicate. Apprendimento automatico,
sistemi autonomi e altre tecnologie correlate sono utilizzati o pianificati per essere utilizzati al fine di migliorare
la logistica e la manutenzione militare, i sistemi di allarme preventivo; comando nucleare, controllo e
comunicazioni (NC3) e capacità di combattimento.
Anche la leadership politico-militare russa sottolinea l'importanza di questo settore: nel dicembre 2018 il
presidente russo Vladimir Putin ha sottolineato "le tecnologie digitali e l'intelligenza artificiale, la robotizzazione
e i sistemi senza pilota" come il campo principale del "programma di sviluppo qualitativo delle nostre forze
armate".1 Questa è la realtà odierna e l'unico modo per ridurre la possibilità di un'escalation involontaria tra
diversi attori sembra essere quello di limitare ogni ambiguità nella comunicazione delle loro intenzioni.
È fondamentale distinguere l'uso, da un lato, dell'AI nei processi decisionali e nell'attuazione di tali decisioni (a
livello di direzione o sede) e, dall'altro, l'AI come parte dei sistemi di controllo di bordo per armi e altre
attrezzature militari. Questi due domini hanno diversi tipi ed estensioni di controlli e misure di sicurezza per
garantire che gli errori siano evitati.
Prima di esaminare come l'IA viene applicata nella pratica in Russia (nella sezione II), questo saggio inizia
(nella sezione I) descrivendo come l'IA è definita nei contesti militari russi.

I. Definizione di AI in Russia

L'enciclopedia russa delle forze missilistiche strategiche offre una definizione per l'IA negli affari militari
(pubblicata non più tardi del 2011) come “un campo di ricerca in cui vengono sviluppati modelli, sistemi e
dispositivi che imitano l'attività intellettuale umana (percezione e inferenza logica) in guerra”. 2 Divide le tre aree
principali della ricerca sull'IA in sistemi basati sulla conoscenza, sistemi neurali e sistemi di ricerca euristica.
Le aree di specifico interesse per le forze missilistiche strategiche (SRF) russe sono i sistemi di supporto
decisionale, i sistemi intelligenti e le armi (sistemi di controllo a bordo), i sistemi esperti e l'automazione. In
questo contesto, un "sistema esperto" indica un insieme di strumenti software che implementa metodi di
intelligenza artificiale basati sulla conoscenza.
Il sistema esperto accumula conoscenza da un'area tematica all'interno di uno specifico modello di
conoscenza (ad esempio produzione, rete, struttura) e utilizza questi dati per portare nuova conoscenza,
risolvere problemi intellettuali pratici e spiegare il corso della sua decisione. I componenti di un sistema
esperto includono una base di conoscenza, un processore linguistico per le comunicazioni con gli utenti, un
risolutore che implementa un motore di inferenza, software di acquisizione della conoscenza e un fornitore di
spiegazioni del corso seguito e il risultato di un processo di risoluzione dei problemi.

II. Applicazioni dell'IA nei sistemi d'arma nucleare russi

Avvertimenti e ordini
L'area critica per l'analisi autonoma e la preparazione delle decisioni è il preallarme e i sistemi correlati. In
questo caso, i compiti principali per la tecnologia relativa all'IA sono la valutazione delle minacce in arrivo e la
previsione dei danni. Questa tecnologia può aiutare a comprendere la portata di un attacco, le sue origini e le
sue possibili intenzioni, nonché a sviluppare rapidamente uno scenario di risposta appropriato, inclusa la
ritorsione.
Negli scenari di ritorsione, i sistemi NC3 diventano cruciali. L'apprendimento automatico e le tecnologie
correlate forniranno supporto decisionale, compresa la contro-manovra delle risorse e l'ottimizzazione del
piano di sciopero. Aggiornamenti in tempo reale, fusione di sensori e altre soluzioni moderne aiutano a
migliorare la qualità della gestione della battaglia. 3
La trasmissione e l'esecuzione autonoma degli ordini all'interno del sistema Perimetr (chiamato Dead Hand
nelle fonti occidentali) rimane una possibilità, sebbene teorica. 4 Al momento, gli esseri umani rimangono
sempre nel ciclo decisionale, quindi potrebbe essere appropriato vedere questo sistema con missili di segnale
come un altro layout di NC3.
Tuttavia, un processo di lancio completamente automatizzato è effettivamente tecnologicamente fattibile e i
suoi elementi potrebbero essere già presenti. Nel caso in cui la stabilità strategica si deteriora rapidamente (ad
esempio, se gli Stati Uniti dispiegano missili a medio e corto raggio in Europa), la decisione di pre-delegare
l'autorità di lancio a Perimetr potrebbe essere ancora una volta una possibilità. 5

Logistica intelligente

Due recenti esempi di ricerca militare relativa all'IA sono disponibili nei settori della logistica e dei sistemi di
manutenzione.
Nel 2015 un gruppo di ricercatori ha proposto un modello di un sistema di controllo automatizzato del supporto
logistico (anche in tempo di guerra) per le unità SRF armate con missili balistici intercontinentali (ICBM)
mobili.6 Questo modello potrebbe aumentare la qualità della gestione, migliorare la resilienza delle
comunicazioni (anche in caso di attacchi di guerra elettronica) e diminuire il volume delle informazioni
trasmesse. I ricercatori hanno offerto un modello matematico di materiale e supporto tecnico durante la
preparazione e le operazioni che amplia i metodi applicati per il miglioramento e la modernizzazione degli
elementi del sistema di controllo.
Nel 2018 un altro gruppo di ricerca ha proposto e testato un modello basato su rete neurale come soluzione
per prevedere il tempo di funzionamento rimanente delle apparecchiature SRF. 7
Questo modello mira a determinare il significato e calcolare i pesi dei segni diagnostici e potrebbe essere
implementato per diversi modelli di armi e per attrezzature militari e speciali nella SRF. Il modello è stato
sottoposto a un esperimento su vasta scala (sebbene su equipaggiamento non militare). Dato il numero
significativo di sistemi legacy in servizio SRF, inclusa la generazione precedente di missili balistici
intercontinentali e apparecchiature di comunicazione, il modello potrebbe eventualmente diventare una
soluzione di manutenzione vantaggiosa.

Guerra automatizzata

Il targeting è il dominio in cui l'apprendimento automatico e le tecnologie correlate possono essere attualmente
più utili in guerra. I sistemi intelligenti che elaborano le immagini possono identificare un oggetto come un
particolare tipo di target, la sua posizione precisa e le sue vulnerabilità. Nella fase di pianificazione della
battaglia, tale targeting può portare all'ottimizzazione dell'allocazione e dei rendimenti delle testate nucleari.
Con l'aiuto dell'IA, i controlli a bordo dei veicoli di rientro possono raggiungere una maggiore precisione e una
migliore manovrabilità. Tale attività di ricerca e sviluppo viene attualmente svolta per quanto riguarda i missili
da crociera tattici.8 È probabile che i veicoli post-boost utilizzino tecnologie simili ma rafforzate. I veicoli
ipersonici di planata (ad esempio il sistema missilistico Avangard con una testata alata che avrebbe dovuto
raggiungere la capacità operativa iniziale nel dicembre 2019 9) sperimentano l'accumulo di plasma attorno
all'aliante durante il volo endoatmosferico, che influisce sulla capacità di inviare e ricevere segnali da e verso il
veicolo. Ciò riduce gravemente la capacità di controllo del volo sia mediante mezzi esterni che sensori interni.
I sofisticati sistemi di controllo e guida a bordo sembrano una soluzione adeguata.
Un altro modo per l'IA di contribuire alla guerra automatizzata è attraverso gli aiuti alla penetrazione della
difesa missilistica in generale, inclusi i richiami intelligenti e le capacità di modellazione della traiettoria. Le
sfide principali per l'intercettazione riuscita di una minaccia in arrivo sono definire se si tratta di una vera
testata o un manichino e stimarne la traiettoria. Una testata fittizia potenziata con AI può far comportare il
manichino come un vero e proprio veicolo di consegna, mentre l'IA su una testata reale può apportare
modifiche casuali al percorso di volo per impedire l'intercettazione.
La guerra subacquea è un altro ambito critico in cui l'autonomia del veicolo è essenziale a causa delle
difficoltà di comunicazione con i centri di comando. Un segnale potrebbe non raggiungere la destinazione
prevista o potrebbe essere intercettato da un avversario e rivelare così la posizione del veicolo o di un altro
oggetto sottomarino. I veicoli sottomarini senza pilota (UUV) di classe Poseidon (Status-6) entreranno in
servizio con la Marina russa relativamente presto: i test hanno avuto successo e il primo vettore effettuerà
prove in mare nel 2020.10 Nonostante la credenza popolare che l'UUV Poseidon possa essere utilizzato per la
consegna nucleare , può invece essere utilizzato come strumento di consapevolezza della situazione o per
attività convenzionali come il deposito di mine di precisione. L'intelligenza artificiale sembra essere una
soluzione utile per ognuno di questi compiti date le sfide della guerra subacquea, trasformando efficacemente
questa nuova arma in un moltiplicatore di forza sottomarina. Tuttavia, dato il fatto che molti paesi attualmente
perseguono UUV “pesanti”, i modi in cui questi sistemi possono interagire richiedono una ricerca specifica,
soprattutto a causa dell'importanza dei deterrenti basati sul mare (ad esempio sottomarini con missili balistici a
propulsione nucleare, SSBN) in le posizioni di forza della maggior parte degli stati dotati di armi nucleari.

III. Conclusioni

Gli elementi dell'intelligenza artificiale sono già utilizzati dalla SRF russa per supportare le decisioni prese
dagli esseri umani sul campo. Ma c'è anche la minaccia che, in una situazione militare, l'analisi umana venga
inavvertitamente sostituita dal "pensiero" dell'IA: le opinioni e le valutazioni di operatori e comandanti possono
essere modellate da conclusioni automatiche. Anche se una persona rimane nel ciclo di valutare la situazione,
prendere decisioni e schierare armi, queste azioni saranno basate sui dati forniti esclusivamente dalle
macchine.
Allo stesso modo, l'intelligenza artificiale è già utilizzata nei sistemi di guida e controllo di missili e sistemi
antimissile e in altri sistemi come gli UUV. L'apprendimento automatico e l'autonomia portano a una maggiore
sopravvivenza, precisione e capacità di penetrazione delle armi, rendendole una direzione allettante per la
ricerca e sviluppo militare.
A differenza del classico equilibrio della guerra fredda tra due superpotenze, l'attuale ordine nucleare (o
disordine) mondiale policentrico affronta una maggiore ambiguità, spesso intenzionale.
Gli stati dotati di armi nucleari spesso evitano la trasparenza nelle loro procedure interne per il comando e
controllo nucleare, il targeting e, ovviamente, l'assegnazione delle testate. La situazione rimarrà probabilmente
tale fintanto che la deterrenza nucleare rimarrà un concetto funzionante e sarà utilizzata come strumento negli
affari politico-militari.
Tuttavia, con i progressi della scienza e della tecnologia, la situazione potrebbe diventare sempre più instabile.
I partner e gli avversari regionali e globali hanno bisogno di valutazioni regolari delle capacità nucleari russe e
possono commettere errori che influenzeranno la percezione delle minacce. Inoltre, c'è la possibilità che i
progressi di diversi attori nei domini legati alla forza nucleare possano portare a livelli di insicurezza sufficienti
per alimentare una corsa agli armamenti AI su vasta scala o addirittura un'escalation nucleare per paura di
perdere le capacità di deterrenza. Per evitare errori con conseguenze di vasta portata, la modernizzazione
nucleare e le dottrine, compreso il ruolo dell'apprendimento automatico e dell'autonomia, devono essere un
argomento permanente delle discussioni bilaterali e multilaterali.

1. Presidente della Russia, "Riunione del consiglio del ministero della Difesa", 18 dicembre 2018.
2. [Intelligenza artificiale nell'esercito], Encyclopaedia delle forze missilistiche strategiche (Ministero della difesa russo: Mosca,
[n.d.]), (in russo, traduzione dell'autore).
3. RIA Novosti, [Sistema di monitoraggio per il centro di gestione della difesa nazionale], Istituto di ricerca sulla geodesia, [n.d]
(in russo).
4. Vedi Borrie, J., "Lezioni di guerra fredda per l'automazione nei sistemi di armi nucleari" e Topychkanov, P., "Autonomy in
Russian Nuclear Forces", ed. V. Boulanin, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I,
Euro-Atlantic Perspectives (SIPRI: Stockholm, 2019), pp. 41–52 e pagg. 68-75.
5. Odnokolenko, O., [Colonnello generale Victor Esin: "Se gli americani dispiegheranno finalmente i loro missili in Europa,
dovremo sostituire la dottrina del lancio sotto attacco con la dottrina dell'attacco preventivo"], Zvezda, 8 nov. 2018 (in russo).
6. Isaev, A. V. et al., [Modello per sistema di controllo automatizzato per supporto materiale di unità militari e
formazioni della SRF nello sviluppo del materiale e del sistema di supporto tecnico delle forze armate di
Federazione Russa], Nauka i Voennaya Bezopasnost, n. 3 (2015), pagg. 59-65 (in russo).
7. Gaivoronsky, O. V., Kartunin, D. N. e Wojciechowski, I. A., 'Model of determinare the significance
e calcolo di coefficienti di peso di segni diagnostici per prevedere la risorsa residua di complesso
sistema tecnico con risorse di sviluppo disomogenee ", Paper presentato al 42nd Academic Space
Conferenza, Mosca, 23-26 gennaio 2018.
8. Ramm, A. e Litovkin, D., "I missili da crociera ad autoapprendimento appariranno nel 2050", Izvestia, 11 agosto 2017.
9. TASS, "Oltre 30 anni, missili balistici intercontinentali Avangard assumeranno il servizio di combattimento in Russia il
prossimo anno", 19 dicembre 2018.
10. TASS, "La Russia lancia il primo sottomarino nucleare che trasporterà i droni sottomarini strategici Poseidon", 23 aprile
2019. Vedi anche Hwang, I. e Kim, J., "L'impatto ambientale delle armi autonome a propulsione nucleare", ed . L. Saalman,
The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. II, Prospettive dell'Asia orientale (SIPRI:
Stoccolma, ottobre 2019), pp. 86–80.
5. La prospettiva indiana sull'enorme potenziale di danno delle tecnologie militari avanzate

Sanatan Kulshrestha

La difesa della denuclearizzazione ha acquisito slancio nel giustificare divieti globali sulla produzione, la
conservazione o l'uso di armi nucleari. Ma non ha scoraggiato la ricerca dello sviluppo di potenti armi
convenzionali che potrebbero forse causare tanti danni quanto la primitiva bomba atomica, sebbene senza i
suoi effetti di radiazione. Né ha scoraggiato la ricerca di incorporare le tecnologie emergenti negli arsenali
nucleari per renderli più sicuri e affidabili. Nel contesto della denuclearizzazione, è altrettanto importante
esaminare gli sviluppi nelle armi convenzionali per evitare che tali sviluppi portino a danni ingenti all'umanità e
alla natura.
I pochi anni hanno visto progressi senza precedenti nelle tecnologie che in tempo di guerra avrebbero avuto
un impatto sul mondo nel suo insieme. Tali tecnologie sono ora alla portata di molti stati, inclusa l'India, e
consentirebbero a un tale stato di mettere da parte l'opzione nucleare e la conseguente ricaduta di radiazioni
causando al contempo altrettanta devastazione all'avversario.
Questo saggio si concentra prima (nella sezione I) sulle tecnologie che potrebbero influenzare il modo in cui la
guerra sarà condotta in futuro e poi (nella sezione II) esamina l'applicazione dell'India di queste e altre
tecnologie per migliorare le sue capacità militari convenzionali.

I. Tecnologie che possono cambiare le guerre future

Progressi nei materiali nanoenergetici

Lo studio della sintesi e della fabbricazione di materiali energetici o compositi su scala nanometrica è noto
come nanoenergetica. Esempi di materiali nanoenergetici (nEM) sono ossidi metallici come ossido di alluminio
- rame (II) e compositi metallo - metallo come alluminio - titanio. Nel prossimo futuro, i nEM potrebbero
costituire la base dei materiali utilizzati in un'ampia gamma di sistemi militari. 1 L'induzione di sistemi energetici
nanotecnologici con rilascio di energia controllato è al centro dell'attuale ricerca presso istituti quali
l'Accademia Navale degli Stati Uniti, Naval Surface Warfare Centers della US Navy e l'Università del
Maryland.2
In termini semplici, i nEM hanno prestazioni migliori dei materiali convenzionali a causa della loro superficie
molto più ampia, che aumenta la velocità di reazione e consente un rilascio di energia maggiore in un tempo
molto più breve. Una miscela eterogenea di un metallo (il carburante, ad esempio alluminio) e un ossido di
metallo (l'ossidante, ad esempio l'ossido di molibdeno), entrambi di dimensioni nanometriche, si traduce in una
classe di compositi intermolecolari metastabili ad alta velocità di reazione chiamati nano-termiti o super -
termiti.
Alluminio - ossido di molibdeno, alluminio - teflon e alluminio - ossido di rame (II) sono stati studiati per uso
militare.3 L'aggiunta di super-termiti (a base di nano-alluminio) a composizioni esistenti ha mostrato un
immediato aumento del potere esplosivo. L'uso di materiali nanometrici negli esplosivi ha aumentato la
sicurezza e l'insensibilità fino al 30% o più senza influire sulla reattività. 4 Si prevede che i nEM forniscano la
stessa potenza esplosiva a massa fino a due ordini di grandezza inferiore rispetto agli attuali sistemi esplosivi.
Mentre il nanodimensionamento degli esplosivi ad alto potenziale porta ad un aumento del loro potere
esplosivo e ad una diminuzione della loro sensibilità alle forze esterne, diminuisce anche la loro stabilità
termica. La durata di conservazione di tali esplosivi potrebbe quindi essere ridotta; tuttavia, alcuni brevetti
rivelano che anche questo problema è stato risolto tecnicamente. 5
Si prevede che i nEM sostituiranno gli esplosivi convenzionali e forniranno alle armi convenzionali esistenti
poteri esplosivi di grandezza maggiore di un fattore due, con una maggiore sicurezza a causa della minore
sensibilità alla stimolazione esterna di almeno il 30%. 6 del Texas, USA, nel 2012 ha stabilito che i nEM
potrebbero essere incapsulati in sistemi microelettromeccanici (MEMS) integrati, che includono circuiti
integrati di controllo, rilevamento, diagnostica ed elaborazione microelettronici. 7 Gli impulsi di spinta specifici
dell'applicazione, il vettore di spinta e la spinta continua possono essere assicurati dai micro-propulsori e dai
loro array.

Applicazioni militari di sciamatura

Sono già in fase di sviluppo nuove classi di sistemi d'arma su piccola o micro scala estremamente precisi e
letali. Questi sistemi sono stati ridimensionati di almeno due ordini di grandezza rispetto ai sistemi attuali,
creando spazio per il possibile cambio di paradigma da possedimenti di armi sempre più grandi e in numero
minore a più piccoli e numerosi.
Questo progresso preannuncia l'era della guerra con gli sciami, cioè l'assalto da parte di sciami di veicoli aerei
senza pilota8 (UAV) "costituiti da robot cooperativi e autonomi che reagiscono al campo di battaglia come uno".
altri MEMS integrati in nEM possono essere impiegati in una moltitudine di missioni come sciopero, jamming,
ricognizione e assalto di saturazione.
Per quanto riguarda lo sciame, l'intelligenza artificiale (AI) ha ottenuto un successo dimostrabile. Ad esempio,
un gruppo di ricerca ha sviluppato una "tecnologia che abilita lo sciame per sistemi multi-robot" che mostra
comportamenti che includono difesa perimetrale, aggregazione, leader - follower, ricerca ed esplorazione e
consenso sulla rotta.9
La tecnologia è stata "ottenuta combinando un toolbox software modulare e trasferibile con una suite
hardware composta da una raccolta di componenti a basso costo e standard" ed è progettata per essere
"trasferita su una gamma relativamente vasta di piattaforme robotiche - come come veicoli terrestri e di
superficie - con modifiche minime e alti livelli di scalabilità”. 10 Questo approccio a basso budget e scalabile
rende la guerra dello sciame accessibile e adattabile a una serie di situazioni militari.
La guerra di sciami potrebbe essere devastante e dannosa come un attacco con armi nucleari, ma senza il
rischio di radiazioni e potrebbe spostare le armi nucleari tattiche dal campo di battaglia. Queste armi
intelligenti, precise e letali sono emerse in una zona grigia tra le opzioni convenzionali e quelle nucleari. In
quanto tali, rappresentano un pericolo che necessita di dibattito e esame.

Nanotecnologia per sensori migliorati

La tecnologia dei sensori è un altro settore in cui l'AI e la nanotecnologia stanno dialogando, con possibili
applicazioni militari. Ad esempio, "la modellazione teorica e computazionale utilizza già algoritmi per
rappresentare la struttura ideale di un materiale, determinarne l'energia e le proprietà e la sua interazione in
ambienti diversi", quindi è una "progressione naturale" migliorare questa modellazione con l'IA. 11
Un altro esempio è la microscopia con sonda a scansione, utilizzata per l'imaging e la misurazione di superfici
su nanoscala ad altezza atomica o per manipolare atomi e molecole, sebbene abbia tradizionalmente sofferto
di problemi di risoluzione. L'intelligenza artificiale sotto forma di reti neurali avanzate "porta a un sistema di
imaging molto più efficiente".12

Nanotecnologia per opzioni nucleari a basso rendimento

È in corso una ricerca per sviluppare esplosivi nucleari a bassissima resa che potrebbero essere utilizzati
come fonti di microesplosione controllate per bombe nucleari e altre armi, se fossero disponibili meccanismi di
fusione compatti. Ha ricevuto un ulteriore impulso quando si è scoperto che era più pratico progettare un
esplosivo per microfusione piuttosto che un dispositivo per microfissione. Attualmente, questa ricerca
costituisce la principale area di spinta nei laboratori di armi nucleari in Francia e negli Stati Uniti. 13
I pacchetti di armi nucleari includono materiale di fissione o fusione che viene arricchito in un processo
sofisticato ma richiede componenti di avvio altamente complessi come dispositivi di armamento e di sicurezza
e accessori per la fusione e l'avvio di una reazione nucleare. Questi dovrebbero essere controllabili, sicuri e
rimanere estremamente affidabili fino all'ultimo momento possibile del processo decisionale politico
(possibilmente con l'incorporazione dell'IA, anche dopo il lancio e fino all'istante prima che raggiunga e
colpisca l'obiettivo). Questi criteri critici favoriscono l'uso di dispositivi ridondanti e meno guasti che
incorporano nanotecnologia e MEMS. Il treno esplosivo di una testata nucleare contiene un alto esplosivo
insensibile (IHE) che viene avviato da un piccolo iniziatore sensibile. Questi sono mantenuti disallineati prima
dell'inserimento come precauzione di sicurezza e sono allineati con l'IHE utilizzando un dispositivo di sistema
nano e microelettromeccanico (N / MEMS). Ci sono molti IHE in una testata nucleare che vengono allineati da
altrettanti dispositivi N / MEMS e singoli detonatori. Questi dispositivi costituiscono quindi una componente
fondamentale della catena di sicurezza e affidabilità delle armi nucleari. La nanotecnologia viene sempre più
utilizzata in materiali migliori per condensatori, circuiti integrati, alte accelerazioni e componenti resistenti alla
temperatura, che insieme aumentano ulteriormente la possibilità di una maggiore sicurezza e quindi di nuovi
ruoli di utilità per le armi nucleari in campo militare.
I Sandia National Laboratories degli Stati Uniti hanno il merito di aver costruito il meccanismo di sicurezza
nucleare più complicato, il Micro Guardian, e dei suoi aggiornamenti. 14
Questo meccanismo garantisce che l'arma nucleare non esploda fino al completamento di una sequenza
predefinita di eventi. La disponibilità di tali dispositivi e il fatto che abbiano migliorato la resistenza al guasto di
componenti critici nella fusione, nell'armamento, nei detonatori e nei generatori di neutroni di molte
magnitudini, hanno stimolato la ricerca sulla prossima generazione di armi nucleari basate sulla fusione.
Questi dispositivi (IHE più iniziatori N / MEMS più piccole quantità di materiale di fissione) non peserebbero
più di pochi chilogrammi e la produzione potrebbe essere equivalente a frazioni di una tonnellata di TNT fino a
decine di tonnellate. Usano materiale di fissione in piccole quantità, con conseguente ricaduta radioattiva
trascurabile. Tali testate vengono prese in considerazione per l'uso in munizioni guidate di precisione.
Attualmente non esiste alcun meccanismo che limiti l'uso della nanotecnologia a tal fine.
Il possessore di tali armi sarebbe in grado non solo di scatenare uno sciame di armi convenzionali, ma anche
di eseguire un assalto devastante senza violare il tabù del primo colpo.

II. Ricerca e sviluppo di tecnologie emergenti per applicazioni militari in


India

La discussione sopra mostra come le tecnologie emergenti come la nanotecnologia in tandem con
l'intelligenza artificiale stiano rimodellando il panorama delle armi convenzionali e rendendole devastanti quasi
quanto le armi nucleari, anche se senza il devastante attacco dei rischi di radiazioni.

Investimenti nazionali in tecnologie emergenti

Il governo indiano riconosce che la nanotecnologia è "una tecnologia ad alta intensità di conoscenza e"
abilitante "che dovrebbe influenzare un'ampia gamma di prodotti e processi con implicazioni di vasta portata
per l'economia e lo sviluppo nazionale". 15 Di conseguenza, nel maggio 2007 è stata lanciata una Missione
sulla nanoscienza e tecnologia (Nano Mission), con il Dipartimento di Scienza e Tecnologia come agenzia
principale per la sua attuazione.
L'India ha anche avviato lo sviluppo nel campo dell'IA attraverso la National Institution for Transforming India
(NITI Aayog), un think tank politico formato il 1° gennaio 2015 dopo la chiusura della Commissione di
pianificazione. Il documento di discussione della NITI Aayog sulla strategia nazionale dell'India per l'IA
riconosce che l'IA ha il potenziale per essere dirompente ma che "offre anche opportunità per integrare e
integrare l'intelligenza umana e arricchire il modo in cui le persone vivono e lavorano". 16
L'India ha anche stanziato 30,7 miliardi di rupie (462 milioni di dollari ai tassi attuali) nel 2018 per il suo
programma Digital India, un'iniziativa per promuovere l'intelligenza artificiale, l'apprendimento automatico, la
stampa 3D e altre tecnologie digitali. 17

Ricerca e sviluppo militare sull'IA

Le implicazioni strategiche dell'IA dal punto di vista della sicurezza nazionale sono state studiate da una Task
Force AI istituita dal Ministero della Difesa e composta da più parti interessate, tra cui governo, servizi,
università, industria, professionisti e start-up. 18 Questa Task Force AI ha esaminato lo sviluppo dell'IA in India
in generale, ma anche in modo specifico nel contesto delle esigenze militari. Tra le raccomandazioni nel suo
rapporto finale c'erano che (a) l'India dovrebbe diventare “una potenza significativa dell'IA nella difesa”,
specialmente in “aviazione, navale, sistemi terrestri, guerra informatica, nucleare e biologica”, sia per esigenze
difensive che offensive, comprese le esigenze contro l'IA; (b) sono necessarie politiche specifiche e interventi
istituzionali per "regolamentare e incoraggiare". . . solide tecnologie basate sull'IA per [il] settore della difesa";
e (c) il governo dovrebbe collaborare con le start-up e l'industria commerciale sull'uso dell'IA "per scopi di
difesa".19 La task force ha anche considerato l'IA in relazione ai sistemi d'arma autonomi letali (LAWS) in aria,
a terra e sotto acqua sia per gli scenari uomo nel circuito che uomo nel circuito; giochi di guerra simulati e
addestramento (un'area chiave in cui l'IA può svolgere un ruolo cruciale nell'addestramento delle forze in un
ambiente simulato); sorveglianza senza equipaggio; sicurezza informatica; intelligenza e ricognizione; e
sicurezza aerospaziale.20
Il Center for Artificial Intelligence and Robotics (CAIR) della Defense Research and Development Organization
(DRDO) ricerca aree specifiche dell'IA per le forze armate indiane. 21 I suoi progetti includono (a) robot multiuso
"compresi robot con capacità di livello industriale e piattaforme robotiche futuristiche orientate alla ricerca"; (b)
un insieme completo di strumenti di data mining contenente algoritmi di data mining, da utilizzare "in diversi
ambiti problematici"; (c) un framework del sistema di supporto decisionale (DSS), che è “completamente
guidato da una base di conoscenza mantenuta come ontologie” e include algoritmi come il processo
decisionale multicriterio (MCDM), algoritmi swarm, approcci teorici del gioco all'allocazione delle risorse e
algoritmi di ricerca; (d) un framework architetturale orientato ai servizi semanticamente abilitato; e e) algoritmi
di intelligenza artificiale per la pianificazione del percorso, la localizzazione e la mappatura simultanea
(SLAM), il rilevamento e il riconoscimento di oggetti e il coordinamento dei compiti per piattaforme mobili. 22

Sentinelle robotiche

L'India deve affrontare due vicini con controversie sui confini irrisolte e rivolte attive in molti distretti che hanno
messo le sue forze militari e paramilitari sotto un velo di costante minaccia. È quindi necessario che l'India
sviluppi armi per difendere il suo vasto confine terrestre, la costa e le risorse nello spazio, con un rischio
minimo per le sue forze. Ciò potrebbe essere ottenuto utilizzando sentinelle robotiche in grado di rispondere
efficacemente e neutralizzare le minacce emergenti, una sorta di LAWS. L'India ha sottolineato che la
tecnologia come quella sviluppata per LAWS ha usi pacifici e militari. 23
Le sentinelle robotiche già esistenti includono i robot SGR-A1 e il Super aEgis II. I robot SGR-A1, sviluppati
congiuntamente da Samsung Techwin e Korea University, possono rilevare automaticamente gli intrusi che
camminano oltre il confine e potrebbero tecnicamente sparare senza l'aiuto di un essere umano. 24 Il Super
aEgis II, sviluppato dalla società sudcoreana DoDaam, è un sistema automatizzato torretta originariamente
progettata con un sistema di accensione automatica. 25 Una sentinella robotica in fase di sviluppo da parte di
Kalashnikov come uno di "una gamma di prodotti basati su reti neurali" è un "modulo di combattimento
completamente automatizzato" in grado di identificare e sparare ai suoi bersagli. 26

III. Conclusioni

La discussione di cui sopra mette in evidenza gli aspetti della ricerca e sviluppo delle nanotecnologie e
dell'intelligenza artificiale che incidono direttamente sulla capacità di condurre la guerra degli stati. Ciò
dimostra che presto sarà possibile schierare una bomba convenzionale con una testa da guerra nEM o
impegnarsi in una guerra con sciami, ciascuno dei quali può causare danni devastanti delle proporzioni di una
bomba atomica primitiva senza la radiazione di accompagnamento. La natura collaborativa degli studi
scientifici e della sperimentazione consente la condivisione della conoscenza e quindi porta a una più ampia
proliferazione delle tecnologie delle armi convenzionali. Vi è quindi la necessità di studiare gli attuali sviluppi
tecnologici nel campo delle armi convenzionali e di considerare l'istituzione di guardie di sicurezza
internazionali per coprire gli sviluppi che hanno il potenziale di causare danni ingenti.

1. Kaste, P. J. e Rice, B. M., "Nuovi materiali energetici per la forza futura: l'esercito insegue la prossima generazione di
propellenti ed esplosivi", AMPTIAC Quarterly, vol. 8, no. 4 (2004), p. 89.
2. Kavetsky, R. et al., "Sistemi energetici e nanotecnologia: uno sguardo al futuro", International Journal of Energetic Materials
and Chemical Propulsion, vol. 6, n. 1 (2007); e Kavetsky, R., "Il programma della marina in nanoscienza e nanotecnologia:
uno sguardo al futuro", US Office of Naval Research, 2004.
3. Miziolek, A., "Nanoenergetics: An Emerging Technology Area of National Important", AMPTIAC Quarterly, vol. 6, n. 1
(primavera 2002).
4. Yarbrough, A., The Impact of Nanotechnology Energetics on the Department of Defence by 2035, Air War College Research
Report (Air University: Maxwell Air Force Base, AL, 17 febbraio 2010).
5. Ad esempio "Testata ad esplosione termica potenziata", brevetto USA n. US 2012/0227613, 13 settembre 2012.
6. Rossi, C., "Due decenni di ricerca sui materiali nanoenergetici" (Editoriale), Propellants, Explosives, Pyrotechnics, vol. 39,
n. 3 (giugno 2014), pp. 323–27.
7. Martirosyan, K., Hobosyan, M. e Lyshevski, S. E., "Abilitazione dei materiali nanoenergetici con microelettronica integrata e
piattaforme MEMS", Atti della Conferenza IEEE sulla nanotecnologia, 20-23 agosto 2012; e Martirosyan, K. e Lyshevski, S. E.,
"MEMS technology microthrusters and nanoenergetic materials for micropropulsion systems", Atti della conferenza IEEE sui
metodi e sui sistemi di navigazione e controllo del movimento, 9-12 ottobre 2012.
8. Scharre, P., "How swarming will change warfare", Bulletin of the Atomic Scientists, vol. 74, n. 6 (2018).
9. Chamanbaz, M. et al., "Swarm-enabled technology for multi-robot systems", Frontiers in Robotics and AI, vol. 4 (aprile
2017), articolo 12.
10. Chamanbaz et al. (nota 9).
11. Critchley, L., "The convergence of AI and nanotechnology", Nano, 22 agosto 2018.
12. Critchley (nota 11).
13. Hambling, D., "Reattore a fusione nucleare portatile di Darpa", Wired, 6 luglio 2009; e Badziak, J., "Fusione nucleare laser:
stato attuale, sfide e prospettive", Bollettino dell'Accademia polacca delle scienze: scienze tecniche, vol. 60, n. 4 (dicembre
2012).
14. Burroughs, C., "Tiny" Micro Guardian "promette di salvaguardare le armi nucleari in grande stile," Sandia Lab News, vol.
51, n. 1 (15 gennaio 1999).
15. Dipartimento indiano di scienza e tecnologia, "Nano Mission", [n.d.].
16. National Institution for Transforming India (NITI Aayog), National Strategy for Artificial Intelligence: #AIforall, Discussion
paper (NITI Aayog: New Delhi, giugno 2018), p. 5.
17. Ministero delle finanze indiano, Press Information Bureau, "Highlights of Budget 2018-19", Comunicato stampa, 1 febbraio
2018.
18. Ministero della Difesa indiano, Ufficio informazioni per la stampa, "La task force AI consegna il rapporto finale a RM",
comunicato stampa, 30 giugno 2018.
19. Ministero della Difesa indiano (nota 18).
20. Pandit, R., "L'India ora vuole sistemi d'arma basati sull'intelligenza artificiale", Times of India, 21 maggio 2018.
21. Vedi anche il capitolo 3 di questo volume.
22. Organizzazione per la ricerca e lo sviluppo della difesa, "Prodotti principali", [n.d.].
23. Verma, D. B. V., Missione permanente dell'India alla Conferenza sul disarmo, Dichiarazione alla riunione informale di
esperti della CCW sui sistemi d'arma letali autonomi, Ginevra, 17 aprile 2015.
24. "Tecnologia del futuro? I robot killer autonomi sono già qui ", NBC News, 15 agosto 2011.
25. Parkin, S., "Robot assassini: i soldati che non dormono mai", BBC Future, 16 luglio 2015. Vedi anche Boulanin, V., "Il
futuro dell'apprendimento automatico e dell'autonomia nei sistemi di armi nucleari", ed. V. Boulanin, The Impact of Artificial
Intelligence on Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic Perspectives (SIPRI: Stockholm, 2019), pp. 53–62,
pagg. 60.
26. Tucker, P., "produttore di armi russo per costruire pistole dirette dall'intelligenza artificiale", Defense One, 14 luglio 2017.
Parte II. L'impatto dell'intelligenza artificiale militare sulla stabilità strategica
nell'Asia meridionale

La seconda parte di questo volume sposta l'attenzione interamente sul contesto dell'Asia meridionale. I due
autori affrontano le seguenti quattro domande: quali sono i rischi specifici associati all'uso dell'intelligenza
artificiale (AI), dell'apprendimento automatico e dell'autonomia nei sistemi di deterrenza nucleare nell'Asia
meridionale? Su quali aspetti delle relazioni di stabilità strategica nella regione possono avere un impatto IA,
apprendimento automatico e autonomia? In che modo l'uso militare dell'IA, l'apprendimento automatico e
l'autonomia potrebbero avere un impatto sulla soglia per l'uso nucleare? Infine, quali tipi di crisi potrebbero
essere innescati dall'intelligenza artificiale, dall'apprendimento automatico e dall'autonomia in questa regione?
Nel capitolo 6 il presente autore basa le sue risposte sull'analisi del concetto di stabilità strategica e capacità
potenziate dall'intelligenza artificiale, che, quando in uso, potrebbero innescare scenari di escalation tra Cina,
India e Pakistan. Nel capitolo 7 Saima Aman Sial esplora gli effetti positivi e negativi sull'instabilità e sulla
deterrenza nucleare nell'Asia meridionale dello sviluppo da parte del Pakistan di dottrine preventive e del
dispiegamento di una varietà di sistemi strategici abilitati dall'IA offensiva e difensiva.

Petr Topychkanov

I. Il concetto di stabilità strategica nella guerra fredda

Il concetto di stabilità strategica e il relativo principio di deterrenza nucleare sono apparsi durante la guerra
fredda. In uno dei primi studi sulla stabilità strategica, John D. Steinbruner la descrisse come una caratteristica
della deterrenza basata sulla distruzione reciprocamente assicurata. 1 Durante la guerra fredda sia l'Unione
Sovietica che gli Stati Uniti avevano capacità nucleari crescenti e concetti di sicurezza delle armi nucleari.
l'uso, ed entrambi i paesi erano pronti per le conseguenze dell'uso massiccio di queste armi. Per questo
motivo, la stabilità strategica è stata quasi sempre valutata attraverso il prisma del rapporto tra gli armamenti
strategici di ciascuna parte, sia offensivi che difensivi.
La stabilità strategica nella guerra fredda era costituita da diversi elementi critici. 2
In primo luogo, l'accettazione dell'idea di distruzione reciprocamente assicurata ha ridotto la probabilità di una
guerra nucleare. Nonostante il loro diverso mix di forze strategiche, gli Stati Uniti e l'Unione Sovietica
accettarono implicitamente l'idea della parità strategica. In secondo luogo, entrambe le parti hanno convenuto
di creare un processo per controllare il numero di armi nucleari apertamente offensive nei rispettivi arsenali e
quindi prevenire una corsa agli armamenti senza vincoli.
In terzo luogo, lo sviluppo di capacità ridondanti di secondo colpo da entrambe le parti ha reso impossibile per
entrambe le parti considerare realisticamente un primo colpo che avrebbe lasciato l'avversario incapace di
rispondere a un attacco. Quarto, un sistema di comunicazione potrebbe essere attivato durante gli scontri e le
crisi per prevenire l'escalation in un conflitto. In quinto luogo, le misure di rafforzamento della fiducia (CBM)
hanno contribuito a creare un'atmosfera politica più cooperativa. In sesto luogo, entrambi i paesi hanno
accettato che la concorrenza, il conflitto e la rivalità potessero coesistere nelle relazioni interstatali.
Tuttavia, i cambiamenti nell'ambiente politico e militare dopo la fine della guerra fredda fecero evolvere il
concetto di stabilità strategica, come si riflette in due dichiarazioni congiunte del 1990 e del 1994. Secondo la
dichiarazione sovietico-statunitense del 1990, la stabilità strategica è stato dei rapporti strategici tra le due
potenze in cui non sono previsti incentivi per un primo sciopero. 3 Come principio stabilizzante, la dichiarazione
poneva l'accento "sulla rimozione degli incentivi per un primo attacco nucleare, sulla riduzione della
concentrazione di testate sui veicoli di consegna strategici e sulla priorità a sistemi altamente resistenti". Alla
base della dichiarazione c'era la comprensione reciproca che lo scopo di un primo attacco era di prevenire o
indebolire in modo significativo le capacità di attacco del nemico. I piani operativi del primo attacco della
controforza dovevano ottenere la massima distruzione delle forze strategiche nemiche, compresi i suoi sistemi
di comando, controllo e comunicazione.
Secondo la dichiarazione congiunta Russia-USA del 1994, la Russia e gli Stati Uniti hanno concordato di
garantire un'estensione indefinita e incondizionata del Trattato di non proliferazione nucleare del 1968
(Trattato di non proliferazione, NPT), una conclusione dei negoziati per il Trattato per la messa al bando totale
dei test nucleari (CTBT) il più presto possibile e una proposta di divieto globale sulla produzione di materiali
fissili per armi nucleari (trattato di esclusione dei materiali fissili, FMCT). 4 La dichiarazione del 1994 riguardava
anche le mutue CBM, il controllo, contabilità e protezione fisica dei materiali nucleari e cooperazione nello
sviluppo e messa in campo di sistemi di difesa antimissile di teatro efficaci. 5
Queste due dichiarazioni ufficiali hanno dimostrato l'espansione del concetto di stabilità strategica oltre la
deterrenza nucleare. Oggi questo concetto viene ulteriormente ampliato per includere anche la proliferazione
delle armi di distruzione di massa (WMD) e delle relative tecnologie; terrorismo e terrorismo nucleare; conflitti
armati regionali, con un'escalation imprevedibile delle operazioni militari e l'espansione del conflitto; traffico di
droga; crimine organizzato; e il cambiamento climatico e le minacce ambientali. 6

II. Stabilità strategica in Asia meridionale

La pace, la sicurezza e la stessa sopravvivenza del subcontinente dell'Asia meridionale dipendono dalla
robustezza della deterrenza nucleare e dalla stabilità strategica.7 Nelle relazioni tra India e Pakistan, i risultati
di diverse dinamiche avranno un grave impatto sulla stabilità strategica, compreso lo stato di capacità militari e
nucleari, corsa agli armamenti in entrambi i campi e impatto dell'asimmetria militare convenzionale sulla
deterrenza e sulla stabilità strategica. Altrettanto importanti sono la gestione e la risoluzione delle controversie
India-Pakistan su questioni controverse di vitale interesse reciproco, lo stato di normalità politica e diplomatica,
l'adesione agli accordi di sicurezza e alle CBM e il miglioramento delle relazioni commerciali, economiche e
culturali.8
Confrontando gli elementi chiave della stabilità strategica nell'Asia meridionale contemporanea con le relazioni
tra Stati Uniti e Unione Sovietica nell'era della guerra fredda, è possibile trovare differenze e somiglianze.

Distruzione reciproca assicurata

Il primo elemento comune è l'accettazione dell'idea di distruzione reciprocamente assicurata, che riduce il
rischio di una guerra nucleare e che include un'accettazione implicita dell'idea di parità strategica, nonostante
la presenza di un diverso mix di forze strategiche. Due concetti sono aspetti essenziali di questo elemento:
una deterrenza minima credibile, in base alla quale uno stato possiede il numero minimo di armi nucleari
necessarie per dissuadere un nemico dall'attaccare; e nessun primo utilizzo, che è una promessa da parte di
uno stato di non usare armi nucleari a meno che non venga prima attaccato dalle armi nucleari di un nemico.
Minima deterrenza e nessuna politica di primo utilizzo

Sia l'India che il Pakistan hanno dichiarato che aderiranno a credibili politiche di deterrenza minima. Tuttavia, il
significato della politica è diverso per ogni paese, sebbene entrambi siano collegati. Per l'India, l'obiettivo
principale è impedire l'uso di WMD da parte di qualsiasi altro stato; per il Pakistan, l'obiettivo è prevenire una
guerra critica in cui l'India usa armi di distruzione di massa e armi convenzionali contro di essa.
Nel caso dell'India, la deterrenza nucleare minima richiede (a) forze nucleari sufficienti, in grado di
sopravvivere e preparate dal punto di vista operativo; b) un robusto sistema di comando e controllo; (c)
capacità di intelligence e di allarme rapido capaci; d) pianificazione e formazione complete per le operazioni in
linea con la strategia; e (e) la volontà di impiegare forze e armi nucleari. 9 Alcune questioni non sono chiare
nella politica di minima deterrenza dell'India. Il primo è come la credibilità delle forze nucleari indiane possa
essere raggiunta senza diventare un deterrente massimo. Nel tentativo di aumentare la credibilità e l'efficacia
delle sue armi nucleari come deterrente, la dottrina nucleare indiana non riesce a limitarsi alla deterrenza
minima. La seconda questione poco chiara è legata all'obbligo di non primo utilizzo dell'India. Poiché l'India
attualmente non possiede effettive capacità di secondo attacco (ad esempio missili balistici lanciati da
sottomarini) e poiché sta attivamente sviluppando la sua difesa contro i missili balistici (BMD), molti esperti
dubitano che l'India aderisca strettamente alla politica del non primo utilizzo. 10
Nel caso del Pakistan, la sua politica di deterrenza minima è soggetta a cambiamenti nelle circostanze. In altre
parole, questo principio non può essere definito in base al numero statico di armi nucleari. Invece, i modelli di
distribuzione cambiano in base ai rischi di prelazione e intercettazione.

Parità strategica

Nel contesto della parità strategica, è importante sottolineare che sia gli ottimisti che i pessimisti tra gli esperti
nucleari concordano sul fatto che l'accumulo di armi nucleari nell'Asia meridionale non porterà allo scoppio
deliberato di una guerra su larga scala nella regione. Né i leader indiani né quelli pakistani desiderano avviare
un conflitto che potrebbe concludersi con uno scambio nucleare con conseguenze disastrose. La differenza
tra questi due gruppi di esperti dell'Asia meridionale sta nella loro valutazione della possibilità che possa
verificarsi un conflitto catastrofico anche se nessuno dei due stati intende iniziare una guerra nucleare. I
pessimisti ritengono che sia probabile che si verifichi uno scambio nucleare, soprattutto se si tiene conto dei
ripetuti scontri tra India e Pakistan e dello stato ancora sottosviluppato del loro controllo nucleare e dei loro
sistemi di allerta precoce. 11 Gli ottimisti sostengono che il disastro nucleare in Asia meridionale rimane
altamente improbabile, in particolare attraverso la pratica di una minore preparazione al combattimento
durante il tempo di pace, ovvero uno stato "operativamente dormiente" degli arsenali nucleari. 12

Accordi sui processi per prevenire la corsa agli armamenti

Un altro elemento della stabilità strategica della guerra fredda è l'accordo tra gli stati per creare un processo
per controllare il numero di armi nucleari apertamente offensive nell'arsenale dell'altro e quindi prevenire una
corsa agli armamenti senza vincoli. Tuttavia, non esiste un accordo del genere tra India e Pakistan. Nessuno
dei due paesi è interessato ad avere un altro paese coinvolto nel controllo dei propri arsenali nucleari.
Il ragionamento di entrambi gli stati, secondo i funzionari del governo indiano e pakistano, è simile: primo, la
capacità di uno stato di costruire armi nucleari è più o meno chiara per l'altro stato; in secondo luogo, India e
Pakistan aderiscono entrambe a politiche di deterrenza nucleare minima, e quindi non sono interessate a
nessuna competizione nucleare o corsa agli armamenti. 13
Per quanto riguarda il controllo nucleare, anche gli interessi di India e Pakistan sono in qualche modo
divergenti. L'India è più preoccupata per il controllo dell'arsenale nucleare cinese rispetto a quello del Pakistan
(sebbene la Cina non mostri interesse a scambiare dati sulle armi nucleari con l'India). Pertanto, mentre il
Pakistan vorrebbe concludere un accordo con l'India sul controllo degli armamenti nucleari, è improbabile che
l'India cerchi un tale accordo con il Pakistan.

Accordi su misure di rafforzamento della fiducia

La situazione è leggermente migliore nell'area delle CBM, con sistemi di comunicazione che potrebbero
essere attivati durante gli scontri e le crisi per prevenire l'escalation in caso di conflitto. L'India e il Pakistan
hanno una serie di accordi di questo tipo: (a) un accordo del 1988 per non attaccare reciprocamente gli
impianti nucleari, che richiede uno scambio di elenchi dei rispettivi impianti nucleari il 1° gennaio di ogni anno;
b) un accordo del 2005 per trasferire la linea diretta per i direttori generali delle operazioni militari su un
collegamento in fibra ottica; (c) un accordo di pre-notifica per test missilistici del 2005; e (d) un accordo del
2007 per ridurre il rischio di incidenti e di uso non autorizzato di armi nucleari. È fondamentale sottolineare che
nessuno di questi accordi ha alcun meccanismo di verifica.
C'è stata una finestra di opportunità per sviluppare CBM durante il dialogo composito 2004-2008 tra India e
Pakistan. Tuttavia, dopo l'attacco terroristico di Mumbai nel 2008, questo dialogo è stato congelato dall'India,
che ha accusato il Pakistan di sostenere i terroristi e di usarli contro l'India.

III. L'arrivo dell'IA nelle dinamiche di escalatory regionale

Gli stati con armi nucleari dell'Asia meridionale e del suo vicinato - Cina, India e Pakistan - sono interessati
allo sviluppo di tecnologie di intelligenza artificiale per scopi militari. 14
Con vari budget e scale di ricerca e sviluppo (R&S), questi tre stati stanno esplorando le applicazioni militari
dell'IA in aree di importanza strategica, tra cui comando e controllo, allerta precoce, BMD e intelligence,
sorveglianza e ricognizione (ISR ) sistemi; veicoli sottomarini senza pilota (UUV) e veicoli aerei senza pilota
(UAV); e guerra elettronica e guerra cibernetica.
In questa fase, è improbabile un conflitto armato basato sull'uso dell'IA tra India e Cina o India e Pakistan
perché il livello di integrazione dell'IA nelle soluzioni militari è ancora immaturo. Ma date le tensioni nelle
regioni del Kashmir, dell'Himalaya e dell'Oceano Indiano, e anche la competizione spaziale tra India e Cina,
tali conflitti armati non possono essere esclusi in futuro.
I possibili scenari di tali conflitti possono essere visti come i gradini della scala dell'escalation. 15 Il primo è il
disaccordo e la rivalità, in cui le parti sono preoccupate per le manovre pre-crisi e la segnalazione militare. Il
prossimo è la guerra "calda", comprese operazioni segrete o attacchi chirurgici. Il passo successivo è la
guerra convenzionale, con la mobilitazione delle forze e un allarme nucleare precauzionale. Questa è seguita
da una grande guerra convenzionale, con mobilitazione completa, attacchi convenzionali e attacchi aerei
contro obiettivi militari e un allarme nucleare completo. Infine arriva l'uso delle armi nucleari, comprese varie
opzioni nucleari dall'uso dimostrativo o di segnalazione agli attacchi di controvalore a tutto campo. Tuttavia,
l'escalation nucleare potrebbe non seguire necessariamente questi passaggi nell'Asia meridionale. Ad
esempio, in crisi precedenti la segnalazione nucleare avrebbe potuto avvenire nella fase di guerra calda o
anche prima di essa.16 Alcuni esperti sono preoccupati per il potenziale utilizzo di armi nucleari, principalmente
armi tattiche, nelle fasi iniziali di un possibile conflitto tra l'India e il Pakistan. 17
Oggi, è difficile vedere un ruolo centrale per l'IA militare nella maggior parte di questi scenari poiché
l'introduzione dell'IA nelle armi strategiche da parte di Cina, India e Pakistan è nelle sue fasi iniziali. I sistemi
autonomi offrono una capacità di supporto, piuttosto che svolgere un ruolo decisivo. Tuttavia, vale la pena
considerare il ruolo dell'IA in questa scala di escalation in quanto diventa sempre più probabile mentre Cina,
India e Pakistan stanno ottenendo sistemi di allerta precoce e BMD, tecnologie missilistiche avanzate,
comprese armi ipersoniche e combattimento potenzialmente a doppia capacità UAV e UUV. In alcuni casi
potrebbero essere necessari decenni per ottenere queste funzionalità, ma in altri casi potrebbe essere prima.
Ad esempio, la Cina sta costruendo un preallarme spaziale con il supporto russo e l'India sta seguendo lo
stesso percorso.18
L'IA militare ha potenzialmente ruoli specifici in ciascuna delle fasi dell'escalation ladder sopra descritte.
Durante il periodo di disaccordo e rivalità, i sistemi ISR autonomi aiuterebbero i decisori a valutare le azioni
dell'avversario e lo spiegamento operativo di armi offensive a doppia capacità, comprese quelle autonome,
sarebbe uno strumento di segnalazione militare.
Durante la fase della guerra calda, l'ISR autonomo sosterrebbe operazioni segrete e gli UAV da
combattimento avrebbero un ruolo chiave nelle azioni offensive. Nelle fasi di guerra convenzionale e principale
convenzionale, le funzioni dell'ISR e le capacità offensive rimangono le stesse. Allo stesso tempo, in queste
fasi le parti in conflitto ricorrerebbero in modo significativo al preallarme nucleare e al comando e controllo
strategico.
Infine, l'allerta precoce, la BMD, il comando e il controllo nucleare e le componenti autonome dell'arsenale
nucleare sarebbero pienamente emanate durante l'uso delle armi nucleari. Tuttavia, il livello della R&S in
corso in Cina, India e Pakistan significa che non può esserci un ruolo decisivo per un comando strategico
completamente automatizzato e controllo nel prossimo futuro.
Due aspetti dell'IA militare dovrebbero essere considerati come rischi più immediati per la stabilità strategica
nell'Asia meridionale. In primo luogo, dato lo sviluppo immaturo di capacità autonome di ISR, preallarme e
BMD, vi è un alto rischio di falsi allarmi da questi sistemi. Rapporti difettosi dai sensori di allarme preventivo,
ISR e BMD di un paese, in prossimità di un avversario, potrebbero essere considerati validi e portare a una
risposta mediante usi preventivi o preventivi delle forze nucleari. In secondo luogo, lo sviluppo di piattaforme
autonome a doppia capacità da parte di Cina, India e Pakistan potrebbe indurre uno dei paesi a temere un
attacco nucleare a sorpresa se uno o entrambi gli altri dovessero schierare tale piattaforma.
Sebbene l'avvento dell'IA militare abbia un potenziale destabilizzante, ha anche il potenziale per ridurre il
rischio nucleare. Ad esempio, le immagini satellitari abilitate dall'intelligenza artificiale e il telerilevamento
possono aiutare Cina, India e Pakistan a interpretare correttamente le reciproche azioni. Queste tecnologie
possono aiutare a prevenire escalation involontarie tramite un accordo cooperativo di monitoraggio aereo
come il Trattato sui cieli aperti in Europa e Nord America del 1992. 19

IV. Conclusioni

Almeno due punti critici derivano dalla discussione sopra.


Primo, la politica in materia di armi nucleari di qualsiasi Stato dotato di armi nucleari dovrebbe essere basata
su obiettivi politici piuttosto che sui progressi tecnologici. Cioè, uno stato dovrebbe avere obiettivi costanti,
basati su un consenso trasversale tra i partiti, e l'integrazione di nuove tecnologie nelle armi e nelle
attrezzature militari dovrebbe rispettare questi obiettivi. L'India e il Pakistan mancano di tale chiarezza sulle
loro dottrine nucleari. Questi paesi e la Cina mancano della trasparenza e della comunicazione reciproca
ininterrotta che potrebbe aiutarli a evitare conflitti armati.
In secondo luogo, data l'assenza di CBM o controllo degli armamenti tra India, Pakistan e Cina nelle aree
nucleari e convenzionali, l'avvento dell'IA nel dominio militare potrebbe creare una situazione ancora meno
prevedibile e stabile per l'Asia meridionale.

1. Steinbruner, J. D., "Sicurezza nazionale e concetto di stabilità strategica", Journal of Conflict Resolution, vol. 22, no. 3
(settembre 1978), pagg. 411–28, pagg. 411.
2. Russell, J. A., Strategic Stability Reconsidered: Prospects for Escalation and Nuclear War in the Middle East, Institut
Français des Relations Internationales (IFRI) Proliferation Paper no. 26 (Centro studi IFRI sulla sicurezza: Parigi, 2009), pagg.
19-20.
3. Dichiarazione congiunta Unione Sovietica-Stati Uniti sui futuri negoziati sulle armi nucleari e spaziali e sull'ulteriore
rafforzamento della stabilità strategica, 1 giugno 1990, Washington, DC.
4. Dichiarazione congiunta Russia-Stati Uniti sulla stabilità strategica e la sicurezza nucleare, 29 settembre 1994, Wash
ington, DC; Trattato sulla non proliferazione delle armi nucleari (Trattato di non proliferazione, TNP), aperto alla firma il 1 °
luglio 1968, entrato in vigore il 5 marzo 1970, INFCIRC / 140, 22 aprile 1970; e Trattato per la messa al bando totale degli
esperimenti nucleari (CTBT), aperto alla firma il 24 settembre 1996, non in vigore. La negoziazione di un FMCT è ancora in
corso. Vedi Panel internazionale sui materiali fissili, "Draft fissile material (cutoff) t Treaty, o FM (C) T", 5 febbraio 2009.
5. Lo sviluppo della difesa contro i missili balistici (BMD) era limitato a quel tempo dal Trattato Sovietico-USA sulla limitazione
dei sistemi missilistici anti-balistici (Trattato ABM), firmato il 26 maggio 1972, entrato in vigore il 3 ottobre 1972, non in forza
dal 13 giugno 2002, United Nations Treaty Series, vol. 944 (1974), pagg. 13-17.
6. L'esempio più recente di un'ampia interpretazione del concetto di stabilità strategica è la Dichiarazione congiunta Cina-
Russia sul rafforzamento della stabilità strategica globale nell'era moderna, Mosca, 5 giugno 2019 (in russo). Si veda anche il
ministero degli Affari esteri cinese, "L'assistente del ministro degli esteri Zhang Jun pubblica un articolo firmato sul
rafforzamento congiunto della stabilità strategica globale tra Cina e Russia", 12 giugno 2019.
7. Cheema, Z. I., Indian Nuclear Deterrence: Its Evolution, Development, and Implications for South Asian Security (Oxford
University Press: Karachi, 2010), p. 436.
8. Cheema (nota 7), p. 436.
9. Rajain, A., Nuclear Deterrence in Southern Asia: China, India and Pakistan (Sage: New Delhi, 2005), p. 229.
10. Khalid, I., "Dottrina nucleare: ramificazioni per l'Asia meridionale", South Asian Studies, vol. 27, n. 2 (luglio-dicembre
2012), p. 319.
11. Ganguly, Š. e Kapur, S. P., India, Pakistan, and the Bomb: Debating Nuclear Stability in South Asia (Columbia University
Press: New Delhi, 2010), p. 85.
12. Chufrin, G. et al., 'South Asia', a cura di A. Arbatov e V. Dvorkin, Nuclear Weapons after the Cold War (Carnegie Moscow
Center: Mosca, 2008), p. 336.
13. Funzionari indiani, Interviste con l'autore, Nuova Delhi, 5 ottobre 2011; e funzionari pakistani, Interviste con l'autore,
Islamabad, 3 ottobre 2011.
14. Sull'India vedere i capitoli 3 e 5 in questo volume; sul Pakistan vedere il capitolo 7 di questo volume; e sulla Cina vedi
Saalman, L., "Exploring artificial intelligence and unmanned platform in China", ed. L. Saalman, The Impact of Artificial
Intelligence on Strategic Stability and Nuclear Risk, vol. II, Prospettive dell'Asia orientale (SIPRI: Stoccolma, ottobre 2019), pp.
43–47.
15. Jones, R., Nuclear Escalation Ladders in South Asia (US Defense Threat Reduction Agency: Ft. Belvoir, VA, aprile 2011),
pagg. 14, 17, 23.
16. Yusuf, M., "Banking on an outsider: Implications for escalation control in South Asia", Arms Control Today, vol. 41, n. 5
(giugno 2011).
17. Hooey, D., "Il basso rendimento del Pakistan sul campo: diligente deterrenza o debacle dell'allentamento", Joint Force
Quarterly, vol. 95, n. 4 (2019), pagg. 34–45, pagg. 40–41.
18. Presidente della Russia, "Sessione del club di discussione di Valdai", 3 ottobre 2019; e Sputnik, "L'India lancia il satellite di
sorveglianza militare per tracciare il radar nemico", Space Daily, 2 aprile 2019.
19. Wise, J., Immagini satellitari, telerilevamento e riduzione del rischio di una guerra nucleare in Asia meridionale, Rapporto
speciale n. 434 (Istituto per la pace degli Stati Uniti: Washington, DC, novembre 2018), pag. 9; e il Trattato sui cieli aperti,
aperto alla firma il 24 marzo 1992, è entrato in vigore il 1 ° gennaio 2002.
7. Military applications of artificial intelligence in Pakistan and
the impact on strategic stability in South Asia

Saima Aman Sial

Subito dopo l'avvento delle armi nucleari, che alterarono le dinamiche della guerra e il mantenimento di una
pace inquieta, Henry Kissinger scrisse:

Nella mitologia greca, gli dei a volte punivano l'uomo soddisfacendo troppo completamente i suoi
desideri. È rimasto all'era nucleare per sperimentare la piena ironia di questa pena. Nel corso
della storia, l'umanità ha sofferto di carenza di potere e ha concentrato immensi sforzi nello
sviluppo di nuove fonti e applicazioni speciali di esso. Sarebbe sembrato incredibile anche
cinquant'anni fa che potesse mai esserci un eccesso di potere e che tutto sarebbe dipeso dalla
capacità di usarlo in modo sottile e con discriminazione. 1

In un'epoca di tecnologia in rapido progresso, la sfida rimane ancora come utilizzare le tecnologie emergenti
come l'intelligenza artificiale (AI), l'apprendimento automatico e l'autonomia, sia "sottilmente che con
discriminazione", in modo tale che il loro uso serva la sicurezza e la pace piuttosto che indebolirla.
Non c'è quasi nessuna letteratura pubblicata o disponibile al pubblico sull'argomento dell'applicazione AI nei
sistemi di armi nucleari negli stati dotati di armi nucleari, e il caso del Pakistan non è diverso. La letteratura
disponibile esplora le possibili applicazioni militari dell'intelligenza artificiale e dell'apprendimento automatico,
come per il preallarme, l'acquisizione di bersagli, il telerilevamento e la cyber forensics, e come aiuto
decisionale.
Concentrandosi sull'integrazione dell'IA nei sistemi di armi nucleari, la letteratura mostra che durante la guerra
fredda l'Unione Sovietica e gli Stati Uniti hanno mostrato un grande interesse per l'IA come strumento per
rendere il processo decisionale “più agile” e per fornire ai decisori più tempo per considerare le loro risposte. 2
Tuttavia, entrambi gli stati erano ugualmente consapevoli dell'importanza di non assegnare le "valutazioni di
ordine superiore e decisioni di lancio" ai sistemi di IA. 3 L'URSS ha sviluppato un sistema di comando e
controllo completamente automatizzato, Perimetr (o Dead Hand), ma doveva essere attivato solo in
circostanze eccezionali di un attacco di decapitazione. 4
Questo saggio cerca di colmare la lacuna nella letteratura per il caso del Pakistan. Continua (nella sezione I)
come il Pakistan potrebbe integrare l'IA nel suo sistema di comando e controllo nucleare. Quindi (nella sezione
II) considera le implicazioni dell'IA militare per la stabilità strategica in Asia meridionale.

I. AI e sistema di comando e controllo nucleare del Pakistan

Il sistema di comando e controllo nucleare del Pakistan è assertivo. 5 Cioè, il primo ministro è il presidente
dell'Autorità di comando nazionale (NCA) e la Divisione dei piani strategici (SPD) funge da segreteria. Inoltre,
per garantire un controllo assertivo sulle armi nucleari, i comandanti delle forze strategiche pakistane, che
hanno la custodia dei sistemi di consegna, non hanno la custodia delle testate, che sono controllate
centralmente dall'SPD.6
Alcuni studiosi pongono maggiormente l'accento sul controllo delle armi nucleari (cioè la prevenzione del loro
uso) che sul comando (che si riferisce al loro effettivo utilizzo).
Pertanto, il controllo dovrebbe avere la precedenza sul comando, poiché la perdita del controllo potrebbe
inavvertitamente portare a una guerra nucleare. 7 Il sistema di comando e controllo nucleare del Pakistan
segue da vicino questo principio. A causa del controllo della sicurezza politica del Pakistan in seguito agli
attacchi terroristici contro gli USA dell'11 settembre 2001, il suo sistema di comando e controllo nucleare ha
sviluppato una cultura della sicurezza che prende sul serio il controllo. Inoltre, la separazione geografica delle
testate dai veicoli di consegna funge anche da controllo contro l'uso accidentale o involontario. 8
Nei sistemi di comando e controllo nucleari c'è una tensione costante tra le armi che sono sempre disponibili
quando richiesto da un decisore e non sono mai disponibili per un uso non autorizzato, popolarmente noto
come il "dilemma sempre - mai". 9 Il Pakistan bilancia questa tensione attraverso "un robusto apparato
strategico di comando e controllo progettato per garantire uno stretto controllo negativo sull'uso durante il
tempo di pace e una pronta prontezza operativa (controllo positivo) in tempi di crisi e guerra". 10
Il Pakistan ha una postura nucleare di deterrenza incassata poiché le sue forze nucleari non sono dispiegate.
Tuttavia, la recente decisione di sviluppare armi nucleari per il dispiegamento in mare cambierà la postura in
un arsenale pronto, poiché la separazione della testata nucleare e del sistema di consegna non sarà più
tecnicamente fattibile.11 L'unione di testate e sistemi di consegna riduce i tempi di lancio e aumenta i livelli di
prontezza. .
La contiguità geografica di India e Pakistan crea serie sfide per la sopravvivenza delle forze nucleari perché la
vicinanza le rende più difficili da nascondere e più facili da colpire con mezzi nucleari e convenzionali. In
contrasto con i lunghi tempi di volo dei missili - che ammontano a diversi minuti - nel contesto russo-
americano, i tempi di volo dei missili nell'Asia meridionale sono estremamente brevi. La paura del Pakistan di
un primo attacco preventivo dall'India e possibili sviluppi in tal senso significano che vede la necessità di
tecnologie che possano migliorare la capacità dei suoi sistemi di allarme preventivo e aiutare a comprimere il
lasso di tempo per il processo decisionale.
Proprio come altri stati dotati di armi nucleari, è improbabile che il Pakistan dia completa autonomia alle
piattaforme nucleari. Tuttavia, l'intelligenza artificiale e l'apprendimento automatico possono aiutare a
sviluppare una migliore consapevolezza della situazione sulle risorse strategiche in tempo di pace e in crisi.
Ad esempio, l'apprendimento automatico può avere applicazioni in tali capacità legate al nucleare come il
riconoscimento automatico del bersaglio (ATR), i sistemi di allerta precoce e di supporto decisionale. A questo
proposito, il Pakistan ha istituito un National Command Center (NCC), che dispone di un sistema di supporto
strategico di comando e controllo (SCCSS) completamente automatizzato che consente ai responsabili delle
decisioni presso l'NCC di avere una consapevolezza della situazione 24 ore su 24 di tutte le risorse
strategiche durante il tempo di pace e soprattutto in tempi di crisi. Secondo le dichiarazioni ufficiali, tutte le
distribuzioni/impieghi sarebbero monitorati e controllati centralmente dall'NCC. 12
Inoltre, i sistemi di intelligenza artificiale sono già in uso presso organizzazioni strategiche per scopi di
sicurezza, come il controllo degli accessi mediante impronte del pollice, scansioni della retina digitale e
software di riconoscimento facciale per limitare l'accesso a installazioni sensibili ad alta sicurezza. 13
II. Vantaggi e rischi dell'IA per la stabilità strategica in Asia meridionale

Implicazioni delle applicazioni militari dell'IA

Qualsiasi tecnologia non è né buona né cattiva in sé. La sua particolare applicazione nei sistemi d'arma
nucleare determina l'effetto che genera; ovvero, se rafforza o indebolisce la deterrenza. Un esempio è l'uso
dell'IA per i giochi di guerra.
Nella strategia nucleare, tutte le proposizioni su come l'escalation può svolgersi in una crisi o in una guerra
non sono testate, poiché nessuna guerra nucleare è stata ancora combattuta. Pertanto, inserire un set di dati
in un sistema di intelligenza artificiale su come potrebbe svolgersi una guerra o una crisi nucleare sarebbe
difficile. Tuttavia, l'IA ha molte più applicazioni militari rispetto ai giochi di guerra.
L'intelligenza artificiale sta diventando sempre più rilevante per ogni componente di architetture di deterrenza
complesse, soprattutto considerando il suo potenziale per migliorare in modo significativo le capacità di
intelligence, sorveglianza e ricognizione (ISR). 14 L'integrazione dell'IA nei sistemi di armi nucleari potrebbe
migliorare l'accuratezza e i tempi di reazione, e quindi le prestazioni complessive, dei sistemi strategici
offensivi e difensivi. L'impatto sulla stabilità strategica può essere positivo o negativo.
Un impatto che induce instabilità dell'IA potrebbe essere nel campo della precisione e del targeting della
controforza. I progressi nel targeting di precisione, insieme a capacità avanzate di ISR nell'arsenale
dell'avversario, potrebbero creare sfide per un secondo colpo sicuro e aumentare i timori di un attacco
preventivo. Anche una maggiore capacità di indirizzare le risorse strategiche con capacità di colpi di precisione
convenzionali, migliorata attraverso l'IA, aumenterebbe l'instabilità, soprattutto in situazioni di crisi. 15 Un altro
esempio è l'autonomia applicata ai veicoli sottomarini senza pilota (UUV) da utilizzare nella guerra
antisommergibile; i sottomarini non sarebbero più i deterrenti finali per garantire la sopravvivenza dello stato. 16
Nella deterrenza dell'Asia meridionale questa proposta potrebbe essere ancora in futuro, ma dato il ritmo dei
trasferimenti di tecnologia all'India da parte dei principali esportatori di armi, è una minaccia a cui prestare
attenzione.17
La guerra informatica è un altro dominio in cui l'IA potrebbe influire sulla stabilità strategica.
L'apprendimento automatico potrebbe aiutare a migliorare le prestazioni dei radar di allerta precoce per
l'elaborazione dei segnali e potrebbe essere utilizzato per la consapevolezza della situazione nello spazio.
L'intelligenza artificiale potrebbe aiutare i cyber-difensori a monitorare le intrusioni e rilevare anomalie.
Questi miglioramenti nella sicurezza informatica per proteggere i sistemi critici di comando, controllo e
comunicazione potrebbero potenzialmente rafforzare la stabilità regionale e strategica. Tuttavia, gli stessi
mezzi informatici potrebbero essere utilizzati per iniettare disinformazione nel sistema utilizzando "falsi
profondi" anche attraverso piattaforme di social media. 18 Ciò può avere gravi implicazioni per l'inizio di una
crisi e l'escalation per una regione come l'Asia meridionale. La crisi dopo l'attacco a Pulwama nel Kashmir
amministrato dall'India il 14 febbraio 2019 ha dimostrato come la manipolazione delle informazioni possa
portare a un'escalation.19

Implicazioni per le posture della forza nucleare in Asia meridionale

Le sfide sollevate dalle applicazioni dell'IA ai sistemi nucleari, unite a tempi decisionali ridotti, avrebbero
implicazioni per le posizioni della forza nucleare assunte dal Pakistan e dal suo avversario, l'India. Una
deterrenza reciproca stabile richiede che le potenze nucleari opposte abbiano forze nucleari credibili e capaci
di sopravvivere.
Fino ad ora, una sicura capacità di secondo colpo è stata considerata un mezzo per garantire la stabilità della
deterrenza. Il Pakistan usa l'occultamento e la mobilità come mezzi di sopravvivenza del suo arsenale
nucleare.20 Per il Pakistan, l'integrazione dell'IA nei sistemi di armi nucleari dell'India renderebbe più difficile
mantenere una forza di secondo attacco adeguata. Inoltre, porterebbe a sua volta il Pakistan a investire in
solidi sistemi difensivi o in maggiori sistemi di lancio mobili che possono evitare il rilevamento.
Una valutazione complessiva della natura della stabilità strategica nell'Asia meridionale mostra che la dottrina
dell'India verso la controforza e la prevenzione è cambiata.
I recenti sviluppi nell'arsenale indiano completano le tendenze generali. L'India sta investendo nello sviluppo e
nell'installazione di sistemi integrati di difesa contro i missili balistici (BMD) multistrato. Nel 2019 l'India ha
approvato un accordo del valore di 5,2 miliardi di dollari per cinque reggimenti del sistema di difesa aerea S-
400 Triumf di fabbricazione russa. 21 Ha in corso due programmi nazionali per l'intercettazione di missili balistici
a bassa e alta quota: l'Advance Air Defense e il Prithvi Defense Vehicle, rispettivamente. 22 Il 27 marzo 2019
l'India ha testato la tecnologia delle armi anti-satellite (ASAT) mirando a uno dei suoi satelliti nell'orbita
terrestre inferiore.23 Questa capacità significa che in futuro l'India sarà in grado di prendere di mira i satelliti
militari di un nemico e i missili strategici a lungo raggio. L'agenzia spaziale indiana, l'Organizzazione per la
ricerca spaziale indiana (ISRO), ha lanciato 104 satelliti da un singolo razzo, dimostrando così anche una
capacità di trasportare diverse testate su un missile balistico (più veicoli di rientro bersagliabili
indipendentemente, MIRV).24
L'India sta attualmente potenziando le sue armi di precisione strategiche e convenzionali per attacchi in
profondità all'interno del territorio di un avversario per una controforza preventiva offensiva. Gli esempi
includono lo sviluppo di missili da crociera per le sue forze terrestri, marine e aeree, il dispiegamento di missili
da crociera come il BrahMos su aerei Su-30 e l'estensione della portata dei missili da crociera BrahMos e
Nirbhay.25
Questi recenti sviluppi nell'arsenale indiano creano nuove pressioni per il Pakistan e quindi per la stabilità
strategica. Si consideri uno scenario in cui un satellite militare pakistano viene preso di mira dall'India
utilizzando un'arma ASAT, portando a una situazione di crisi. Il test indiano ASAT ha dimostrato la capacità di
colpire i missili nucleari a lungo raggio del Pakistan, nonché i suoi satelliti militari. Combina questo con la
capacità ATR avanzata e l'ISR migliorato, e la sfida alla stabilità della deterrenza diventa più acuta. Ciò
potrebbe portare le posizioni nucleari dell'Asia meridionale a passare dalla deterrenza alla prontezza,
riducendo la quantità di tempo necessaria per una decisione per effettuare il primo attacco, portando a sua
volta all'instabilità della crisi.
Un avvertimento qui è la discrepanza tra la percezione delle capacità di un avversario e la realtà. Cioè, le
posizioni nelle relazioni nucleari antagoniste possono essere modellate dalla percezione dell'integrazione
dell'IA da parte di un avversario piuttosto che dalla conoscenza del livello effettivo di integrazione. 26 Questo
problema è ulteriormente aggravato dalla segretezza che circonda il livello di integrazione dell'IA nei sistemi
legati al nucleare.
È improbabile che l'intelligenza artificiale venga assegnata al ruolo di prendere la decisione di lanciare in
Pakistan. La leadership politica manterrebbe l'autorità per prendere la decisione finale di lancio, nonostante i
tempi di reazione più brevi.
III. Conclusioni

L'uso dell'IA, dell'apprendimento automatico e dell'autonomia per migliorare le capacità di munizioni di


precisione, BMD, sottomarini nucleari, veicoli senza pilota, sistemi di allarme e controllo aerei e armi ASAT,
insieme a posture pericolose come la controforza preventiva, aumenterà solo l'instabilità strategica e rischi di
crisi in Asia meridionale. È troppo presto per esprimere giudizi definitivi sugli effetti a lungo termine dell'IA sulla
stabilità strategica nella regione; tuttavia, qualunque sia il livello dei progressi tecnologici, il controllo umano
nel processo decisionale strategico e nei sistemi di comando e controllo non dovrebbe mai essere
abbandonato.

1.
2. Boulanin, V., "AI e armi nucleari - promesse e pericoli dell'IA per la stabilità nucleare", AI & Global Governance, Università
delle Nazioni Unite, Center for Policy Research, 7 dicembre 2018.
3. Boulanin (nota 2).
4. Borrie, J., "Lezioni di guerra fredda per l'automazione nei sistemi di armi nucleari" e Topychkanov, P., "Autonomia nelle forze
nucleari russe", ed. V. Boulanin, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic
Perspectives (SIPRI: Stoccolma, maggio 2019), pp. 41–52 e pagg. 68-75.
5. Ahmed, M., "Le armi nucleari tattiche del Pakistan e il loro impatto sulla stabilità", Regional Voices on the Challenges of
Nuclear Deterrence Stability in Southern Asia, Carnegie Endowment for International Peace, 30 giugno 2016.
6. Salik, N., Learning to Live with the Bomb, Pakistan: 1998–2016 (Oxford University Press: Karachi, 2017), p. 164.
7. Vedi ad es. i commenti di Rajesh Basrur citati in Salik (nota 6), p. 139.
8. Basrur (nota 7), p. 140.
9. Feaver, P. D., "Comando e controllo nelle nazioni nucleari emergenti", International Security, vol. 17, n. 3 (inverno, 1992/93),
p. 163.
10. Lavoy, P. R., "Pakistan's nucleare posture: Security and survivability", Nonproliferation Policy Education Center, 21 giugno
2007.
11. Pakistani Inter Services Public Relations, "Il Pakistan ha condotto con successo un altro fuoco di prova del missile da
crociera Babur lanciato da un sottomarino sviluppato internamente con una portata di 450 km", Comunicato stampa n. PR-
125/2018-ISPR, 29 marzo 2019.
12. Ahmed (nota 5).
13. Il presente autore ha visitato più volte l'SPD e ha osservato l'uso di diverse applicazioni per il controllo degli accessi.
14. Gasser, P., Loss, R. e Reddie, A., "Valutazione dell'impatto strategico dell'intelligenza artificiale", riepilogo del seminario,
Center for Global Security Research, 20-21 settembre 2018, p. 3.
15. Sial, S. A., "To use or not to use: India’s fractured NFU", South Asian Voices, 20 marzo 2017.
16. Vedi ad es. Rickli, J.-M., "Le prospettive destabilizzanti dell'intelligenza artificiale per la strategia nucleare, la deterrenza e
la stabilità", ed. V. Boulanin, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. I, Euro-Atlantic
Perspectives (SIPRI: Stoccolma, maggio 2019), pp. 91–98, pagg. 94; e il capitolo 2 di questo volume.
17. Wezeman, S. T. et al., "Developments in arms transfers, 2017", SIPRI Yearbook 2018: Armaments, Disarmament and
International Security (Oxford University Press: Oxford, 2018), pp. 204–206.
18. Chesney, R. e Citron, D., "Deepfakes and the new disinformation war: The coming age of post-truth geopolitics", Foreign
Affairs, Jan./Feb. 2019. Vedi anche Avin, S. e Amadae, S. M., "Autonomy and machine learning at the interface of nucleari,
computer and people", ed. Boulanin (nota 16), pagg. 105–18.
19. Yusuf, M. W., "La crisi di Pulwama: flirtare con la guerra in un ambiente nucleare", Arms Control Today, vol. 49, n. 4
(maggio 2019).
20. Sial, S. A., "Rationalizing Pakistan’s quest for a sea-based deterrent force", Pakistan Politico, ottobre 2018, pagg. 30–31.
21. "Russia e India firmano un accordo da 5 miliardi di dollari per il sistema di difesa aerea S-400", Dawn, 5 ottobre 2018.
22. "L'India testa con successo il missile intercettore", Dawn, 1 marzo 2017.
23. Agence France-Presse, "L'India afferma di abbattere un satellite, unirsi a" superpotenze spaziali "", Dawn, 27 marzo 2019.
24. Reuters, "L'India lancia il record di 104 satelliti in una volta sola", Dawn, 15 febbraio 2017.
25. Clary, C. e Narang, V., "India’s counterforce temptations: Strategic dilemmas, dottrine and capabil ities", International
Security, vol. 43, n. 3 (inverno, 2018/19), pagg. 25–31.
26. Vedi ad es. Saalman, L., "L'impatto dell'intelligenza artificiale sull'asimmetria nucleare e sui segnali nell'Asia orientale", ed.
L. Saalman, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. II, Prospettive dell'Asia orientale
(SIPRI: Stoccolma, ottobre 2019), pp. 103-108.
Parte III. Misure di controllo degli armamenti e di
rafforzamento della fiducia nel settore dell'intelligenza
artificiale e delle armi nucleari

I due autori di questa terza parte del volume offrono le loro opinioni sul controllo degli armamenti e sulle
misure di rafforzamento della fiducia (CBM) necessarie per affrontare le sfide dell'introduzione dell'intelligenza
artificiale (AI) nei sistemi di armi nucleari.
Rispondono a due domande principali: come possono essere applicate le lezioni apprese in precedenza sul
controllo degli armamenti e sulle CBM per progettare una risposta completa alle tendenze destabilizzanti
associate all'IA, all'apprendimento automatico e all'autonomia? Cosa potrebbe essere raccomandato per il
contesto dell'Asia meridionale?
I due capitoli si completano a vicenda, offrendo diversi approcci alla prevenzione e mitigazione del rischio
nucleare derivante dall'IA militare. Yanitra Kumaraguru nel capitolo 8 sostiene la necessità di introdurre un
divieto multilaterale sullo sviluppo, la produzione e l'uso di sistemi d'arma autonomi letali (LEGGI). Sulla base
delle esperienze dell'Unione Sovietica o della Russia e degli Stati Uniti, Malinda Meegoda nel capitolo 9
esplora vari formati bilaterali e trilaterali che sono fattibili per l'Asia meridionale.

Petr Topychkanov
8. Un divieto preventivo sui sistemi d'arma autonomi letali

Yanitra Kumaraguru

Lo sviluppo dell'intelligenza artificiale (AI) e della robotica continua sia in contesti civili che militari. In
quest'ultima arena, diverse armi possiedono già elementi di automazione. Un'arma automatizzata deve,
tuttavia, essere distinta da un sistema d'arma autonomo. 1 A differenza delle armi automatizzate, i sistemi
d'arma autonomi non mantengono un controllo umano significativo nel loro funzionamento e rimuovono gli
esseri umani da un posto significativo nel ciclo decisionale. 2 Lo scopo di questo saggio si limita a questi ultimi,
in particolare ai sistemi d'arma autonomi letali (LEGGI). Fornisce (nella sezione I) una discussione non
esaustiva sui problemi inerenti al funzionamento delle LEGGI al fine di mostrare (nella sezione II) la necessità
di un divieto del loro sviluppo, produzione e utilizzo. Fa eco al sentimento espresso dalle aziende che lavorano
nel campo dell'IA e della robotica nella loro lettera aperta alle parti della Convenzione del 1981 su alcune armi
convenzionali (Convenzione CCW): “Non abbiamo molto tempo per agire. Una volta aperto questo vaso di
Pandora, sarà difficile chiuderlo”. 3

I. Problemi inerenti ai sistemi d'arma autonomi letali

Attraversare le linee etiche e morali

Delegando la decisione di uccidere a una macchina, le LEGGI attraversano i confini etici e morali. Le
macchine programmate per prendere decisioni in base ai calcoli degli algoritmi non hanno la facoltà morale di
prendere decisioni riguardanti la vita e la morte umana.
Nonostante siano soggette a numerosi e rivoluzionari sviluppi tecnologici, le LEGGI mancano ancora delle
qualità distintamente umane di empatia, ragione, intelletto e compassione che sono necessarie per esercitare
un giudizio morale e prudenziale sul campo di battaglia. Anche le armi che selezionano e ingaggiano obiettivi
senza un coinvolgimento umano significativo minano la dignità umana. Le macchine non sono in grado di
apprezzare il valore della vita umana e quindi non possono sentire la gravità della sua perdita. 4 Mancano
anche della riluttanza innata e della lotta interna che gli umani sono costretti a fronteggiare nel decidere di
danneggiare o uccidere un altro essere umano. 5
L'idea di delegare componenti cruciali del ciclo di mira a un'arma allontana ulteriormente gli esseri umani dalla
gravità della decisione di esercitare la forza e impegnarsi nella violenza. Affidare queste decisioni a una
macchina e non a un essere umano rimuove il peso morale che altrimenti precederebbe e seguirebbe
immediatamente tale decisione, portando così con sé il potenziale per ridurre la soglia di violenza e guerra. 6

Inosservanza delle leggi umanitarie e sui diritti umani

Nel rimuovere un controllo umano significativo da momenti critici nel ciclo di targeting delle armi, come la
selezione e il coinvolgimento, coloro che dispiegano le LEGGI non rispettano il diritto internazionale umanitario
e il diritto dei diritti umani. Deve essere considerata anche la capacità delle LEGGI di rispettare queste leggi.
Programmati per calcolare le loro scelte, LAWS fallirà nei tentativi di conformarsi ai principi chiave di
distinzione e proporzionalità sul campo di battaglia quando incontreranno molte delle infinite combinazioni di
possibilità che gli esseri umani, anche con la loro comprensione più sfumata dei concetti, affrontano. 7 Il diritto
internazionale umanitario continua, ad esempio, a lottare per semplificare la determinazione del fatto che
qualcuno stia partecipando direttamente alle ostilità e quindi sia privato della protezione come civile. Questi
giudizi non sono quelli che possono essere lasciati a una macchina e ai suoi algoritmi senza un controllo
umano significativo. Considera l'esempio di un bambino che raccoglie un'arma che giace sul bordo di una
strada, o quello di una persona che entra e esce dalla partecipazione diretta alle ostilità. L'uso delle LEGGI in
guerra minerebbe anche il principio di precauzione nel diritto internazionale umanitario. 8
C'è anche la necessità di considerare il potenziale utilizzo delle LEGGI in situazioni di applicazione della legge
(ad es. Attività antisommossa e antiterrorismo) che non hanno ancora varcato la soglia del conflitto armato ai
sensi del diritto internazionale umanitario.
L'uso delle LEGGI in questi contesti pone gravi preoccupazioni in materia di diritti umani sotto forma di
uccisioni arbitrarie in violazione del diritto alla vita, un impedimento al diritto a un rimedio e una minaccia alla
dignità umana.9
I diritti umani e le preoccupazioni umanitarie sono ulteriormente aggravati dal fatto che gli algoritmi che
controllano le LEGGI ei dati su cui si basa sono informati e influenzati dai pregiudizi, dai pregiudizi e dalle
percezioni dei loro progettisti umani. 10
Pertanto, i pregiudizi e le percezioni umane riguardanti, ma non limitati a, razza, religione e genere possono
non solo essere radicati ma anche esacerbati nel funzionamento delle LEGGI. 11

Mancanza di responsabilità legale

La complessità della programmazione e del dispiegamento di LEGGI inciampa ancora una volta in relazione
all'assicurazione della responsabilità legale per le violazioni sia del diritto dei diritti umani che del diritto
internazionale umanitario. Con l'aumentare dell'autonomia, le macchine diventano in grado di svolgere
funzioni critiche del ciclo di targeting senza un intervento umano significativo. Ciò a sua volta rende più difficile
stabilire l'intenzione in uno qualsiasi dei numerosi casi di “decisioni” e ritenere un autore responsabile, dato il
grado di indipendenza esercitato dall'arma. 12 Ciò è aggravato dall'imprevedibilità della condotta della macchina
derivante da il design della macchina e il grado di indipendenza o le sue interazioni con l'ambiente. 13
Poiché la macchina stessa non può essere ritenuta responsabile, nonostante la sua natura autonoma, la
questione di chi debba essere imputato il comportamento illecito è controversa. La responsabilità ricadrà sui
produttori delle armi? I suoi progettisti? I programmatori? L'ufficiale militare in comando? O l'ufficiale che ha
schierato l'arma?14

Fallibilità e vulnerabilità

Le armi autonome non sono infallibili. Nonostante la loro complessità, i sistemi computazionali utilizzati per
controllare le LEGGI non sono privi di limitazioni e punti di errore.
Quando questi sistemi vengono uniti in modo sequenziale per mettere in funzione l'arma autonoma, un errore
in un passaggio della sequenza o un singolo metodo di calcolo potrebbe rimbalzare e far impazzire durante la
sequenza, portando con sé conseguenze devastanti. 15 Va ricordato che tale le armi potrebbero anche finire
nelle mani sbagliate o causare impatti catastrofici se soggette ad attacchi informatici.

II. Divieto di sviluppo, produzione e uso di armi autonome

Per le ragioni sopra esposte, è chiaro che le LEGGI non dovrebbero essere sviluppate, prodotte o accumulate,
né il loro uso minacciato, né all'interno né all'esterno di situazioni di conflitto armato. Un divieto preventivo
sullo sviluppo, la produzione e l'uso di LEGGI rimane il percorso più efficace in questo senso e ha un
precedente nel protocollo del 1995 che proibiva preventivamente le armi laser accecanti. 16 Mentre le
discussioni sulla questione delle armi autonome sono in corso dal 2014 all'interno del forum apparentemente
appropriato della Convenzione CCW, gli Stati parti della Convenzione devono passare urgentemente a un
mandato negoziale se la questione deve essere risolta in modo efficace. 17 Tuttavia, poiché il progresso
concreto può spesso essere ostacolato da una manciata di Stati a causa della regola del consenso all'interno
del quadro CCW, il processo potrebbe dover essere portato al di fuori del regime CCW per formulare un
divieto efficace che soddisfi l'urgenza della situazione. 18 Un tale divieto garantirebbe che tutti i sistemi d'arma
progettati e fabbricati con elementi di automazione mantengano ancora un controllo umano significativo sulle
funzioni critiche in guerra.19
La conservazione obbligatoria di un controllo umano significativo su funzioni critiche come la selezione e il
coinvolgimento dei bersagli non solo proibirebbe il funzionamento di sistemi d'arma senza intervento umano,
ma proibirebbe anche il funzionamento di sistemi d'arma in cui gli esseri umani forniscono solo
un'approvazione nominale per procedere, in risposta al suggerimenti della macchina, senza una sufficiente
comprensione del contesto.20
Un controllo umano significativo includerebbe invece, ma non si limiterebbe a, l'operatore umano che effettua
le necessarie valutazioni legali ed etiche nel contesto di una chiara comprensione della situazione, l'accesso
alle informazioni necessarie e il tempo sufficiente per prendere decisioni. Questo controllo dovrebbe
consentire una supervisione efficace della missione, con l'operatore umano in grado di interagire e monitorare
il sistema d'arma, nonché monitorare l'ambiente pertinente. È essenziale che l'operatore umano sia in grado di
intervenire immediatamente prima dell'uso della forza da parte della macchina. Il controllo umano esercitato
dovrebbe anche essere sufficiente per garantire la responsabilità per le decisioni prese e le azioni intraprese,
e le conseguenze di entrambe.21
Su misura in questo modo, il divieto proposto non è eccessivamente ampio. Riconosce il ruolo della robotica e
dell'intelligenza artificiale in un contesto militare, a condizione che tale ruolo rientri nei confini della moralità e
della legalità e consenta la responsabilità. Ma non ostacola in alcun modo lo sviluppo della tecnologia per
scopi civili o pacifici.
1.
2.
3.
4. Human Rights Watch (HRW) e International Human Rights Clinic (IHRC), Making the Case: The Dangers of Killer Robots
and the Need for a Pre-emptive Ban (HRW: New York, 9 dicembre 2016), pagg. 22-23.
5. Human Rights Watch e International Human Rights Clinic (nota 4), pagg. 25–26.
6. Kumaraguru, Y., "Sviluppo senza ostacoli della scienza e della tecnologia a quale costo?", CCW Report, vol. 6, n. 11 (4
settembre 2018).
7. Sulla capacità delle armi autonome di conformarsi ai principi di distinzione e proporzionalità vedere Human Rights Watch e
International Human Rights Clinic (nota 4), p. 5 e p. 8.
8. Gruppo internazionale sulla regolamentazione delle armi autonome (iPRAW), Focus on Computational Methods in the
Context of LAWS, "Focus on" Report n. 2 (iPRAW: Berlino, novembre 2017).
9. Human Rights Watch e International Human Rights Clinic (nota 4), pagg. 18-20.
10. Kumaraguru (nota 6); e Buranyi, S., "Rise of the racist robots: How AI is learning all our worst impulsi", The Guardian, 8
agosto 2017.
11. Su tali pregiudizi si veda Saalman, L., "L'impatto dell'intelligenza artificiale sull'asimmetria nucleare e sui segnali nell'Asia
orientale", ed. L. Saalman, The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, vol. II, Prospettive
dell'Asia orientale (SIPRI: Stoccolma, ottobre 2019), pp. 103-108.
12. Davison, N. e Giacca, G., "Background paper preparato dal Comitato Internazionale della Croce Rossa", Comitato
Internazionale della Croce Rossa (ICRC), Autonomous Weapon Systems: Implications of Growing Autonomy in the Critical
Functions of Weapons , Riunione di esperti, Versoix, Svizzera, 15-16 marzo 2016 (CICR: Ginevra, agosto 2016), pagg. 81–82.
13. Goussac, N., "Rete di sicurezza o rete aggrovigliata: revisioni legali dell'IA nelle armi e nel combattimento di guerra", diritto
e politica umanitaria, Comitato internazionale della Croce Rossa, 18 aprile 2019.
14. Nazioni Unite, Consiglio per i diritti umani, Report of the Special Rapporteur on Extrjudicial, Summary or Arbitrary
Executions, Christof Heyns, A / HRC / 23/47, 9 aprile 2013, paragrafo 77.
15. Gruppo internazionale sulla regolazione delle armi autonome (nota 8), pag. 19.
16. Protocollo addizionale alla Convenzione sui divieti o le restrizioni all'uso di alcune armi convenzionali che possono essere
considerate eccessivamente dannose o aventi effetti indiscriminati (Protocollo IV intitolato Protocollo sulle armi laser
accecanti), aperto alla firma il 13 ottobre 1995, entrato in vigore il 30 luglio 1998, United Nations Treaty Series, vol. 1380
(1984).
17. Human Rights Watch (HRW), Campaign to Stop Killer Robots, Statement to the Convention on Conventional Weapons
Group of Governmental Experts on Lethal Autonomous Weapons Systems, Ginevra, 27 marzo 2019.
18. Klare, M., "Stati Uniti e Russia ostacolano le misure per vietare i" robot killer "", Arms Control Today, vol. 48, n. 8 (ottobre
2018).
19. Sulla verifica di tale divieto si veda Gubrud, M., "Can an autonomous arms ban be verify?", International Committee for
Robot Arms Control, 14 aprile 2014.
20. Moyes, R., "Controllo umano significativo sugli attacchi individuali", Comitato Internazionale della Croce Rossa (nota 12),
pagg. 46–52.
21. Panel internazionale sulla regolazione delle armi autonome (nota 8); International Panel on the Regulation of Autonomous
Weapons (iPRAW), Focus on the Human-Machine Relation in LAWS, 'Focus on' Report no. 3 (iPRAW: Berlino, marzo 2018); e
PAX, robot assassini: cosa sono e quali sono le preoccupazioni? (PAX: Utrecht, [n.d.]).
9. Armi autonome nel contesto dell'Asia meridionale: rischi e
contromisure

Malinda Meegoda

Alla fine della conferenza "I computer digitali possono pensare?", Alan Turing ha osservato che "il tentativo di
creare una macchina pensante ci aiuterà molto a scoprire come pensiamo noi stessi". 1 Questa affermazione
ha molto probabilmente guidato gli sviluppatori nel regno dell'intelligenza artificiale (AI) con eventi molto
pubblicizzati a partire dagli anni '90 con il supercomputer Deep Blue di IBM per giocare a scacchi e fino al
programma software AlphaGo del progetto Deep Mind di Google. 2 Tuttavia, resta da vedere se la vittoria di
AlphaGo su Lee Sedol, un maestro del gioco, segna effettivamente un autentico cambio di paradigma nel
modo in cui la cognizione umana può essere imitata dai processi informatici. Questa incertezza è un fattore
chiave dello scetticismo, dell'apprensione e dell'opposizione al dispiegamento di sistemi d'arma autonomi letali
(LEGGI).
Questa incertezza è amplificata quando si oppone alle linee guida del diritto internazionale umanitario che
enfatizzano la necessità di distinguere tra obiettivi nemici e civili (il principio di distinzione), il mantenimento
della proporzionalità degli attacchi e delle risposte e l'uso di precauzioni contro gli attacchi ai civili. 3
Un punto di discussione principale non è la struttura delle armi stesse e dei loro effetti, ma il metodo del loro
utilizzo. Nonostante le principali potenze militari mondiali abbiano rilasciato tiepide dichiarazioni cautelative, è
improbabile che bloccheranno il progresso nello sviluppo di armi autonome. Le prospettive che le LEGGI siano
veri moltiplicatori di minacce attraverso il coinvolgimento con le armi di distruzione di massa (WMD) meritano
una seria attenzione ai modi in cui tali armi possono essere sviluppate e impiegate in futuro. Ciò è
particolarmente critico in una regione altamente volatile come l'Asia meridionale, che comprende tre potenze
nucleari (Cina, India e Pakistan) impegnate in una competizione geostrategica. 4 Per affrontare questo
problema, questo saggio esamina prima (nella sezione I) i potenziali impatti di armi autonome nel contesto
dell'Asia meridionale. Quindi (nella sezione II) propone misure di rafforzamento della fiducia (CBM) per
mitigare il relativo rischio nucleare.

I. Armi autonome e contesto dell'Asia meridionale

La discussione sullo sviluppo di armi autonome rimane nascente, quindi è opportuno delineare alcuni dei rischi
associati all'integrazione di armi nucleari e sistemi autonomi. Sia la Cina che l'India attualmente possiedono
sistemi d'arma che hanno una qualche forma di autonomia. L'India ha recentemente acquisito il sistema di
difesa aerea S-400 Triumf, che ha la capacità di tracciare gli obiettivi in modo indipendente. 5
Sebbene questo sistema sia progettato per essere utilizzato sotto la supervisione umana, come altre
piattaforme di difesa aerea, è probabile che il grado di autonomia di tali sistemi aumenti con l'ulteriore
modernizzazione.6
Il contesto della sicurezza nucleare dell'Asia meridionale è distinto da altre relazioni nucleari geostrategiche
antagoniste. Alcune delle differenze principali sono la stretta vicinanza geografica degli avversari, il
coinvolgimento delle controversie sui confini e la presenza di attori violenti non statali. Al contrario, la guerra
fredda tra l'Unione Sovietica e gli Stati Uniti si è svolta nel contesto di un bipolare strategico e concorrenza
ideologica. Inoltre, la maggiore distanza che separa le due potenze ha reso alcune delle crisi più gestibili a
causa dei tempi di risposta più lunghi. Nel contesto geografico dell'Asia meridionale, dove i tempi di volo dei
missili balistici sono inferiori a 10 minuti e l'interazione militare convenzionale avviene lungo un confine esteso,
i pericoli dell'integrazione di sistemi autonomi in armi convenzionali e nucleari potrebbero rivelarsi catastrofici. 7

Un'altra grande differenza è che, durante la guerra fredda, entrambe le superpotenze gestirono alleanze con
stati di terze parti mentre gestivano la stabilità interna. Cioè, né gli Stati Uniti né l'Unione Sovietica hanno
subito attacchi terroristici sul proprio suolo percepiti come provenienti dal suo grande rivale. Sebbene ci siano
accuse secondo cui gli stati dotati di armi nucleari hanno un'influenza indebita su alcuni stati di terze parti
nell'Asia meridionale, questi partenariati non si sono sviluppati nella stessa misura degli accordi nucleari della
guerra fredda. Inoltre, gli esperti di sicurezza spesso caratterizzano le relazioni India-Pakistan soprattutto
come quelle governate dal paradosso stabilità - instabilità, in cui gli stati sono disposti a scambiare alti livelli di
stabilità strategica con instabilità di basso livello. La domanda quindi è quanta instabilità ognuno di questi attori
è disposto a tollerare.
Mentre una potenziale corsa agli armamenti tra stati per sviluppare e dispiegare armi autonome in futuro è una
preoccupazione in Asia meridionale, forse una preoccupazione più immediata è l'uso di armi informatiche
autonome.8 La prevalenza di attori non statali impegnati in lotte violente in Asia meridionale aggiunge nuovi
rischi per la sicurezza, in particolare nel regno cyber. Ad esempio, è prevedibile che un attore non statale
possa acquisire realisticamente un'arma informatica come il "virus Stuxnet" e utilizzarla per distruggere
strutture civili o militari. Poiché le armi cibernetiche hanno un problema di attribuzione quando vengono
dispiegate, un tale attacco in un contesto dell'Asia meridionale potrebbe essere interpretato erroneamente
come un attacco deliberato da un attore statale e degenerare in una crisi nucleare. 9

II. Misure di rafforzamento della fiducia e riduzione del rischio nucleare

Gli obiettivi delle CBM sono prevenire lo scoppio della guerra e l'escalation in caso di crisi; aumentare la
fiducia in modo da evitare l'escalation; e migliorare i sistemi di allerta precoce e la prevedibilità. In senso lato,
le CBM possono essere raggruppate in quattro categorie: misure di comunicazione, misure di vincolo, misure
di trasparenza e misure di verifica. Le CBM possono servire a gettare le basi per concordare norme di
comportamento accettabili per gli stati, nonché a rafforzare la fiducia e la fiducia al fine di evitare errori di
calcolo e l'escalation dei conflitti. 10 Possono anche rappresentare i primi passi verso le discussioni sul controllo
degli armamenti e trovare un terreno comune per la comprensione future minacce informatiche in una
situazione di crisi o di guerra, compreso il modo in cui proteggere le risorse strategiche e le infrastrutture civili
critiche.
È un compito difficile, tuttavia, immaginare il tipo di CBM che può essere adottato da altri regimi di controllo
delle armi per regolamentare l'uso di armi autonome quando il mondo sta ancora lottando per concordare cosa
costituiscano le armi autonome.
Quando si discutono diversi tipi di misure, è importante essere chiari su ciò che tali misure mirano a prevenire
o almeno a mitigare. A questo proposito, le misure che instillano la moderazione strategica nelle operazioni
informatiche offensive che hanno il potenziale di causare danni fisici e danni devono essere la priorità.
Tuttavia, anche le CBM devono generalmente funzionare ed essere sostenibili. Per questo, le CBM devono
essere legalmente vincolanti, piuttosto che politicamente vincolanti, poiché queste ultime "aiutano a concedere
a India e Pakistan la libertà di evitare una corretta attuazione". 11
Misure proposte per l'Asia meridionale

Non mancano proposte di CBM e misure di riduzione del rischio nucleare per l'Asia meridionale. Le proposte
includono tutti gli elementi elencati nel memorandum d'intesa che accompagnava la dichiarazione di Lahore. 12
Le proposte più recenti includono accordi sugli incidenti in mare, centri di riduzione del rischio nucleare e
azioni che possono essere intraprese unilateralmente, come il disaccoppiamento delle testate dai veicoli per le
consegne, veicoli senza carburante e condivisione di informazioni di volo di prova.
Tuttavia, senza compiere progressi significativi nelle controversie sui confini della regione, anche alcune delle
misure di riduzione del rischio più significative potrebbero venire sbloccate in un attimo.
I centri di riduzione del rischio nucleare e gli accordi sugli incidenti in mare sono due CBM particolarmente
efficaci.

Centri di riduzione del rischio nucleare

Il Centro statunitense per la riduzione del rischio nucleare (NRRC) e il Centro nazionale russo per la riduzione
del rischio nucleare (NCNRR) costituiscono una CBM di successo che utilizza gli elementi di comunicazione,
trasparenza e verifica.13 Nel 2013 i rischi per la sicurezza informatica sono stati aggiunti all'ambito dell'NRRC.
Da una prospettiva regionale, c'è un disperato bisogno che le tre potenze nucleari dell'Asia meridionale
stabiliscano un processo di CBM triangolare che includa anche la creazione di centri di riduzione del rischio
nucleare.

Accordi per incidenti in mare

L'accordo sugli incidenti in mare tra Unione Sovietica e Stati Uniti del 1972 mirava principalmente a evitare
collisioni tra le navi delle due parti, insieme ad altre misure che potevano essere prese per navigare in aree ad
alto traffico.14 Una CBM di tale successo merita considerazione per le maggiori potenze dell'Asia meridionale.
Tali accordi saranno una necessità poiché le marine della regione si impegnano in esercitazioni militari
sciamanti subacquee che potrebbero causare un'escalation accidentale. Inoltre, sebbene le firme acustiche
degli attuali sottomarini missilistici balistici a propulsione nucleare (SSBN) siano in qualche modo rilevabili, lo
sviluppo di maggiori capacità stealth delle navi sotterranee aumenterà le preoccupazioni sulla sicurezza
marittima per tutte le parti nella regione. 15

III. Conclusioni

Una delle principali sfide per gli analisti della sicurezza, in particolare quelli che lavorano su questioni di
controllo degli armamenti in Asia meridionale, è come interpretare i segnali politici e militari all'interno di un
quadro coerente. Gli Stati Uniti sono praticamente gli unici tra le potenze nucleari per il modo in cui il loro
quadro dottrinale militare è apertamente discusso, pubblicato e dibattuto. La cosa più vicina che l'India ha a
una dottrina nucleare è la versione del 2003 che contiene tutte le caratteristiche che sono familiari: nessun
primo utilizzo, deterrenza minima credibile, massiccia ritorsione nucleare. 16 Il Pakistan e, in misura minore, la
Cina rimangono ancora più opachi su la loro postura nucleare e dottrina.
In Asia meridionale questa ambiguità strategica è aggravata dall'incertezza che circonda lo sviluppo di armi
autonome, dall'instabilità regionale e dall'attuale mancanza di CBM efficaci. È in questo contesto che armi
sempre più sofisticate potrebbero portare a valutazioni strategiche errate a causa di errori umani, comandanti
troppo zelanti e, con l'avvento delle armi autonome, un errore della macchina. Il caso del tenente colonnello
Stanislav Petrov, che ha prestato servizio presso una struttura di allerta precoce sovietica e che ha scelto di
non agire in seguito al falso allarme del sistema di preallarme nucleare automatizzato Oko, illustra non solo la
fallibilità dei sistemi automatizzati, ma anche l'importanza del giudizio umano quando si tratta di processi
decisionali chiave all'interno di strutture di comando e controllo altamente sensibili. 17 Anche un singolo falso
positivo che appare in un tale sistema automatizzato potrebbe alla fine portare a una catastrofe: solo la pura
fortuna ha impedito fino ad ora un simile evento. Pertanto, è di grande importanza strategica e umanitaria che
strateghi militari, funzionari governativi e responsabili politici tracciano un percorso verso la restrizione e la
regolamentazione globali dello sviluppo e del dispiegamento di armi autonome.

1. Turing, A., "Can digital computers think?", Lecture, BBC Radio, 15 maggio 1951, Turing Digital Archive.
2. Zastrow, M., "Humans strike back: How Lee Sedol won a game against AlphaGo", New Scientist, 14 marzo 2016.
3. Piccone, T., "Come può il diritto internazionale regolare le armi autonome?", Order From Chaos, Brookings Institution, 10
aprile 2018.
4. Fihn, B., "È ora di distruggere le armi nucleari", TechCrunch, 10 marzo 2019.
5. Boulanin, V. e Verbruggen, M., Mapping the Development of Autonomy in Weapons Systems (SIPRI: Stoccolma, novembre
2017).
6.
7. Khan, Z., "A restraint regime on MIRV flight-testing in South Asia", Stimson Center, 7 novembre 2018.
8. Istituto delle Nazioni Unite per la ricerca sul disarmo (UNIDIR), L'armamento di tecnologie sempre più autonome: sistemi
d'arma autonomi e operazioni informatiche, Risorse UNIDIR n. 7 (UNIDIR: Ginevra, 2017).
9. Mussington, D., "Strategic stability, cyber operations and international security", Center for International Governance
Innovation, 9 aprile 2019.
10. Sultan, A., Universalizing Nuclear Nonproliferation Norms: A Regional Framework for the South Asian Nuclear Weapon
States (Palgrave Macmillan: Cham, 2019).
11. Krepon, M. et al. (eds), Global Confidence Building: New Tools for Troubled Regions (St Martin’s Press: New York, 1999),
p. 176.
12. Ministero indiano degli affari esteri, dichiarazione di Lahore, 2 febbraio 1999.
13. Dipartimento di Stato degli Stati Uniti, "Centro per la riduzione del rischio nucleare degli Stati Uniti (NNRC)", [n.d.].
14. Accordo Unione Sovietica - Stati Uniti sulla prevenzione degli incidenti in alto mare e oltre, firmato ed entrato in vigore il 25
maggio 1972, Nations Treaty Series, vol. 852 (1972), pagg. 151–54.
15. "Marine nucleari nell'Asia meridionale", podcast Arms Control Wonk, 12 novembre 2018.
16. Narang, V., "Cinque miti sulla postura nucleare dell'India", Washington Quarterly, vol. 36, n. 3 (2013); e il Ministero indiano
degli affari esteri, "Il Comitato di governo per la sicurezza esamina l'operatività della dottrina nucleare indiana", comunicato
stampa, 4 gennaio 2003.
17. Topychkanov, P., "Autonomia nelle forze nucleari russe", ed. V. Boulanin, The Impact of Artificial Intelligence on Strategic
Stability and Nuclear Risk, vol. I, Euro-Atlantic Perspectives (SIPRI: Stoccolma, maggio 2019), p. 70.
Conclusioni

10. Le opportunità e i rischi dell'intelligenza artificiale per la


stabilità strategica nell'Asia meridionale

Petr Topychkanov

Questo volume modificato è il terzo di una trilogia che esplora le prospettive regionali e le tendenze relative
all'impatto che i recenti progressi nell'intelligenza artificiale (AI) potrebbero avere sul rischio nucleare e sulla
stabilità strategica. Riunisce le opinioni di otto esperti dell'Asia meridionale e di tutto il mondo che hanno
partecipato a un seminario a Colombo nel febbraio 2019.
Questo capitolo conclusivo esplora le opportunità e i rischi dell'IA per la stabilità strategica nell'Asia
meridionale. Inizia (nella sezione I) riassumendo lo stato di adozione dell'IA militare nella regione. Quindi (nella
sezione II) valuta l'impatto strategico complessivo dell'IA. Le iniziative specifiche di controllo degli armamenti e
le misure di rafforzamento della fiducia (CBM) che possono mitigare questo impatto sono descritte (nella
sezione III) prima del capitolo e il volume si conclude (nella sezione IV) con una breve osservazione sul
dialogo dell'Asia meridionale sugli usi militari dell'IA .

I. Lo stato di adozione dell'IA militare in Asia meridionale

I risultati di India e Pakistan nell'adozione dell'IA militare sono modesti. Non possono competere con i
significativi progressi nella militarizzazione dell'IA raggiunti da Stati Uniti, Russia e Cina. I diversi livelli di
accesso del pubblico alle informazioni sui programmi militari significano che si può dire di più sui programmi
dell'India rispetto a quelli del Pakistan. Le fonti aperte sul Pakistan non forniscono un quadro completo degli
sforzi nazionali per militarizzare l'IA. Al contrario, i media statali e indipendenti dell'India danno un'idea della
portata dei programmi militari legati all'intelligenza artificiale.
Come spiegano i due contributori dell'India - Kritika Roy (capitolo 3) e Sanatan Kulshrestha (capitolo 5) -
l'istituzione centrale dietro la militarizzazione dell'IA in India è il Centro per l'intelligenza artificiale e la robotica
(CAIR) della Defense Research and Development Organization ( DRDO). Tuttavia, sebbene il CAIR abbia
lavorato su applicazioni militari dell'IA per sistemi strategici almeno negli ultimi due decenni, né Roy né
Kulshrestha nominano alcun prodotto del CAIR che sia direttamente correlato alle forze nucleari. Mentre Roy
menziona diversi esempi di sistemi di intelligence, sorveglianza e ricognizione (ISR) e di guerra elettronica, la
maggior parte è ancora in fase di sviluppo e non ha un chiaro collegamento con le forze nucleari indiane. Offre
due spiegazioni per questo. In primo luogo, poiché rimangono molti problemi di affidabilità e controllo con l'IA
di oggi, è probabile che l'India sia cauta sull'integrazione dell'IA nelle sue armi e nelle sue attrezzature militari.
La seconda spiegazione è il processo di approvvigionamento della difesa indiana, caratterizzato da
un'avversione al rischio che causa lunghi ritardi nell'acquisizione di armi.

Come riporta Kulshrestha, la Task Force AI del Ministero della Difesa indiano ha raccomandato al governo di
collaborare con molte società private indiane di diverse dimensioni, comprese le start-up, interessate allo
sviluppo di AI per scopi militari. È probabile che i futuri sforzi dell'India per militarizzare l'IA si concentrino sul
settore non statale perché potrebbe diventare più efficiente nel realizzare prodotti di IA per le forze armate
indiane rispetto all'industria di produzione di armi di proprietà statale.
Il caso pakistano richiede anche ulteriori ricerche per comprendere la portata degli sforzi nazionali per
militarizzare l'IA. Saima Aman Sial sostiene (nel capitolo 7) che il suo paese non differisce da altri stati dotati di
armi nucleari, dove "non c'è quasi letteratura pubblicata o disponibile al pubblico sull'argomento
dell'applicazione AI nei sistemi di armi nucleari". Tuttavia, il Pakistan differisce nel grado di informazioni
disponibili sui programmi di ricerca e sviluppo (R&S) sull'IA militare e sullo stato di adozione di queste
tecnologie. Per questo motivo, l'analisi dell'IA militare in Pakistan deve fare affidamento su indicatori indiretti.
Sial menziona diversi sistemi relativi alle armi nucleari abilitati dall'intelligenza artificiale, incluso il sistema di
supporto strategico e di controllo (SCCSS) completamente automatizzato. Tuttavia, gli sviluppatori di questi
sistemi e il livello di adozione dell'IA sfuggono all'analisi. Ma questo non significa che non ci sia alcun focus
sull'IA militare in Pakistan. Al contrario, le forze armate pakistane stanno apparentemente esplorando le
opportunità legate all'IA, costruendo la capacità nazionale per lo sviluppo dell'IA e introducendola nelle armi e
nei sistemi militari. Tuttavia, c'è meno trasparenza pubblica in questi sforzi che nello sviluppo dell'IA militare in
India.

II. L'impatto dell'IA sulla stabilità strategica nell'Asia meridionale

L'idea che l'IA sia un'arma a doppio taglio per quanto riguarda la stabilità strategica è prevalente in questo
volume, soprattutto nei saggi di Maaike Verbruggen (capitolo 2), Roy (capitolo 3), Kulshrestha (capitolo 5), il
presente autore (capitolo 6) e Sial (capitolo 7).
Sial descrive l'arma a doppio taglio come si manifesta nell'Asia meridionale dal punto di vista pakistano. Da un
lato, le tecnologie guidate dall'intelligenza artificiale potrebbero presumibilmente svolgere un ruolo
fondamentale in ogni componente delle capacità di deterrenza nucleare, in particolare migliorando le capacità
di allarme rapido e ISR. Le applicazioni militari dell'IA potrebbero anche migliorare la precisione e il tempo di
reazione delle armi strategiche offensive e difensive. D'altra parte, l'IA può alimentare l'instabilità,
specialmente nelle crisi, sfidando la sopravvivenza delle capacità di secondo colpo di un avversario. La
capacità potenziata dall'intelligenza artificiale di prendere di mira risorse strategiche con armi convenzionali ad
alta precisione potrebbe aumentare la paura di un primo attacco.
L'introduzione dell'IA militare potrebbe rischiare l'abbassamento della soglia nucleare.
Precisione e autonomia migliorate, entrambe abilitate dall'IA, potrebbero rivitalizzare il ruolo delle armi nucleari
tattiche. Tenendo conto della mancanza di esperienza nel controllo degli armamenti e nelle CBM per le armi
nucleari tattiche, una tale rivitalizzazione avrebbe un effetto destabilizzante per qualsiasi regione, compresa
l'Asia meridionale.
Esistono anche difficoltà specifiche del contesto dell'Asia meridionale. Sono contestate sezioni significative dei
confini tra Cina, India e Pakistan. Ci sono stati molti conflitti armati e crisi tra Pakistan e India e tra Cina e
India. Durante la crisi più recente tra India e Pakistan, nel febbraio 2019, entrambe le parti hanno utilizzato
aerei da combattimento a doppia capacità. La stretta vicinanza geografica delle due parti lascia solo pochi
minuti per la valutazione della situazione, il processo decisionale e l'azione militare.
Queste difficoltà spiegano in parte i tipi di capacità abilitate dall'intelligenza artificiale che India e Pakistan
potrebbero pianificare di ottenere. Come osserva Kulshrestha, per le operazioni militari nelle aree contese,
l'India potrebbe utilizzare "sentinelle robotiche in grado di rispondere efficacemente e neutralizzare le minacce
emergenti". Come osserva giustamente, questi minimizzerebbero il rischio per le forze armate indiane.
Tuttavia, la pratica di portare sistemi autonomi, in particolare sistemi d'arma autonomi letali (LAWS), in tali
aree contese potrebbe abbassare la soglia per l'uso della forza in almeno due modi.
In primo luogo, data la fase iniziale di sviluppo di capacità autonome di ISR e di allerta precoce in India e
Pakistan, vi è un alto rischio di falsi allarmi da questi sistemi. Nelle condizioni geografiche dell'Asia
meridionale, che non lasciano tempo a ricontrollare i dati, questi allarmi potrebbero essere considerati validi e
rispondere con l'uso della forza.
In secondo luogo, quando una parte schiera tali piattaforme autonome in un'area contesa, l'altra parte
potrebbe considerarla un'aggressione o come preparativi per l'attacco. Pertanto, percezioni errate e calcoli
errati sulle armi abilitate all'IA potrebbero causare risposte militari tra gli avversari dell'Asia meridionale.
Inoltre, Roy e Sial menzionano la possibilità che l'intelligenza artificiale e l'apprendimento automatico vengano
utilizzati per provocare queste percezioni errate tramite avvelenamento dei dati, creando falsi profondi e altre
azioni nella cybersfera. Tuttavia, la questione di quali attori sarebbero interessati a utilizzare mezzi informatici
per provocare una guerra tra
gli stati armati rimangono senza risposta. Durante il workshop a Colombo, che ha gettato le basi per questo
volume, alcuni partecipanti hanno espresso dubbi sull'utilizzo dell'IA e del machine learning da parte dei
terroristi in questo modo.
Accanto agli impatti negativi dell'IA sulla stabilità strategica nell'Asia meridionale, ci sono impatti positivi,
coperti da Roy, Sial e dall'autore attuale. Come suggeriscono questi autori nei loro saggi, questi impatti
potrebbero essere raggiunti attraverso sforzi unilaterali, bilaterali o multilaterali. Unilateralmente, l'intelligenza
artificiale militare potrebbe aiutare a fornire una migliore ISR e un preallarme, migliorare la capacità
decisionale, aumentare la sicurezza e l'affidabilità degli arsenali nucleari e migliorare la sicurezza informatica.
In contesti bilaterali e multilaterali, le soluzioni abilitate dall'IA potrebbero far parte dei meccanismi di
trasparenza, rafforzamento della fiducia e verifica. Ciò sembra essere fattibile da una prospettiva tecnologica.
Tuttavia, il contesto politico delle relazioni tra Cina, India e Pakistan fa sì che non ci siano aspettative di tali
misure nel prossimo futuro.

III. Misure di controllo degli armamenti e di rafforzamento della fiducia


nel settore dell'IA e delle armi nucleari

La questione del controllo dell'applicazione dell'IA nel dominio militare ha varie dimensioni. Dal punto di vista
tecnologico, non esiste alcun meccanismo che limiti l'applicazione o il dispiegamento di sviluppi militari guidati
dall'intelligenza artificiale.
La storia del controllo delle armi nucleari non include alcun esempio di divieto o controllo delle tecnologie
durante la fase di ricerca e sviluppo. Di solito le tecnologie sono state bandite o controllate solo dopo il test, la
distribuzione e l'uso, quando i modi in cui potevano essere limitate sono diventati evidenti.
Il problema diventa ancora più difficile nella crescente zona grigia tra le opzioni convenzionali e nucleari a
causa dell'introduzione dell'IA nei sistemi d'arma sia convenzionali che nucleari. I contributori attirano quindi
l'attenzione sullo sviluppo di vari tipi di trasparenza e CBM, oltre al tradizionale controllo degli armamenti.
Vietare sistemi d'arma autonomi letali

Yanitra Kumaraguru (capitolo 8) raccomanda un divieto internazionale preventivo sullo sviluppo, la produzione
e l'uso delle LEGGI. Un tale divieto non riguarderebbe solo i sistemi d'arma senza alcun controllo umano, ma
anche quelli in cui il controllo umano è nominale; cioè, sulla base dei suggerimenti della macchina e senza un
contesto sufficiente per un processo decisionale etico. Kumaraguru sostiene che questo divieto non ostacolerà
in alcun modo lo sviluppo della tecnologia per scopi civili o pacifici, consentendo al tempo stesso di continuare
la ricerca e sviluppo dell'IA per scopi militari in un quadro etico.
Tuttavia, la domanda su come verificare un divieto preventivo è senza risposta.
Kumaraguru non esplora a lungo questa questione, ma dovrebbe essere discussa ulteriormente. Un divieto
potrebbe non richiedere la verifica nella fase iniziale, come dimostrato dal Trattato sulla proibizione delle armi
nucleari del 2017. Alcune misure che possono aiutare a verificare il divieto includono le pre-notifiche da parte
degli stati dello spiegamento delle LEGGI e le limitazioni a queste implementazioni in luoghi concordati. Allo
stesso modo, mentre Malinda Meegoda (capitolo 9) raccomanda la restrizione e la regolamentazione globali
dei sistemi d'arma autonomi, trova difficile formulare le CBM necessarie quando non esiste una definizione
concordata di questi sistemi.
Nel contesto dell'Asia meridionale, il divieto di R&S e produzione di LEGGI non è allettante né per l'India né
per il Pakistan. È difficile per questi due paesi raggiungere una comprensione comune delle minacce associate
alle LEGGI senza un dialogo reciproco. Pertanto, i primi passi regionali verso un divieto potrebbero essere un
dialogo dottrinale con un focus specifico sull'IA militare e una maggiore trasparenza e CBM. Questi passi
meno ambiziosi hanno il potenziale per aprire la strada a future limitazioni delle LEGGI.

Trasparenza e comunicazione

La trasparenza è un fulcro della CBM. Tuttavia, come nota l'autore attuale (nel capitolo 6), i tre stati dotati di
armi nucleari dell'Asia meridionale - Cina, India e Pakistan - attualmente mancano di trasparenza e di
comunicazione reciproca ininterrotta. Come primo passo, ciascuno di loro potrebbe adottare misure di
trasparenza semplici e unilaterali, come essere più aperti sui loro progetti di ricerca e sviluppo sull'IA militare. Il
livello di trasparenza descritto da Verbruggen (nel capitolo 2) nel contesto euro-atlantico offre un chiaro
esempio per l'Asia meridionale.
Oltre ai semplici passi unilaterali verso la trasparenza, Meegoda (capitolo 9) sostiene che le tre potenze
nucleari devono stabilire un processo di CBM triangolare. Oltre alla trasparenza bilaterale o trilaterale,
propone misure come centri di riduzione del rischio nucleare e un accordo sugli "incidenti in mare".
I centri di riduzione del rischio nucleare sarebbero modellati su quelli della Russia e degli Stati Uniti. Il dialogo
dottrinale sulle questioni relative alle armi nucleari può aiutare i tre paesi a realizzare la necessità di centri
regionali di riduzione del rischio nucleare. La creazione di tali portali permanenti per la trasparenza, le CBM e
la mitigazione del rischio nucleare ridurrà i motivi di percezioni errate relative alle politiche sulle armi nucleari.
L'accordo sugli "incidenti in mare" sarebbe anche modellato su quello tra Russia e Stati Uniti per la
prevenzione delle collisioni delle navi e le procedure per ridurre la crisi. In Asia meridionale, dove le marine
della regione si impegnano in esercitazioni militari di sciami sottomarini che potrebbero inavvertitamente
causare un'escalation, un tale accordo dovrebbe coprire anche l'uso di armi autonome in mare.
Dialoghi regionali

Dmitry Stefanovich (capitolo 4), l'attuale autore (capitolo 6) e Sial (capitolo 7) raccomandano l'istituzione, come
CBM, di un dialogo regionale sulla modernizzazione nucleare e sulle dottrine, compreso il ruolo dell'IA. Cina,
India e Pakistan si sono già impegnati in vari dialoghi sulla traccia 2 in formati bilaterali e trilaterali. La Cina e
l'India hanno anche un dialogo annuale su difesa e sicurezza, che si è riunito per la nona volta nel 2019.
Tuttavia, i tre paesi continuano a ignorare il tema delle armi nucleari e delle tecnologie emergenti in tali
riunioni.

IV. Osservazioni finali

I paesi dell'Asia meridionale sono ancora nelle prime fasi di adozione dell'IA militare. Tuttavia, i progressi
prevedibili potrebbero essere destabilizzanti in quanto potrebbero influenzare il senso di sicurezza di questi
stati. È evidente da questo volume e dal progetto in generale che è necessario un dialogo regionale sull'IA e il
rischio nucleare. Un tale dialogo potrebbe aiutare i paesi dell'Asia meridionale a evitare l'errata percezione
delle reciproche capacità in questo settore.
Poiché Cina, India e Pakistan sono coinvolti nelle relazioni di deterrenza nucleare, il dialogo sull'IA militare
potrebbe essere un capitolo separato di un dialogo globale sulla stabilità strategica.

Riguardo agli Autori

Sanatan Kulshrestha (India) è stato un contrammiraglio della Marina indiana fino al suo ritiro nel 2011.
Durante più di 34 anni di servizio, si è specializzato nella garanzia della qualità nel servizio navale indiano di
armamento, con incarichi chiave presso il quartier generale del comando navale, istituti di ricerca della difesa
e Indian Ordnance Factories, prima di diventare finalmente Direttore generale dell'ispezione navale degli
armamenti. Kulshrestha è stata impegnata nello studio degli aspetti strategici delle tecnologie emergenti con
rilevanza specifica per le questioni di sicurezza nazionale. Si è laureato alla Jodhpur University con una
medaglia d'oro in fisica e ha un dottorato in studi internazionali presso la Jawaharlal Nehru University, New
Delhi.
Parla frequentemente a conferenze internazionali e contribuisce regolarmente a riviste di difesa su questioni
marittime e tecnologia di difesa.

Yanitra Kumaraguru (Sri Lanka) tiene lezioni presso la Facoltà di Giurisprudenza dell'Università di Colombo.
È anche coordinatrice della Campagna dello Sri Lanka per fermare i robot assassini, nell'ambito del Forum per
il disarmo e lo sviluppo. I suoi interessi di ricerca ruotano attorno a questioni di leggi umanitarie e sui diritti
umani. Attualmente sta leggendo per un master in giurisprudenza presso la Harvard Law School, Stati Uniti.
Malinda Meegoda (Sri Lanka) è ricercatrice presso il Lakshman Kadirgamar Institute di Colombo. Si è
laureato al programma di cooperazione internazionale e studi sui conflitti dell'Università del Saskatchewan, in
Canada. I suoi interessi di ricerca includono armi nucleari, controllo degli armamenti, disarmo e non
proliferazione e sviluppo internazionale. Le sue pubblicazioni includono articoli che compaiono su una serie di
importanti giornali e riviste dello Sri Lanka come il Sunday Times, il Daily Financial Times e il Lanka Monthly
Digest.

Kritika Roy (India) è analista di ricerca presso il Cybersecurity Center of Excellence presso l'Institute for
Defense Studies and Analyzes (IDSA) di Nuova Delhi. È anche assistente redattore della rivista CBW di IDSA.
Roy è un laureato in ingegneria (elettronica e comunicazione) e ha conseguito un master in geopolitica e
relazioni internazionali presso la Manipal Academy of Higher Education. I suoi interessi di ricerca ruotano
attorno all'emergere di nuove tecnologie, inclusa l'intelligenza artificiale (AI) e le questioni relative al contrasto
della minaccia delle armi di distruzione di massa nell'era delle tecnologie dirompenti. Il suo ultimo libro è
Advances in ICT and the Likely Nature of Warfare (Routledge, 2019).

Saima Aman Sial (Pakistan) è un senior research officer presso il Center for International Strategic Studies
(CISS) di Islamabad. È anche editore associato della rivista semestrale CISS Insight. Sial è stata ricercatrice
in visita presso il James Martin Center for Nonproliferation Studies, USA, il Nonproliferation Education and
Research Center, Corea del Sud, l'Henry L. Stimson Center, USA e i Sandia National Laboratories, USA. Ha
conseguito un master in studi strategici presso la National Defense University, Islamabad.

Dmitry Stefanovich (Russia) è ricercatore presso il Centro per la sicurezza internazionale presso l'Istituto
Primakov di economia mondiale e relazioni internazionali (IMEMO) dell'Accademia delle scienze russa. È
anche ricercatore in visita presso il progetto Arms Control and Emerging Technologies dell'Institute for Peace
Research and Security Policy presso l'Università di Amburgo (IFSH). Dal 2016 è un esperto del Russian
International Affairs Council (RIAC) e un osservatore militare indipendente. Stefanovich si è laureato presso
l'Università Nazionale di Ricerca Nucleare MEPhI di Mosca con una laurea specialistica in relazioni
internazionali, concentrandosi sulla cooperazione scientifica e tecnologica internazionale. I suoi interessi di
ricerca ruotano attorno alle tecnologie dirompenti che stanno sfidando la stabilità strategica e la logica alla
base dello sviluppo e del dispiegamento di nuove armi strategiche.

Petr Topychkanov (Russia) è un ricercatore senior del programma SIPRI per il disarmo nucleare, il controllo
degli armamenti e la non proliferazione. Si occupa di questioni relative alla non proliferazione nucleare, al
disarmo, al controllo degli armamenti e all'impatto delle nuove tecnologie sulla stabilità strategica. Prima di
entrare a far parte del SIPRI nel 2018, Topychkanov è stato ricercatore senior presso il Centro IMEMO per la
sicurezza internazionale. Dal 2006 al 2017 è stato membro del Programma di non proliferazione del Carnegie
Moscow Center. Ha un dottorato in storia presso l'Istituto di studi asiatici e africani, Università statale di Mosca.
Le sue recenti pubblicazioni includono "Dialogo USA - Unione Sovietica/Russia sul programma di armi nucleari
dell'India", Strategic Analysis (maggio 2018).

Maaike Verbruggen (Paesi Bassi) è una ricercatrice di dottorato presso l'Istituto per gli studi europei della
Vrije Universiteit Brussel, dove sta studiando i motori e gli ostacoli all'innovazione militare nell'IA. I suoi altri
interessi di ricerca includono il controllo degli armamenti, il commercio di armi e le tecnologie militari
emergenti. Le sue recenti pubblicazioni si concentrano sulle sfide allo "spin-in" dell'IA, l'impatto
dell'innovazione civile sullo sviluppo di sistemi d'arma autonomi letali (LAWS) e le sfide al controllo umano
sugli sciami. Prima di intraprendere la sua ricerca di dottorato, Verbruggen ha lavorato al SIPRI.