Sei sulla pagina 1di 76

Università degli studi di Genova

Scuola superiore IANUA

Indirizzo STSI

Anno accademico 2021/2022

Pietro Firpo
Indice

I Winter School: Data Driven Society 6


1 Steganografia per applicazioni di difesa e attacco 7
1.1 La steganografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Esempio dei prigionieri . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Il triangolo magico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 La difesa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Il watermarking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Steganografia LSB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 L’attacco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Il valore dei dati per una transizione ecologica partecipata e sostenibile 10


2.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1 Definizione di Bruntland . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.2 Definizione di Robert . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 L’industria elettronica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

II Modulo: Analisi del rischio 12


3 Banche: come trattare il rischio? 13
3.1 Il rischio in ambito bancario . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Come funziona una banca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3 Tipologie di rischio bancario . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.4 Copertura dei rischi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.4.1 Il Comitato di Basilea . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.5 Il credito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.5.1 Caratteristiche e segmento del credito . . . . . . . . . . . . . . . . . . 15
3.5.2 Status del credito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.6 Le perdite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.6.1 La perdita attesa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.6.2 La perdita inattesa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.6.3 Il ciclo economico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.7 La stima della probabilità di default . . . . . . . . . . . . . . . . . . . . . . . 17
3.7.1 Individuazione della variabile target . . . . . . . . . . . . . . . . . . . 18
3.7.2 Preparazione e selezione dei dati . . . . . . . . . . . . . . . . . . . . . 18
3.7.3 Pulizia dei dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.7.4 Da long list a short list . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.7.5 Costruzione del modello . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4 Rischio aziendale 20
4.1 Il rischio assicurativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2 L’appetito per il rischio in ambito assicurativo . . . . . . . . . . . . . . . . . 20
4.2.1 Il livello dell’appetito del rischio . . . . . . . . . . . . . . . . . . . . . 21
4.3 Solvency II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1
5 Digital Marine Insurance 22
5.1 Da SMID all’assicurazione marina . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2 I nuovi dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2.1 Assicurazioni immobiliari . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2.2 Assicurazioni sulla vita . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2.3 Assicurazioni automobilistiche . . . . . . . . . . . . . . . . . . . . . . 22
5.3 Ieri e oggi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.4 Minimizzare la probabilità di incidenti . . . . . . . . . . . . . . . . . . . . . . 23
5.4.1 Sorgenti dei dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.4.2 Uso dei dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.5 Analisi del gestore delle navi . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.5.1 Impatto dell’IoT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

6 Modellazione del rischio: from credit scores to a rating system 25


6.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
6.2 Il problema di partenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
6.3 Il modello . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
6.4 Il sistema bancario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
6.4.1 Il sistema classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
6.4.2 Nuovi player . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
6.5 Modelli matematici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
6.5.1 Regressione logistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
6.5.2 Valutazione del modello . . . . . . . . . . . . . . . . . . . . . . . . . . 26
6.6 Scale di rating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6.6.1 Analisi della correlazione . . . . . . . . . . . . . . . . . . . . . . . . . 27
6.6.2 Integrazione del modello . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6.6.3 Calibrazione del modello . . . . . . . . . . . . . . . . . . . . . . . . . . 27

III Modulo: Tecnologie dell’informazione e della comunicazione


per l’industria 4.0 28
7 IoT: Ecosistemi, applicazioni sostenibili e criticità 29
7.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7.2 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7.2.1 Il contesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7.2.2 Evoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7.3 Concetti base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.1 Un thing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.2 L’architettura tradizionale . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.3 Infrastruttura di elaborazione e comunicazione tradizionale . . . . . . 30
7.3.4 Connettività LPWAN . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.4 Mercato, sostenibilità e disponibilità . . . . . . . . . . . . . . . . . . . . . . . 31
7.4.1 Trend nelle aree di applicazione . . . . . . . . . . . . . . . . . . . . . . 31
7.4.2 Sfide tecnologiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.4.3 Sfide politico-economiche . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.4.4 Sfide ambientali e sostenibilità . . . . . . . . . . . . . . . . . . . . . . 32
7.4.5 Sfide etiche e sociali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.5 Use cases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.5.1 Progetto Castore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.5.2 Progetto Tiamo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

8 Esperienze di Industry 4.0 34


8.1 I relatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
8.1.1 Gianfranco Caminale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
8.1.2 Alessandro Garibbo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
8.2 Accordo quadro con UniGE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
8.3 Leonardo e divisione Cyber e Security solutions . . . . . . . . . . . . . . . . . 35

2
8.4 Esperienze di Industry 4.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.4.1 Cyber physical sistem . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.4.2 Digital twin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.4.3 Edge computing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.4.4 Cloud computing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.4.5 Altri ambiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.5 Technology readiness level (TRL) . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.6 Termini utili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.7 World Class Manifacturing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

9 Cyber intelligence, attacchi APT e esempi di sabotaggi a infrastrutture


critiche 37
9.1 La relatrice: Virginia Puleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
9.2 Titolo che mi sono perso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
9.2.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
9.2.2 Teorie di criminologia . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.2.3 Social engeneering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.2.4 Teniche di social engeneering . . . . . . . . . . . . . . . . . . . . . . . 39

IV Modulo: Missioni spaziali 40


10 Missioni spaziali: strutture e tecnologie 41
10.1 Il relatore: Paolo Bastia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
10.2 Introduzione: dati di riferimento . . . . . . . . . . . . . . . . . . . . . . . . . 41
10.3 Vantaggi e applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
10.3.1 Applicazioni: TLC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
10.3.2 Navigazione e GPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
10.3.3 Osservazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
10.4 Oltre l’atmosfera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
10.4.1 Schermi elettromagnetici . . . . . . . . . . . . . . . . . . . . . . . . . . 42
10.4.2 Assenza di peso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
10.4.3 Accesso ad altri corpi celesti . . . . . . . . . . . . . . . . . . . . . . . . 43
10.4.4 Grandi distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
10.4.5 Volo umano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
10.5 L’ambiente spaziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
10.5.1 Forza di gravità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
10.5.2 Il vuoto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
10.5.3 Ambiente termico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
10.5.4 Pressione di radiazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
10.5.5 Radiazioni ionizzanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
10.5.6 Altri aspetti importanti . . . . . . . . . . . . . . . . . . . . . . . . . . 44
10.6 Caratteristiche delle orbite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10.7 Tipi di orbite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10.7.1 Orbite LEO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10.7.2 Orbite GEO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10.7.3 Orbite MEO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10.7.4 Orbite HEO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10.7.5 Punti lagrangiani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10.8 Veicoli spaziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10.8.1 Il lancio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

11 Missioni scientifiche dell’ASI: scienza e tecnologia nel quadro nazionale e


internazionale 46
11.1 La relatrice: Barbara Negri . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
11.2 Storia dell’ASI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
11.3 La governance dello spazio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
11.4 Direzione scienza e ricerca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3
11.5 L’ESA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
11.6 Missioni ESA e NASA negli ultimi 3 anni . . . . . . . . . . . . . . . . . . . . 47
11.6.1 Cheops . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
11.6.2 Solar orbiter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.6.3 IXPE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.6.4 LiciaCUBE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.7 Space science . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.7.1 Il Sistema solare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.7.2 Gli esopianeti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.7.3 L’astronomia multimesseger . . . . . . . . . . . . . . . . . . . . . . . . 49
11.7.4 La stazione spaziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
11.7.5 La Luna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
11.7.6 Marte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
11.8 Ciclo di vita di un progetto di Space Science . . . . . . . . . . . . . . . . . . . 49

12 Missioni di cosmologia (e non solo) dell’ESA, da Planck, Euclid e Plato 51


12.1 Il relatore: Luca Valenziano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
12.2 Missioni ESA per l’osservazione dell’Universo . . . . . . . . . . . . . . . . . . 51
12.2.1 Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
12.2.2 Euclid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
12.2.3 Plato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

V Summer School: Decision making 55


13 Complessità e decision making 56
13.1 La complessità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
13.2 L’analisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
13.3 Il team . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
13.4 Time to market . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
13.5 Approccio olistico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
13.6 Approcci e strumenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

14 How to deal with critical decisions 58


14.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
14.2 Lo scenario croceristico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
14.3 Costa Crociere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
14.4 Decision making . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
14.5 Decision making e covid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
14.5.1 Fermo della flotta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
14.5.2 Strategia commerciale e prezzi . . . . . . . . . . . . . . . . . . . . . . 59

15 Processo decisionale in una multinazionale 61


15.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
15.2 Hitachi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
15.3 Decision making . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
15.4 Responsabilità delle scelte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
15.5 Gestione del rischio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
15.6 Gestione dell’obsolescenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
15.7 Decisioni operative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

16 I processi decisionali nella comunicazione marketing 64


16.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
16.2 Il mestiere di decidere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
16.3 I meccanismi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
16.3.1 Riconoscimento del bisogno . . . . . . . . . . . . . . . . . . . . . . . . 64
16.3.2 Ricerca delle alternative . . . . . . . . . . . . . . . . . . . . . . . . . . 64
16.3.3 Valutazione delle alternative . . . . . . . . . . . . . . . . . . . . . . . 65

4
16.3.4 Decisione di acquisto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.3.5 Impressione post acquisto . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.4 I momenti della verità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.4.1 First moment of truth . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.4.2 Second moment of truth . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.4.3 Zero moment of truth . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.5 Possibili ostacoli alle decisioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.5.1 I paradigmi decisionali . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.5.2 Simon e il comportamentismo . . . . . . . . . . . . . . . . . . . . . . . 66
16.6 La teoria dei tre cervelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
16.6.1 La neocorteccia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
16.6.2 Il sistema limbico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
16.6.3 Il cervello rettiliano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
16.7 Acquisto e motivazione all’azione . . . . . . . . . . . . . . . . . . . . . . . . . 66
16.7.1 I mercatori somatici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
16.7.2 Gli acquisti di impulso . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
16.8 I bias cognitivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
16.8.1 Social proof bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
16.8.2 Confirmation bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
16.8.3 Social desirability bias . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
16.8.4 Status quo bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

VI Summer School: Comunicazione efficace 69


17 L’interazione tra esseri umani e macchine. Dall’interazione sociale all’in-
terazione sociotecnica 70
17.1 La relatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
17.2 Grande intervento confuso (cit.) . . . . . . . . . . . . . . . . . . . . . . . . . . 70

18 Comunicare il territorio: strategie, strumenti, eventi 72


18.1 La relatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
18.2 Il marketing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
18.3 Marketing territoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
18.3.1 Amsterdam . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
18.3.2 Belfast . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
18.3.3 Berlino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
18.3.4 Genova . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
18.4 Eventful cities . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

19 La dimensione sonora tra espressione, comunicazione e relazione 75


19.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
19.2 Intervento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

5
Parte I

Winter School: Data Driven


Society
Relatori: Luca Caviglione, Rosario Capponi

6
Capitolo 1

Steganografia per applicazioni


di difesa e attacco

1.1 La steganografia
La steganografia è una tecnica che consiste nel nascondere dati all’interno di un conte-
nitore che un qualche modo sia adeguato. Da quando esiste la computer science si occupa
di nascondere informazioni all’interno di contenuti multimediali, video, audio o immagini.
Quando il contenitore è di tipo differente è più comune parlare di information hiding, ma
spesso i due termini sono usati in modo intercambiabile. In crittografia l’informazione è
protetta perché non si capisce il messaggio, la steganografia opera in modo diverso: l’infor-
mazione è protetta nascondendola, non si sa che c’è. Ovviamente le due tecniche potrebbero
essere combinate. Per usare la steganografia bisogna mettersi d’accordo tramite un canale
sicuro dove sia l’informazione, per poterla poi ritrovare. Poi si deve scegliere un contenitore
adatto, che sia sufficientemente robusto, ovvero non sia palese che il contenitore contenga
un’informazione e deve essere coerente con il flusso di informazioni usato per lo scambio
steganografico. Per fare un paragone, la steganografia è un insieme di tecniche per ottenere
l’effetto ”ago nel pagliaio”. È una tecnica antichissima, attualmente usata principalmente
con carrier digitali come file system di sistemi operativi, pacchetti web o altro; è stata usata
per scopi militari o di intelligence, per tracciare la diffusione di informazioni, per spionaggio
industriale, per coprire fonti nel giornalismo investigativo, per evitare censure o regimi op-
pressivi, per la gestione del copyright, per controllare l’integrità di file, per attacchi malevoli
e per molte altre cose.

1.1.1 Esempio dei prigionieri


Supponiamo che ci siano due prigionieri, A e B, confinati nelle loro celle; possono co-
municare ma solo attraverso una guardia che quindi sa tutto ciò che viene detto da A a B.
La soluzione sarebbe che A metta nella busta un’informazione sull’evasione, ma in modo
nascosto.

1.1.2 Il triangolo magico


La comunicazione steganografica ha tre proprietà, caratteristiche:

• Banda: la quantità di informazioni che posso inserire nel contenitore e il tempo


necessario per il suo inserimento
• Undetectability: quanto è facile trovare l’informazione
• Robustezza: quante modifiche si possono fare al carrier prima che l’informazione venga
distrutta

7
Queste tre proprietà sono legate tra loro, ma soprattutto non si può quasi mai aumentare
una metrica senza che le altre due calino. A volte si aggiunge anche la metrica del costo
steganografico: inserire le informazioni sul carrier quanta distorsione o degradazione causa?
Questi tre parametri possono anche essere usati con scopo difensivo, cercando quale delle
proprietà è sbilanciata e può essere sfruttata per individuare l’informazione nascosta.

1.2 La difesa
1.2.1 Il watermarking
È l’utilizzo di una tecnica steganografica per marcare qualcosa, come un timbro invisibile.
Questo ad esempio si può fare per motivi di copyright, quando il dato è ancora digitale,
ma questo non basta: è sempre possibile sfruttare il cosiddetto analog hole. Ad esempio,
nell’ambito musicale, se anche il file audio è protetto, posso sempre aprire il microfono del
telefono e registrare, anche se la qualità ovviamente scende. In questo caso si parla di analog
loop, anche se in realtà esistono watermark per video ad esso resistente.
In generale, il watermarking è usato anche per tracciamento dei file, per problemi di integrità
o per problemi di metadatazione. Si può fare con audio, video, immagini, mappe, dati
medici o biomedicali, mesh 3D, traffico di rete e altro. Il timbro, come comunicazione
steganografica, deve essere invisibile (per non interferire con l’utilizzo della slide), deve
essere robusto (in questo caso difficile da togliere) e deve contenere la quantità ottimale
di dati. Purtroppo non esistono tecniche di steganografia universali, ma ogni tecnica si
deve adattare al contenitore, specialmente se si vogliono ottenere delle specifiche prestazioni
(robustezza o invisibilità, ad esempio).

1.2.2 Steganografia LSB


LSB sta per least significant bit: una possibile tecnica è sacrificare il bit meno signi-
ficativo dell’RGB di alcuni pixel per contenere un’informazione a mia scelta. L’immagine
non viene visibilmente alterata, perché cambiare di 1 il valore dei un canali di qualche pixel
non modifica in modo sensibile il colore del pixel. Se volessi inserire più dati magari dovrei
usare due bit del canale: ho più spazio, ma l’alterazione è più visibile. Quindi, come già
visto, banda e undetectability sono spesso in contrasto una con l’altro. Come attaccante
una possibilità per fare andare via il watermark è comprimere l’immagine, oppure posso ag-
giungere del rumore, posso ruotare e/o ritagliare l’immagine, oppure ancora posso ricoprire
il watermark.

1.3 L’attacco
Le tecniche appena viste si possono anche usare per attaccare: ad esempio il watermark
invece che un immagine potrebbero essere dati per un malware. Ma perché un attaccante
potrebbe voler usare l’information hiding per offendere? Principalmente per motivi di mi-
metismo. Consideriamo la rete A di una certa compagnia, connessa a Internet e protetta
da un firewall. La tecnica di information hiding potrebbe essere usata per far sembrare una
comunicazione malevola come lecita. Oppure potrebbe essere usata se i dispositivi sulla rete
A sono già stati infettati e devono inviare dati trafugati all’esterno, in modo che non si veda
quali dati vengono trasmessi. I canali steganografici sono tipicamente di due tipi:
• Locale: tra processi e/o macchine virtuali presenti sullo stesso dispositivo, magari per
bypassare controlli di sicurezza. Questo si può usare ad esempio nei dispositivi mobili,
in cui ogni applicazione è avviata in una sua sandbox che può essere comunicare con
l’esterno solo su consenso dell’utente e in modo molto limitato (ad esempio un’appli-
cazione che ha accesso alla rubrica è facile che non abbia accesso alla rete). Un attacco
efficace, in questo caso, può utilizzare due software diversi, in due scatole diverse, con
permessi diversi, che comunicano tra loro per usare in modo combinato le aperture
delle varie scatole, ad esempio per copiare la rubrica e inviarla a un server online

8
• Di rete: tra macchine che per raggiungersi tra loro devono attraversare l’Internet

Teniche di storage
Funzionano più o meno come la steganografia LSB: sacrifico uno o più bit di un pac-
chetto per trasmettere l’informazione desiderata, cercando di rimanere nell’invisibile. È più
complicato che con le immagini, perché non devo modificare bit che non compromettano il
funzionamento della trasmissione/ricezione.

Tecniche di timing
Siccome il firewall ragiona per protocolli, indirizzi e simili, io potrei codificare l’infor-
mazione nel ritardo tra due pacchetti di per sé innocui, cercando di mantenere il sistema
sufficientemente affidabile, ad esempio rispetto alla variabilità del carico della rete e la
conseguente variabilità del tempo necessario alla trasmissione del pacchetto.

9
Capitolo 2

Il valore dei dati per una


transizione ecologica partecipata
e sostenibile

Video con definizioni

2.1 Definizioni
2.1.1 Definizione di Bruntland
La sostenibilità

2.1.2 Definizione di Robert


Parte dalla termodinamica e con un gruppo di 50 scienziati
Modello di riferimento: piante che si nutrono di prodotti animali (CO2 ) e animali che si
nutrono di prodotti vegetali (O2 ). Altra cosa importante: nulla si crea e nulla si distrugge,
tutto si trasforma e basta; fino alla seconda rivoluzione industriale questo non è stato un
problema. Secondo principio della termodinamica: l’entropia cresce. Creo uno smartphone,
dopo un milione di anni ho un cumulo di polvere, dopo un milione di anni si è sparso, non
riottengo uno smartphone, è un processo irreversibile. La fotosintesi paga il conto: usa
l’energia del Sole per trasformare la struttura della materia. La sostenibilità è la capacità di
una società di fare in modo che i vari cicli ambientali possano proseguire senza particolari
disturbi. Ora si parla molto di sostenibilità energetica: da anni si è partiti con la produzione
di energie alternative e sostenibili, probabilmente grazie alla crisi petrolifera degli anni 90.
La crisi era più di natura politica, ma è stata una lezione importante sui limiti del petrolio.
Questo non è stato fatto con le materie prime: la loro disponibilità è un problema quando
la richiesta cresce in modo non prevedibile. Non era ancora successo qualcosa del genere
perché la richiesta non era mai stata cosı̀ alta e perché i depositi erano abbastanza a portata
di mano; attualmente i depositi più facilmente raggiungibili sono sfruttati ma potenziare la
capacità produttiva non è cosı̀ facile. Per l’energia è difficile riciclare, mentre con i materiali
è più facile anche se non sempre: con i metalli è facile e si può fare all’infinito, con i polimeri
un po’ meno.

2.2 L’industria elettronica


Tante applicazioni prevedono l’uso di molti materiali particolari, ma in generale si trat-
ta di casi circoscritti, composti da magari 10, 20 materiali; in un apparecchio elettronico
mediamente ce ne sono almeno 45. Tutti questi elementi non sono comparsi oggi. Fino
all’inizio del 700 gli elementi usati dall’uomo erano sostanzialmente quelli naturali, pochi

10
minerali, metalli, vetro; l’energia era sostanzialmente animale, idraulica. Con l’avvento della
rivoluzione industriale e la disponibilità di energia meccanica a costi relativamente bassi,
bruciando del carbone, c’è stato un boom di attività che ha introdotto nei cicli produtti-
vi sempre più materiali. Con seconda e terza rivoluzione industriale sono comparsi leghe
e materiali nuovi, fino ad arrivare all’industria dell’elettronica. Tuttavia i processi di re-
cupero non si sono evoluti abbastanza per riuscire a riutilizzare i materiali impiegati nelle
apparecchiature elettroniche: oggi le apparecchiature elettroniche vengono trattate ora come
trent’anni fa, in quanto i sistemi di recupero sono create per recuperare quantità massicce
di materiale e con materiali presenti in piccole quantità non funzionano, come nel caso dei
45 materiali dei dispositivi elettronici. Tutti gli altri vengono perduti per sempre, mentre
quelli recuperati spesso vengono recuperati in basse percentuali. Sono inoltre dispositivi
difficili da riparare. Una possibile soluzione a questo problema è usare gli apparecchi vecchi
per produrre apparecchi nuovi. I materiali persi sono quelli presenti in quantità minore,
cioè quelli di maggior valore socio-economico. Attualmente lo smaltimento viene effettuato
triturando tutto facendo un po’ di selezione con magneti e/o a mano e basta. Questo pro-
cedimento è tecnicamente difficile ed economicamente insostenibile. Una possibile soluzione
è raccogliere i dati sulla composizione dell’apparecchiatura per poi smontare i dispositivi
pezzo per pezzo (smontaggio selettivo) in modo da essere riutilizzati, secondo un processo
di economia circolare che dà un consumo minimo di materiali e il processo potrebbe quasi
autosostenersi, anche se i prodotti potrebbero avere un leggero sovrapprezzo rispetto ad
altri di pari qualità.

11
Parte II

Modulo: Analisi del rischio


Relatori: Luca Piccardo, Fabio Pioli, Patrizia
Kern-Ferretti, Andrea Mazza, Paola Cerchiello

12
Capitolo 3

Banche: come trattare il


rischio?

3.1 Il rischio in ambito bancario


Il rischio è la possibilità di subire un danno a seguito di eventi più o meno probabili. Si
può quindi parlare di rischio quando è possibile stimare la probabilità che tale o tali eventi
accadano in un determinato lasso di tempo. Se si accetta un rischio è perché al possibile
danno corrisponde un possibile beneficio, entrambi con le rispettive probabilità; tali fattori
concorrono a determinare il risk appetite. Per una banca il rischio è quello di perdere denaro,
il beneficio è quello di guadagnarne; pertanto una banca non deve minimizzare il rischio, in
quanto diminuirebbe anche il beneficio, ma lo deve ottimizzare.

3.2 Come funziona una banca


In estrema sintesi, una banca ha due funzioni principali. Conserva i soldi dei risparmiato-
ri, a cui conviene lasciare i propri soldi in banca perché offre maggiore sicurezza (ad esempio
rispetto a furto e danneggiamento), e poiché non è conveniente tenerli fermi (ad esempio c’è
il rischio che si svalutino) concede credito a chi ha bisogno di liquidità immediata in cambio
di interessi attivi. Gli interessi attivi cosı̀ incassati vengono investiti come interessi passivi
per avere più liquidità. È quindi evidente che più viene depositato in banca, più la banca
ha possibilità di concedere prestiti, quindi di avere interessi attivi, quindi passivi e infinine
guadagni, da concedere a prestito o da investire reinnescando il circolo. Pertanto la banca
cerca sempre di incentivare al deposito.
Il sistema banca-creditore-debitore è un sistema chiuso, e se una delle tre componenti ha
problemi anche le altre due ne risentono. Inoltre, come approfondito in seguito le banche
sono in qualche modo collegate le une alle altre, come cellule in un tessuto, e quindi se una
banca ha problemi è facile che altre banche in qualche modo vicine ne soffrano.

3.3 Tipologie di rischio bancario


Rischio liquidità: è il rischio di avere perdite dovute all’insufficiente liquidità tenuta
da parte dalla banca per ripagare i creditori a causa del mancato equilibrio tra entrate e
uscite.
Rischio tasso: è il rischio di perdite causate dalla variazione dei tasssi di interessi,
che potrebbero portare ad avere entrate provenienti dagli interessi attivi minori delle uscite
dovute agli interessi passivi. Può essere causato da:
• Differenti scadenze degli interessi. Interessi attivo e passivo possono avere scadenze
differenze. Se le entrate dovute agli interessi attivi sono cronologicamente più lontane
delle uscite dovute agli interessi passivi la liquidità della banca rischia di diminuire.

13
• Tasso fisso e variabile. Si parla di tasso fisso quando, alla stipula del contratto, si
concorda che il tasso non varierà durante il periodo di tempo previsto dal contratto.
Si parla di tasso variabile quando si concorda che il tasso vari secondo determinati
indicatori di mercato; se le cose vanno bene i tassi scendono, altrimenti salgono. In
generale, tasso e rischio sono strettamente legati. Ad esempio una persona o una banca
rischiosa che chiede un prestito, se lo ottiene, lo ottiene a tassi molto alti.
Rischio di credito: è il rischio che un debitore (da qui in poi definito posizione) non
riesca a restituire alla banca il denaro prestato. Tipicamente è causato da una situazione
finanziaria problematica per il debitore.
Rischio operativo: è il rischio di subire perdite dovute al malfunzionamento dalla
banca o a eventi esterni. È uno dei rischi principali, ma anche uno dei meno normati.
Tipicamente porta a piccole perdite ripetute o grandi perdite molto rare. Può essere causato
da:
• Risorse umane. Si può cadere in frodi, possono accadere violazioni di regole interne o
possono essere commessi errori per incompetenza o negligenza.
• Sistemi informativi. Possono esserci malfunzionamenti hardware software nell’infra-
struttura informatica utilizzata.
• Processi. Procedure e/o controlli interni potrebbero essere malfunzionanti.
• Eventi esterni. Possono avvenire calamità naturali, rapine, e in generale eventi non
controllabili dalla banca.
Rischio di sistema: è il rischio che si verificano situazioni critiche nell’ambito in cui la
banca opera che possano farle perdere liquidità. Le possibili cause sono:
• Crisi economiche di sistema. Ad esempio, la crisi provocata dal lockdown pandemico
rientra in questa voce. In Italia, per cercare di mitigare i danni, sono state presi due
provvedimenti: si è permesso ai debitori di non pagare le rate per qualche tempo e
sono state fornite garanzie statali alle banche che avevano credito presso aziende che
non avevano liquidi per pagare. Non è chiaro se tali misure siano servite a salvare
dalla crisi o la abbiano solamente posticipata.
• Insolvenza di una banca. Se una banca non riesce a ripagare il proprio debito ad altri
è frequente che il suo fallimento crei gravi problemi all’intero sistema bancario.
Rischio di mercato: è il rischio legato all’investimento in settori che potrebbero perdere
di valore.
Rischio reputazionale: è esploso nell’era dei social, ma è sempre esistito. È il rischio
che, a seguito di scelte della banca (ma non solo, come nel caso della corsa agli sportelli) si
abbiano danni d’immagine e il rapporto con i clienti venga compromesso.
Rischio ESG: l’acronimo ESG significa Environment-social-governance. Sono rischi
legati a normative recenti adottate dagli stati per cercare di rendere l’economia più eti-
ca, sostenibile e inclusiva; è relativo all’ambiente, all’aspetto sociale e dei diritti umani.
Ad esempio, a livello di governance, bisogna includere nel consiglio di amministrazione a
prescindere da genere o estrazione etnica. Dovendo rispettare normative di questo tipo le
banche sono più propense a prestare liquidi ad aziende impegnate nella transizione econo-
mica o non producono sfruttando manodopera in stati in cui i lavoratori sono sottopagati.
Da qui si evince l’importanza del settore finanziario per indirizzare il sistema verso uno
sviluppo e un’economia etica, sostenibile e inclusiva.

3.4 Copertura dei rischi


I rischi si coprono mettendo da parte liquidi, in due possibili modi:
• Rettifiche: per ogni investimento si tiene da parte una quota pari alla perdita attesa.
La normativa di riferimento è la IFRS9.
• Capitale: vengono usati fondi propri per coprire eventuali perdite. Nelle società per
azioni si tratta di fondi forniti dagli azionisti. La normativa di riferimento è la CRR.

14
3.4.1 Il Comitato di Basilea
Il Comitato di di Basilea è un organo nato con le autorità di vigilanza del G10 per cercare
di assicurare la stabilità del sistema bancario omogeneizzando la normativa tra gli stati
componenti. Ad esempio, prima dell’uniformazione, in alcuni stati la normativa prevedeva
di dover mettere da parte meno liquidi rispetto a quanto previsto dalle leggi vigenti in altri
stati; di conseguenza le banche che operavano in tali nazioni erano avvantaggiate rispetto alle
altre, in quanto, dovendo mettere da parte meno liquidità, avevano maggiore disponibilità
denaro da investire. Il Comitato di Basilea non è vincolante, ha solo potere di moral suasion;
le sue decisioni vengono solitamente adottate dai 10 stati fondatori e da altri stati che non
ne fanno direttamente parte. Attualmente, le norme decise dal Comitato vegono adottate
da 28 paesi.

Basilea I
Nel primo Comitato di Basilea si è deciso che le banche debbano conservare un patrimonio
di vigilanza maggiore o uguale all’8% del capitale a rischio secondo parametri decisi da
tabelle redatte durante l’incontro.
Tale approccio presentava però due notevoli limiti:
• Nel capitale a rischio sono considerati solo i rischi di credito, quindi si sottostima la
liquidità necessaria per coprirsi.
• I parametri decisi sono fissi e non dipendono dal mercato, con il conseguente rischio
che con il passare del tempo diventino poco accurati.

Basilea II
Le decisioni prese nella seconda riunione del Comitato di Basilea vengono riassunte in
tre grandi pilastri:
• Pillar 1: nella cifra su cui calcolare l’8% decisa da Basilea I viene incluso anche il
rischio operativo e di mercato; i coefficienti di rischio possono essere determinati con
dati interni, ma è un procedimento che di solito solo banche molto grandi riescono a
mettere in atto.
• Pillar 2: le banche devono inviare trimestralmente un report riguardante la propria
situazione riguardo a rischi attuali, rischi futuri e capitale a due enti appositi, ICAAN
e ILAAP, richiedendo l’approvazione.
• Pillar 3: le banche devono redarre periodicamente un documento contenente tutte le
informazioni sui propri rischi da presentare ai mercati.

Incontri successivi
Attualmente si è arrivati a Basilea IV, con cui sono state prese decisioni che hanno dato
vita a linee guida che si stanno sviluppando in modo abbastanza autonomo.
Il lavoro necessario per fare le valutazioni di cui sopra è immane e molto delicato ed è ciò
di cui si occupa il Risk Management, che deve equilibrare la necessità di coprirsi dai rischi
voluta dalla normativa con lo scopo della banca che è quello di ricavare utili.

3.5 Il credito
3.5.1 Caratteristiche e segmento del credito
Il credito emesso da una banca è caratterizzato da varie proprietà:
• Tipologia di chiusura del contratto: può essere a revoca (come ad esempio un conto
corrente) oppure a scadenza (come ad esempio un mutuo)
• Durata del contratto: può essere a breve, medio o lungo termine

15
• Tipologia di rimborso: può essere rateale o non rateale, come ad esempio i conti
correnti con sconfinamento
• Tipologia di tasso: può essere fisso o variabile, ad esempio secondo precisi indicatori
finanziari

• Tipologia di garanzia: può essere a garanzia reale (cioè con un oggetto fisico a ga-
ranzia), a garanzia personale (se il debitore non paga il garante pagherà per lui) o in
alcuni rari casi, tipicamente non per i privati, non garantito
Ogni credito emesso dalla banca viene categorizzat in uno specifico segmento del credito,
il cui scopo è identificare una classe di utenti che statisticamente hanno comportamenti
simili fra di loro.

3.5.2 Status del credito


Una posizione può essere:

• In bonis: il cliente sta pagando quanto deve in linea con il contratto e tutto va bene
• Default o Past due: il cliente non paga da almeno 90 giorni e inizia ad essere contattato
dalla banca per incentivarlo a pagare. È uno status reversibile, quindi il cliente può
ritornare in bonis dopo aver pagato

• Unlike to pay (UTP ): il cliente è in una situazione nella quale è improbabile che ripaghi
del tutto, quindi la banca prova azioni per aiutare il cliente a pagare. Ad esempio la
banca può proporre di diminuire l’importo delle rate, ma di aumentare il numero di
mensilità richieste
• Non performing loans (NPL): il cliente non è e non sarà in grado di ripagare il debito,
quindi per vie legali la banca cerca di rimetterci il meno possibile
Il percorso non è necessariamente lineare, si può saltare da una categoria all’altra. Inoltre
le banche, tramite la Centrale dei rischi, condividono tra loro informazioni sulla situazione
del credito di loro posizioni. In tal modo le banche possono decidere di spostare una posizione
da una categoria a un’altra sapendo cos’è successo ad altri: ad esempio, se una posizione va
in sofferenza in una banca, è molto facile che a breve andrà in sofferenza in un’altra.

3.6 Le perdite
3.6.1 La perdita attesa
La banca va in perdita quando la posizione è in default e non può più pagare il debito.
In tal caso si ottiene una perdita che si può scrivere come:

Li = 1Di · LGDi · EADi

in cui, per l’i-esima posizione Li è la perdita, 1Di è la probabilità di default (cioè l’evento
certo in questo caso), LGDi è la percentuale di denaro non restituita rispetto alla cifra totale
prestata e EADi è la cifra totale prestata. Poiché il verificarsi del default è una variabile di
Bernoulli 1 si ottiene che la perdita attesa è:

E(Li ) = P (Di ) · LGDi · EADi

Quindi su un portafoglio di N posizioni si ottiene:


N
X N
X
E(L) = E(Li ) = P (Di ) · LGDi · EADi
i=1 i=1
1 Vedi https://en.wikipedia.org/wiki/Bernoulli_distribution

16
3.6.2 La perdita inattesa
Il concetto di perdita inattesa copre eventuali perdite eccezionali collegate al default di
una posizione ed è rappresentato matematicamente con il concetto di deviazione standard:
p
ULi = V{1Di · LGDi · EADi }

In realtà gli eventi di default non sono scorrelati. Considerando un portafoglio costituito da
due asset L1 e L2, entrambi con LGD = 100 e EAD = 1, posto ρ = corr(L1, L2) si può
dimostrare che:
p p
UL2 = P1 (1 − P1 ) + P2 (1 − P2 ) · 2ρ P1 (1 − P1 ) P2 (1 − P2 )

in cui P1 e P2 non ho capito cosa siano. Quello che si vuole mostrare è che in questo caso
ci sono tre possibilità:
• ρ < 0: le controparti sono inversamente interrelate, ovvero un asset può servire da
copertura del rischio dell’altra

• ρ = 0: il portafoglio è perfettamente diversificato. In generale, investendo in assets


differenti, si riduce il rischio
• ρ > 0: le controparti sono interrelate, ovvero il default di una rende più probabile il
default dell’altra

Tuttavia, tipicamente per stimare la perdita attesa si utilizza un metodo a quantili: ho


la distribuzione delle perdite e fisso un quantile (solitamente maggiore del 98° percentile) che
definisco come perdita inattesa. A questo punto il capitale economico necessario a coprire
rischi di questo tipo è la differenza tra perdita inattesa e perdita attesa. Tale quantità di
denaro deve essere maggiore o uguale alla somma fissata dalla normativa.

3.6.3 Il ciclo economico


Le bache si muovono in un sistema economico che però non è stabile: ad esempio,
quando il PIL aumenta ci sono meno perdite, mentre quando il PIL diminuisce ci sono
maggiori perdite. Questo è un concetto che all’interno della stima dei parametri di rischio
va assolutamente preso in considerazione, talvolta anche da normativa.

I parametri di rischio
I parametri di rischio sono di tre tipi:
• Through the cycle: sono parametri non condizionati dal ciclo economico. Ad esempio
il capitale richiesto appartiene a questa categoria, in quanto non si vuole che sia troppo
volatile nel tempo
• Point in time: sono parametri condizionati dal ciclo economico corrente. Si usano ad
esempio nei bilanci annuali per determinare la perdita attesa corretta relativa all’anno
di riferimento
• Forward looking: sono parametri condizionati dal ciclo economico futuro. Si usano ad
esempio per stimare le perdite attese negli anni successivi

3.7 La stima della probabilità di default


Tutto ciò appena visto non è fattibile se non si ha una stima della probabilità che una
posizione vada in default. Il processo di costruzione di un modello per stimare la probabilità
di default (PD d’ora in poi) prevede varie fasi.

17
3.7.1 Individuazione della variabile target
Per la creazione del modello serve un campione rappresentativo del fenomeno che si
vuole analizzare e prevedere, ovvero bisogna individuare le posizioni che possono fornirmi
informazioni utili. Bisogna inoltre definire in modo preciso il concetto di default, in quanto
la definizione può variare nel tempo e non è cosı̀ scontata. Nel nostro caso la PD ha come
obiettivo quello di individuare lo stato di salute del debitore, inteso come la probabilità di
andare in dafault. L’obiettivo è analizzare la prestazione del debitore intesa come il suo
stato al termine del periodo di osservazione, che è tipicamente di un anno.

3.7.2 Preparazione e selezione dei dati


La normativa lascia molta liberta di scelta su come realizzare un campione. Uno dei
modi per costruirlo è raccogliere i dati storici utili a individuare quali sono le caratteristiche
discriminanti tra le posizioni andatie in default rispetto a quelle sempre rimaste in bonis.
Il campione si può costruire, ad esempio, con i dati di una serie di posizioni in bonis a
una certa data di riferimento che poi, dopo un anno possono essere rimaste in bonis oppure
no.
Un’altra possibilità è utilizzare le informazioni su altre posizioni andate in default per
la prima volta e osservando la loro situazione un anno prima. Questo approccio ha però
un limite: il modello conosce solo il default e va quindi bilanciato con i dati su altrettante
posizioni che sono rimaste in bonis.
Una volta selezionato il campione bisogna individuare tutti i possibili indicatori che
possono essere rilevanti nel prevedere la performance della controparte; devono inoltre essere
dati economicamente interpretabili per evitare ogni sorta di correlazione spuria. Tali dati
possono essere già posseduti dalla banca, possono arrivare dalla centrale dei rischi oppure
possono essere acquistati da aziende che si occupano di collezionare e vendere dati. Tali dati
possono essere di quattro tipi:
• Qualitativi: ad esempio i dati anagrafici o le motivazioni del prestito
• Quantitativi grezzi: ad esempio il numero di rate non pagate o il fatturato
• Quantitativi derivati: sono dati che mettono insieme più indicatori grezzi, come il
rapporto tra denaro utilizzato e quello accordato o il rapport tra la rata e il reddito
• Quantitativi su più periodi: ad esempio la differenza nel fatturato degli ultimi due
mesi o il numero di rate non pagate nei precedenti sei mesi

3.7.3 Pulizia dei dati


Per ottenere un modello preciso e soprattuto replicabile, come richiesto dalla normativa,
i dati devono superare un processo di pulizia e controllo qualità. Tale necessità si riassume
perfettamente con l’espressione anglofona ”Garbage in, garbage out”.
Tipicamente, quando si puliscono i dati, si pone particolare attenzione alla gestione
dei valori mancanti e dei valori oltre percentili estremi, valultandone anche l’eliminazione.
Una volta completata questa fase si è ottenuto un grande campione contenente centinaia
di variabili che compongono la cosiddetta long list. Da questo momento si può iniziare a
stimare un modello.

3.7.4 Da long list a short list


Si comincia quindi a scegliere le variabili più significative tramite varie tecniche, anche
con tecniche automatiche e semiautomatiche come il machine learning. In quest’ambito due
indici molto importanti sono il WoE (Weight of Evidence) e il IV (Information Value), che
indicano quanto una variabile discrimina rispetto a quello che stiamo cercando. Ad esempio
una scelta che si può fare è di escludere tutte le variabili che hanno un IV inferiore a una
certa soglia. Bisogna poi fare attenzione alla correlazione tra le variabili: se due variabili
sono molto correlate è inutile tenerne due, qiundi si elimina quella con IV più basso.

18
3.7.5 Costruzione del modello
Una volta ottenuta la short list si stimano i parametri del modello, che solitamente è
una regressione logistica in quanto è molto adatta allo scopo. Si effettueranno poi test
diagnostici e di validazione.
In base alla PD stimata, come da normativa, vengono costruite delle classi di rating,
con specifiche caratteristiche. Ad esempio, da una classe all’altra la PD deve crescere
esponenzialmente e le classi devono essere almeno 7.

19
Capitolo 4

Rischio aziendale

4.1 Il rischio assicurativo


Secondo Wikipedia un rischio è una situazione in cui ci si espone a un pericolo. In
quest’ambito bisogna sempre prepararsi degli scenari, dal migliore al peggiore, per prepararsi
a subire anche il peggiore; non vuol dire che succederà, ma nel caso bisogna essere pronti.
In termini marittimi, la probabilità che una nave affondi è dello 0.40%.
L’assicurazione è un accordo per cui una compagnia o uno stato fornisce un compenso
per specifiche perdite o danni.
In quest’ambito si parla con i broker, non direttamente con le compagnie. È una sorta
di intermediario che offre al cliente molte diverse oppzioni. EON ogni anno fa una lista
di ciò che circa 2500 risk manager reputano il peggiore rischio: nel 2021 il primo rischio
della classifica è quello degli attacchi informatici. Poi, non necessariamente in ordine, ci
sono ad esempio il rischio reputazionale, il rischio di malfunzionamento della catena degli
approvvigionamenti, il rischio di modifiche nella normativa a cui adeguarsi, il rischio di
competizione, il rischio di non riuscire a innovarsi o di non riuscire a raggiungere i bisogni
del cliente. I rischi sanitari sono solo al settimo posto. A livello di Stato tutto questo può
cambiare in modo notevole, ad esempio per una task force del governo svizzero il rischio
pandemico è attualmente il secondo per ordine di importanza. L’ordine della classifica può
cambiare tantissimo con il tempo, la pandemia per esempio ha rivoluzionato tutto.
Un rischio è assicurabile quando è misurabile: non tutti i rischi quindi lo sono; ad esempio
il rischio reputazionale o quello di non riuscire ad innovare non sono assicurabili. Tuttavia
alcuni rischi sono assicurabili, ma sono molto rischiose, ad esempio nel campo del rischio di
cyberattacchi, in cui il danno non è limitabile. La catena degli approvvigionamenti è più
facilmente assicurabile, perché il danno economico è più facilmente limitabile.

4.2 L’appetito per il rischio in ambito assicurativo


È il tipo di rischio e il suo ammontare che una compagnia decide di assicurare. Swiss Re
ha come peggiore scenario una petroliera che scontra contro una nave passeggera america-
na. Tipicamente il risarcimento è proporzionale agli stipendi che i morti avrebbero dovuto
ricevere. Ora i dati sono ampiamente disponibili, 160 non c’erano: a quei tempi si usava
esclusivamente la storicità. In un’industria come la logistica i sinistri del passato non ser-
vono per proiettare il futuro, ora si usano dati come quelli sulla posizione e molto altri,
quindi si riescono a fare stime sul rischio molto più precise. Negli ultimi decenni il rischio
marittimo, ad esempio, è diminuito della metà, ma non perché questo sia diventato meno
pericoloso: nello spostamento delle macchine, per esempio, le batterie possono esplodere e
questo un tempo non succedeva perché le macchine non c’erano.
Un attuario (assicuratore?) ha dei modelli e ci infila dati finché non ne trova uno che
funziona, uno statistico ha dei dati e cerca modelli che funzionino.
Come compagnie quotate in borsa molte assicurazioni devono garantire un profitto agli
azionisti. L’appettito per il rischio è determinato principalmente da:

20
• Richieste degli azionisti in termini di profitto
• Livello di conoscenza nell’ambito assicurativoù
• Competizione

• Copertura dei costi di riassicurazione o retrocessione


Bisogna sempre trovare un equilibrio tra profittabilità, livello di capitale, livello di solvenza,
obiettivi di mercato. Le assicurazioni guardano i mercati e scelgono quanto vogliono guada-
gnare; ad esempio Swiss Re deve avere un guadagno del 5% e pertanto si deve allocare un
certo capitale.
Tutti questi fattori determinano l’appetito al rischio di una azienda assicuratrice.

4.2.1 Il livello dell’appetito del rischio


L’approccio al rischio di assicurati e assicuratori può essere suddiviso in tre step:

• Qual è il risk appetite


• Qual è il profilo del rischio: ora lo si ottiene attraverso i dati, prima solo attraverso
l’esperienza e questo è stato un enorme cambiamento
• Risk tolerance, in cui entrano in gioco limiti basati sulla frequenza e sulla severità del
rischio totale, oltre alla proiezione degli scenari

4.3 Solvency II
È una direttiva europea che codifica la liquidità che un’assicurazione deve mettere da
parte per coprire il proprio rischio. È entrata in vigore nel 2016. Ha tre pilastri principali
che regolano tutto:

• Requisiti di capitale: quanti liquidi vanno tenuti da parte per coprire i rischi
• Gestione del rischio: osserva tutti i processi dell’assicurazione per vedere cosa è
successo e come migliorare. Paradossalmente non avere incident non è un segna-
le particolarmente positivo perché vuol dire che non si rischia e non c’è possibile
guadagno
• Disclosure management

21
Capitolo 5

Digital Marine Insurance

5.1 Da SMID all’assicurazione marina


Il realatore con la sua laurea in SMID ha provato a portare nuovi metodi tecnici per il
calcolo dei prezzi delle assicurazioni in cui ha lavorato, spesso trovando il parere contrario
di chi faceva quel mestiere da decenni. Ora lavora per la startup Digital Marine Insurance
che si occupa di assicurare navi, sia la struttura del natante sia il carico.

5.2 I nuovi dati


Una differenza con le banche è che i dati usati in assicurazione non possono assolutamente
essere condivisi con altri, si rischia di finire nel penale.

5.2.1 Assicurazioni immobiliari


Negli anni sono stati sviluppati sorgenti dati che il mercato assicurativo cerca di usare a
proprio vantaggio.
Esempio: devo assicurare un edificio a Miami, guardo le immagini satellitari e con le
previsioni posso capire se l’edificio è a rischio tifone o no. In quest’ambito c’è un software
(NatCat) sviluppato da Swiss Re che segnala le zone geografiche più pericolose dal punto di
vista ambientale.

5.2.2 Assicurazioni sulla vita


Ormai con l’IoT s generano tantissimi dati che possono essere comprati e, a livello
statistico, per la salute possono essere estremamente utili, ma questa branca è estremamente
normata dalle leggi sulla privacy. A livello legale è molto facile che si proceda per aree grige:
si lascia momentaneamente un vuoto normativo e, quando si vedono usi di dati che non
piacciono, si aggiorna la normativa, in quanto è estremamente difficile per una istutuzione
prevedere i possibili usi scorretti dei dati. Altri dati utili possono essere quelli provenienti
dalla domotica, in quanto può fornire dati importanti sullo stile di vita delle persone e quindi
aiutare a determinare il rischio di assicurazione.

5.2.3 Assicurazioni automobilistiche


Una novità che genera dati è quella della scatola nera che riesce a profilare il guidatore
per riuscire a stimare meglio il rischio; un’altra è quella delle automobili di Tesla, che sta
entrando nel mercato assicurativo data l’enorme mole di dati che proviene dalle vetture.
Anche i social, in tutte queste categorie, hanno una grandissima importanza come fonti
di dati, con l’intelligenza artificiale da essi si può capire tantissimo.

22
5.3 Ieri e oggi
Che differenza c’è tra Titanic e Concordia? Nel 1917 è bruciata un cargo che trasportava
carburante; nel 2006 c’è stato un incendio sulla Hyunday Fortune, nave portacontainer che,
come tutte queste navi, ha pochissimo equipaggio e non ha modo di spegnere l’incendio.
Incidenti come questi, con tutti i dati attualmente disponibili, non dovrebber neanche
succedere. Paradossalmente invece gli incidenti sui cargo, ad esempio, sono aumentati, ad
esempio a causa delle dimensioni delle navi o delle merci trasportate, come le auto con le
infiammabili batterie al litio.

5.4 Minimizzare la probabilità di incidenti


5.4.1 Sorgenti dei dati
Prima sorgente di dati
• Prima parte:

• Dati che provengono direttamente dall’assicurato, che compra o vende (e trasporta)


un determinato bene
• Le clausole assicurative, cioè ciò che viene o non viene assicurato
• Dati di comportamento: l’assicurato, in quanto tale, che rischio ha rispetto a potenziali
assicurati in ambiti simili

Seconda parte
Sono informazioni provenienti da chi trasporta: Amazon, DHL etc. Si capisce come
l’assicurato lavora, cosa è successo negli ultimi anni e se ci sono stati dei sinistri. Spesso non
si sa che il tale incidente è stato della tale azienda per motivi di privacy, ma ad esempio si
possono avere dati aggregati per settore industriale. Si possono ottenere anche informazioni
sulla catena di approvvigionamento di una certa azienda e possono avere un grande impatto

Terza parte
Sono i dati comportamentali, tutti i dati su come, ad esempio, una nave è stata gestita
in passato, e quindi come probabilmente sarà gestita in futuro; ad esempio, una nave che
attraversa il polo una volta al mese e una che rimane solo nel Mediterraneo, senza dati
di questo tipo, hanno lo stesso rischio. Con i dati ci si avvicina sempre di più al mercato
assicurativo su misura. Questi dati non vengono da aziende nel mondo prettamente logi-
stico ma da aziende che aggregano dati, o li ricevono via satellitare o altre cose, e il loro
compito è quello di pulirli, farti vedere come usarli e venderli. Per una nave si possono avere
informazioni sulla posizione in tempo reale, sul carico, sui porti che una nave ha toccato, le
sue caratteristiche come l’età e l’ente di classifica. Altre informazioni sono quelle sul tempo
atmosferico, che però sono più complicate da gestire, gli storici possono venire bene.

5.4.2 Uso dei dati


I modelli che si usano devono essere interpretabili anche da qualcuno che non sia uno
statistico, ma nulla impedisce di accoppiare a modelli interpretabili modelli più algoritmici,
che permettono di fare analisi sulla posizione, sulla velocità, sul meteo. L’obiettivo finale è
quello di dare un punteggio di rischio a ogni nave e/o carico.

5.5 Analisi del gestore delle navi


Anche queste sono informazioni molto importanti: una nave che viene controllata ogni
6 mesi è molto più sicura di una nave che viene controllata ogni 4 anni. Un indicatore è la

23
Ship to ship operation: non è qualcosa di illegale per alcune tipologie di merci (ad esempio
carburante), per altri tipo le armi sı̀. Queste azioni vengono tracciate guardando la velocità
media, la posizione dell’ancora, la distanza dalle navi vicine. La certezza dell’avvenuto SPS
non c’è mai, ma se una nave è sospettata di fare 200 sps all’anno la situazione è ben diversa
da una che potrebbe averne fatte 5.
Un altro dato interessante è quello sugli armatori che sfruttano il beaching: assicu-
rare armatori che sfruttano tali pratiche, se viene a galla, può essere un enorme danno
d’immagine.

5.5.1 Impatto dell’IoT


Per le navi
L’IoT può fornire moltissime informazioni, ad esempio sullo stato di componenti delle
navi: quanto è sfruttato un motore rispetto alle sue possibilità, con che regime. Questo
informazioni vengono inviate soprattutto quando si è vicino ai porti o al massimo per via
satellitare; un’opzione per il futuro è Starlink. Attualmente, spesso le navi registrano dati
per lungo tempo e poi li trasmettono quando hanno campo.

Per l’equipaggio
I dispositivi indossabili usati dall’equipaggio forniscono informazioni importanti anche
loro, perché ad esempio un equipaggio più stressato è meno sicuro di un’altro. Le analisi
fatte realtime sull’equipaggio attualmente non sono molto frequenti, ma probabilmente in
futuro saranno sempre più diffusi.

Per le merci
Può venire bene ad esempio con beni deperibili, piazzare dei termometri connessi può
essere estremamente utile: se un container di banane viene tenuto a 25 gradi si può pagare
il claim ben prima che il cargo arrivi a destinazione senza dover mettere di mezzo un perito.
Però per il momento rimangono i problemi sulla comunicazione in mare aperto.

24
Capitolo 6

Modellazione del rischio: from


credit scores to a rating system

6.1 Il relatore
Paola Cerchiello: professoressa di statistica a Pavia. Si occupa di modelli statistico-
matematici per il rischio in ambito finanziario, con algoritmi di intelligenza artificiale e non
solo, con grande attenzione alla spiegabilità dei propri dati (explainable AI ). È alunna della
Iuss di Pavia.

6.2 Il problema di partenza


In vari ambiti, come quello bancario e quello sanitario, è fondamentale poter spiegare ciò
che il proprio modello fa. Di questo si occupa l’explainable AI: è il deep learning dedicato
all’analisi di dati fortemente non strutturati. Tale attitudine è partita nel 2015 a seguito
dell’idea di uno sviluppatore di Google.
I rischi di tipo finanziario sono stati tra i primi ad essere trattati in questo modo: è la
necessità di stimare la probabilità di default di una posizione, cioè un cliente individuale
o una società, ma anche di un paese, da cui derivano i rating delle agenzie economiche.
Ma come si stima il rischio di credito, per esempio, nel caso di una persona? Questo può
far prendere decisioni se concedere un prestito o no. Dietro al ”Le faremo sapere” c’è un
modello statistico con determinati gradi di liberta: c’è un modello che viene fatto girare con
i dati della persona e c’è un margine di discrezionalità data all’esperto che deve decidere.

6.3 Il modello
Il modello statistico usato è tipicamente una distribuzione abbastanza assimilabile a una
normale delle perdite che ogni banca deve stimare: all’interno di ogni istituto finanziario
va fatta la valutazione del value at risk, cioè i soldi che potrebbero non rientrare, dovute
a clienti che non risarciscono, aziende che falliscono, malfunzionamenti interni, calamità ed
eventi imprevisti. Le perdite sono quindi divise in perdite attese, più o meno valutabili
grazie allo storico, e le perdite inattese, come la guerra o la pandemia, per le quali bisogna
mettere da parte delle somme per evitare crack.

6.4 Il sistema bancario


6.4.1 Il sistema classico
Uno dei più recenti cambiamenti nel contesto finanziario è il mondo fintech, un mondo
di strumenti finanziari nuovi che vengono offerti in modo molto agile anche da istituti non

25
finanziari, come startup o ex startup che cercano di sostituirsi alle banche. Al centro del
modello bancario consueto al centro c’è la banca; da un lato ci sono i risparmiatori, coloro
che hanno un conto corrente con l’istituto di credito, dall’altra ci sono coloro che richiedono
i prestiti. Il rischio è in capo alla banca: se chi ha chiesto il prestito non ripaga il rischio è
assorbito dalla banca che, se necessario, usa fondi propri.

6.4.2 Nuovi player


In ambito fintech si stanno sviluppando le p2p landing platforms: al centro c’è una
piattaforma che fa analisi e mette in collegamento chi chiede con chi potrebbe dare, li
collega e chi ha dà a chi chiede, contrattando il tasso: il rischio è assunto da chi ci mette i
soldi. Il guadagno della piattaforma è dovuto alla quantità di scambi, quindi c’è un conflitto
di interesse nel mezzo. Spesso infatti è la piattaforma stessa a valutare meglio del previsto
il possibile debitore. Non tutte le piattaforme hanno siglato accordi per poter avere accesso
alla banca dei rischi, quindi una piattaforma di questo tipo ha meno dati rispetto a un
consueto istituto di credito: se non regolamentate piattaforme di questo tipo potrebbero
creare bolle tipo crisi dei subprime negli Stati Uniti, in cui tipicamente sulle valutazioni del
rischio si va piuttosto alla leggera, ancora di più perché i modelli usati da tali piattaforme
non devono essere noti, al contrario dei modelli usati dalle banche.
Un altro problema di questi sistemi è che può capitare che chi non riesce ad ottenere
prestiti dalle banche convenzionali, magari perché è stato segnalato alla centrale dei rischi
o comunque perché è considerato troppo rischioso, quindi anche per chi ci mette i soldi c’è
un discreto rischio, come investire nel mercato.
Per tutti questi motivi si sta cercando di regolamentare questo ambito, ma in parte è
complicato perché si rischia di tarpare le ali a nuovi sistemi finanziari a favore dello status
quo.

6.5 Modelli matematici


6.5.1 Regressione logistica
È il modello di riferimento in questo settore, determinando quali variabili determinino
chi è un buon pagatore e chi è un cattivo pagatore. Le regressione logistica da un output
che è una probabilità tra 0 e 1, quindi per gni cliente ho un numero tra 0 e 1; ognuna di
queste cifre deve essere mappata in un booleano: buon pagatore, non buon pagatore e da
questo poi nasce la stima della bontà del modello. La mappatura più facile è arrotondare
al più vicino, con tutti i suoi (relativi) problemi: uno 0.49 non è cosı̀ diverso da uno 0.51.

6.5.2 Valutazione del modello


Si fa passando per la confusion matrix, che mette sul piatto realtà e previsione, ciò
che è effetticamente osservato dai dati con ciò che è previsto. Al suo interno ci sono dei
conteggi delle quattro possibilità: true negative, true positive, false positive, false negative.
False positive e false negative non hanno lo stesso costo: immaginando una banca, un false
negative cioè un prestito non dato a un cattivo pagatore mi fa perdere le commissioni; un
false positive, cioè un prestito concesso a un cattivo pagatore mi fa perdere i soldi che gli
ho dato. È evidente che il false positive è più costoso della banca. Lo stesso esempio può
essere fatto in ambito sanitario.
Dalla matrice di confusione si possono ricavare varie misure, tra cui la più importante è
l’accuratezza, cioè quanto fa bene il modello rispetto alle previsioni. Parametri ce ne sono
vari, e di solito si cerca di massimizzare l’accuratezza e un altro che dipende dallo scopo,
visto che tutti non si riesce.
Tutto questo dipende dalla soglia di cutoff. Tipicamente si fa scegliendo la distribuzione
iniziale, cioè un valore proporzionale alla presenza di 1 e 0 nel dataset. Poi rimane il
problema dei valori intorno alla soglia: per migliorare ancora si fanno più prove valutando i
parametri muovendo di poco la soglia e poi si sceglie quella che massimizza le performance.

26
Se i dati sono molto asimmetrici bisogna adattare la soglia, ma è comunque un problema
perché questi algoritmi generalizzano proprietà particolari: ho pochi casi per determinare
un pattern. Il modo migliore è guardare la curva ROC: è lo strumento più completo in
quanto mette assieme tutta una serie di informazioni. Sull’asse x c’è il false positive rate,
sulle y il true positive rate. Il cutoff della curva è esplorato da 0 a 1: ho una visione globale
della performance globale del mio modello. Il bello di questo strumento è che può essere
usato per modelli molto diversi e quindi aiuta a confrontare differenti modelli; in generale, la
curva ”più alta” è migliore, ma quando i grafici si intersecano la cosa non è più cosı̀ evidente.
In quel caso si usa l’AUROC, l’area sotto alla curva ROC. Tanto è più grande l’area tanto
più il modello è migliore. Tuttavia con ROC e AUROC sto considerando tutte le soglie, ma
scelto il modello da usare poi dovrò scegliere la soglia e lı̀ ci potrebbe essere del bias.

6.6 Scale di rating


Attualmente è più frequente usare scale di rating più che valori booleani. Tipicamente i
dati usati sono socio-demografici, finanziari, comportamentali esterni (provenienti da fonti
come la centrale dei rischi) ed interni, (come questionari interni o storicità propria).
Si procede selezionando il campione e gli indicatori, facendo un po’ di pretrattamento
dei dati. Poi si allena il modello e lo si valida con la regola del 70-30%, ma non sempre è
attendibile, quindi talvolta si usa dividere il dataset in faldoni su cui ciclare per allenare
e testare. Le variabili vengono scelte per la propria significatività statistica, per la sua
distribuzione e per la capcità di accuratezza predittiva della singola variabile.

6.6.1 Analisi della correlazione


Può capitare che, quando si hanno modelli con tante variabili, più variabili siao tra loro
correlate, e questo può dare problemi di multicolinearità al modello. In questi casi se ne
sceglie solo una delle due in base a criteri che dipendono dal contesto. Per determinare la
correlazione tra due variabili si usa il solito coefficiente di Pearson per variabili numeriche,
mentre per variabili di altro tipo si usano criteri di altro tipo. Anche qua si crea il problema
di soglia.

6.6.2 Integrazione del modello


Dal modello determinato prima si calcola uno score per ognuno dei moduli dei dati si
crea un nuovo modello con i dati provenienti in modo separato dai diversi moduli (socio-
demografico e gli altri visti prima), per analizzare in modo indipendente la rilevanza dei
vari moduli. Lo svantaggio è che cosı̀ non vedo eventuali interazioni tra dati di tipologia
differente.

6.6.3 Calibrazione del modello


Il risultato ottenuto viene usato nelle scale di rating, in cui ogni scaglione ha una propria
probabilità di default che è una frequenza relativa: per ogni classe quanti sono in percentuale
quelli che vanno in default sugli altri appartenenti alla stessa classe? I salti da una classe
all’altra non sono sempre di pari entità, Tutti questi valori variano nel tempo e vengono
infatti ricalcolate per via di tutte le possibili situazioni socioeconomche del momento storico.

27
Parte III

Modulo: Tecnologie
dell’informazione e della
comunicazione per l’industria
4.0
Relatori: Cristina Degano, Gianfranco
Caminale, Alessandro Garibbo, Virginia Puleo

28
Capitolo 7

IoT: Ecosistemi, applicazioni


sostenibili e criticità

7.1 Il relatore
Cristina Degano: laureata in ingegneria dell’automazione, dottorato al politecnico di
Torino, assegnista di ricerca a Genova. Ora lavora per il gruppo Sigla, responsabile a livello
di gruppo della ricerca. Fa molto poco di ingegneristico, ha più mansioni manageriali. Gli
ambiti più seguiti a livello di ricerca sono l’IoT e gli ambiti di trasporti e logistica e aspetti
sociosanitari del sistema di healthcare.

7.2 Introduzione
7.2.1 Il contesto
Il contesto di riferimento è l’industria 4.0 e le tecnologie 4.0. Tutto ruota intorno alla
tecnologie di comunicazione (5G), tecnologie per l’elaborazione dei dati acquisiti (anche
machine learnig), alla sicurezza informatica e al digital twin, argomento molto complesso
specialmente dal punto di vista tecnologico. Il primo esempio di IoT è nel 1990 quando
un tizio attacca un tostapane a Internet: esce fuori il concetto di things, oggetto che posso
controllare attraverso Internet. Nel 1999 esce per la prima volta la parola IoT e si inizia
a parlarne in modo ufficiale nel 2005, quando le nazioni unite fanno uscire il primo report
sull’IoT. Nel 2011 l’IoT entra nel campo di ricerca di mercato della Gartner.

7.2.2 Evoluzione
Tutto parte con la seconda rivoluzione industriale: nel 1870 c’è la prima messa in opera
della catena di montaggio nei cantieri della marina britannica ad opera di tun tale Brunelle,
è già un primo accenno di automazione industriale. La vera automazione industriale parte
intorno al 1913 con Henry Ford con la produzione in serie, alla quale successivamente verrà
aggiunta la produzione su commessa ed è in questo momento che iniziano a nascere i primi
scrupoli sociali, perché già con Ford inizia ad esserci un certo scatenamento dei sindacati
riguardo all’alienazione della psiche e sui problemi motori1 , cosa non molto lontana dalla
realtà. In alcune aziende, in Cina, l’alienazione è evidente. Nella terza rivoluzione si ag-
giungono le tecnologie internet, con la quarta si aggiungono i sensori. Ora si sta andando
verso la quinta, con l’Internet of everything.
1 Charlie Chaplin, Tempi Moderni

29
7.3 Concetti base
7.3.1 Un thing
Un thing è un oggetto con sensore che deve avere specifiche caratteristiche, ad esempio
di sicurezza. Uno smarphone non è strettamente un thing nel mondo dell’IoT, lo è in senso
stretto se lo sfrutto tramite i suoi sensori per ricavare dati ed elaborarli.

7.3.2 L’architettura tradizionale


È costituita da 3 livelli, ognuno con il suo livello di cybersecurity. Le condizioni fonda-
mentali sono due: il layer di sicurezza (estremamente importante, ”security by design”) e
l’interoperabilità.
• Livello fisico: le things vere e proprie che generano i dati. Sono le porte verso
l’ecosistema.
• Livello di elaborazione dei dati: a questo livello vengono puliti i dati che arriva-
no dal layer fisico. A seconda del campo applicativo si scelgono le informazioni più
interessanti. Questo livello funziona anche come attuatore per il livello successivo.
• livello applicativo guarda slide

7.3.3 Infrastruttura di elaborazione e comunicazione tradizionale


Tipicamente l’informazione viene raccolta e mandata sul cloud per essere elaborata, lı̀
in mezzo ci deve essere tanta sicurezza; quell’interregno è una zona molto critica. Si parla
qui di edge computing (computazione sul dispositivo) e fog computing (computazione vicina
al dispositivo, ad esempio nella rete locale del dispositivo): quando si trattano dati sensibili
si cerca di elaborare i dati e metterli in sicurezza più vicino alla sorgente, mandandoli poi
sul cloud, usato come datacenter, ultimati. Ormai si tende sempre di più a tenere la parte
computazionale verso la frontiera del dispositivo. Tra l’edge e il fog se la giocano per le
parti di preprocessing, in cui si esegue la pulizia e verifica dell’utilità/integrità del dato, e
processing, in cui vengono eseguiti gli algoritmi di elaborazione del dato, e i dati vengono
quindi mandati sul cloud come storage, che deve connettersi con più sistemi sparsi nello
spazio. Ora come ora si sta spingendo sempre di più sull’edge computing, in quanto più
sicuro dal punto di vista dei dati, sebbene ci possano essere problemi di potenza di calcolo
sul dispositivo dotato di sensore.

Vantaggi e svantaggi
Meno layer ci sono più il traffico tra dispositivi e cloud è veloce, più vengono ridotti i
consumi, meno c’è necessità di banda (anche a livello di tempo di connessione), più il dato
è sicuro.
Tuttavia spostare la computazione vicina al sensore implica maggiori costi hardware per
potenziarne la capacità di calcolo, maggiore necessità di manutenzione, minore protezione
da malfunzionamenti ho.

7.3.4 Connettività LPWAN


Questa tecnologia è estremamente di moda, specialmente per i bassi costi, anche se
non è uno standard: al momento non esiste uno standard per l’IoT e l’integrazione dei
sistemi IT IoT è infatti piuttosto complessa. Ogni ambito applicativo ha un suo standard
di interoperabilità. L’LPWAN è un metodo di comunicazione che in determinati ambienti
funziona bene, è abbastanza veloce e ha una discreta copertura.
Uno dei leader del LPWAN è Lora, che usa il sitema LoRaWAN. LoRa è il livello fisico,
il chip, LoRaWAN è il lievllo mac del software inserito nel chip. I messaggi hanno bassa
probabilità di entrare in collisione fra loro e i gateway vengono quindi alleggeriti. L’architet-
tura di rete LoRaWAN è molto simile a quella classica e permette la connessione di milioni

30
di dispositivi. È pensato per applicazioni relativamente semplici, per problemi maggiori di
solito si cercano altre soluzioni

7.4 Mercato, sostenibilità e disponibilità


7.4.1 Trend nelle aree di applicazione
Il numero di dispositivi IoT sta crescendo in modo esponenziale per stare dietro alla
crescente complessità degli ambienti e delle tecnologie. Per quanto riguarda il percorso da
ricerca a industrializzazione un problema per una tale crescita è la disponibilità di finan-
ziamenti. Il gruppo SIGLA fino al 20-21 era media impresa, ora è grande impresa; con
il Miur è stato portato avanti un progetto di 700’000 euro che dovrebbe essere finanziato,
ma di soldi non ne sono ancora arrivati. Questo è solo un esempio, ma a livello economico
la sostenibilità di questo ambito è un problema. Un altro problema è quello dell’energia
necessaria per alimentare gli ecosistemi IoT.
Quando si pensa all’IoT spesso si pensa solo ai dispositivi che generano i dati, ma c’è
anche tutta la parte di trasmissione delle informazioni, di stoccaggio ed elaborazione non in
loco se presente. Ad esempio per la creazione di digital twin, repliche fedeli della realtà, c’è
bisogno di una mole enorme di risorse; può avere molte utilità, ad esempio la simulazione
di nuove tecniche di ottimizzazione all’interno di una fabbrica.
Più l’IoT diventa pervasivo più le criticità crescono. 6 cose:
• Approccio olistico e proattivo: un progetto non va affrontato solo dal punto di vista
tecnologico, ma anche dal punto di vista economico e/o sociale. Alcune Università si
stanno muovendo in questa direzione, inserendo nei corsi di ingegneria anche corsi di
politica economica o filosofia

• Fare revisioni complete: inserire nell’ambito del progetto tappe intermedie, a tutto
tondo, anche per fare test più semplici cercando bachi anche semplici da eliminare alla
radice,
• Progettare una sicurezza nativa: dal momento in cui io inizio a progettare l’ecosistema
devo già iniziare a pensare alla sicurezza.
• Ripensare al ruolo dell’IT: rimanda al primo punto, olistico a livello di esperienza e di
tecnologia
• Evitare gli anelli deboli: sono tutti quelli già visti, dalla sicurezza ai costi alla soste-
nibilità all’usabilità. Spesso i progetti sono user centered: il progetto viene iniziato
chiedendo all’utente cosa vuole, per poi provare l’usabilità insieme.
• Predisporre le risorse adeguate: ”Sı̀, bellissimo se arrivassero anche i soldi”

7.4.2 Sfide tecnologiche


La sicurezza
La principale è la gestione della sicurezza del servizio in sé, intorno c’è la gestione della
sicurezza di tutto ciò che sta intorno: server (propri e non) e tutte le infrastrutture.

Gli standard
L’IoT riguarda lo stesso ambiente, ma è formato generalmente da ambienti diversi. Pen-
sando a una smart city è fatta di monitoraggio ambiente, mobilità trasporti, infrastrutture
portuali, infrastrutture sanitari, infrastrutture legate all’istruzione, tutti con i suoi modi di
operare e i suoi standard. Una delle missioni del futuro è trovare uno standard comune
per tutto questo, anche se non sempre è gradito perché potrebbe voler dire condividere i
propri dati. A livello industriale questo può capitare, anche se spesso ottimizzare un sistema
porterebbe benefici anche per gli altri.

31
Tecnologie 4.0
Sono l’IoT in sé, tutto ciò che riguarda l’analisi dei dati e il machine learnig e la
cybersecurity. Tutto questo deve confluire in una tecnologia human oriented.

7.4.3 Sfide politico-economiche


A livello di economia politica ci sono attriti sia nelle nazioni industrializzate sia in quelle
emergenti perché l’IoT può rivoluzionare l’approccio a ciò che ci circonda, e questo si vede
nelle maggiori spese in formazione. Un altra sfida è quella della protezione del dato, sia per
le nazioni, sia per le aziende.
Per le aziende l’IoT significa studiare nuovi modelli di business: attualmente spesso si
usano le informazioni che provengono dalla massa che utilizza i prodotti. In ambiti come la
moda questo non ha grandi ricadute; in altri la risposta degli utilizzatori, nell’immediata,
potrebbe non essere particolarmente ragionata e affidabile.

7.4.4 Sfide ambientali e sostenibilità


Spesso l’uso delle tecnologie è utilizzato per ridurre i costi, ma c’è anche da considerare
l’impatto energetico: ad esempio le attività legate all’Internet assorbono circa il 10% del-
l’elettricità usata nel mondo. In futuro probabilmente si vedrà un continuo aumento della
richiesta di elettricità che dovrà essere soddisfatta utilizzando energia pulita.

7.4.5 Sfide etiche e sociali


L’IoT non sono solo i dispositivi, c’è tutta la parte di intelligenza artificiale ad esempio,
che è una grande opportunità con cui bisogna andare molto cauti. Questo tipo di tecnologia
rientra tra le più promettenti negli ecosistemi IoT, ma è anche una delle più pericolose,
ad esempio quando viene inserita la discrezionalità ed eventuali bias: chi fa gli algoritmi
può avere dei pregiudizi, che anche involontariamente possono ricadere sull’IA. Deve quindi
essere usata su dati oggettivi, in cui non ci sia margine di interpretazione e discrezionalità.
La tecnologia va quindi considerata non come un oggetto ma come un agente attivo.

7.5 Use cases


7.5.1 Progetto Castore
Progetto sfortunato, nato e cresciuto inizialmente nel periodo del lockdown e questo
ha causato problemi iniziali di testing. Si è creato un ecosistema IoT che sfrutta things
messi a disposizione dalla Città metropolitana di Genova, sensori in giro per la città per
cercare di ottimizzare il numero di veicoli di trasporto pubblico da mettere in moto, ad
esempio sfruttando i dati sulla posizione delle celle a cui sono agganciati i cellulari. Sono
stati sviluppate API di interoperabilità per minimizzare il problema di acquisire i dati e
minimizzare la frammentazione. Utilizzando algoritmi di Explainable AI 2 . Infinie è stata
creata un’interfaccia unificata, utile ad avere i dati necessari per ottimizzare i trasporti
pubblici e locali. Attualmente il sistema è installata presso ABB. L’attuale obiettivo del
progetto è estendersi fino all’aeroporto e al porto, per navi da crocera e aerei di linea per
ottimizzare le loro attività di accoglienza e deflusso.

7.5.2 Progetto Tiamo


È un’applicazione della tecnologia LoRaWAN. È un progetto relativo alla qualità dell’ac-
qua, prima eseguito sia con monitoraggi in loco prelevando l’acqua in mare sia con sensori
tradizionali in acqua, che ovviamente hanno alcuni problemi con l’acqua di mare. Alcuni
sensori possono stare in immersione a lungo, altri meno, fino ad arrivare a pochi secondi.
2 Branca dell’intelligenza artificiale che cerca di risolvere il problema per cui non si sa cosa faccia

l’intelligenza artificiale, seguendo i dati e il loro uso

32
Viene usato anche per acquacolture: c’è necessità di garantire la qualità dell’acqua per ga-
rantire la qualità del prodotto, ma anche di scegliere la quantità giusta di cibo per le orate,
che va immesso con le barche nelle gabbie; andare avanti e indietro è un costo, sbagliare la
quantità è un rischio ed è un’operazione rischiosa per l’operatore.
Per questo progetto è stata usata un’infrastruttura con piattaforme mobili sull’acqua,
con un nodo per piattaforma con sensori Lora posti su boe con una sorta di bandiera che può
funzionare anche come antenne (meda). In loco viene eseguito un minimo di preprocessing,
poi i dati vengono inviati al gateway che fa gran parte delle operazioni necessarie per poi
essere inviate al cloud. Si è lavorato tanto sulla velocità di trasmissione, sull’integrità del
dato. Si sono usate anche boe 2.0 per controllare l’accesso a zone ad accesso limitato, con
un gateway sulla meda e uno sulla nave usata dal CNR (che ha preso parte al progetto).

33
Capitolo 8

Esperienze di Industry 4.0

8.1 I relatori
8.1.1 Gianfranco Caminale
Lavora in Leonardo da sempre, prima che fosse Leonardo. Ora è nella divisione Cyber
e security, nel CTO divisionale, la struttura che si occupa di progetti di ricerca e di in-
vestimento. Gestisce progetti di ricerca finanziati sia dal Ministero della ricerca che dello
sviluppo economico, ma anche dall’Unione Europea, in ambito civile e militare.
Ingegnere meccanico laureato in Genova, poi ufficiale di Marina, poi entrato in SEIAF,
società nata per l’automazione in fabbrica, poi per maneggi societari è arrivato in Leonardo.
Nella sua carriera lavorativa si è occupato principalmente di software per automazione in-
dustriale e programmazione di produzione; si è occupato anche di software gestionali come
SAP.

8.1.2 Alessandro Garibbo


Lavora nella struttura centrale di Leonardo, nel CTIO. Si occupa principalmente di inno-
vazione e proprietà intellettuale. Gestisce la rete delle collaborazioni esterne con Università
e centri di ricerca, sia a livello di scouting sia a livello economico nell’ambito di tenologie
innovative.
Ingegnere elettronico laureato a Genova, poi passato in Marina; ha un master in Scienze
dell’ingegneria elettronica all’Università di New York, poi ha fatto il dottorato con il prof.
Marchese nell’ambito delle telecomunicazioni.

8.2 Accordo quadro con UniGE


Leonardo collabora in modo molto stretto con UniGE, in linea con il piano industriale
di Leonardo, per il momento fino al 2026 ma probabilmente verrà rinnovato. Si occupa
principalmente di ricerca e innovazione.
Innovazione e ricerca non sono la stessa cosa: l’innovazione comprende la ricerca, ma è
qualcosa che in generale mette insieme risultati di varie ricerche eterogenee in un sistema.
PayPal o Tesla sono innovazione: Tesla ha nuove batterie, nuovi motori, una nuova struttura
di business come le strutture di rifornimento di energia elettrica, c’è dentro un po’ di tutto.
Comprende un Non disclosure agreement, cioè un accordo tale che tra due enti ci si
passano conoscenze proprie perché si lavora insieme a un determinato progetto. Con questo
tipo di accordo ci si impegna a non passare tali conoscenze a terzi. Tra aziende di solito
nell’accordo sono descritti in modo preciso chi può parlare con chi. Ci sono anche clausole
per eventuali controversie, sia in modo amichevole che in modo prettamente legale. A livello
nazionale è la legge italiana, a livello internazionale potrebbe essere il diritto di uno stato
terzo, e c’è un Foro, un tribunale in cui si discute. Ad esempio, per un accordo con Israele

34
si potrebbe usare il diritto britannico e il foro potrebbe essere Londra o Seattle, tipicamente
un posto scomodo per far passare la voglia di litigare.
Tipicamente l’accordo standardizza anche i contratti di ricerca, è già accettato sia da
Università che dall’Azienda, senza necessità di passare attraverso gli uffici legali dei due
accordati, e i criteri di proprietà intellettuale.
UniGE e Leonardo lavorano coniı̀giuntamente su robotica, cybersecurity, intelligenza
artificiale, HPC e molte altre cose: questo perché sia UniGE che Leonardo si occupano di
tantissime aree. Questo viene fatto commissionando studi (anche a livello di dottorati di
ricerca o di ricerca a tempo determinato), condividendo infrastrutture e conoscenze. Viene
fatto attraverso didattica (rivolta a studenti), formazione (a studenti e professionisti) e
comunicazione (al pubblico esterno).

8.3 Leonardo e divisione Cyber e Security solutions


Ha diverse divisioni: Divisione elicotteri Divisione elettronica, difesa e sicurezza Divisione
aeronautica, che comprende velivoli civili e militari, e divisione delle aerostrutture Divisione
aerospaziale Leonardo è in tutto il mondo, la sedi principali sono Italia, Regno Unito, Stati
uniti e Polonia. In Italia le sedi principali sono distrubuite in tutta la penisola.

8.4 Esperienze di Industry 4.0


L’industria 4.0 comprende innumerevoli aspetti. Il primo è l’IoT, paradigma tecnologico
che consente di far vedere qualsiasi oggetto del mondo fisico al mondo digitale, fornendo
informazioni molto utili in vari ambiti appicativi: nelle auto a guida autonoma, nelle smart
city, nella domotica, nei sistemi di misurazione, nell’ambito di ottimizzazione industriale.

8.4.1 Cyber physical sistem


È composto da sensori ed attuatori, con dati al centro e componenti di calcolo e ar-
chiviazioni. È un sistema distribuito il cui scopo è andare a seguire un processo fisico per
permetterne l’adattamento e l’ottimizzazione in tempo reale.

8.4.2 Digital twin


È un alter ego virtuale di qualsiasi oggetto, sistema o infrastruttura. Può avere al
suo interno logiche deterministiche e logiche stocastiche per elaborare i dati con cui viene
alimentato. Può essere specializzato anche in soli alcuni aspetti dell’oggetto fisico. È un
ausilio per la progettazione di un prodotto nuovo o il miglioramento di un prodotto finale.
Ad esempio, quando io compro una Tesla compro anche un suo digital twin che viene usato
per prevenire eventuali malfunzionamenti.

8.4.3 Edge computing


L’edge computing è la parte di computazione più vicina a dove i dati vengono acquisiti.
Alcuni possono eseguire algoritmi di intelligenza artificiale e possono avere uscite in attuatori
che controllano un processo.

8.4.4 Cloud computing


È un modo per fornire capacità computazionale a chi ne necessità, sparso a livello geo-
grafico, anche per ottimizzare il suo utilizzo. Ad esempio, il supercomputer di Leonardo è
accessibile come cloud via VPN. La sicurezza e la privacy sono estremamente importanti
in quest’ambito; negli ultimi tempi sta assumento sempre più importanza l’ambito della
geopolitica e della migrazione dei dati.

35
8.4.5 Altri ambiti
Altri ambiti di grande importanza sono il fog computing, il machine learnig e il paradigma
realtà aumentata - realtà mista - realtà virtuale.

8.5 Technology readiness level (TRL)


È un processo usato per valutare la maturità tecnologica di una tecnologia, dall’osserva-
zione base del suo funzionamento, fino alla produzione, con i suoi vari step. È una sorta di
scala logaritmica, nel senso che fare un salto alla categoria successiva è sempre più costoso
in termini economici. Dallo 0 al 3/4 è appannaggio delle Università e dei centri di ricerca,
con pochi fondi, da 4 a 9 ci sono le aziende come Leonardo, le zone successive sono le zone
della morte nel senso che nessuno se ne vuole occupare perché fallire vuol dire avere perdite
economiche enormi.

8.6 Termini utili


• Enterprise resource planning (ERP): sistemi di gestione di tutti i processi azien-
dali: ad esempio se voglio fare un bilancio alla tale data schiaccio un bottone e lo
ottengo
• Demand planning: pervisioni di vendita, sia diretta verso il mercato, sia indiretta
per riempire il magazzino andando sul mercato

• Master producction schedule: decido quali prodotti voglio produrre e da qua


discende tutto il resto
• Material requirement planning: pianificazione dei materiali necessari alla produ-
zione di un prodotto finito, dal bill of materials (”lista della spesa”), che comprende
sia materiali da autoprodurre e da acquistare sul mercato
• MAterial requirement planning II: fa le stesse cose del livello sopra ma comprende
limiti a livello temporale e di ottimizzazione
• Capacity resource planning: è il piano che descrive la propria capacità produttiva
e viene usato dall’MRPII

• Supervisory control and data acquisistion: sistemi che monitorano sistemi in-
dustriali, tipicamente aziende di processo. Usano pesantemente IoT per osservare ed
effettuare eventuali retroazioni.

8.7 World Class Manifacturing


È una filosofia organizzativa per la gestione del manifacturing il cui scopo è azzerare tutto
ciò che non serve, dando attenzione alla persona e al cliente per non uscire dal mercato.
Nei primi tempni del WCM si pensava principalmente al tempo della produzione, poi
giunto all’apice con Henry Ford, ma ha mostrato anche i suoi limiti. Sono nate quindi nuove
tendenze, a partire dal Giappone, secondo cui si deve porre attenzione a come vengono fatte
le cose, concretizzate nel Toyota Production System. Qui si cerca di evitare lo spreco a ogni
livello, fino ad arrivare ai giorni nostri in cui il centro è la persona.

36
Capitolo 9

Cyber intelligence, attacchi


APT e esempi di sabotaggi a
infrastrutture critiche

9.1 La relatrice: Virginia Puleo


Lavora per Sababa Security nel campo della cybersecurity. È laureata in crimonologia
specializzata in crimini informatici. Sababa è un’azienda italiana con sedi in varie nazioni
europe e non. Si occupa di sviluppo, scouting e altro per proteggere infrastrutture. Si
occupa di formazione per Università e aziende e threat intelligence, cioè tecniche di open
source intelligence: quando succedono cose tipo clienti che sono stati attaccati si cerca di
capire chi è stato e perché.
Sababa significa una cosa tipo ”scialla”, è un’espressione usata per esprimere entusiasmo
e sostegno.

9.2 Titolo che mi sono perso


9.2.1 Definizioni
Crimine:

• Un crimine è un’azione o un’omizzione che costituisce reato (Oxford English Dictio-


nary)
• Un reato che esula dalla sfera personale ed enrta nella sfera pubblica, violando norme
o leggi interdittive, cui sono legate punizioni e sanzioni e che richiede l’intervento di
un’autorità pubblica (Oxford Dictionary of Sociology)

Criminologia: è una disciplina che si concentra sullo studio del crimine, di coloro che
commettono crimini, della giustizia criminale e del sistema penale. Rispetto al diritto è
molto più rivolta alla sociologia.
Cybercrimine: crimine commesso online utilizzando reti di comunicazione elettronica
e sistemi informativi. Due categorie: computer focused e computed assisted. I secondi
sfruttano la tecnologia per commettere un crimine che può esistere anche offline (ad esempio
cyberbullismo); i primi sono crimini che possono essere commessi solo online (tipicamente
violazioni di dati, vedi triade CIA).
Cybercriminologia: sottocampo che riunisce informatica, psicologia, sociologia, cri-
moniı̀ologia e altre discipline per esameninare come e perché le persone commettono crimini
tramite le nuove tecnologie.

37
9.2.2 Teorie di criminologia
Vediamo ora alcune teorie che cercano di spiegare le motivazioni del crimine nel mondo
fisico.
Secondo le teorie della scelta razionale le persone scelgono liberamente di cercare il
piacere in un modo razionale che consideri, ad esempio, rischi e benefici, alla Cesare Beccaria:
le pene devono essere certe, severe (in proporzione) e veloci. In questo caso si parla di teoria
del deterrente.
La teoria delle attività di routine si concentra sull’opportunità: devono coesistere nello
stesso istante un criminale motivato, un buon bersaglio e devono mancare tutele efficaci.
Secondo la teoria dell’autocontrollo invece le persone più propense a commettere crimini
sono quelle com minor autocontrollo, impulsive, egocentriche.
Secondo la teoria generale della tensione, quando c’è un fattore di stress, le persone
possono reagire commettendo un crimine. I fattori di stress portano a emozioni negative,
che insieme ad altri fattori possono portare alla deliquenza.
Secondo la teoria dell’apprendimento sociale noi vediamo gli altri commettere dei reati
e se non vengono puniti saremo portati a imitarli.
Secondo la teoria della neutralizzazione i criminali devono usare, prima di commettere
il crimine, una di queste tecniche: negazione della responsabilità, negazione del danno,
negazione della vittima, condanna di coloro che condannano, richiamo a lealtà superiori.

9.2.3 Social engeneering


L’ingegneria sociale è lo studio del comportamento delle persone al fine di carpire in-
formazioni utili per un attacco credibile. Sfrutta tecniche di vario tipo, attraverso paura,
ansia, curiosità, gioia.

I principi della persuasione


Scientificamente1 parlando, per convincere qualcuno a fare qualcosa di solito si sfrutta:

• Reciprocità: negli Stati Uniti si è visto che a fine pasto, nei ristoranti, dare una
mentina a fine pasto faceva aumentare le mance in modo abbastanza significativo; la
discriminante era molto anche il come si dava, non solo il cosa, in modo inaspettato e
piacevole per chi riceve

• Scarsità: nel 2003 la british Airways ha detto che il volo Londra NY sarebbe stato
una volta al giorno invece di due e le prenotazioni sono salite considerevolmente
• Impegno e coerenza: negli USA sono stati scelti due quartieri. Agli abitanti di uno
è stato chiesto di mettere un cartellone nel proprio giardino; agli abitanti dell’altro è
stato chiesto di mettere prima una cartolina alla finestra, poi il cartellone: la maggior
parte di chi ha messo la cartolina, volendosi dimostrare coerente, ha messo poi anche
il cartellone. Altri esperimenti hanno mostrato che questa cosa vale ancora di più se
in forma scritta
• Autorevolezza: in generale siamo portati a credere di più a persone che riteniamo
autorevoli

• Simpatia: più ci piace qualcuno più siamo portati a credergli, questo tipicamente
succede con persone simili a noi
• Riprova sociale: le persone fanno quello che vedono fare agli altri. Se vedo che un
locale è sempre frequentato è probabile che mi venga voglia di andare lı̀.
1 Roberto Cialdini, libro di cui non ricordo il nome

38
9.2.4 Teniche di social engeneering
Phishing
Il solito sempreverde, ma recentemente c’è stato un attacco a clienti di una banca, fatto
molto bene: le vittime ricevevano mail con un link che riportava a una pagina molto ben
fatta in cui venivano inserite le credenziali, ma manca ancora l’OTP. Veniva fatta una
telefonata che appariva essere dal numero della banca che fingeva di avvisare di un bonifico
strano in partenza; nel caso lo si volesse annullare sarebbe stato necessario fornire l’OTP.
Detto fatto.

Spear phishing
Prevede che la vittima venga studiata e si raccolgano molte informazioni su di essa, in
modo da poter mandare una mail molto personalizzata.

Le conseguenze
Una delle possibili conseguenze è che un programma malevolo entri nella rete, ci rimanga
un po’ per non destare sospetti, poi si espanda e cripti tutto. Alcune aziende potrebbero
essere pronte con backup, quindi la seconda minaccia è di divulgare i dati, magari sensibili.

Baiting
Consiste nel lasciare in giro usb malevole in giro, che potrebbero dare input da tastiera
(tipo rubberducky) o dare tensione tanto alta da fondere pezzi.

Diversion theft
Un server criminale riesce a rubare dati sensibili inducendo la vittima a mandare questi
dati al destinatario sbagliato.

Piggybacking e tailgating
Sono usate per entrare in zone fisicamente non autorizzate. Si usano due nomi perché
una differenza c’è. Nel piggybacking la persona che vuole entrare si inventa una scusa per
entrare; nel tailgating mi accodo a qualcuno autorizzato ed entro con lui.

Dumpster diving

È l’andare nei cassonetti a cercare informazioni utili, anche su vecchi pc che magari non
sono stati formattati.

39
Parte IV

Modulo: Missioni spaziali


Relatori: Paolo Bastia, Barbara Negri, Luca
Valenziano

40
Capitolo 10

Missioni spaziali: strutture e


tecnologie

10.1 Il relatore: Paolo Bastia


Docente a contratto di fisica dello spazio presso UniGE. Lavora per Thales Alenia Ae-
rospace, la più grande azienda aerospaziale italiana (e francese) e seconda a livello euro-
peo. LAureato in fisica, ha sempre seguito il lavoro nello spazio e si è sempre occupato di
progettazione, realizzazione e test di strumentazione per lo spazio.

10.2 Introduzione: dati di riferimento


Convenzionalmente si parla di spazio a più di 100 km, cioè la quota a cui un areo per
sostenersi in volo dovrebbe andare a una velocità pari a quella di una navicella per rimanere
in orbita, è il punto di transizione tra volo con ali e volo orbitale. Si chiama linea di Karman.
La quota è la distanza dalla superficie terrestre, mentre il raggio d’orbita è la distanza
con con il centro della terra.
La distanza tra Terra e Luna è circa 380000 km, poco più di un secondo luce; la distanza
Terra-Sole è circa 150 milioni di km e prende il nome di unità astronomica (UA o AU).
Terza legge di Keplero: il quadrato del periodo di rivoluzione è direttamente proporzio-
nale alla sua distanza dal Sole.
Andando oltre, le distanze diventano più grandi: la distanza dalla stella a noi più vicina
è circa 4.2 anni luce, ma a livello tecnologico grandezze di questo tipo hanno poco senso
perché sono irraggiungibili. Ancora oltre si usano parsec (pc) e megaparsec (Mpc), cioè
l’arcosecondo di parallasse, che corrisponde a circa 3.3 anni luce.

10.3 Vantaggi e applicazioni


È una tecnologia presente da più di 60 anni e il numero di lanci per anno è inizialmente
salito linearmente fino e metà anni 60, poi c’è stato un lungo periodo stazionario con una
media di 160 veicoli aerospaziali all’anno, fino agli anni 2000; negli ultimi 10 anni c’è stata
un’impennata rapidissima legata al rinascimento spaziale, in cui si trovano sempre nuove
applicazioni e anche aziende private stanno lanciando sempre di più.
A partire dallo Sputnik si sono sviluppate tantissime applicazioni: telecomunicazioni,
osservazioni (meteo, dati geografici, militari), scienza (puntando verso il cielo) e fisica fonda-
mentale (esperimenti che si possono fare solo nello spazio), esplorazione (tour, cioè vedendo
una serie di pianeti da fuori, o in situ, cioè andando proprio lı̀) e molte altre.
Le opportunità sono varie, perché il campo di vista è fino a metà terra, non c’è atmosfera
né peso, si può accedere ad altri corpi celesti e si ha un enorme potere sia militare che politico
e diplomatico.

41
Campo di vista: è la porzione di arco Terrestre visibile da una certa distanza: l’IIS vede
relativamente poco, mentre un satellite geostazionario vede quasi metà Terra. Questo era
noto da moltissimi anni per motivi bellici e si è capito che poteva permettere comunicazioni
a grande distanza. Una dei primi progetti è in un articolo del 1945 di un tale Clarke: con
tre satelliti a 120 gradi sopra l’equatore, a debita distanza, i satelliti sono fermi. Quindi
per comunicare da un punto all’altro della terra basta far comunicare i satelliti tramite
microonde, che in tre coprono tutta la terra. Clarke si era anche interrogato sull’energia
necessaria; scelse l’energia solare ipotizzando caldaie a vapore che sfruttano il calore del
Sole.

10.3.1 Applicazioni: TLC


Ora si stanno diffondendo le costellazioni di satelliti: sono più bassi, più piccoli, ma
numericamente molti di più in modo che, opportunamente sincronizzati, ogni punto della
Terra ne può raggiungere più di uno. Ancora più recentemente si sono diffuse le megacostel-
lazioni, con satelliti molto più piccoli, lanciati a decine contemporaneamente, tipo Starlink.
Stanno creando problemi ad esempio di inquinamento ottico, perché un telescopio terrestre
a cui passa davanti una rete di Starlink vede la propria immagine deviata.

10.3.2 Navigazione e GPS


Il modo usato dai satelliti di navigazione per localizzare i dispositivi essi comnunicano
il ricevitore e, ragionando sui tempi di invio e di ricezione del segnale si può localizzare il
ricevente. Per evitare problemi di errori dell’orologio del ricevente si devono usare tanti
satelliti, di solito almeno 4, perché il dispositivo da localizzare non ha un orologio preciso
come quello atomico dei satelliti.
I primi sistemi di localizzazione erano di uso militare, poi se ne sono sviluppati di civili
come Galileo, pagato dall’UE e molto moderno.

10.3.3 Osservazione
Le applicazioni principali sono per il meteo, per la gestione delle risorse ambientali,
gestione delle emergenze e militari. Questi satelliti tipicamente lavorano nel ottico e nel NIR
(near infrared). La dotazione classica è quella dei multispettrali: il satellite ha un’ottica e
scompone la luce ricevuta, di solito in visibile e poi divisa per bande.
Attualmente si stanno sviluppando le tecnologie iperspettrali, molto più complesse, con
rilevatori molto più piccoli e numerosi, con cui si riesce ad avere più dati ma la complessità
cresce molto. Con un canale pancromatico è facile avere un dettaglio più fine, con uno
multispettrali l’immagine è più sgranata ma contiene più informazioni diverse da quelle
visibili; un’immagine iperspettrale ha risoluzione bassa ma contiene moltissime informazioni,
come la distribuzione di clorofilla all’interno della zona osservata.
L’osservazione può anche essere effettuata con radar, che a seconda degli echi delle onde
inviate ottiene informazioni. Con la tecnica SAR si riesce a simulare un’antenna di dimen-
sioni molto più ampie di quanto si potrebbe fisicamente realizzare. Con questa tecnica si
riesce ad ottenere immagini con risoluzione quasi fotografica, ma necessità di impegnative
operazioni di processing. Il vantaggio rispetto all’ottico è che funziona anche a prescindere
dalla luce e dal meteo. Ad esempio, i radar si usano anche per tracciare altitudini e fare
carte geografiche.

10.4 Oltre l’atmosfera


10.4.1 Schermi elettromagnetici
L’atmosfera in certe situazioni dà fastidio, è opaca in varie bande di frequenze e questo
ci impedisce di vedere quello che c’è dietro, che si può vedere solo andando oltre l’atmosfera.
Un esempio ne é la radiazione cosmica di fondo (CMB), il cui picco è a una frequenza
schermata dall’atmosfera: una missione è quindi partita apposta nel 90 per registrare la

42
CMB. Si è scoperto che la sua distribuzione in frequenza è ben fittabile con la curva di un
corpo nero a 3 kelvin, e si è visto anche che la CMB non è uniforme. La sua mappatura è
andata avanti attraverso successive missioni, fino alla missione Planck, europea, del 2009.
Tutto questo, dentro l’atmosfera, non sarebbe stato possibile.

10.4.2 Assenza di peso


In tanti campi della fisica può venire bene, certe volte si cerca anche di replicare l’assenza
di peso anche sulla Terra, ma è difficile e si riesce a mantenerla per poco tempo. Ad esempio,
alcuni esperimenti fatti in microgravità sono stati sulla tensione superficiale dei liquidi. Altri
sul principio di equivalenza tra massa inerziale e massa gravitazionale.

10.4.3 Accesso ad altri corpi celesti


Nel 2015, ad esempio la sonda Horizon è arrivata nei pressi di Plutone e ha inviato
dei dati sulla sua struttura; proseguendo ha fotografato altri oggetti oltre il sistema solare.
Questa è solo una delle infinite possibilità della tecnologia spaziale. Una delle missioni future
è Exomas, dell’Esa, per mandare un rover su Marte; un’altra è MSR, per recuperare dei
campioni estratti da una sonda su Marte.

10.4.4 Grandi distanze


Le onde gravitazionali sono attualmente rilevabili solo in frequenze relativamente alte
per via delle limitate dimensioni dei bracci degli strumenti di misura; nello spazio si possono
usare distanze molto più grandi.

10.4.5 Volo umano


Può venir bene per fare studi di fisiologia umana o fisica in microgravità, però è qualcosa
di molto impegnativo, perché ci sono tantissimi vincoli di sicureza per il controllo ambientale,
dall’aria all’acqua alle radiazioni che sulla Terra verrebbero schermate dall’atmosfera.

10.5 L’ambiente spaziale


L’ambiente implica una selezione di materiali, criteri di progetto e piani di testing ben
precisi perché è molto di verso da quello terrestre. Deve poter sostenere condizioni di assenza
di peso, vuoto, frenamento atmosferico, impatti con micrometeoriti, alte e basse temperature
e molte altre cose.

10.5.1 Forza di gravità


A seconda dell’altezza l’attrazione gravitazionale varia e talvolta ci sono approssimazioni
che possono venire molto bene. Facendo due conti si arriva al valore tipico della velocità di
orbita bassa che è circa 7 km/h.
L’assenza di peso crea la necessità di creare strutture rigide: se devo puntare qualcosa
molto spesso il peso sulla Terra ha una sua influenza, nello spazio questo non accade ed è
particolarmente influente per esempio per telescopi e antenne.
L’assenza di peso causa anche l’assenza dei moti di convezione, quindi in ambienti pressu-
rizzati possono crearsi punti estremamente caldi ed è quindi importantissima la ventilazione

10.5.2 Il vuoto
Non tutti i materiali sono compatibili con il vuoto: praticamente tutti i materiali con-
tengono solventi o sostanze chimiche che esposti al vuoto evaporano. Il materiale cambia le
proprie proprietà e si sviluppa del gas che può dare problemi, ad esempio può appannare
un’ottica.

43
Facendo due conti con principi primi la densità delle molecole d’aria ha un andamento
che scende come un esponenziale negativo: ogni 9 km la densità decresce di circa 1/e; questo
significa che a basse quote la densità dell’aria non è nulla e può frenare l’oggetto lanciato;
da principi primi si vede che la forza subita è proporzionale al quadrato della velocità. Per
questo motivo la IIS viene periodicamente spinta verso l’alto dalle navicelle che arrivano,
perché venendo frenata rallenta e quindi scende.

10.5.3 Ambiente termico


Un oggetto in orbita terrestre riceve radiazione costante dal Sole circa 1370W/m2 , ma
subisce anche un’altra componente dovuta alla riflessione della Terra e al fatto che la Terra
sia calda e quindi irradia. Si può fare il bilancio termico con principi primi, ma attualmen-
te si usano simulatori e programmi di CAD per verificare che tutte le parti lavorino alla
temperatura corretta.

10.5.4 Pressione di radiazione


I fotoni provenienti dal Sole trasferiscono una quantità di moto e sono spinte non trascu-
rabili, con valori tipici intorno a 6 · 10−6 N/m2 , quindi può anche essere usato per generare
spinta e muoversi senza propellente.

10.5.5 Radiazioni ionizzanti


Sulla Terra ci arrivano poche radiazioni, ma nello spazio non c’è l’atmosfera e quindi ne
arrivano non poche, sotto forma di vento solare, fasce di Van Allen, raggi cosmici e EECR.
Vento solare: è materia che il Sole emette continuamente nello spazio, è molto variabile,
in modo abbastanza ciclico, creando anche brillamenti detti flares che possono creare le
tempeste di radiazioni. Si tratta di plasma composto da elettroni, protoni ed elio ionizzato.
Raggi cosmici: misurati per la prima volta nel 1912, si pensava che provenissero dalla
Terra e quindi ci si aspettava che salendo di quota la loro importanza scendesse, ma accadeva
il contrario, proprio perché vengono dallo spazio e l’atmosfera li frena.
Fasce di Van Allen: la Terra attorno a sé ha due toroidi in cui per l’effetto del campo
magnetico terrestre e delle particelle che arrivano le particelle possono rimanere incastrate
lı̀ dentro e ricevere un’enorme quantità di radiazioni.
Di tutte queste cose bisogna tenerne conto perché i materiali a loro sottoposti possono
alterarsi, ma soprattutto l’elettronica subisce danni, sia cumulativi che istantanei e questo
impone forti vincoli sulla scelta di materiali e componenti.

10.5.6 Altri aspetti importanti


Radiazioni UV: sulla Terra non arrivano, ma nello spazio non c’è la protezione dell’at-
mosfera. Possono modificare i legami chimici soprattutto di plastiche e vernici, causando
potenziali derive termiche.
Plasma-charging: a causa del plasma zone del satellite si possono caricare tra loro e,
se zone diverse vengono portate a potenziali diversi si può generare una scarica superficiale.
Quindi bisogna riuscire sempre a portare tutto a uno stesso potenziale noto.
Micrometeoriti: a causa dei lanci finora effettuati l’orbita è disseminata di frammenti
che si comportano come proiettili e possono perforare quasi qualsiasi cosa. Per questo motivo
ora bisogna rispettare determinate politiche di fine vita. Una tecnica che viene usata per
mitigare danni di questo tipo si usano schermi che frammentano i detriti e li spargono in
un’area più grande.
Lancio e rientro: in fase di lancio lo stress meccanico è enorme e idem in fase di rientro,
in cui si raggiungono temperature molto molto elevate e bisogna tenerne conto.

44
10.6 Caratteristiche delle orbite
Le orbite sono ellittiche e hanno come parametri il semiasse maggiore (a), l’eccentricità
(e), la linea degli abisdi (definisce come l’ellisse è orientato nello spazio). Il sistema di
riferimento usato è cartesiano con l’origine nel centro della Terra, il piano xy sull’equatore
con l’asse x che punta sul punto d’Ariete e l’asse z che punta erso il polo nord stellare.
L’orbita teorica in realtà è perturbata nelle orbite basse da drag atmosferico e schiacciamento
polare (la Terra non è una sfera perfetta e il campo gravitazionale ne risente), nelle orbite
alte da effetti gravitazionali di Sole e Luna e pressione di radiazione solare.

10.7 Tipi di orbite


10.7.1 Orbite LEO
Sono equatoriali, polari o inclinate. Sono molto usate per l’osservazione e le telecomu-
nicazioni moduli. Sono più semplici da raggiungere, c’è poca rafiazione e le comunicazioni
necessitano di minore potenza, però hanno poca visibilità dalle stazioni da terra, tipicamente
per qualche minuto.
Orbite equatoriali: usate principalmente per esperimenti scientifici
Orbite inclinate: usate per via della buona copertura del pianeta. La IIS si trova in
un’orbita di questo tipo
Orbite polari: usate tipicamente per l’osservazione della Terra perché nel giro di alcune
orbite, vista la rotazione della Terra, può coprire l’intero globo. Talvolta nell’uso di queste
orbite si richiedono particolari criteri di sincronismo, rispetto alla Terra o rispetto al Sole

10.7.2 Orbite GEO


Vengono fatte intorno all’equatore a circa 36000 km dalla terra. È un’orbita molto
richiesta e ci sono circa 200 satelliti in attività. Sono quasi permanentemente al Sole.

10.7.3 Orbite MEO


Viste prima

10.7.4 Orbite HEO


Usate principalmente per copertura ad alte latitudini o per osservatori. Spesso sono
usate per orbite ellittiche e molto eccentriche, in modo da avere conatto con la stazione di
Terra per circa il 70% del periodo, anche se il satellite va inseguito.

10.7.5 Punti lagrangiani


Risolvendo il problema dei tre corpi, con due di massa molto minore di uno, si vede
che ci sono dei punti di equilibrio in cui collocando il terzo corpo questo sarebbe quasi in
equilibrio. Con Terra-Sole i punti lagrangiani sono 5 e in certi casi possono venire bene, ad
esempio ce n’è uno sulla linea che congiunge Sole e Terra e viene bene per osservatori.

10.8 Veicoli spaziali


La missione è formata da lanciatore, satellite e stazione di Terra e questo ha fatto nascere
la disciplina della system engineering.

10.8.1 Il lancio
Bisogna portare strumentazioni in alta quota, e si fa con lanciatori, palloni stratosferici
o altro.

45
Capitolo 11

Missioni scientifiche dell’ASI:


scienza e tecnologia nel quadro
nazionale e internazionale

11.1 La relatrice: Barbara Negri


Astrofisica, lavora all’ASI da sempre. Ha un’esperienza vastisima a livello scientifico e
manageriale. È la responsabile della sezione volo umano e ricerca scientifica dell’ASI.

11.2 Storia dell’ASI


Lo spazio è nato con il professor Broglio negli anni 60 che in Kenya aveva ottenuto uno
spazio per lanciare e per telecomunicazioni. Era una vecchia piattaforma petrolifera, da lı̀
sono stati lanciati 5 o 6 razzi; poi gli americani hanno fornito un altro spazio per il controllo
dei lanciati. Attualmente è l’unica base equatoriale che serve sia satelliti in orbita che lancia
qualcosa. A fine anni 70 il CNR decise di avere un suo sisema di controllo; nell’99 è stata
creata l’ASI.
Lo spazio però era iniziato molto prima, con Amaldi che collaborò dagli USA. Siamo
quindi partiti prima della Germania, forse contemporanamente ai Frrancesi, subito dopo
agli Usa.
Attualmente l’ASI è un’agenzia di ricerca pubblica ma ha fondi particolari, i soldi del
ministero della ricerca non sarebbero abbastanza. Ha circa 300 dipendenti, ma nel giro di
qualche anno dovrebbero circa raddoppiare. Ha 4 centri, uno a Roma, uno a Matera, quello
a Malindi intitolato a Broglio e uno in Sardegna, a Selagius, dove c’è l’SDSA, Sardinia Data
Space Antenna, un’antenna di 64 metri di diametro che sarà usata per ricevere messaggi
dalle missioni nello spazio profondo; non per trasmettere perché essendo vicino alla civiltà
ci sono vincoli più stretti a livello di radiazione. La base in Kenya invece è isolatissima e
questo ha ricadute anche a livello pratico, bisogna farsi tutto in casa, dal cibo all’istruzione
di meccanici, elettricisti e una serie di altre missioni. Ci sono tre antenne, l’ultima installata
e collaudata pochi mesi fa. La base fa anche servizi a pagamento, ricevendo e inviando
dati da missioni spaziali di altri. In mare ci sono due piattaforme, ormia ridotte ai minimi
termini ma non si possono abbattere perché da smaltire sarebbero molto complicate.

11.3 La governance dello spazio


L’ASI è un ente di ricerca ma gestisce molti soldi, tanto da essere molto attraente. Nel
2018 è stato creato un ente interministeriale apposito per gestirla. Si è scoperto che lo spazio
può essere visto come spazio per i cittadini (servizi), spazio di crescita anche economica,

46
spazio futuro come sfida che fa avanzare la tecnologia, spazio sicuro come cybersecurity, con
trasmissioni criptate.
Questa legge prevede che sia il Presidente del Consiglio in testa a tutto. Poi c’è il
comitato interministeriale, che comprende 12 ministri e il presidente della Conferenza delle
regioni. Tutto questo sta causando complicazioni manageriali, perché ci sono tanti soldi
ma anche tanti enti che vogliono perseguire i propri interessi. Tuttavia i fondi per i lanci
sono stati dati direttamente all’ESA e non è stata una grande idea. Ormai l’ASI dà quasi
solo consulenza scientifica e apporto. L’altra consulenza estremamente ascoltata è quello
dei militari. È tutta una gran confusione insomma.
Sono poi statem emanate le linne guida del govero sullo spazio e aeropsazio, un primo
documento pubblico che regola varie altre cose. È cresciuta la space diplomacy, come se
lo spazio avesse bisogno di una propria diplomazia: nello spazio, anche durante l’attuale
guerra, Russi ed Europei continuano a collaborare. Sono state definiti piani per tecnologie,
applicazioni, economia, sicurezza spaziale. Ma in realtà tutto questo c’è già, non sarebbe
servita tutta questa roba perché anche senza piani tutto si stava già sviluppando, questo
anche a livello di settori e obiettivi spaziali strategici. Insomma, la prof.ssa Negri sembra
averla presa abbastanza sul personale per questa normativa con la gente che le dice cosa
deve fare e lei che lo sta facendo da anni.

11.4 Direzione scienza e ricerca


Ci sono gruppi teorici e gruppi sperimentali che lavorano sull’oggetto da lanciare, ma la
space science è molto di più: nasce da tutte le domande che ci si fa anche da bambini, dalla
nascita della vita alla presenza di vita al di fuori di noi. La comunità scientifica italiana
è molto avanzata e si è conquistata la leadership in molti campi, e l’ASI si occupa anche
di fare in modo che tali leadership rimangano tali. Anche a livello europeo noi italiani
siamo considerati bravi: la stessa Nasa considera l’Italia il partner preferito per missioni di
carattere scientifico. Questa sezione si occupa anche di cercare modi per fare trasferimento
tecnologico, cioè il riutilizzo di tecnologie attualmente usate per lo spazio, cosa che in Italia
non è per niente fatta: attualmente ci sono due rivelatori usati per guardare lo spazio che
opportunamente modificate avrebbero utilissime applicazioni in ambito civile.
La direzione scienza e ricerca si occupa anche di gestire gli astronauti e gli esperimenti
che loro dovranno eseguire nello spazio.
Quindi la sezione della Negri sviluppa payload, si occupa di astronauti ed esperimenti,
di analisi dati e attività di ricerca per strumentazione scientifica; tutto questo anche insieme
a missioni con ESA e NASA che forniscono dati scientifici. In questo modo la conoscenza
aumenta e questo è un circolo vizioso.

11.5 L’ESA
Comprende 22 paesi, anche non dell’UE come Svizzera, Slovenia e Canada, che ha voluto
cooperare fin dall’inizio: non vota ma fa parte dei programmi. Ha vari centri: uni a Colonia,
dove si addestrano gli astronauti che rispondono all’esa; uno a Madri, dove si immagazzinano
tutti i dati e vengono analizzati; uno a Frascati, dove si archiviano i dati ottenuti; uno è in
Olanda dove ci sono le test facility e tutto ciò che serve per la realizzazione delle missioni
spaziali

11.6 Missioni ESA e NASA negli ultimi 3 anni


11.6.1 Cheops
È una missione alla ricerca di esopianeti, pianeti che ruotano attorno ad altri stelle; è una
missione precursrice. È una missione andata molto bene e si sta realizzando un’altra missione
di questo tipo, con 26 telescopi, che farà analisi sistematiche alla ricerca di similterre, e volerà
nel 2026.

47
11.6.2 Solar orbiter
Ha 10 strumenti, sia per osservare il Sole, sia in situ. L’Italia ha realizzato il coronografo
principale (30 milioni) e tre strumenti che parlano tra di loro.

11.6.3 IXPE
È una missione metà italiana e metà americana. È per vedere se c’è emissione di luce
polarizzata da stelle lontane in radiazione X. Nel gennaio 2017 gli americani hanno chiesto
all’ASI i tre rivelatori e il computer di servizio, con circa 4 anni di anticipo. Gli americani
che non credevano che potessimo riuscire a fare una cosa del genere in tempi cosı̀ ristretti e
noi italiani ci siamo riusciti, nonostante la pandemia. Gli americani invece hanno avuto 5
mesi di ritardo. Ops.

11.6.4 LiciaCUBE
Molto poco dopo IXPE la Nasa vuole prendere una sonda tipo proettile per distruggere
un asteroide e vedere cosa succede agli altri asteroidi del suo sistema. Per fare questo però
serve un cubesat con due telecamere per guardare cosa succede con l’impatto. La Nasa
vuole fare questo per valutare l’eventualità di mandare un satellite proiettile su un possibile
asteroide in rotta di collisione con la Terra e guardare le conseguenze. L’impatto è previsto
per il 2 ottobre. Sarà il primo satellite italiano ad andare nello spazio profondo.

11.7 Space science


Perché vogliamo fare scienza nello spazio? Perché abbiamo un’atmosfera principalmente,
e filtra le frequenze. Rimangono l’ottico e il radio, il resto è schermato. Ci sono due filoni
di ricera: l’osservazione e l’esplorazione.
Attualmente sappiamo che il big bang è a 13.8 miliardi di anni: i primi 300000 milioni di
anni sono quelli in cui non c’era radiazione elettromagnetica, poi ha iniziato ad espandersi.
Noi conosciamo solo il 4% dell’universo, quello degli atomi; poi c’è un 22% di materia oscura
e il resto è energia oscura, di cui sappiamo pochissimo e che potrebbe essere la causa dell’ac-
celerazione dell’espansione dell’universo. Per la missione Euclid l’Italia ha due strumenti,
uno per l’infrarosso vicino e uno per il visibile, che farà studio sulle stelle. Sfrutterà dati
provenienti anche da un’altra missione che scandaglia le stelle della Via Lattea.

11.7.1 Il Sistema solare


Noi ci troviamo in un ramo periferico e questo ha permesso alla nostra stella di svilupparsi
un proprio sistema planetario, molto eterogeneo. Di tutti questi Marte è il più simile di tutti
alla Terra, quindi l’idea nella roadmap d’esplorazione è capire il più possibile su di lui in
previsione di mandarci gli umani.
Per quanto riguarda il Sole, in Solar Orbiter l’Italia ha fatto il coronografo, lo strumento
principale della missione. Sta promettendo molto bene. Lo struento lavora in ottico e in
un’altra fascia.
La missione Juice lavorerà sulle lune di Giove, ha quattro strumenti più uno. Il quinto è
un accelerometro che serviva a sottrarre le oscillazioni presenti nei dati degli altri strumenti
dovuti a un’oscillazione presente per un errore ingegneristico.

11.7.2 Gli esopianeti


Fino al 1995 si pensava che solo il nostro Sole avesse dei pianeti attorno. Mayor e Queloz
erano in Cile a fare osservazioni al telescopio; stavano guardando il sistema 51 Pegasi, da
cui notarono che arrivava una radiazione non regolare nel tempo. Senza saperlo, videro che
un pianeta che girava attorno a questo Sole, con un orbita molto stretta. Questo è uno
dei metodi principali per trovare esopianeti, ma ha il limite che per pianeti che orbitano
lentamente non si nota. Da qua hanno iniziato a pubblicare questo sistema e con i dati visti

48
si è capito che esopianeti ce n’erano un bel po’. Per questi scopi sono state lanciate più
missioni, tra cui la Kepler della Nasa, Cheops di cui l’Italia ha fatto l’ottica, Plato che deve
ancora essere lanciata di cui facciamo i telescopi e il computer di bordo, che farà scoperte
anche di nuove; poi ci sarà Ariel, di cui l’Italia farà lo specchio, che studierà le atmosfere.
Immaginiamo di avere una serie di pianeti rocciosi e con acqua. Un pianeta è vivibile
se è a una distanza da una stella per cui l’acqua sia trovabile liquida alla superficie. Per il
nostro Sistema solare la fascia di abilità inizia con Venere. Per il 186-esemo sistema trovato
da Kepler, con 5 pianeti, il quinto pianeta è nella fascia di abitabilità, da verificare poi anche
con l’atmosfera.
Sempre Kepler ha guardato molto bene il sistema più vicino a noi, Alpha Centauri, con
3 stelle. Proxima Centauri, una di queste stelle, che in realtà è una nana nera (che ha una
fascia di abitabilità molto più vicina) ha un pianeta nella fascia di abitabilità ed è a 4 anni
luce da noi; andando a 20% di c vorrebbe dire raggiungerlo in 50 anni, che è tanto ma è
ragionevole.

11.7.3 L’astronomia multimesseger


È l’unione della detection di onde gravitazionali rilevate a terra con la ricerca di onde
ad alta energia. In questo campo la missione LISA, che doveva essere solo un pathfinder,
ha avuto un grande sprone. Sarà un osservatorio nello spazio per le onde gravitazionali,
tramite tre satelliti che si devono trovare in un sistema completamente inerziale.

11.7.4 La stazione spaziale


È un laboratorio di altissimo livello gestito da una cooperazione di paesi. L’Italia parte-
cipa attraverso l’ESA e attraverso una collaborazione bilaterale diretta con la NASA, quindi
siamo il paese più attivo in Europa. L’IIS è realizzata al 58% con moduli prodotti in Italia
e l’Italia è la nazione con il più alto numero di astronauti di tutti i paesi europei.

11.7.5 La Luna
Già Trump aveva annunciato il ritorno sulla Luna, ma perché tutto questo interesse?
Perché la Luna è un pathfinder verso esplorazioni più complessi, perché la Luna ha materiali
interessanti al suo interno che ormai stanno scarseggiando sulla Terra. Il progetto è di avere
una stazione cislunare in orbita intorno alla Luna da cui manare gente sulla Luna. Per
colonizzare la Luna servono sistemi autorigenerativi, immagazzinatori di energia, protezioni
dalle radiazioni e molto altro; tutto questo non sarà facile, mentre la missione di mandare
un modulo intorno alla Luna esiste e si chiama Artemis, partirà nel 2024 o 2025.

11.7.6 Marte
Non è vivibilissimo ma gli ostacoli non sono insormontabili; il più grosso è quello delle
radiazioni. Su Marte c’è e c’era acqua, ma ne serve una quantità seria per permettere la
vita. La scoperta più grossa è stata fatta da una missione italo-americana che ha scoperto
un bacino di acqua liquida a un chilometro e mezzo dal suolo.
Una missione era pronta per partire verso Marte, ma era una collaborazione tra Europa
e Russia quindi è ferma in un magazzino. La parte Russa in parte è rimpiazzabile, ma ci
vorranno 4/5 anni.

11.8 Ciclo di vita di un progetto di Space Science


I progetti di strumentazione per lo spazio possono essere fatti per palloni stratosferici,
razzi sonda, satelliti, piattaforme spaziali e in base alla complessità possono durare dai 3 ai
15 anni. Ogni progetto spaziale si divide in fasi:

• Studio di fattibilità: è un prototipo da vedere se può funzionare

49
• Design ingegneristico: è la fase di ingegnerizzazione
• Sviluppo e qualificia: si creano fasi
• UFFAAAAAAAA vai a vedere sulle slide e ciao, è quasi tutto scritto

50
Capitolo 12

Missioni di cosmologia (e non


solo) dell’ESA, da Planck,
Euclid e Plato

12.1 Il relatore: Luca Valenziano


Ricercatore dell’Inaf, attualmente addetto scientifico all’ambasciata a Zurigo. Ha parte-
cipato a molte missioni scientifiche, tra cui la missione Planck, e l’altra che dovrebbe partire
è Euclid. Email luca.valenziano@inaf.it

12.2 Missioni ESA per l’osservazione dell’Universo


12.2.1 Planck
È la missione definitiva che ha fotografato l’universo 300.000 anni dopo il big bang; ci
sono dei limiti fisici che dicono che più in là non si può andare. È nata nel 1992 ed è volata
nel 2009-2013.
Ci è stato detto che la luce ha velocità costante e non si può superare tale velocità.
Visto che sono stati studiati segnali elettromagnetici che viaggiano a tale velocità, guardare
molto lontano vuol dire guardare indietro nel tempo; se noi osserviamo la CMB emessa
300.000 anni dopo il big bang quello che stiamo osservando è qualcosa di 13.7 miliardi di
anni nel passato. Questo ci permette, guardando oggetti a diverse distanze da noi, in calotte
sferiche sempre più lontane da noi, osserviamo come si è evoluto l’universo nel tempo. Per
fare questo bisogna pulire il segnale di tutto ciò che è tra noi e lo sfondo, è un’operazione
estremamente complessa basata su specifici fenomeni fisici.
Nel 1992 Valenziano si è laureato con una tesi sulle anisotropie della CMB. Circa 13.7
miliardi di anni fa l’universo ha iniziato ad espandersi, come un pallone che si gonfia. Circa
380.000 anni l’universo ha raggiunto circa i 3000 K: prima c’era il plasma, con protoni,
elettroni e neutroni che non formavano atomi; a questa temperatura l’energia non è più
sufficiente e le particelle si uniscono tra loro mandando l’ultimo scattering detto radiazione
cosmica di fondo a microonde. Le macchie colorate nella famosa immagine creata da Planck
segnalano zone si sovradensità e zone di sottodensità. Nelle zone di sottodensità ci sono
buche di potenziale e ci finisce massa che va a formare le galassie.
Nel 1965 due ignegneri telecomunicazionisti usavano un sistema circa satellitare con delle
sfere metalliche che dall’orbita riflettevano il segnale, quindi c’era bisogno di antenne molto
grandi per ricevere il segnale. Lavoravano con quest’antenna di ricezione nelle frequenze
delle microonde che aveva un rumore di fondo molto presente, in ogni periodo dell’anno
e non riescono a farlo diminuire. Ne parlarono con dei fisici che, per loro motivi, stavano
cercando di misurare una radiazione che si aspettavano per motivi dovuti alla cosmologia: i

51
due ingegneri avevano appena registrato per la prima volta la CMB, con tutte le differenze
termiche dovute allo spostamento verso il rosso per effetto doppler.
Si è iniziato a pensare che la CMB non dovesse essere uniforme, perché altrimenti non
ci sarebbero state le galassie: nel 1992 il satellite Cobe ha fotografato per la prima volta
la CMB con le sue anisotropie, fino ad arrivare nel 2003 a WMAP che rispetto a Cobe
ha ottenuto qualcosa di molto più dettagliato, fino ad arrivare a Planck con la risoluzione
massima ottenibile per motivi fisici riguardo alla generazione delle anisotropie. È stato
levato tutto ciò che è tra noi e lo sfondo, con metodi statistici.

Il satellite Planck
Sembra un po’ un’antenna parabolica all’interno di uno schermo di radiazione, riflettente
all’interno e nero all’esterno. Doveva determinare differenze termiche nell’ordine del milio-
nesimo di Kelvin, che sarebbe come trovare una candela sulla superficie della Luna. Era nel
secondo punto lagrangiano Terra-Sole in posizione antisolare. Per fare tutte queste cose è
stato necessario un oggetto con le migliori performance possibili con quel budget.
Nella parte posteriore c’è la carrozza, il sistema che contiene i sistemi elettronici e di
comunicazione, la propulsione e tutto ciò che serve a far funzionare il payload. Nel caso
di Planck il retro, con i pannelli solari, era sempre rivolto verso il Sole e poteva generare
un paio di kW, che non è per niente poco (in strumenti con pile atomiche si arriva a
consumi nell’ordine dei W). Planck ha due schermi, una parte riflettente e una parte nera,
con emissività diverse per dissipare il calore generato all’interno del satellite verso lo spazio
profondo, permettendo di raffreddare passivamente a -60 K il sistema tramite radiazione.
La struttura interna ha un bus con 4 sfere con il carburante per gli orientatori, poi ci
sono i dissipatori dei detector (che vanno a temperature prossime allo zero). Ha delle
antenne detti horn che sono i collettori del segnale che viene riflettuto da specchio primario
e secondario, collegati ad amplificatori del segnale. Ci sono 2 antenne da 23-32 GHz, 3
antenne a 44 GHz e 6 antenne a 66 GHz, possono sembrare poche ma cosı̀ non è. Poi c’è la
parte ad alte frequenze, raffreddata a circa 20 mK per avere un bassissimo rumore termico.
Le missioni attualmente proposte, per misurare la polarizzazione della CMB avrà migliaia
di detector per migliorare la statistica; migliorare i sensori ormai non è fattibile perché
sono quasi vicini al numero quantico. I segnali vengono trasferiti ancora analogicamente
al ricevitore, amplificati, e poi tramite guide d’onda arriva fino al core module dove viene
ancora amplificato. Si fa perché il primo pezzo deve amplificare con pochissimo rumore di
fondo, poi quando il segnale è abbastanza forte il rumore termico è meno rilevante.

Tecnologia e design
Per progettare uno strumento cosı̀ sensibile ci sono due filosofie: secondo una bisogna non
far arrivare tutto ciò che deturpa, secondo l’altra vengono captati e rimossi via software,
sebbene con limiti fisici. Alla prova dei fatti servono entrambi per arrivare a livelli di
accuratezza estremi come questi.
Le antenne horn sono corrugate, perché questo permette di condizionare la zona osservata
dalle antenne: per il principio di reciprocità un segnale elettromagnetico può essere descritto
matematicamente nello stesso modo in trasmissione e in ricezione. Per come sono fatte le
corrugazioni si riesce a ottenere che le antenne ricevono per un ampiezza di qualche decina
di grado lo specchio primario: il lobo principale è ampio e pronunciato, i lobi laterali, a 45°
circa sono già abbattuti di 30 dB, gli altri di 50 dB. Tutto questo fa sı̀ che fuori dal lobo
principale, che è circa un sesto di grado, è sotto ai 90 dB. In questo modo ciò che arriva dalle
gallassie viene già attenuato moltissimo in questo modo, per poi essere ridotto via software.
Planck ha fatto volare il primo sistema di raffreddamento attivo su una missione scien-
tifica che sia mai stato realizzato. È formato da tre sistemi di refrigerazione: uno per
raffreddare il LFH (low frequecy instrument), uno per preraffreddare lo strumento da alta
frequenza a 4 K e un altro per raffreddare fino a 40 mK. È un sistema frigorifero che fun-
ziona con l’espansione di un gas, un po’ come un comune frigorifero: il gas (idrogeno) deve
comprimersi, dissipare il calore generato dalla compressione, espandersi raffreddandosi, poi
si scalda con il calore della strumentazione e cosı̀ via. Planck non deve vibrare, quindi non ci

52
sono compressori ma solo valvole elettromagnetiche. In questo modo si è riusciti ad ottenere
fluttuazioni termiche nell’ordine dei 200 mK.
La temperatura minima che si può osservare dipende dalla temperatura del sistema e dal
numero dei rilevatori. Ogni ricevitore riceve un segnale che viene separato nelle due polariz-
zazioni. Dentro a ogni scatolino ci sono strumenti che prelevano il segnale elettromagnetico,
lo trasformano in un segnale elettromagnetico guidato a cui si sottrae il riferimento comune
che viene dal cielo ottenendo un segnale costante nel tempo.

Cosa si è scoperto
Sı̀ è misurato un segnale elettromagnetico che è proporizionale alla densità di materia
della zona da cui proviene, quindi si ha una mappa del campo gravitazionale. Da qua si
costruisce una modellistica sulla base del modello standard e si determina quali disposizioni
possono aver creato la mappa trovata. Si creano migliaia di modelli da cui creare mappe che
vengono confrontate con la mappa misurata e si determina quale ha meglio rappresentato
l’universo come lo vediamo. La migliore ottenuta ci dice che l’universo è piano, che la
materia barionica è circa il 5% dell’universo, poi c’è materia oscura ed energia oscura.

12.2.2 Euclid
È una missione per studiare materia ed energia oscura che compongono più del 95%
dell’univeso. È nata nel 2007 e volerà nel 2023-2030, avrebbe dovuto essere lanciata con un
lanciatore Russo e quindi ora è un po’ incerta.
Dopo Planck si vuole studiare quello che c’è tra la CMB e noi, studiando quella struttura
filamentosa detta cosmic web che noi vediamo intorno a noi: sappiamo della presenza di
materia oscura perché modellata dai dati e perché se ne sono rilevati gli effetti, anche se
non è ancora stata sperimentata direttamente. Sappiamo dell’energia oscura perché per
misurare la velocità di espansione dell’universo si usavano le esplosioni di supernovae di tipo
1A, ben visibili anche a grandissima distanza. Dalle curve fotometriche is è potuto vedere
che l’universo è in espansione e, contrariamente a quanto si pensava, la velocità di espansione
sta aumentando: deve esserci un’azione repulsive generata in qualche modo dall’universo che
giustifica l’espansione. Si è quindi reintrodotta la costante cosmologica nelle equazioni.
Quindi abbiamo evidenze di un fenomeno che noi interpretiamo come massa che genera
effetti di perturbazione del campo gravitazionale; abbiamo evidenze dell’accelerazione del-
l’espansione dell’universo. Una delle domande a cui si vuole rispondere con Euclid è: la
relatività generale è valida a tutte le scale e a tutte le epoche?
La missione viene costruita per misurare in maniera indipendente varie prove: con os-
servazioni terrestri, dallo spazio, con l’analisi di modelli. L’immagine di una galassia viene
deformata perché la radiazione emessa viene piegata passando attraverso zone di materia
oscura; dalla statistica di tutte le deformazioni si può determinare la distribuzione della
materia oscura,

Il satellite

È costruito da un consorzio di moltissime nazioni con a capo la Francia, è realizzata da


Thales Alenia e un’azienda francese. È costituita da due specchi dentro a una struttura; il
payload ricorda quello di Planck e ha senso, perché deve essere nella stessa posizione e deve
avere molte caratteristiche simili a livello di stabilità. Ci sono due strumenti a bordo e due
grosse camere per immagini. Avrà un down link di 55 Mbit/s, che significa più di 100 Gb
ogni 4 ore di trasmissione.
Il satellite ha delle sfere per il propellente, dei pannelli per l’elettronica e una parte
sopra che contiene gli astrumenti. Il pannello ha il computer di bordo per elaborare i dati
del rilevatore infrarosso e i dati del visibile. Una volta lanciato il satellite è controllabile
solo via telemetria, quindi il software deve essere superaffidabile e questo è uno dei motivi
della lunghezza temporale delle missioni spaziali.
Ci sono più specchi, il primario è in carburo di silicio, montato su una piattaforma sopra
al service model. Il raffreddamento, al contrario di Planck, è passivo, perché la temperatura

53
di funzionamento della strumentazione è più alta. Il campo di vista di Euclid è il più grande
mai avuto da uno strumento lanciato in orbita.
L’elettronica di bordo prevede una serie di componenti che devono resistere a stress
termici e meccanici elevatissimi, con ottime performance. Il processore è risc con una potenza
di calcolo pari a una frazione di quella che si può usare su un cellulare, è single core, ma
per essere influenzate dalle particelle che possono colpirlo i dati vengono elaborati in tripla
ridondanza e poi scelti. C’è un sistema operativo che gestisce alcuni driver appositi e un
software sviluppato in istituti di ricerca. Il software è una delle cose più controllate di tutta
la missione ed è infatti sottoposto a test di ogni tipo, ma nonostante tutte le review è sempre
possibile che scappi qualcosa, come nel caso della sonda che si è schiantata su Marte perché
parte del codice era scritto per ragionare nel sistema imperiale e parte per ragionare nel
sistema metrico e nonostante i test nessuno se n’era accorto.

12.2.3 Plato
È una missione per la ricerca, identificazione e caratterizzazione di pianeti extrasolari e
se potenzialmente la vita sia possibile su di essi. È nata nel 2007 in competizione con Euclid
ed è stata scartata, è stata riproposta nel 2011 e verrà lanciata nel 2026.
È una missione di classe LM3: misura la luce delle stelle e la sua diminuzione dovuta al
transito di eventuali pianeti tra lei e noi. Da questo si può ricavare una serie di parametri.
Quindi bisogna fare fotometria per tantissimo tempo di tantissime stelle: l’idea è guardare
tantissimo cielo contemporaneamente, vari anni, in modo estremamente stabile. Viene fatto
con 26 telescopi a grandissimo campo. La posizione in cui andrà è sempre L2 rivolto in
posizione antisolare. È raffreddato passivamente. Può fare un’imaging di migliaia di gradi
contemporanamente.
Per portare le informazioni a Terra servono stazioni di Terra con grandi dimensioni per
tirare giù dati nell’ordine dei 400 Gbit/giorno.

54
Parte V

Winter School: Decision making

Relatori: Goffredo Sdrubolini, Jacopo


Pendola, Alfredo Drago, Lorenzo Cabras

55
Capitolo 13

Complessità e decision making

13.1 La complessità
La complessità è intorno a noi, non c’è niente nel mondo di non complesso, solo di più o
meno complesso. La complessità va compresa e accettata, non è eliminabile; è crescente man
mano che l’interazione tra le parti è più importante delle parti stesse. Insieme cresce anche
la tendenza a semplificare, a ridurre tutto a un tweet di 120 caratteri, perché se riusciamo
a trovare una causa e un effetto troviamo anche la prevedibilità, che è una situazione di
comfort e di sicurezza.
La complessità può anche essere bellezza, basti pensare alla musica d’orchestra, in cui il
bello è nell’insieme delle parti.
Sintesi e compromesso non sono la stessa cosa: la sintesi presuppone che si mettano in
secondo piano certe cose, il compromesso è una diminuzione, la sintesi l’unione di tutto.

13.2 L’analisi
Se una cosa è complessa spesso non si è in grado di affrontare il tema da soli: servono
diverse conoscenze, capacità di elaborazione. Serve il confronto tra persone diverse, non per
avere ragione ma per capire, e questo lo si fa lavorando in team.

13.3 Il team
Il team ha un leader: quando bisogna prendere decisioni, la decisione va presa. Il rischio
più grosso è entrare nel circolo infinito delle conseguenze e non decidere. In quel caso il
leader si assume il rischio. Ciò che fa il team è proprio la discussione, se si pensa tutti allo
stesso modo è inutile.

13.4 Time to market


È il vincolo entro cui bisogna prendere la scelta, tipicamente inversamente proporzionale
alla complessità della scelta.

13.5 Approccio olistico


L’approccio nella scelta deve essere transdisciplinare, tiene insieme le interazioni e inglo-
ba i vari ambiti: la soluzione sarà dello stesso grado di complessità del problema.
Il team deve essere diverso al proprio interno, in modo da avere, nel processo decisionale,
tutte le possibili sensibilità. Quindi il compito del leader è anche tirarle fuori tutte. A quel
punto la soluzione non necessariamente è la prima opzione, magari è un’altra, con soluzioni

56
subottimali in certi aspetti che però con eventi complessi offrono la maggiore garanzia in
termini di soluzione generale. Questo poi sarà un problema quando lo si spiega.

13.6 Approcci e strumenti


Per fare tutto questo ci sono dei metodi. Una delle possibilità è: ho una necessità con
delle richieste, uno ci lavora, si controlla se rispetta i requisiti e si controlla se funziona. Qua
non funziona, probabilmente non c’è il tempo ed è difficile avere un feedback.
Un importantissimo strumento sono i big data. Tuttavia la raccolta dati in quanto tale
non è utile, servono le interazioni tra i dati. Gli strumenti principali a questo punto sono
due: il machine learning e deep learning. La differenza è che una macchina che fa machine
learning generalizza informazioni da dati ottenuti, il deep learning fa la stessa cosa in modo
molto più profondo, servono più dati, ma spesso non si hanno proprio tutti i dati. La
grande rivoluzione è che sono tutti algoritmi non lineari, ma spesso possono avere grossi
bias e hanno un secondo problema: conoscono il passato, non il futuro. Non tireranno mai
fuori una soluzione innovativa.

57
Capitolo 14

How to deal with critical


decisions

14.1 Il relatore
Jacopo Pendola è laureato in economia nel 2012, attualmente ancora studente di un
master. Lavora da quasi 10 anni con Costa Crociere, prima nella sezione del Revenue
Management, cioè quelli che scelgono i prezzi, poi nella sezione in cui si scelgono gli itinerari,
poi nella sezione che fanno previsione dei budget e dell’andamento della domanda. Collabora
con Unige nel dipartimento di economia.

14.2 Lo scenario croceristico


È un settore che fino al 2020 era in continua crescita, dal 2009 a livello mondiale ha quasi
raddoppiato il numero di passeggeri gestiti, fino a 32 mln. Questo aveva creato aspettative,
con navi in costruzione e altri investimenti avviati. Si parla di un indotto di 134 mld di
dollari a livello mondiale. A livello mondiale il mercato croceristico era particolarmente
florido negli USA e questo si riversa anche sulle tratte più battute, cioè quelle dei Caraibi.
Nel 2020 i passeggeri sono diventati meno di 6 mln, con gli armatori che hanno fermato
le flotte ed è stato un danno enorme, in quanto le navi da crocera sono fatte per muoversi,
normalmente si fermano per circa 10 giorni ogni 5 anni. Si è passati alla metà dei posti di
lavoro, perché gran parte dei contratti sono a termine, e l’indotto è stato quasi dimezzato.
Da luglio 2020 le crocere sono ripartite (gradualmente), fino ad arrivare in questi giorni
alla completa ripartenza. Non è stato semplice né dal punto di vista operativo né dal punto
di vista dei turisti, perché dopo il covid sono stati molti meno. Le proiezioni per i prossimmi
anni prevedono di arrivare a quasi il 130% delle navi attuali in mare, con tutti i problemi
dovuti: l’offerta è in linea con le previsioni per il post 2019, ma l’offerta è diminuita.

14.3 Costa Crociere


Costa fa parte di Carnival Corporation, gruppo quotato in borsa (il più grosso al mondo)
a New York. Anche Costa è un gruppo, comprende Costa Crociere, AIDA che opera in
Germania e Costa Asia che opera in oriente. Ha 13 navi in servizio di cui 2 destinate
all’Asia e tutto è gestito da Genova con circa 1000 impiegati d’ufficio.
Costa è sul mercato da circa 80 anni. Inizialmente produceva olio d’oliva, poi per
trasportare passeggeri e merci e infine per navi di piacere.

58
14.4 Decision making
Quando un problema è complesso bisogna scomporlo. Nel processo decisionale ci sono 7
passi:
1. Capire su cosa bisogna decidere: sembra una cosa banale, ma molto spesso nel mondo
del lavoro le persone partono a mille senza aver ben capito su cosa bisogna decidere.
Serve per evitare di arrivare ad avere soluzioni per problemi diversi
2. Raccogliere tutte le informazioni rilevanti: cosa devo conoscere per decidere? Mi
procuro le informazioni che mi servono
3. Identificare le alternative: metto in sequenza le alternative, sempre che ce ne siano.
Però è facile che ce ne siano, perché è difficile che qualcuno ti paghi per scegliere
ovvietà

4. Pesare pro e contro delle diverse alternative: bisogna anche pesare l’importanza di
vantaggi e svantaggi, in modo quantitativo e matematico
5. Prendere la decisione: se i primi 4 punti sono fatti bene è la parte più semplice,
ma entrano in gioco fenomeni psicologici-sociologici che potrebbero bloccare chi deve
scegliere

6. Mettere in atto la soluzione: dopo averla scelta, la decisione deve essere portata avanti
e spesso questo avviene da parte di altri. Si definisce un piano di sviluppo con vari
responsabili
7. Rivalutare la decisione presa: nelle aziende di solito non viene fatto ma è sbaglia-
tissimo. A posteriori una decisione può risultare non ottimale, e questo deve essere
valutato per eventualmente essere modificato in alcune parti

14.5 Decision making e covid


14.5.1 Fermo della flotta
Il 20 febbraio 2020 una delle navi Costa sta operando a Singapore. Le due settimane
precedenti una nave di un’altra compagnia era stata fermata perché in Giappone era stata
quarantenata. A Singapore per il momento c’era poco covid dichiarato. A bordo non c’erano
problemi di sorta, a terra si iniziava a discutere sulle previsioni su come sarebbe andata con
il covid. A bordo della nave quasi tutti i passeggeri erano europei e in Europa il covid non
era ancora arrivato. La crociera avrebbe fruttato 6 milioni e ne avrebbe fatte altre 4 prime
di portare la nave in Europa. Fermare le altre crociere sarebbe stata una perdita di 24
mln sui 150 annuali, ma di sicuro avrebbe salvato l’equipaggio, cancellare avrebbe dato una
brutta immagine delle crociere, non sicure, ma se fosse scoppiato qualche caso a bordo si
sarebbe finiti sulla stampa mondiale; i passeggeri sono tranquilli. Tutto converge verso il
non fermare ed infatti cosı̀ è stato. Fino ad arrivare al 20 marzo, in cui la flotta è stata
fermata. Il problema principale è stata la mancanza di informazioni e poi, quando sono
state fermate, il mondo era ormai chiuso ed è stato difficile riportare a casa equipaggio e
passeggeri.

14.5.2 Strategia commerciale e prezzi


Siamo ad adesso, febbraio 2022: abbasso i prezzi per riempire oggi o li tengo un po’ più
alti per non deprezzare il prodotto?
Siamo al 100% dell’operatività delle navi, la compagnia è indebitata per avere soldi per
non fallire: il rapporto capitale/debito è bruttino. Negli anni successivi devo avere entrate
sufficenti a ripagare i debiti e dare qualcosa agli azionisti; c’è meno disponibilità di soldi per
pagare le vacanze, ma in futuro potrebbero fallire competitor e sarebbe un vantaggio; anche
il prezzo del carburante è salito.

59
il finance dice che bisogna vendere a prezzi più alti perché non ci si sta con i margini; il
settore vendite dice che si vende poco, quindi bisogna abbassare i prezzi; il revenue manager
dice che non ci sono dati che dicono che la disponibilità a pagare di più aumenti in futuro,
però la domanda è completamente imprevedibile, quindi non siamo sicuri che alzando i prezzi
venderebbero, ma non è neanche detto che abbassando i prezzi la situazione migliorerebbe;
il marketing dice che scontare tanto è pericoloso perché non è detto che la domanda salga
ma poi potrebbe essere difficile riuscire a tornare ai prezzi precedenti.
La scelta che è stata presa è stata di mantenere i prezzi.

60
Capitolo 15

Processo decisionale in una


multinazionale

15.1 Il relatore
General Manager Global Signaling and Rail Control presso Hitachi. È un ingegnere
meccanico laureato a Genova che ha iniziato a lavorare in un’azienda di consulenza e poi ha
iniziato a lavorare per un’azienda del gruppo Ansaldo poi comprata da Hitachi.

15.2 Hitachi
Hitachi è una società con circa 300000 persone presente in tutto il mondo. La divisione
rail conta oltre 12000 persone, con uffici in 38 paesi del mondo e 5 fabbriche. Hitach rail si
occupa tutto ciò che serve per il trasporto su ferro. Hitachi è una società giapponese che
prima del covid aveva un fatturato di circa 4 mld di euro.
Hitachi vende sistemi di trasporto, che sono una cosa abbastanza complicata: c’è il
treno, c’è la linea di distribuzione, ci sono le stazioni, ci sono le biglietterie, ci sono i
sistemi di informazione al pubblico, c’è un sistema di supervisione che instrada i treni sui
binari a specifici orari. Spesso bisogna anche fornire le infrastrutture civili: nel caso delle
metropolitane questo significa anche gli edifici materiali delle stazioni. Talvolta Hitachi
fornisce solo la parte tecnologica, ad esempio quella di segnalamento, mentre il treno in sé
viene comprato da altri; tuttavia Hitachi si occupa molto spesso anche di tutte le operazioni
di manutenzione.

15.3 Decision making


Devo fare qualcosa: ho alternative, devo indirizzarmi e capire se la direzione che ho preso
è quelle giusta. Ci sono tanti fattori che influenzano le decisioni: uno è la cultura, prendere
decisioni in Italia è diverso da prenderle in Giappone. Ad esempio i Giapponesi vengono
da culture in cui l’individuo viene da un contesto in cui tutto interagisce, quindi prima
di decidere bisogna partire da Adamo ed Eva; qua veniamo dall’impero romano e siamo
più abituati a decidere in modo gerarchico. Ad esempio, le decisioni più grandi, quelle che
definiscono obiettivi a medio lungo termine, vengono prese dai top manager.
La strategia usata nelle scelte è fare tutto il possibile per realizzare la mission dell’azien-
da; nel caso di Hitachi sono harmony, sincerity e pioneering spirit, quindi si vuole arrivare
a mezzi di trasporto sostenibili e innovativi che possano aiutare la società.

61
15.4 Responsabilità delle scelte
Hitachi Rail lavora per gare e partecipare a un gara, a seconda delle dimensioni, servoe
l’approvazione di un manager sempre più alto, fino ad arrivare all’AD di Hitachi Limited.
Tuttavia qualche volta si sceglie di non partecipare a una gara, per tanti motivi, ad esempio:
• Rischio paese: fare una gara in Iraq non è come farla in Italia
• Livello di prezzo: in Italia le gare in ambito treni sono decisamente al ribasso

• Il mercato in questione non è appealing: dopo la gara in quel mercato non si farà più
per decine di anni, magari
• Condizioni di contratto: capita che venga chiesto di risarcire qualisasi danno per
qualsiasi cifra e non è una condizione sostenibile
• Carico di lavoro e timeline: potrebbe non essere qualcosa di sostenibile per via delle
dimensioni o dei processi dell’azienda
A inizio anno l’azienda stima un budget, che è molto importante perché anche solo preparare
una gara può costare milioni di euro.
Una volta ottenuta l’approvazione per la partecipazione alla gara si guardano i requisiti e
si chiede a ogni responsabili delle parti in gioco di fare una stima di costi, tempi e personale
necessario per realizzare possibili varianti di quanto richiesto. Si arriva quindi a una stima
dei costi, ma ci sono anche i costi imprevisti, ci saranno una serie di eventi che andranno a
cambiare le carte in tavola e questo implica dover inserire ulteriori coperture.
A questo punto bisogna scegliere un prezzo e lo si fa su una serie di considerazioni. Il
primo fattore è il costo interno, poi c’è la concorrenza con i suoi prezzi. Anche la presenza
nel paese in cui si deve vendere è importante, perché ti permette di conoscere i il territorio,
le normative, in un certo senso anche il mercato e i rischi di paese. Il cliente è un’altra com-
ponente che influisce sui prezzi: ci sono clienti che se il fornitore è in difficoltà preferiscono
aiutarlo e cercare soluzioni comuni, mentre da altri sai che non vedrai mai una lira in caso
di difficoltà. Un ulteriore fattore sono le future espansioni: un esempio è la metropolitana.
Mettiamo che io crei la prima linea della metro di una città, a quel punto è molto molto
facile che anche le linee successive vengano prodotte da me.
Ora ho vinto la gara e il progetto promette un certo margine per la società, ma sappiamo
che nella sua vita può succedere di tutto. Per fare in modo che il progetto venga realizzato
bisogna confermare che le considerazioni fatte in sede di preparazione della gara non siano
state troppo diverse da quelle fatte durante la contrattazione, in modo da definire il budjet
operativo.
Una volta partito il progetto bisogna fare periodiche revisioni, sia a livello di timeline che
a livello economico. Hitachi per prima cosa decide che per il tale progetto servirà una certa
cifra per ogni passaggio: se la previsione fatta non si rivela corretta a livello finanziario
è già un campanello d’allarme, se non si rivela corretta a livello temporale è un secondo
campanello d’allarme. Qualcosa che capita spesso è che nel sottomettere la riscrizione delle
specifiche in modo utile all’azienda fornitrice al cliente, questo me lo rigetti. Se capita è un
problema, perché devo fermare il lavoro, rifarne un pezzo già fatto e magari dover modificare
i piani futuri.
A questo punto si consegna al cliente e gli si mostra il prodotto ultimato.

15.5 Gestione del rischio


I rischi possono essere diminuiti, minimizzati, non eliminati. Per questo c’è il risk ma-
nagement, sia a livello di corporate sia a livello progettuale. Il primo si occupa di stilare le
linee guida, le procedure e di controllare che queste vengano applicate dal risk management
del singolo progetto.
In ambito corporate si cercano quei rischi che metterebbero a rischio l’intera azienda.
Il primo è quello dei cyberattacchi, che è sempre in agguato; un altro, ultimamente, è lo

62
shortage dei componenti elettronici. Vengono coinvolti principalmente i direttori di linea
(risorse umane, sicurezza, marketing e tutti gli altri) e le soluzioni possono essere varie,
dall’aumentare il budget a cercare nuove soluzioni che non siano un palliativo immediato
ma inutile nel futuro.
Il rischio di progetto si occupa di gestire il rischio dello specifico progetto e chi deve
essere coinvolto per occuparsene. Le contingencies, cioè le coperture per imprevisti, vengono
allocate in questa sezione; man mano che il progetto avanza se le cose vanno bene ho
sempre meno sviluppo futuro e quindi meno rischi, quindi le contingencies non usate possono
diventare margini.

15.6 Gestione dell’obsolescenza


L’obsolescenza è qualcosa di subdolo: vogliamo qualcosa che abbia lunga vita per non
doverla cambiare, ma cerchiamo sempre l’oggetto nuovo con prestazioni migliori. Con volumi
estremamente minori dell’elettronica di consumo si ha lo stesso processo degli stessi: per
scelta economica Hitachi usa elettronica di consumo, e quindi bisogna starle dietro. Facciamo
un esempio: il fornitore delle memorie mi dice che la memoria che uso da un po’ sarà fuori
commercio tra poco, quindi o ne compriamo tanta ora o studiamo quella che verrà in futuro
per saperla già usare quando arriverà. Il problema grosso è quando il preavviso è breve o
addirittura non c’è.
Se io costruisco una metropolitana durerà per almeno 25 anni, quindi nonostante la
tecnologia vada avanti bisogna essere in grado di fornire ricambi anche di tecnologie ormai
vecchie. Periodicamente chi si occupa di obsolescenza controlla se i pezzi di ricambio sono
ancora sul mercato. Quando escono si controlla lo stock e nel caso si inizia a cercare nel
grey market e si paga solo dopo che si è verificato che i componenti funzionino. Il problema
grosso è quando capita che componenti ormai obsoleti siano compresi in accordi presi di
recente, e talvolta quello che si fa è riprogettare il componente in questione, con tutti i
problemi legati anche a problematiche di tempo dovute anche al testing.
In queste decisioni viene coinvolto lo sviluppo che deve dare informazioni sui budget e sui
tempi, le fabbriche, chi deve procurare i pezzi, e chi supervisiona altri progetti, per evitare
il problema dei componenti obsoleti su gare in preparazione.

15.7 Decisioni operative


Per queste cose c’è una procedura suggerita da un ente che si occupa di valutare quando
bene lavora un’azienda. Si tratta della DAR (decision analysis and resolution) ed è appicabile
a tantissimi ambiti decisionali. È una metodologia molto semplice che si basa sul dare dei
punteggi a diverse opportunità e si riesce a tenere traccia di come si è arrivati a tale decisione.

63
Capitolo 16

I processi decisionali nella


comunicazione marketing

16.1 Il relatore
Lorenzo Cabras, laureato in economia presso Unige, si occupa id comunicazione. Ora
chief strategy offerent di different, una delle principali agenzie di comunicazione italiane.

16.2 Il mestiere di decidere


Non si può fare a meno di decidere, qualsiasi cosa facciamo, e a volte lo si fa anche
in modo inconscio. Decidere nel mondo del marketing significa avere in testa due mondi:
quello degli utenti, le persone della strada che scelgono secondo determinate dinamiche, e il
mondo dei processi decisionali aziendali. In altre parole, bisogna capire sia i manager che i
consumatori.

16.3 I meccanismi
Decidere vuol dire scegliere di fare un’azione come conseguenza a una serie di valutazioni
che derivano da aspetti interni ed esterni. Le fasi del processo sono cinque:
1. Il riconoscimento del bisogno: mi accorgo di volere qualcosa

2. Ricerca delle alternative


3. Valuto le alternative
4. Decido oer una delle alternative
5. Capisco se ho fatto una buona scelta

16.3.1 Riconoscimento del bisogno


Ci si accorge di aver bisogno di qualcosa in due modi: tramite stimoli endogeni ed esogeni,
cioè interni ed esterni, me ne accorgo io o me ne fa accorgere qualcun altro (risveglio del
bisogno latente).

16.3.2 Ricerca delle alternative


Una volta che mi sono accorto di un bisogno valuto quali sono le opportunità: voglio un
paio di scarpe e ho molte possibili strade. La comunicazione con gli altri, la pubblicità o
l’esperienza di uso, come il giro di prova della macchina nel concessionario.

64
16.3.3 Valutazione delle alternative
Faccio uno scoring delle alternative, usando anche valutazioni esterne come recensioni di
terzi

16.3.4 Decisione di acquisto


È il momento di non ritorno e si accende la fase successiva diventando un valutatore.

16.3.5 Impressione post acquisto


Si esprime un feedback nei confronti propri e altrui, tutto questo molto aiutato dal mondo
dei social.

16.4 I momenti della verità


All’interno del processo si innesta quello che diversi studiosi hanno chiamato momenti
della verità, un po’ tornato alla ribalta dal 2010 con Google. Nel 2011 infatti uscı̀ in un libro
in cui viene spiegato come le nuove tecnologie hanno modificato le dinamiche nel processo
decisionale. Precedentemente erano stati formalizzati il first moment of truth e il second
moment of truth da P&G nell’ambito dei prodotti di rapido consumo.

16.4.1 First moment of truth


Il FMOT è il momento del primo contatto, quando ho l’oggetto tra le mani e stai deciden-
do se comprarlo o no. Ha una finestra temporale ben precisa, ad esempio al supermercato:
quando prendi un oggetto al supermercato dai 3 ai 7 secondi valuti che oggetto è, se met-
terlo nel carrello oppure rimetterlo dove l’ho preso. Infuiscono tanti fattori, dai colori, alla
posizione da cui l’ho preso, se l’ho usato in precedenza e molti altri.

16.4.2 Second moment of truth


Se l’ho messo nel carrello si arriva al SMOT, il momento in cui uso il prodotto. Divento
un possibile influencer su quel prodotto, se funziona o non funziona.

16.4.3 Zero moment of truth


Con l’avvento di Google si capisce che con la digital transformation questo non è più
completo e si aggiunge lo zero moment of truth. Si inserisce a cavallo tra il sorgere del
bisogno e il FMOT e sono tutte quelle influenze che ci arrivano in quell’intervallo. L’altra
cosa rilevante è che dopo il SMOT io divento uno di quelli che influenzano lo ZMOT di altri.

16.5 Possibili ostacoli alle decisioni


16.5.1 I paradigmi decisionali
Se ne riconoscono 3:

Il paradigma cognitivo

È il più razionale e si basa sul valutare oggettivamente, a seguito di un bisogno reale,


di uno studio accurato delle alternative e di una scelta ben ponderata. Se tutto fila dritto
l’esito di questa scelta influenzerà anche quelle successive, perché per riacquistare lo stesso
prodotto non dovrò rifare tutto il percorso.

65
Il paradigma di rinforzo
I rinforizi possono essere di due tipi, è andato avanti con la slide mannaggia.

Il paradigma abitudinario
Il coinvlogimento nell’acquisto è determinato da tutte le modifiche che potrebbero essere
causate dal cabiamento di un prodotto acquistato.

16.5.2 Simon e il comportamentismo


Questo studioso sposta l’attenzione negli anni ’50 su tutto ciò che devia da tutto ciò che
è razionale nei processi decisionali: gli individui possono usare solo una parte delle informa-
zioni che hanno perché ne usano altre, magari comportamentali, e questo può stravolgere il
processo decisionale. Secondo il comportamentismo le decisioni non vengono prese con un
processo lineare ma con schemi decisionali dovuti a comportamenti ripetuti, ambiente che ci
circonda, tutto ciò che ci definisce una routine. Ci mettiamo meno testa in quei casi, perché
se dedicassimo a qualsiasi scelta della nostra vita l’approccio cognitivo non ci basterebbe
l’energia del cibo per arrivare a fine giornata perché questo consuma un sacco di energia.

16.6 La teoria dei tre cervelli


Secondo un famoso neuroscienziato il cervello è diviso tipo cipolla in tre grandi aree:
• La neocorteccia, la parte più recente e dedicata alla razionalità
• La parte limbica, dedicata alle emozioni

• Il cervello rettiliano, la parte più antica che gestisce istinti e sopravvivenza

16.6.1 La neocorteccia
È la parte del cervello che fa le cose più grosse: ragione, linguaggio, numeri, ed è l’unica
della quale abbiamo controllo diretto. Possiamo decidere a cosa pensare, come organizzare
le informazioni. È molto funzionale, ma consuma tantissima energia, quindi l’evoluzione
ci ha insegnato a usarlo solo quando ce n’è bisogno, decidiamo noi quando accenderlo e
spegnerlo.

16.6.2 Il sistema limbico


Qua vivono le emozioni, l’affetto, le capacità relazionali, l’empatia. Nel marketing i ganci
al sistema limbico vengono usati tantissimo per cercare di far fare scelte emozionali invece
che razionali sul prodotto, a più livelli. Ad esempio è quella parte che entra in gioco quando
ci sono iniziative benefiche dietro ai prodotti.

16.6.3 Il cervello rettiliano


Se sul limbico c’è un margine di influenza, sul rettiliano non c’è niente da fare, è la parte
primordiale del nostro cervello che fa battere il cuore e fa respirare. Tuttavia ci sono segnali
rettiliani che impattano nella vita di tutti i giorni. Alcuni stimoli possono essere il luccichio,
il piacere, la scarsità, l’abbondanza.

16.7 Acquisto e motivazione all’azione


Da tutto quello che abbiamo detto è evidente che i consumatori noon sono del tutto
razionali, ma cosa intendiamo per razionalità? Si parla di razionalità esterna, conosciuta
da tutti e codificata, ed interna, dovuta a propri valori o codici. La razionalità interna ci

66
spinge a fare cose anche estreme, come il doping per uno sportivo, anche se questo può finire
in situazioni patologiche.
Uno degli attivatori più forti delle decisioni secondo Freud è la risoluzione di uno stato
di tensione, e questo può essere sia positivo che negativo, ottenere un piacere o evitare un
dispiacere; questo dall’esterno può sembrare non troppo razionale.

16.7.1 I mercatori somatici


Secondo uno studioso portoghese esistono sensazioni corporee piacevoli oppure no che
permettono di anticipare le emozioni e hanno un importante ruolo nei confronti del processo
decisionale. Ad esempio se siamo felici è più facile prendere scelte, quando siamo in situa-
zioni meno piacevoli cerchiamo di evitare le scelte o le prendiamo più velocemente, come
al supermercato davanti allo scaffale con i preservativi. I marcatori sono legati al cervello
limbico e costriuscono la memoria emozionale.

16.7.2 Gli acquisti di impulso


Riuscire a trovare scorciatoie che generano una risposta fisica legata a un bisogno è
qualcosa che bypassa il cervello razionale e arriva ai livelli inferiori e nel marketing questa
cosa è usatissima. Un esempio può essere il crock nella pubblicità del magum, oppure se
mentre sono al caldo vedo una pubblicità della Coca Cola con il chioschetto dietro mi posso
anche dimenticare che a due minuti c’è il Basko in cui la Coca Cola la pagherei un terzo.

16.8 I bias cognitivi


I bias sono frutto del fatto che il cervello razionale consuma troppo, quindi sono dei
trucchetti che ci servono per lasciarlo spento. Solitamente funzionano molto bene, ma a
volte potrebbero rompersi o fallire.

16.8.1 Social proof bias


Facciamo un esempio: se mi trovo in una città che non conosco, ho fame, c’è un chiosco
per tramezzini con una coda infinita e uno deserto: scelgo quello con la coda perché se tutti
ci vanno ci sarà un motivo. Però non conosco nulla della città, quindi potrei anche aver
fatto la scelta sbagliata. Questo si chiama social proof bias.
Secondo Wikipedia il bias è una forma di distorsione della valutazione causata dal pre-
giudizio. La mappa mentale di una persona presenta bias laddove è condizionata da concetti
preesistenti non necessariamente connessi tra loro da legami logici e validi.
Nel marketing posso essere ampiamente sfruttati, sia per eliminarli e fare qualcosa di
positivo, sia per trarne beneficio e vendere di più (”Consigliato da 9 dentisti su 10 ”).
Ora vediamo vari tipi di bias.

16.8.2 Confirmation bias


È quello per cui siamo portati a cercare e condividere solo informazioni in linea con
quello che penso io. Un esempio è quello dei vaccini: provando anche solo a cercare su
Google ”Vaccini causa di autismo” trovo tantissime soluzioni, perché Google ti suggerisce
contenuti in linea con quello che hai cercato tu. Google in realtà impara e tiene conto di
tutte le tue ricerche precedenti, quindi per fiderlizzarti tenderà sempre a darti la miglior
cosa rispetto alle tue opinioni. In questo modo trovo solo dati che rinforzano la mia tesi, a
meno che non ecrchi anche il contrario.
Un corollario è l’effetto echo chamber : io condivido cose in linea con il mio pensiero,
altri che la pensano come me lo ricondividono e si va avanti come se fosse eco fino a creare
anche grosse bolle. È questo il motivo per cui proliferano le fake news, per le quali la prima
soluzione è il fact checking, che però è a carico del consumatore.

67
16.8.3 Social desirability bias
Specialmente quando si parla di argomenti più intimi è raro che chi risponde a una
domanda si sia del tutto sinceri, spesso si vuole cercare di far vedere qualcos’altro rispetto
a quello che realmente siamo. Questo si riversa anche sul mercato: nell’ambito dei sex toys
per esempio in Italia il mercato online è molto più florido di quello dei negozi fisici.

16.8.4 Status quo bias


Funziona più spesso in scenari di scelta non oggettiva, se è difficile scegliere uno scenario
rispetto a un altro. Tipicamente quindi si tende a scegliere l’opzione che non modifica lo
status quo per paura dell’effetto perdita. È un bias perché magari il cambiamento sarebbe
la scelta migliore: do infatti più peso alle potenziali perdite che ai potenziali ricavi.

68
Parte VI

Summer School: Comunicazione


efficace
Relatori: Stefania Operto, Sara di Paolo,
Gabriele Greggio

69
Capitolo 17

L’interazione tra esseri umani e


macchine. Dall’interazione
sociale all’interazione
sociotecnica

17.1 La relatrice
Stefania Operto: sociologa, ricercatrice, esperta di metodi e tecniche per la ricerca so-
ciale, Phd in Sociologia sull’interazione tra esseri umani e macchine (Human-Robot Interac-
tion). Interessata all’impatto delle tecnologie nei processi sociali e di costruzione identitaria,
ha vinto il Premio nazionale ETIC promosso da Aica, Associazione Italiana per l’Informatica
e il Calcolo Automatico, per il lavoro di ricerca sulle implicazioni sociali ed etiche legate al-
l’uso delle tecnologie digitali. Attualmente insegna presso l’Università degli studi di Genova
e il Master in Comunicazione della Scienza di Trieste.

17.2 Grande intervento confuso (cit.)


Quando pensiamo a un robot pensiamo a un oggetto umanoide però è qualcosa di molto
più ampio. Due definizioni possono essere:
• Un robot è un meccanismo programmabile con un certo grado di autonomia che si
muove nell’ambiente per eserguire i compiti previsti
• La robotica studia le connessioni intelligenti tra percezione e azione.

Nell’interazione sociale entrano in gioco una serie di intelligenze interpersonali e sociali che
fanno in modo che due persone entrino in contatto.
Ma cos’è l’interazione? L’interazione è un processo di durata variabile tra due o più attori
che orientano reciprocamente le proprie azioni, influenzando e determinando le motivazioni
e ha cambiato slide. Secondo un famoso sociologo lo scopo è mantenere la propria identità.
Se al posto di una persona ci metto un robot la situazione cambia parecchio.
L’introduzione di una nuova tecnologia provoca degli scossoni, ma la robotica ha avuto
un impatto di entità ancora più grande: la robotica fuori dall’industria modifica l’ambiente,
introduce novità estreme, cresce in modo rapido. Non è l’unica tecnologia con effetti di
questo tipo, ma non di quest’entità.
La cosa più importante di un robot, per un sociologo, è il suo corpo grazie al quale
crea un’interazione molto più forte. Questo i designer lo sanno molto bene e passano molto
a studiare come deve essere fatto un robot per essere accettato dalle persone vicino a cui
opera.

70
Ma cosa hanno prodotto le grandi rivoluzioni industriali? Sono un processo esterno o
interno al processo sociale? Le risposte non sono ancora del tutto note e la discussione ha
dato vita a un’importante scuola di pensiero.
Secondo vari studiosi potrebbe verificarsiun giorno in cuib noi non avremo più le ca-
pacità di capire lo sviluppo tecnologico a meno che non saremo in grado di aumentare la
nostra capacità di capire. Da molti quest’ipotesi viene rigettata perché è l’uomo a creare la
tecnologia, quindi la tecnologia è limitata dall’uomo.
La robotica secondo gli occidentali dovrebbe rispondere alla mancanza di tempo e di
risorse.

71
Capitolo 18

Comunicare il territorio:
strategie, strumenti, eventi

18.1 La relatrice
Da oltre 20 anni si occupa di marketing e comunicazione. Prima su Milano per due mul-
tinazionali ICT (Atos Origin e Oracle) e poi rientrando a Genova nell’azienda di famiglia
Words, che dal 1989 opera in ambito marketing e comunicazione, in particolare specializzan-
dosi nella ricerca, nelle strategie e nella promozione territoriale. Nel 2015 fonda Condiviso,
consorzio multidisciplinare per l’innovazione sociale, la rigenerazione urbana e lo sviluppo
dei territori.

18.2 Il marketing
Se ne possono dare varie definizioni:
1. Il marketing è una metodologia per comprendere, creare, comunicare e distribuire
valore. La prima regola è mettersi nei panni dell’utente a cui mi rivolgo, quindi le
ricerche di mercato sono importantissime: devo comprendere coa c’è fuori, quali sono
gli interessi e quali sono le necessità. Poi quando ho conosciuto il mondo fuori posso
usare quello che ho imparato per creare un prodotto per i potenziali clienti. Poi
ancora, quando ho definito il prodotto devo comunicarlo per far sı̀ che i target di
interesse sappiano che io sto facendo proprio quella cosa lı̀. Infine si distribuisce il
valore, non solo economico, ma anche ad esempio a livello di fiducia nei confronti dei
miei prodotti.
2. Il marketing è il processo mediante il quale le imprese creano valore per il cliente e
instaurano solide relazioni al fine di ottenere in cambio un ulteriore valore.
3. Marketing sociale: è il non limitarsi ai bisogni e ai desiderei del cliente di breve periodo
ma anche di quelli di lungo periodo e quindi a quelli della collettività.
In altre parole il marketing è la capacità di costruire dei ponti tra organizzazione e clienti.
Non è banale, è più facile costruire muri che ponti, ma una volta che ho costruito il ponte
è bidirezionale: sto attivando una comunicazione.

18.3 Marketing territoriale


È la capacità di una città o un’area geografiaca di diventare sempre più attrattivi per
imprese e persone. Diventare attrattivi è utile perché arrivano capitali e con i capitali si
possono fare tante cose.
Per fare marketing territoriale bisogna sapere proteggere, promuovere e rendere accessi-
bile la diversità, in cui per diversità si intende ciò che ci rende unici rispetto agli altri: ad

72
esempio a livello culturale (palazzi, piazze come siti), i siti Unesco sono un’enorme occasione
per fare marketing territoriale. Un altro elemento che differenzia è la cultura gastronomica,
che va raccontata e bisogna permettere a chi arriva di viverla; cosı̀ inizia la relazione di cui
sopra.
Nel caso di Genova i Palazzi dei Rolli sono un grandissimo valore, protetti, promossi ma
neanche tanto e soprattutto accessibili solo in certi momenti, perché tanti sono abitazioni
privati.
Dal punto di vista strategico bisogna definire il luogo, sapere cosa pensano gli altri del
luogo e formare e mantenere l’immagine desiderata del luogo. Ad esempio per Genova, fino
agli anni ’80, il porto mercantile arrivava fino al Bigo, quindi la reazione tipica di chi arrivava
a Genova era lo stupore per un centro storico tanto ricco.
Quando si parla di marketing per un territorio le cose da dire sono tantissime, dobbiamo
trovare quella diversità ma bisogna poi raccontarle tutte, quindi anche graficamente non è
banale sintetizzare.
Dal punto di vista operativo, il marchio cittadino è gestito dall’amministrazione locale,
anche indirettamente tramite società controllate, oppure del tutto da società private.

18.3.1 Amsterdam
Amsterdam ha sempre avuto un suo logo istituzionale, ma a livello di merketing da anni
ormai esiste il logo I amsterdam ed è iniziata la narrazione secondo cui chiunque arrivi è
Amsterdam, città che accoglie tutti. A questo punto qualsiasi cosa ha quel logo sopra.

18.3.2 Belfast
Anche per Belfast non è stato banale il rebranding, perché è da sempre stata considerata
collegata a violenza e difficoltà di vita. Belfast ha stabilito di lavorare su un segno grafico
basico (cuoricini colorati a forma di B) che porta un tema di amore, affetto e buone relazioni;
anche nella cerimonia di inaugurazione si è insistito molto sull’apertura della città.

18.3.3 Berlino
Negli anni ’90 Berlino ragiona sulla nuova Berlino, con un nuovo luogo, dopo la riunifi-
cazione. Nel decennio dopo la città investe moltissimo sull’industria creativa e sui giovani,
creando un nuovo logo. Dopo il 2010 si dà un’identità più moderna, quella della città smart,
in cui puoi fare quello che vuoi; si recupera il logo della nuova Berlino, declinandolo a
seconda dell’ambito promosso. Nel 2016 Berlino attrae più turisti di Roma.

18.3.4 Genova
Genova inizia a ragionare sull’attrazione turistica nel 1992, con il 500esimo della scoperta
dell’America e con l’inizio dei lavori del Porto Antico. Si scopre come luogo di attrazione
turistica e iniziano ad arrivare i primi finanziamenti, fino ad arrivare al 2004, quando ormai
il Porto Antico è ultimato, c’è l’acquario, via San Lorenzo, via Garibaldi sono pedonali
insieme a molte altre zone. C’è anche stato il G8, che con tutti i suoi problemi ha portato
soldi. Nel 2004 si candida a Capitale europea della Cultura: in tutta Europa di colpo si è
conosciuta Genova e la parola all’ordine del giorno è stupore per tutto quello che si trova.
I genovesi si infervorano ed esce il primo logo di Genova. È una rivoluzione anche culturale
interna della comunità cittadina. In quel periodo inizia il lavoro sui Palazzi dei Rolli, anche
a livello storico; inizia il processo per entrare nel Patrimonio dell’Unesco, fino ad arrivarci
nel 2006.
Si inizia a capire che inizia a servire un nuovo logo per il turismo. Ci si arriva in modo
partecipato, in condivisione del ragionamento; si creano 3 gruppi di 10 15 persone messe lı̀ a
ragionare, scelti con specifici tratti. Si vogliono dare linee guida a grafici che poi dovranno
creare il logo. I tre gruppi erano uno da giovani, uno da addetti alla cultura e uno da
manager. Si fanno incontri pubblici in cui si cercano modi per ottenere finanziamenti, tra
eventi culturali e turistici. Si pubblica un bando e alla fine si sceglie il famoso logo Genova

73
More Than This, che si può mettere ovunque, su immagini di qualsiasi tipo, cosı̀ come a
Genova c’è qualsiasi cosa: more than this, appunto, c’è qualcosa di più.
Oggi siamo invece in un’altra fase, l’amministrazione sta cercando di capire se l’attuale
marchio è sufficiente per consolidare la promozione turistica e culturale.

18.4 Eventful cities


Uno degli elementi chiave nelle strategie di promozione di un luogo ci sono gli eventi cul-
turali, sportivi e di ogni altro tipo, meglio se non è l’ordinario campionato di calcio. Hanno
vari elementi distintivi: aggiungono una componente intangibile agli elementi di promozione
della città, diventano uno scenario per nuovi contatti umani, stimolano l’industria creativa,
aumentano l’attrattiva della città, promuovono la coesione sociale.

74
Capitolo 19

La dimensione sonora tra


espressione, comunicazione e
relazione

19.1 Il relatore
Gabriele Greggio è pedagogista e musicista, diplomato in contrabbasso presso l’IMP di
Aosta e laureato in Pedagogia, progettazione e ricerca educativa presso l’Università degli
studi di Genova. Dal 2011 si occupa di educazione musicale con la prima infanzia in scuole e
associazioni musicali. Collabora nel campo dell’innovazione didattica all’interno dell’Unige
Teaching and Learning Center (Genova), e in quello della pedagogia musicale con il Centro
Studi Maurizio di Benedetto (Lecco). Sta concludendo il corso di musicoterapia presso la
scuola APIM di Genova.

19.2 Intervento
Abbiamo ascoltato brani e discusso sulle sensazioni che ci hanno fatto provare. Di tanto
in tanto ha detto qualcosa su come il suono sia importante nella vita umana fin da prima
della nascita e fino quasi alla morte. Poi più o meno basta.

75

Potrebbero piacerti anche