Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Indirizzo STSI
Pietro Firpo
Indice
4 Rischio aziendale 20
4.1 Il rischio assicurativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.2 L’appetito per il rischio in ambito assicurativo . . . . . . . . . . . . . . . . . 20
4.2.1 Il livello dell’appetito del rischio . . . . . . . . . . . . . . . . . . . . . 21
4.3 Solvency II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1
5 Digital Marine Insurance 22
5.1 Da SMID all’assicurazione marina . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2 I nuovi dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2.1 Assicurazioni immobiliari . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2.2 Assicurazioni sulla vita . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2.3 Assicurazioni automobilistiche . . . . . . . . . . . . . . . . . . . . . . 22
5.3 Ieri e oggi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.4 Minimizzare la probabilità di incidenti . . . . . . . . . . . . . . . . . . . . . . 23
5.4.1 Sorgenti dei dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.4.2 Uso dei dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.5 Analisi del gestore delle navi . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.5.1 Impatto dell’IoT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2
8.4 Esperienze di Industry 4.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.4.1 Cyber physical sistem . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.4.2 Digital twin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.4.3 Edge computing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.4.4 Cloud computing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.4.5 Altri ambiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.5 Technology readiness level (TRL) . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.6 Termini utili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.7 World Class Manifacturing . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3
11.5 L’ESA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
11.6 Missioni ESA e NASA negli ultimi 3 anni . . . . . . . . . . . . . . . . . . . . 47
11.6.1 Cheops . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
11.6.2 Solar orbiter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.6.3 IXPE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.6.4 LiciaCUBE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.7 Space science . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.7.1 Il Sistema solare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.7.2 Gli esopianeti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
11.7.3 L’astronomia multimesseger . . . . . . . . . . . . . . . . . . . . . . . . 49
11.7.4 La stazione spaziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
11.7.5 La Luna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
11.7.6 Marte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
11.8 Ciclo di vita di un progetto di Space Science . . . . . . . . . . . . . . . . . . . 49
4
16.3.4 Decisione di acquisto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.3.5 Impressione post acquisto . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.4 I momenti della verità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.4.1 First moment of truth . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.4.2 Second moment of truth . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.4.3 Zero moment of truth . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.5 Possibili ostacoli alle decisioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.5.1 I paradigmi decisionali . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
16.5.2 Simon e il comportamentismo . . . . . . . . . . . . . . . . . . . . . . . 66
16.6 La teoria dei tre cervelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
16.6.1 La neocorteccia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
16.6.2 Il sistema limbico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
16.6.3 Il cervello rettiliano . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
16.7 Acquisto e motivazione all’azione . . . . . . . . . . . . . . . . . . . . . . . . . 66
16.7.1 I mercatori somatici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
16.7.2 Gli acquisti di impulso . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
16.8 I bias cognitivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
16.8.1 Social proof bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
16.8.2 Confirmation bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
16.8.3 Social desirability bias . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
16.8.4 Status quo bias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5
Parte I
6
Capitolo 1
1.1 La steganografia
La steganografia è una tecnica che consiste nel nascondere dati all’interno di un conte-
nitore che un qualche modo sia adeguato. Da quando esiste la computer science si occupa
di nascondere informazioni all’interno di contenuti multimediali, video, audio o immagini.
Quando il contenitore è di tipo differente è più comune parlare di information hiding, ma
spesso i due termini sono usati in modo intercambiabile. In crittografia l’informazione è
protetta perché non si capisce il messaggio, la steganografia opera in modo diverso: l’infor-
mazione è protetta nascondendola, non si sa che c’è. Ovviamente le due tecniche potrebbero
essere combinate. Per usare la steganografia bisogna mettersi d’accordo tramite un canale
sicuro dove sia l’informazione, per poterla poi ritrovare. Poi si deve scegliere un contenitore
adatto, che sia sufficientemente robusto, ovvero non sia palese che il contenitore contenga
un’informazione e deve essere coerente con il flusso di informazioni usato per lo scambio
steganografico. Per fare un paragone, la steganografia è un insieme di tecniche per ottenere
l’effetto ”ago nel pagliaio”. È una tecnica antichissima, attualmente usata principalmente
con carrier digitali come file system di sistemi operativi, pacchetti web o altro; è stata usata
per scopi militari o di intelligence, per tracciare la diffusione di informazioni, per spionaggio
industriale, per coprire fonti nel giornalismo investigativo, per evitare censure o regimi op-
pressivi, per la gestione del copyright, per controllare l’integrità di file, per attacchi malevoli
e per molte altre cose.
7
Queste tre proprietà sono legate tra loro, ma soprattutto non si può quasi mai aumentare
una metrica senza che le altre due calino. A volte si aggiunge anche la metrica del costo
steganografico: inserire le informazioni sul carrier quanta distorsione o degradazione causa?
Questi tre parametri possono anche essere usati con scopo difensivo, cercando quale delle
proprietà è sbilanciata e può essere sfruttata per individuare l’informazione nascosta.
1.2 La difesa
1.2.1 Il watermarking
È l’utilizzo di una tecnica steganografica per marcare qualcosa, come un timbro invisibile.
Questo ad esempio si può fare per motivi di copyright, quando il dato è ancora digitale,
ma questo non basta: è sempre possibile sfruttare il cosiddetto analog hole. Ad esempio,
nell’ambito musicale, se anche il file audio è protetto, posso sempre aprire il microfono del
telefono e registrare, anche se la qualità ovviamente scende. In questo caso si parla di analog
loop, anche se in realtà esistono watermark per video ad esso resistente.
In generale, il watermarking è usato anche per tracciamento dei file, per problemi di integrità
o per problemi di metadatazione. Si può fare con audio, video, immagini, mappe, dati
medici o biomedicali, mesh 3D, traffico di rete e altro. Il timbro, come comunicazione
steganografica, deve essere invisibile (per non interferire con l’utilizzo della slide), deve
essere robusto (in questo caso difficile da togliere) e deve contenere la quantità ottimale
di dati. Purtroppo non esistono tecniche di steganografia universali, ma ogni tecnica si
deve adattare al contenitore, specialmente se si vogliono ottenere delle specifiche prestazioni
(robustezza o invisibilità, ad esempio).
1.3 L’attacco
Le tecniche appena viste si possono anche usare per attaccare: ad esempio il watermark
invece che un immagine potrebbero essere dati per un malware. Ma perché un attaccante
potrebbe voler usare l’information hiding per offendere? Principalmente per motivi di mi-
metismo. Consideriamo la rete A di una certa compagnia, connessa a Internet e protetta
da un firewall. La tecnica di information hiding potrebbe essere usata per far sembrare una
comunicazione malevola come lecita. Oppure potrebbe essere usata se i dispositivi sulla rete
A sono già stati infettati e devono inviare dati trafugati all’esterno, in modo che non si veda
quali dati vengono trasmessi. I canali steganografici sono tipicamente di due tipi:
• Locale: tra processi e/o macchine virtuali presenti sullo stesso dispositivo, magari per
bypassare controlli di sicurezza. Questo si può usare ad esempio nei dispositivi mobili,
in cui ogni applicazione è avviata in una sua sandbox che può essere comunicare con
l’esterno solo su consenso dell’utente e in modo molto limitato (ad esempio un’appli-
cazione che ha accesso alla rubrica è facile che non abbia accesso alla rete). Un attacco
efficace, in questo caso, può utilizzare due software diversi, in due scatole diverse, con
permessi diversi, che comunicano tra loro per usare in modo combinato le aperture
delle varie scatole, ad esempio per copiare la rubrica e inviarla a un server online
8
• Di rete: tra macchine che per raggiungersi tra loro devono attraversare l’Internet
Teniche di storage
Funzionano più o meno come la steganografia LSB: sacrifico uno o più bit di un pac-
chetto per trasmettere l’informazione desiderata, cercando di rimanere nell’invisibile. È più
complicato che con le immagini, perché non devo modificare bit che non compromettano il
funzionamento della trasmissione/ricezione.
Tecniche di timing
Siccome il firewall ragiona per protocolli, indirizzi e simili, io potrei codificare l’infor-
mazione nel ritardo tra due pacchetti di per sé innocui, cercando di mantenere il sistema
sufficientemente affidabile, ad esempio rispetto alla variabilità del carico della rete e la
conseguente variabilità del tempo necessario alla trasmissione del pacchetto.
9
Capitolo 2
2.1 Definizioni
2.1.1 Definizione di Bruntland
La sostenibilità
10
minerali, metalli, vetro; l’energia era sostanzialmente animale, idraulica. Con l’avvento della
rivoluzione industriale e la disponibilità di energia meccanica a costi relativamente bassi,
bruciando del carbone, c’è stato un boom di attività che ha introdotto nei cicli produtti-
vi sempre più materiali. Con seconda e terza rivoluzione industriale sono comparsi leghe
e materiali nuovi, fino ad arrivare all’industria dell’elettronica. Tuttavia i processi di re-
cupero non si sono evoluti abbastanza per riuscire a riutilizzare i materiali impiegati nelle
apparecchiature elettroniche: oggi le apparecchiature elettroniche vengono trattate ora come
trent’anni fa, in quanto i sistemi di recupero sono create per recuperare quantità massicce
di materiale e con materiali presenti in piccole quantità non funzionano, come nel caso dei
45 materiali dei dispositivi elettronici. Tutti gli altri vengono perduti per sempre, mentre
quelli recuperati spesso vengono recuperati in basse percentuali. Sono inoltre dispositivi
difficili da riparare. Una possibile soluzione a questo problema è usare gli apparecchi vecchi
per produrre apparecchi nuovi. I materiali persi sono quelli presenti in quantità minore,
cioè quelli di maggior valore socio-economico. Attualmente lo smaltimento viene effettuato
triturando tutto facendo un po’ di selezione con magneti e/o a mano e basta. Questo pro-
cedimento è tecnicamente difficile ed economicamente insostenibile. Una possibile soluzione
è raccogliere i dati sulla composizione dell’apparecchiatura per poi smontare i dispositivi
pezzo per pezzo (smontaggio selettivo) in modo da essere riutilizzati, secondo un processo
di economia circolare che dà un consumo minimo di materiali e il processo potrebbe quasi
autosostenersi, anche se i prodotti potrebbero avere un leggero sovrapprezzo rispetto ad
altri di pari qualità.
11
Parte II
12
Capitolo 3
13
• Tasso fisso e variabile. Si parla di tasso fisso quando, alla stipula del contratto, si
concorda che il tasso non varierà durante il periodo di tempo previsto dal contratto.
Si parla di tasso variabile quando si concorda che il tasso vari secondo determinati
indicatori di mercato; se le cose vanno bene i tassi scendono, altrimenti salgono. In
generale, tasso e rischio sono strettamente legati. Ad esempio una persona o una banca
rischiosa che chiede un prestito, se lo ottiene, lo ottiene a tassi molto alti.
Rischio di credito: è il rischio che un debitore (da qui in poi definito posizione) non
riesca a restituire alla banca il denaro prestato. Tipicamente è causato da una situazione
finanziaria problematica per il debitore.
Rischio operativo: è il rischio di subire perdite dovute al malfunzionamento dalla
banca o a eventi esterni. È uno dei rischi principali, ma anche uno dei meno normati.
Tipicamente porta a piccole perdite ripetute o grandi perdite molto rare. Può essere causato
da:
• Risorse umane. Si può cadere in frodi, possono accadere violazioni di regole interne o
possono essere commessi errori per incompetenza o negligenza.
• Sistemi informativi. Possono esserci malfunzionamenti hardware software nell’infra-
struttura informatica utilizzata.
• Processi. Procedure e/o controlli interni potrebbero essere malfunzionanti.
• Eventi esterni. Possono avvenire calamità naturali, rapine, e in generale eventi non
controllabili dalla banca.
Rischio di sistema: è il rischio che si verificano situazioni critiche nell’ambito in cui la
banca opera che possano farle perdere liquidità. Le possibili cause sono:
• Crisi economiche di sistema. Ad esempio, la crisi provocata dal lockdown pandemico
rientra in questa voce. In Italia, per cercare di mitigare i danni, sono state presi due
provvedimenti: si è permesso ai debitori di non pagare le rate per qualche tempo e
sono state fornite garanzie statali alle banche che avevano credito presso aziende che
non avevano liquidi per pagare. Non è chiaro se tali misure siano servite a salvare
dalla crisi o la abbiano solamente posticipata.
• Insolvenza di una banca. Se una banca non riesce a ripagare il proprio debito ad altri
è frequente che il suo fallimento crei gravi problemi all’intero sistema bancario.
Rischio di mercato: è il rischio legato all’investimento in settori che potrebbero perdere
di valore.
Rischio reputazionale: è esploso nell’era dei social, ma è sempre esistito. È il rischio
che, a seguito di scelte della banca (ma non solo, come nel caso della corsa agli sportelli) si
abbiano danni d’immagine e il rapporto con i clienti venga compromesso.
Rischio ESG: l’acronimo ESG significa Environment-social-governance. Sono rischi
legati a normative recenti adottate dagli stati per cercare di rendere l’economia più eti-
ca, sostenibile e inclusiva; è relativo all’ambiente, all’aspetto sociale e dei diritti umani.
Ad esempio, a livello di governance, bisogna includere nel consiglio di amministrazione a
prescindere da genere o estrazione etnica. Dovendo rispettare normative di questo tipo le
banche sono più propense a prestare liquidi ad aziende impegnate nella transizione econo-
mica o non producono sfruttando manodopera in stati in cui i lavoratori sono sottopagati.
Da qui si evince l’importanza del settore finanziario per indirizzare il sistema verso uno
sviluppo e un’economia etica, sostenibile e inclusiva.
14
3.4.1 Il Comitato di Basilea
Il Comitato di di Basilea è un organo nato con le autorità di vigilanza del G10 per cercare
di assicurare la stabilità del sistema bancario omogeneizzando la normativa tra gli stati
componenti. Ad esempio, prima dell’uniformazione, in alcuni stati la normativa prevedeva
di dover mettere da parte meno liquidi rispetto a quanto previsto dalle leggi vigenti in altri
stati; di conseguenza le banche che operavano in tali nazioni erano avvantaggiate rispetto alle
altre, in quanto, dovendo mettere da parte meno liquidità, avevano maggiore disponibilità
denaro da investire. Il Comitato di Basilea non è vincolante, ha solo potere di moral suasion;
le sue decisioni vengono solitamente adottate dai 10 stati fondatori e da altri stati che non
ne fanno direttamente parte. Attualmente, le norme decise dal Comitato vegono adottate
da 28 paesi.
Basilea I
Nel primo Comitato di Basilea si è deciso che le banche debbano conservare un patrimonio
di vigilanza maggiore o uguale all’8% del capitale a rischio secondo parametri decisi da
tabelle redatte durante l’incontro.
Tale approccio presentava però due notevoli limiti:
• Nel capitale a rischio sono considerati solo i rischi di credito, quindi si sottostima la
liquidità necessaria per coprirsi.
• I parametri decisi sono fissi e non dipendono dal mercato, con il conseguente rischio
che con il passare del tempo diventino poco accurati.
Basilea II
Le decisioni prese nella seconda riunione del Comitato di Basilea vengono riassunte in
tre grandi pilastri:
• Pillar 1: nella cifra su cui calcolare l’8% decisa da Basilea I viene incluso anche il
rischio operativo e di mercato; i coefficienti di rischio possono essere determinati con
dati interni, ma è un procedimento che di solito solo banche molto grandi riescono a
mettere in atto.
• Pillar 2: le banche devono inviare trimestralmente un report riguardante la propria
situazione riguardo a rischi attuali, rischi futuri e capitale a due enti appositi, ICAAN
e ILAAP, richiedendo l’approvazione.
• Pillar 3: le banche devono redarre periodicamente un documento contenente tutte le
informazioni sui propri rischi da presentare ai mercati.
Incontri successivi
Attualmente si è arrivati a Basilea IV, con cui sono state prese decisioni che hanno dato
vita a linee guida che si stanno sviluppando in modo abbastanza autonomo.
Il lavoro necessario per fare le valutazioni di cui sopra è immane e molto delicato ed è ciò
di cui si occupa il Risk Management, che deve equilibrare la necessità di coprirsi dai rischi
voluta dalla normativa con lo scopo della banca che è quello di ricavare utili.
3.5 Il credito
3.5.1 Caratteristiche e segmento del credito
Il credito emesso da una banca è caratterizzato da varie proprietà:
• Tipologia di chiusura del contratto: può essere a revoca (come ad esempio un conto
corrente) oppure a scadenza (come ad esempio un mutuo)
• Durata del contratto: può essere a breve, medio o lungo termine
15
• Tipologia di rimborso: può essere rateale o non rateale, come ad esempio i conti
correnti con sconfinamento
• Tipologia di tasso: può essere fisso o variabile, ad esempio secondo precisi indicatori
finanziari
• Tipologia di garanzia: può essere a garanzia reale (cioè con un oggetto fisico a ga-
ranzia), a garanzia personale (se il debitore non paga il garante pagherà per lui) o in
alcuni rari casi, tipicamente non per i privati, non garantito
Ogni credito emesso dalla banca viene categorizzat in uno specifico segmento del credito,
il cui scopo è identificare una classe di utenti che statisticamente hanno comportamenti
simili fra di loro.
• In bonis: il cliente sta pagando quanto deve in linea con il contratto e tutto va bene
• Default o Past due: il cliente non paga da almeno 90 giorni e inizia ad essere contattato
dalla banca per incentivarlo a pagare. È uno status reversibile, quindi il cliente può
ritornare in bonis dopo aver pagato
• Unlike to pay (UTP ): il cliente è in una situazione nella quale è improbabile che ripaghi
del tutto, quindi la banca prova azioni per aiutare il cliente a pagare. Ad esempio la
banca può proporre di diminuire l’importo delle rate, ma di aumentare il numero di
mensilità richieste
• Non performing loans (NPL): il cliente non è e non sarà in grado di ripagare il debito,
quindi per vie legali la banca cerca di rimetterci il meno possibile
Il percorso non è necessariamente lineare, si può saltare da una categoria all’altra. Inoltre
le banche, tramite la Centrale dei rischi, condividono tra loro informazioni sulla situazione
del credito di loro posizioni. In tal modo le banche possono decidere di spostare una posizione
da una categoria a un’altra sapendo cos’è successo ad altri: ad esempio, se una posizione va
in sofferenza in una banca, è molto facile che a breve andrà in sofferenza in un’altra.
3.6 Le perdite
3.6.1 La perdita attesa
La banca va in perdita quando la posizione è in default e non può più pagare il debito.
In tal caso si ottiene una perdita che si può scrivere come:
in cui, per l’i-esima posizione Li è la perdita, 1Di è la probabilità di default (cioè l’evento
certo in questo caso), LGDi è la percentuale di denaro non restituita rispetto alla cifra totale
prestata e EADi è la cifra totale prestata. Poiché il verificarsi del default è una variabile di
Bernoulli 1 si ottiene che la perdita attesa è:
16
3.6.2 La perdita inattesa
Il concetto di perdita inattesa copre eventuali perdite eccezionali collegate al default di
una posizione ed è rappresentato matematicamente con il concetto di deviazione standard:
p
ULi = V{1Di · LGDi · EADi }
In realtà gli eventi di default non sono scorrelati. Considerando un portafoglio costituito da
due asset L1 e L2, entrambi con LGD = 100 e EAD = 1, posto ρ = corr(L1, L2) si può
dimostrare che:
p p
UL2 = P1 (1 − P1 ) + P2 (1 − P2 ) · 2ρ P1 (1 − P1 ) P2 (1 − P2 )
in cui P1 e P2 non ho capito cosa siano. Quello che si vuole mostrare è che in questo caso
ci sono tre possibilità:
• ρ < 0: le controparti sono inversamente interrelate, ovvero un asset può servire da
copertura del rischio dell’altra
I parametri di rischio
I parametri di rischio sono di tre tipi:
• Through the cycle: sono parametri non condizionati dal ciclo economico. Ad esempio
il capitale richiesto appartiene a questa categoria, in quanto non si vuole che sia troppo
volatile nel tempo
• Point in time: sono parametri condizionati dal ciclo economico corrente. Si usano ad
esempio nei bilanci annuali per determinare la perdita attesa corretta relativa all’anno
di riferimento
• Forward looking: sono parametri condizionati dal ciclo economico futuro. Si usano ad
esempio per stimare le perdite attese negli anni successivi
17
3.7.1 Individuazione della variabile target
Per la creazione del modello serve un campione rappresentativo del fenomeno che si
vuole analizzare e prevedere, ovvero bisogna individuare le posizioni che possono fornirmi
informazioni utili. Bisogna inoltre definire in modo preciso il concetto di default, in quanto
la definizione può variare nel tempo e non è cosı̀ scontata. Nel nostro caso la PD ha come
obiettivo quello di individuare lo stato di salute del debitore, inteso come la probabilità di
andare in dafault. L’obiettivo è analizzare la prestazione del debitore intesa come il suo
stato al termine del periodo di osservazione, che è tipicamente di un anno.
18
3.7.5 Costruzione del modello
Una volta ottenuta la short list si stimano i parametri del modello, che solitamente è
una regressione logistica in quanto è molto adatta allo scopo. Si effettueranno poi test
diagnostici e di validazione.
In base alla PD stimata, come da normativa, vengono costruite delle classi di rating,
con specifiche caratteristiche. Ad esempio, da una classe all’altra la PD deve crescere
esponenzialmente e le classi devono essere almeno 7.
19
Capitolo 4
Rischio aziendale
20
• Richieste degli azionisti in termini di profitto
• Livello di conoscenza nell’ambito assicurativoù
• Competizione
4.3 Solvency II
È una direttiva europea che codifica la liquidità che un’assicurazione deve mettere da
parte per coprire il proprio rischio. È entrata in vigore nel 2016. Ha tre pilastri principali
che regolano tutto:
• Requisiti di capitale: quanti liquidi vanno tenuti da parte per coprire i rischi
• Gestione del rischio: osserva tutti i processi dell’assicurazione per vedere cosa è
successo e come migliorare. Paradossalmente non avere incident non è un segna-
le particolarmente positivo perché vuol dire che non si rischia e non c’è possibile
guadagno
• Disclosure management
21
Capitolo 5
22
5.3 Ieri e oggi
Che differenza c’è tra Titanic e Concordia? Nel 1917 è bruciata un cargo che trasportava
carburante; nel 2006 c’è stato un incendio sulla Hyunday Fortune, nave portacontainer che,
come tutte queste navi, ha pochissimo equipaggio e non ha modo di spegnere l’incendio.
Incidenti come questi, con tutti i dati attualmente disponibili, non dovrebber neanche
succedere. Paradossalmente invece gli incidenti sui cargo, ad esempio, sono aumentati, ad
esempio a causa delle dimensioni delle navi o delle merci trasportate, come le auto con le
infiammabili batterie al litio.
Seconda parte
Sono informazioni provenienti da chi trasporta: Amazon, DHL etc. Si capisce come
l’assicurato lavora, cosa è successo negli ultimi anni e se ci sono stati dei sinistri. Spesso non
si sa che il tale incidente è stato della tale azienda per motivi di privacy, ma ad esempio si
possono avere dati aggregati per settore industriale. Si possono ottenere anche informazioni
sulla catena di approvvigionamento di una certa azienda e possono avere un grande impatto
Terza parte
Sono i dati comportamentali, tutti i dati su come, ad esempio, una nave è stata gestita
in passato, e quindi come probabilmente sarà gestita in futuro; ad esempio, una nave che
attraversa il polo una volta al mese e una che rimane solo nel Mediterraneo, senza dati
di questo tipo, hanno lo stesso rischio. Con i dati ci si avvicina sempre di più al mercato
assicurativo su misura. Questi dati non vengono da aziende nel mondo prettamente logi-
stico ma da aziende che aggregano dati, o li ricevono via satellitare o altre cose, e il loro
compito è quello di pulirli, farti vedere come usarli e venderli. Per una nave si possono avere
informazioni sulla posizione in tempo reale, sul carico, sui porti che una nave ha toccato, le
sue caratteristiche come l’età e l’ente di classifica. Altre informazioni sono quelle sul tempo
atmosferico, che però sono più complicate da gestire, gli storici possono venire bene.
23
Ship to ship operation: non è qualcosa di illegale per alcune tipologie di merci (ad esempio
carburante), per altri tipo le armi sı̀. Queste azioni vengono tracciate guardando la velocità
media, la posizione dell’ancora, la distanza dalle navi vicine. La certezza dell’avvenuto SPS
non c’è mai, ma se una nave è sospettata di fare 200 sps all’anno la situazione è ben diversa
da una che potrebbe averne fatte 5.
Un altro dato interessante è quello sugli armatori che sfruttano il beaching: assicu-
rare armatori che sfruttano tali pratiche, se viene a galla, può essere un enorme danno
d’immagine.
Per l’equipaggio
I dispositivi indossabili usati dall’equipaggio forniscono informazioni importanti anche
loro, perché ad esempio un equipaggio più stressato è meno sicuro di un’altro. Le analisi
fatte realtime sull’equipaggio attualmente non sono molto frequenti, ma probabilmente in
futuro saranno sempre più diffusi.
Per le merci
Può venire bene ad esempio con beni deperibili, piazzare dei termometri connessi può
essere estremamente utile: se un container di banane viene tenuto a 25 gradi si può pagare
il claim ben prima che il cargo arrivi a destinazione senza dover mettere di mezzo un perito.
Però per il momento rimangono i problemi sulla comunicazione in mare aperto.
24
Capitolo 6
6.1 Il relatore
Paola Cerchiello: professoressa di statistica a Pavia. Si occupa di modelli statistico-
matematici per il rischio in ambito finanziario, con algoritmi di intelligenza artificiale e non
solo, con grande attenzione alla spiegabilità dei propri dati (explainable AI ). È alunna della
Iuss di Pavia.
6.3 Il modello
Il modello statistico usato è tipicamente una distribuzione abbastanza assimilabile a una
normale delle perdite che ogni banca deve stimare: all’interno di ogni istituto finanziario
va fatta la valutazione del value at risk, cioè i soldi che potrebbero non rientrare, dovute
a clienti che non risarciscono, aziende che falliscono, malfunzionamenti interni, calamità ed
eventi imprevisti. Le perdite sono quindi divise in perdite attese, più o meno valutabili
grazie allo storico, e le perdite inattese, come la guerra o la pandemia, per le quali bisogna
mettere da parte delle somme per evitare crack.
25
finanziari, come startup o ex startup che cercano di sostituirsi alle banche. Al centro del
modello bancario consueto al centro c’è la banca; da un lato ci sono i risparmiatori, coloro
che hanno un conto corrente con l’istituto di credito, dall’altra ci sono coloro che richiedono
i prestiti. Il rischio è in capo alla banca: se chi ha chiesto il prestito non ripaga il rischio è
assorbito dalla banca che, se necessario, usa fondi propri.
26
Se i dati sono molto asimmetrici bisogna adattare la soglia, ma è comunque un problema
perché questi algoritmi generalizzano proprietà particolari: ho pochi casi per determinare
un pattern. Il modo migliore è guardare la curva ROC: è lo strumento più completo in
quanto mette assieme tutta una serie di informazioni. Sull’asse x c’è il false positive rate,
sulle y il true positive rate. Il cutoff della curva è esplorato da 0 a 1: ho una visione globale
della performance globale del mio modello. Il bello di questo strumento è che può essere
usato per modelli molto diversi e quindi aiuta a confrontare differenti modelli; in generale, la
curva ”più alta” è migliore, ma quando i grafici si intersecano la cosa non è più cosı̀ evidente.
In quel caso si usa l’AUROC, l’area sotto alla curva ROC. Tanto è più grande l’area tanto
più il modello è migliore. Tuttavia con ROC e AUROC sto considerando tutte le soglie, ma
scelto il modello da usare poi dovrò scegliere la soglia e lı̀ ci potrebbe essere del bias.
27
Parte III
Modulo: Tecnologie
dell’informazione e della
comunicazione per l’industria
4.0
Relatori: Cristina Degano, Gianfranco
Caminale, Alessandro Garibbo, Virginia Puleo
28
Capitolo 7
7.1 Il relatore
Cristina Degano: laureata in ingegneria dell’automazione, dottorato al politecnico di
Torino, assegnista di ricerca a Genova. Ora lavora per il gruppo Sigla, responsabile a livello
di gruppo della ricerca. Fa molto poco di ingegneristico, ha più mansioni manageriali. Gli
ambiti più seguiti a livello di ricerca sono l’IoT e gli ambiti di trasporti e logistica e aspetti
sociosanitari del sistema di healthcare.
7.2 Introduzione
7.2.1 Il contesto
Il contesto di riferimento è l’industria 4.0 e le tecnologie 4.0. Tutto ruota intorno alla
tecnologie di comunicazione (5G), tecnologie per l’elaborazione dei dati acquisiti (anche
machine learnig), alla sicurezza informatica e al digital twin, argomento molto complesso
specialmente dal punto di vista tecnologico. Il primo esempio di IoT è nel 1990 quando
un tizio attacca un tostapane a Internet: esce fuori il concetto di things, oggetto che posso
controllare attraverso Internet. Nel 1999 esce per la prima volta la parola IoT e si inizia
a parlarne in modo ufficiale nel 2005, quando le nazioni unite fanno uscire il primo report
sull’IoT. Nel 2011 l’IoT entra nel campo di ricerca di mercato della Gartner.
7.2.2 Evoluzione
Tutto parte con la seconda rivoluzione industriale: nel 1870 c’è la prima messa in opera
della catena di montaggio nei cantieri della marina britannica ad opera di tun tale Brunelle,
è già un primo accenno di automazione industriale. La vera automazione industriale parte
intorno al 1913 con Henry Ford con la produzione in serie, alla quale successivamente verrà
aggiunta la produzione su commessa ed è in questo momento che iniziano a nascere i primi
scrupoli sociali, perché già con Ford inizia ad esserci un certo scatenamento dei sindacati
riguardo all’alienazione della psiche e sui problemi motori1 , cosa non molto lontana dalla
realtà. In alcune aziende, in Cina, l’alienazione è evidente. Nella terza rivoluzione si ag-
giungono le tecnologie internet, con la quarta si aggiungono i sensori. Ora si sta andando
verso la quinta, con l’Internet of everything.
1 Charlie Chaplin, Tempi Moderni
29
7.3 Concetti base
7.3.1 Un thing
Un thing è un oggetto con sensore che deve avere specifiche caratteristiche, ad esempio
di sicurezza. Uno smarphone non è strettamente un thing nel mondo dell’IoT, lo è in senso
stretto se lo sfrutto tramite i suoi sensori per ricavare dati ed elaborarli.
Vantaggi e svantaggi
Meno layer ci sono più il traffico tra dispositivi e cloud è veloce, più vengono ridotti i
consumi, meno c’è necessità di banda (anche a livello di tempo di connessione), più il dato
è sicuro.
Tuttavia spostare la computazione vicina al sensore implica maggiori costi hardware per
potenziarne la capacità di calcolo, maggiore necessità di manutenzione, minore protezione
da malfunzionamenti ho.
30
di dispositivi. È pensato per applicazioni relativamente semplici, per problemi maggiori di
solito si cercano altre soluzioni
• Fare revisioni complete: inserire nell’ambito del progetto tappe intermedie, a tutto
tondo, anche per fare test più semplici cercando bachi anche semplici da eliminare alla
radice,
• Progettare una sicurezza nativa: dal momento in cui io inizio a progettare l’ecosistema
devo già iniziare a pensare alla sicurezza.
• Ripensare al ruolo dell’IT: rimanda al primo punto, olistico a livello di esperienza e di
tecnologia
• Evitare gli anelli deboli: sono tutti quelli già visti, dalla sicurezza ai costi alla soste-
nibilità all’usabilità. Spesso i progetti sono user centered: il progetto viene iniziato
chiedendo all’utente cosa vuole, per poi provare l’usabilità insieme.
• Predisporre le risorse adeguate: ”Sı̀, bellissimo se arrivassero anche i soldi”
Gli standard
L’IoT riguarda lo stesso ambiente, ma è formato generalmente da ambienti diversi. Pen-
sando a una smart city è fatta di monitoraggio ambiente, mobilità trasporti, infrastrutture
portuali, infrastrutture sanitari, infrastrutture legate all’istruzione, tutti con i suoi modi di
operare e i suoi standard. Una delle missioni del futuro è trovare uno standard comune
per tutto questo, anche se non sempre è gradito perché potrebbe voler dire condividere i
propri dati. A livello industriale questo può capitare, anche se spesso ottimizzare un sistema
porterebbe benefici anche per gli altri.
31
Tecnologie 4.0
Sono l’IoT in sé, tutto ciò che riguarda l’analisi dei dati e il machine learnig e la
cybersecurity. Tutto questo deve confluire in una tecnologia human oriented.
32
Viene usato anche per acquacolture: c’è necessità di garantire la qualità dell’acqua per ga-
rantire la qualità del prodotto, ma anche di scegliere la quantità giusta di cibo per le orate,
che va immesso con le barche nelle gabbie; andare avanti e indietro è un costo, sbagliare la
quantità è un rischio ed è un’operazione rischiosa per l’operatore.
Per questo progetto è stata usata un’infrastruttura con piattaforme mobili sull’acqua,
con un nodo per piattaforma con sensori Lora posti su boe con una sorta di bandiera che può
funzionare anche come antenne (meda). In loco viene eseguito un minimo di preprocessing,
poi i dati vengono inviati al gateway che fa gran parte delle operazioni necessarie per poi
essere inviate al cloud. Si è lavorato tanto sulla velocità di trasmissione, sull’integrità del
dato. Si sono usate anche boe 2.0 per controllare l’accesso a zone ad accesso limitato, con
un gateway sulla meda e uno sulla nave usata dal CNR (che ha preso parte al progetto).
33
Capitolo 8
8.1 I relatori
8.1.1 Gianfranco Caminale
Lavora in Leonardo da sempre, prima che fosse Leonardo. Ora è nella divisione Cyber
e security, nel CTO divisionale, la struttura che si occupa di progetti di ricerca e di in-
vestimento. Gestisce progetti di ricerca finanziati sia dal Ministero della ricerca che dello
sviluppo economico, ma anche dall’Unione Europea, in ambito civile e militare.
Ingegnere meccanico laureato in Genova, poi ufficiale di Marina, poi entrato in SEIAF,
società nata per l’automazione in fabbrica, poi per maneggi societari è arrivato in Leonardo.
Nella sua carriera lavorativa si è occupato principalmente di software per automazione in-
dustriale e programmazione di produzione; si è occupato anche di software gestionali come
SAP.
34
si potrebbe usare il diritto britannico e il foro potrebbe essere Londra o Seattle, tipicamente
un posto scomodo per far passare la voglia di litigare.
Tipicamente l’accordo standardizza anche i contratti di ricerca, è già accettato sia da
Università che dall’Azienda, senza necessità di passare attraverso gli uffici legali dei due
accordati, e i criteri di proprietà intellettuale.
UniGE e Leonardo lavorano coniı̀giuntamente su robotica, cybersecurity, intelligenza
artificiale, HPC e molte altre cose: questo perché sia UniGE che Leonardo si occupano di
tantissime aree. Questo viene fatto commissionando studi (anche a livello di dottorati di
ricerca o di ricerca a tempo determinato), condividendo infrastrutture e conoscenze. Viene
fatto attraverso didattica (rivolta a studenti), formazione (a studenti e professionisti) e
comunicazione (al pubblico esterno).
35
8.4.5 Altri ambiti
Altri ambiti di grande importanza sono il fog computing, il machine learnig e il paradigma
realtà aumentata - realtà mista - realtà virtuale.
• Supervisory control and data acquisistion: sistemi che monitorano sistemi in-
dustriali, tipicamente aziende di processo. Usano pesantemente IoT per osservare ed
effettuare eventuali retroazioni.
36
Capitolo 9
Criminologia: è una disciplina che si concentra sullo studio del crimine, di coloro che
commettono crimini, della giustizia criminale e del sistema penale. Rispetto al diritto è
molto più rivolta alla sociologia.
Cybercrimine: crimine commesso online utilizzando reti di comunicazione elettronica
e sistemi informativi. Due categorie: computer focused e computed assisted. I secondi
sfruttano la tecnologia per commettere un crimine che può esistere anche offline (ad esempio
cyberbullismo); i primi sono crimini che possono essere commessi solo online (tipicamente
violazioni di dati, vedi triade CIA).
Cybercriminologia: sottocampo che riunisce informatica, psicologia, sociologia, cri-
moniı̀ologia e altre discipline per esameninare come e perché le persone commettono crimini
tramite le nuove tecnologie.
37
9.2.2 Teorie di criminologia
Vediamo ora alcune teorie che cercano di spiegare le motivazioni del crimine nel mondo
fisico.
Secondo le teorie della scelta razionale le persone scelgono liberamente di cercare il
piacere in un modo razionale che consideri, ad esempio, rischi e benefici, alla Cesare Beccaria:
le pene devono essere certe, severe (in proporzione) e veloci. In questo caso si parla di teoria
del deterrente.
La teoria delle attività di routine si concentra sull’opportunità: devono coesistere nello
stesso istante un criminale motivato, un buon bersaglio e devono mancare tutele efficaci.
Secondo la teoria dell’autocontrollo invece le persone più propense a commettere crimini
sono quelle com minor autocontrollo, impulsive, egocentriche.
Secondo la teoria generale della tensione, quando c’è un fattore di stress, le persone
possono reagire commettendo un crimine. I fattori di stress portano a emozioni negative,
che insieme ad altri fattori possono portare alla deliquenza.
Secondo la teoria dell’apprendimento sociale noi vediamo gli altri commettere dei reati
e se non vengono puniti saremo portati a imitarli.
Secondo la teoria della neutralizzazione i criminali devono usare, prima di commettere
il crimine, una di queste tecniche: negazione della responsabilità, negazione del danno,
negazione della vittima, condanna di coloro che condannano, richiamo a lealtà superiori.
• Reciprocità: negli Stati Uniti si è visto che a fine pasto, nei ristoranti, dare una
mentina a fine pasto faceva aumentare le mance in modo abbastanza significativo; la
discriminante era molto anche il come si dava, non solo il cosa, in modo inaspettato e
piacevole per chi riceve
• Scarsità: nel 2003 la british Airways ha detto che il volo Londra NY sarebbe stato
una volta al giorno invece di due e le prenotazioni sono salite considerevolmente
• Impegno e coerenza: negli USA sono stati scelti due quartieri. Agli abitanti di uno
è stato chiesto di mettere un cartellone nel proprio giardino; agli abitanti dell’altro è
stato chiesto di mettere prima una cartolina alla finestra, poi il cartellone: la maggior
parte di chi ha messo la cartolina, volendosi dimostrare coerente, ha messo poi anche
il cartellone. Altri esperimenti hanno mostrato che questa cosa vale ancora di più se
in forma scritta
• Autorevolezza: in generale siamo portati a credere di più a persone che riteniamo
autorevoli
• Simpatia: più ci piace qualcuno più siamo portati a credergli, questo tipicamente
succede con persone simili a noi
• Riprova sociale: le persone fanno quello che vedono fare agli altri. Se vedo che un
locale è sempre frequentato è probabile che mi venga voglia di andare lı̀.
1 Roberto Cialdini, libro di cui non ricordo il nome
38
9.2.4 Teniche di social engeneering
Phishing
Il solito sempreverde, ma recentemente c’è stato un attacco a clienti di una banca, fatto
molto bene: le vittime ricevevano mail con un link che riportava a una pagina molto ben
fatta in cui venivano inserite le credenziali, ma manca ancora l’OTP. Veniva fatta una
telefonata che appariva essere dal numero della banca che fingeva di avvisare di un bonifico
strano in partenza; nel caso lo si volesse annullare sarebbe stato necessario fornire l’OTP.
Detto fatto.
Spear phishing
Prevede che la vittima venga studiata e si raccolgano molte informazioni su di essa, in
modo da poter mandare una mail molto personalizzata.
Le conseguenze
Una delle possibili conseguenze è che un programma malevolo entri nella rete, ci rimanga
un po’ per non destare sospetti, poi si espanda e cripti tutto. Alcune aziende potrebbero
essere pronte con backup, quindi la seconda minaccia è di divulgare i dati, magari sensibili.
Baiting
Consiste nel lasciare in giro usb malevole in giro, che potrebbero dare input da tastiera
(tipo rubberducky) o dare tensione tanto alta da fondere pezzi.
Diversion theft
Un server criminale riesce a rubare dati sensibili inducendo la vittima a mandare questi
dati al destinatario sbagliato.
Piggybacking e tailgating
Sono usate per entrare in zone fisicamente non autorizzate. Si usano due nomi perché
una differenza c’è. Nel piggybacking la persona che vuole entrare si inventa una scusa per
entrare; nel tailgating mi accodo a qualcuno autorizzato ed entro con lui.
Dumpster diving
È l’andare nei cassonetti a cercare informazioni utili, anche su vecchi pc che magari non
sono stati formattati.
39
Parte IV
40
Capitolo 10
41
Campo di vista: è la porzione di arco Terrestre visibile da una certa distanza: l’IIS vede
relativamente poco, mentre un satellite geostazionario vede quasi metà Terra. Questo era
noto da moltissimi anni per motivi bellici e si è capito che poteva permettere comunicazioni
a grande distanza. Una dei primi progetti è in un articolo del 1945 di un tale Clarke: con
tre satelliti a 120 gradi sopra l’equatore, a debita distanza, i satelliti sono fermi. Quindi
per comunicare da un punto all’altro della terra basta far comunicare i satelliti tramite
microonde, che in tre coprono tutta la terra. Clarke si era anche interrogato sull’energia
necessaria; scelse l’energia solare ipotizzando caldaie a vapore che sfruttano il calore del
Sole.
10.3.3 Osservazione
Le applicazioni principali sono per il meteo, per la gestione delle risorse ambientali,
gestione delle emergenze e militari. Questi satelliti tipicamente lavorano nel ottico e nel NIR
(near infrared). La dotazione classica è quella dei multispettrali: il satellite ha un’ottica e
scompone la luce ricevuta, di solito in visibile e poi divisa per bande.
Attualmente si stanno sviluppando le tecnologie iperspettrali, molto più complesse, con
rilevatori molto più piccoli e numerosi, con cui si riesce ad avere più dati ma la complessità
cresce molto. Con un canale pancromatico è facile avere un dettaglio più fine, con uno
multispettrali l’immagine è più sgranata ma contiene più informazioni diverse da quelle
visibili; un’immagine iperspettrale ha risoluzione bassa ma contiene moltissime informazioni,
come la distribuzione di clorofilla all’interno della zona osservata.
L’osservazione può anche essere effettuata con radar, che a seconda degli echi delle onde
inviate ottiene informazioni. Con la tecnica SAR si riesce a simulare un’antenna di dimen-
sioni molto più ampie di quanto si potrebbe fisicamente realizzare. Con questa tecnica si
riesce ad ottenere immagini con risoluzione quasi fotografica, ma necessità di impegnative
operazioni di processing. Il vantaggio rispetto all’ottico è che funziona anche a prescindere
dalla luce e dal meteo. Ad esempio, i radar si usano anche per tracciare altitudini e fare
carte geografiche.
42
CMB. Si è scoperto che la sua distribuzione in frequenza è ben fittabile con la curva di un
corpo nero a 3 kelvin, e si è visto anche che la CMB non è uniforme. La sua mappatura è
andata avanti attraverso successive missioni, fino alla missione Planck, europea, del 2009.
Tutto questo, dentro l’atmosfera, non sarebbe stato possibile.
10.5.2 Il vuoto
Non tutti i materiali sono compatibili con il vuoto: praticamente tutti i materiali con-
tengono solventi o sostanze chimiche che esposti al vuoto evaporano. Il materiale cambia le
proprie proprietà e si sviluppa del gas che può dare problemi, ad esempio può appannare
un’ottica.
43
Facendo due conti con principi primi la densità delle molecole d’aria ha un andamento
che scende come un esponenziale negativo: ogni 9 km la densità decresce di circa 1/e; questo
significa che a basse quote la densità dell’aria non è nulla e può frenare l’oggetto lanciato;
da principi primi si vede che la forza subita è proporzionale al quadrato della velocità. Per
questo motivo la IIS viene periodicamente spinta verso l’alto dalle navicelle che arrivano,
perché venendo frenata rallenta e quindi scende.
44
10.6 Caratteristiche delle orbite
Le orbite sono ellittiche e hanno come parametri il semiasse maggiore (a), l’eccentricità
(e), la linea degli abisdi (definisce come l’ellisse è orientato nello spazio). Il sistema di
riferimento usato è cartesiano con l’origine nel centro della Terra, il piano xy sull’equatore
con l’asse x che punta sul punto d’Ariete e l’asse z che punta erso il polo nord stellare.
L’orbita teorica in realtà è perturbata nelle orbite basse da drag atmosferico e schiacciamento
polare (la Terra non è una sfera perfetta e il campo gravitazionale ne risente), nelle orbite
alte da effetti gravitazionali di Sole e Luna e pressione di radiazione solare.
10.8.1 Il lancio
Bisogna portare strumentazioni in alta quota, e si fa con lanciatori, palloni stratosferici
o altro.
45
Capitolo 11
46
spazio futuro come sfida che fa avanzare la tecnologia, spazio sicuro come cybersecurity, con
trasmissioni criptate.
Questa legge prevede che sia il Presidente del Consiglio in testa a tutto. Poi c’è il
comitato interministeriale, che comprende 12 ministri e il presidente della Conferenza delle
regioni. Tutto questo sta causando complicazioni manageriali, perché ci sono tanti soldi
ma anche tanti enti che vogliono perseguire i propri interessi. Tuttavia i fondi per i lanci
sono stati dati direttamente all’ESA e non è stata una grande idea. Ormai l’ASI dà quasi
solo consulenza scientifica e apporto. L’altra consulenza estremamente ascoltata è quello
dei militari. È tutta una gran confusione insomma.
Sono poi statem emanate le linne guida del govero sullo spazio e aeropsazio, un primo
documento pubblico che regola varie altre cose. È cresciuta la space diplomacy, come se
lo spazio avesse bisogno di una propria diplomazia: nello spazio, anche durante l’attuale
guerra, Russi ed Europei continuano a collaborare. Sono state definiti piani per tecnologie,
applicazioni, economia, sicurezza spaziale. Ma in realtà tutto questo c’è già, non sarebbe
servita tutta questa roba perché anche senza piani tutto si stava già sviluppando, questo
anche a livello di settori e obiettivi spaziali strategici. Insomma, la prof.ssa Negri sembra
averla presa abbastanza sul personale per questa normativa con la gente che le dice cosa
deve fare e lei che lo sta facendo da anni.
11.5 L’ESA
Comprende 22 paesi, anche non dell’UE come Svizzera, Slovenia e Canada, che ha voluto
cooperare fin dall’inizio: non vota ma fa parte dei programmi. Ha vari centri: uni a Colonia,
dove si addestrano gli astronauti che rispondono all’esa; uno a Madri, dove si immagazzinano
tutti i dati e vengono analizzati; uno a Frascati, dove si archiviano i dati ottenuti; uno è in
Olanda dove ci sono le test facility e tutto ciò che serve per la realizzazione delle missioni
spaziali
47
11.6.2 Solar orbiter
Ha 10 strumenti, sia per osservare il Sole, sia in situ. L’Italia ha realizzato il coronografo
principale (30 milioni) e tre strumenti che parlano tra di loro.
11.6.3 IXPE
È una missione metà italiana e metà americana. È per vedere se c’è emissione di luce
polarizzata da stelle lontane in radiazione X. Nel gennaio 2017 gli americani hanno chiesto
all’ASI i tre rivelatori e il computer di servizio, con circa 4 anni di anticipo. Gli americani
che non credevano che potessimo riuscire a fare una cosa del genere in tempi cosı̀ ristretti e
noi italiani ci siamo riusciti, nonostante la pandemia. Gli americani invece hanno avuto 5
mesi di ritardo. Ops.
11.6.4 LiciaCUBE
Molto poco dopo IXPE la Nasa vuole prendere una sonda tipo proettile per distruggere
un asteroide e vedere cosa succede agli altri asteroidi del suo sistema. Per fare questo però
serve un cubesat con due telecamere per guardare cosa succede con l’impatto. La Nasa
vuole fare questo per valutare l’eventualità di mandare un satellite proiettile su un possibile
asteroide in rotta di collisione con la Terra e guardare le conseguenze. L’impatto è previsto
per il 2 ottobre. Sarà il primo satellite italiano ad andare nello spazio profondo.
48
si è capito che esopianeti ce n’erano un bel po’. Per questi scopi sono state lanciate più
missioni, tra cui la Kepler della Nasa, Cheops di cui l’Italia ha fatto l’ottica, Plato che deve
ancora essere lanciata di cui facciamo i telescopi e il computer di bordo, che farà scoperte
anche di nuove; poi ci sarà Ariel, di cui l’Italia farà lo specchio, che studierà le atmosfere.
Immaginiamo di avere una serie di pianeti rocciosi e con acqua. Un pianeta è vivibile
se è a una distanza da una stella per cui l’acqua sia trovabile liquida alla superficie. Per il
nostro Sistema solare la fascia di abilità inizia con Venere. Per il 186-esemo sistema trovato
da Kepler, con 5 pianeti, il quinto pianeta è nella fascia di abitabilità, da verificare poi anche
con l’atmosfera.
Sempre Kepler ha guardato molto bene il sistema più vicino a noi, Alpha Centauri, con
3 stelle. Proxima Centauri, una di queste stelle, che in realtà è una nana nera (che ha una
fascia di abitabilità molto più vicina) ha un pianeta nella fascia di abitabilità ed è a 4 anni
luce da noi; andando a 20% di c vorrebbe dire raggiungerlo in 50 anni, che è tanto ma è
ragionevole.
11.7.5 La Luna
Già Trump aveva annunciato il ritorno sulla Luna, ma perché tutto questo interesse?
Perché la Luna è un pathfinder verso esplorazioni più complessi, perché la Luna ha materiali
interessanti al suo interno che ormai stanno scarseggiando sulla Terra. Il progetto è di avere
una stazione cislunare in orbita intorno alla Luna da cui manare gente sulla Luna. Per
colonizzare la Luna servono sistemi autorigenerativi, immagazzinatori di energia, protezioni
dalle radiazioni e molto altro; tutto questo non sarà facile, mentre la missione di mandare
un modulo intorno alla Luna esiste e si chiama Artemis, partirà nel 2024 o 2025.
11.7.6 Marte
Non è vivibilissimo ma gli ostacoli non sono insormontabili; il più grosso è quello delle
radiazioni. Su Marte c’è e c’era acqua, ma ne serve una quantità seria per permettere la
vita. La scoperta più grossa è stata fatta da una missione italo-americana che ha scoperto
un bacino di acqua liquida a un chilometro e mezzo dal suolo.
Una missione era pronta per partire verso Marte, ma era una collaborazione tra Europa
e Russia quindi è ferma in un magazzino. La parte Russa in parte è rimpiazzabile, ma ci
vorranno 4/5 anni.
49
• Design ingegneristico: è la fase di ingegnerizzazione
• Sviluppo e qualificia: si creano fasi
• UFFAAAAAAAA vai a vedere sulle slide e ciao, è quasi tutto scritto
50
Capitolo 12
51
due ingegneri avevano appena registrato per la prima volta la CMB, con tutte le differenze
termiche dovute allo spostamento verso il rosso per effetto doppler.
Si è iniziato a pensare che la CMB non dovesse essere uniforme, perché altrimenti non
ci sarebbero state le galassie: nel 1992 il satellite Cobe ha fotografato per la prima volta
la CMB con le sue anisotropie, fino ad arrivare nel 2003 a WMAP che rispetto a Cobe
ha ottenuto qualcosa di molto più dettagliato, fino ad arrivare a Planck con la risoluzione
massima ottenibile per motivi fisici riguardo alla generazione delle anisotropie. È stato
levato tutto ciò che è tra noi e lo sfondo, con metodi statistici.
Il satellite Planck
Sembra un po’ un’antenna parabolica all’interno di uno schermo di radiazione, riflettente
all’interno e nero all’esterno. Doveva determinare differenze termiche nell’ordine del milio-
nesimo di Kelvin, che sarebbe come trovare una candela sulla superficie della Luna. Era nel
secondo punto lagrangiano Terra-Sole in posizione antisolare. Per fare tutte queste cose è
stato necessario un oggetto con le migliori performance possibili con quel budget.
Nella parte posteriore c’è la carrozza, il sistema che contiene i sistemi elettronici e di
comunicazione, la propulsione e tutto ciò che serve a far funzionare il payload. Nel caso
di Planck il retro, con i pannelli solari, era sempre rivolto verso il Sole e poteva generare
un paio di kW, che non è per niente poco (in strumenti con pile atomiche si arriva a
consumi nell’ordine dei W). Planck ha due schermi, una parte riflettente e una parte nera,
con emissività diverse per dissipare il calore generato all’interno del satellite verso lo spazio
profondo, permettendo di raffreddare passivamente a -60 K il sistema tramite radiazione.
La struttura interna ha un bus con 4 sfere con il carburante per gli orientatori, poi ci
sono i dissipatori dei detector (che vanno a temperature prossime allo zero). Ha delle
antenne detti horn che sono i collettori del segnale che viene riflettuto da specchio primario
e secondario, collegati ad amplificatori del segnale. Ci sono 2 antenne da 23-32 GHz, 3
antenne a 44 GHz e 6 antenne a 66 GHz, possono sembrare poche ma cosı̀ non è. Poi c’è la
parte ad alte frequenze, raffreddata a circa 20 mK per avere un bassissimo rumore termico.
Le missioni attualmente proposte, per misurare la polarizzazione della CMB avrà migliaia
di detector per migliorare la statistica; migliorare i sensori ormai non è fattibile perché
sono quasi vicini al numero quantico. I segnali vengono trasferiti ancora analogicamente
al ricevitore, amplificati, e poi tramite guide d’onda arriva fino al core module dove viene
ancora amplificato. Si fa perché il primo pezzo deve amplificare con pochissimo rumore di
fondo, poi quando il segnale è abbastanza forte il rumore termico è meno rilevante.
Tecnologia e design
Per progettare uno strumento cosı̀ sensibile ci sono due filosofie: secondo una bisogna non
far arrivare tutto ciò che deturpa, secondo l’altra vengono captati e rimossi via software,
sebbene con limiti fisici. Alla prova dei fatti servono entrambi per arrivare a livelli di
accuratezza estremi come questi.
Le antenne horn sono corrugate, perché questo permette di condizionare la zona osservata
dalle antenne: per il principio di reciprocità un segnale elettromagnetico può essere descritto
matematicamente nello stesso modo in trasmissione e in ricezione. Per come sono fatte le
corrugazioni si riesce a ottenere che le antenne ricevono per un ampiezza di qualche decina
di grado lo specchio primario: il lobo principale è ampio e pronunciato, i lobi laterali, a 45°
circa sono già abbattuti di 30 dB, gli altri di 50 dB. Tutto questo fa sı̀ che fuori dal lobo
principale, che è circa un sesto di grado, è sotto ai 90 dB. In questo modo ciò che arriva dalle
gallassie viene già attenuato moltissimo in questo modo, per poi essere ridotto via software.
Planck ha fatto volare il primo sistema di raffreddamento attivo su una missione scien-
tifica che sia mai stato realizzato. È formato da tre sistemi di refrigerazione: uno per
raffreddare il LFH (low frequecy instrument), uno per preraffreddare lo strumento da alta
frequenza a 4 K e un altro per raffreddare fino a 40 mK. È un sistema frigorifero che fun-
ziona con l’espansione di un gas, un po’ come un comune frigorifero: il gas (idrogeno) deve
comprimersi, dissipare il calore generato dalla compressione, espandersi raffreddandosi, poi
si scalda con il calore della strumentazione e cosı̀ via. Planck non deve vibrare, quindi non ci
52
sono compressori ma solo valvole elettromagnetiche. In questo modo si è riusciti ad ottenere
fluttuazioni termiche nell’ordine dei 200 mK.
La temperatura minima che si può osservare dipende dalla temperatura del sistema e dal
numero dei rilevatori. Ogni ricevitore riceve un segnale che viene separato nelle due polariz-
zazioni. Dentro a ogni scatolino ci sono strumenti che prelevano il segnale elettromagnetico,
lo trasformano in un segnale elettromagnetico guidato a cui si sottrae il riferimento comune
che viene dal cielo ottenendo un segnale costante nel tempo.
Cosa si è scoperto
Sı̀ è misurato un segnale elettromagnetico che è proporizionale alla densità di materia
della zona da cui proviene, quindi si ha una mappa del campo gravitazionale. Da qua si
costruisce una modellistica sulla base del modello standard e si determina quali disposizioni
possono aver creato la mappa trovata. Si creano migliaia di modelli da cui creare mappe che
vengono confrontate con la mappa misurata e si determina quale ha meglio rappresentato
l’universo come lo vediamo. La migliore ottenuta ci dice che l’universo è piano, che la
materia barionica è circa il 5% dell’universo, poi c’è materia oscura ed energia oscura.
12.2.2 Euclid
È una missione per studiare materia ed energia oscura che compongono più del 95%
dell’univeso. È nata nel 2007 e volerà nel 2023-2030, avrebbe dovuto essere lanciata con un
lanciatore Russo e quindi ora è un po’ incerta.
Dopo Planck si vuole studiare quello che c’è tra la CMB e noi, studiando quella struttura
filamentosa detta cosmic web che noi vediamo intorno a noi: sappiamo della presenza di
materia oscura perché modellata dai dati e perché se ne sono rilevati gli effetti, anche se
non è ancora stata sperimentata direttamente. Sappiamo dell’energia oscura perché per
misurare la velocità di espansione dell’universo si usavano le esplosioni di supernovae di tipo
1A, ben visibili anche a grandissima distanza. Dalle curve fotometriche is è potuto vedere
che l’universo è in espansione e, contrariamente a quanto si pensava, la velocità di espansione
sta aumentando: deve esserci un’azione repulsive generata in qualche modo dall’universo che
giustifica l’espansione. Si è quindi reintrodotta la costante cosmologica nelle equazioni.
Quindi abbiamo evidenze di un fenomeno che noi interpretiamo come massa che genera
effetti di perturbazione del campo gravitazionale; abbiamo evidenze dell’accelerazione del-
l’espansione dell’universo. Una delle domande a cui si vuole rispondere con Euclid è: la
relatività generale è valida a tutte le scale e a tutte le epoche?
La missione viene costruita per misurare in maniera indipendente varie prove: con os-
servazioni terrestri, dallo spazio, con l’analisi di modelli. L’immagine di una galassia viene
deformata perché la radiazione emessa viene piegata passando attraverso zone di materia
oscura; dalla statistica di tutte le deformazioni si può determinare la distribuzione della
materia oscura,
Il satellite
53
di funzionamento della strumentazione è più alta. Il campo di vista di Euclid è il più grande
mai avuto da uno strumento lanciato in orbita.
L’elettronica di bordo prevede una serie di componenti che devono resistere a stress
termici e meccanici elevatissimi, con ottime performance. Il processore è risc con una potenza
di calcolo pari a una frazione di quella che si può usare su un cellulare, è single core, ma
per essere influenzate dalle particelle che possono colpirlo i dati vengono elaborati in tripla
ridondanza e poi scelti. C’è un sistema operativo che gestisce alcuni driver appositi e un
software sviluppato in istituti di ricerca. Il software è una delle cose più controllate di tutta
la missione ed è infatti sottoposto a test di ogni tipo, ma nonostante tutte le review è sempre
possibile che scappi qualcosa, come nel caso della sonda che si è schiantata su Marte perché
parte del codice era scritto per ragionare nel sistema imperiale e parte per ragionare nel
sistema metrico e nonostante i test nessuno se n’era accorto.
12.2.3 Plato
È una missione per la ricerca, identificazione e caratterizzazione di pianeti extrasolari e
se potenzialmente la vita sia possibile su di essi. È nata nel 2007 in competizione con Euclid
ed è stata scartata, è stata riproposta nel 2011 e verrà lanciata nel 2026.
È una missione di classe LM3: misura la luce delle stelle e la sua diminuzione dovuta al
transito di eventuali pianeti tra lei e noi. Da questo si può ricavare una serie di parametri.
Quindi bisogna fare fotometria per tantissimo tempo di tantissime stelle: l’idea è guardare
tantissimo cielo contemporaneamente, vari anni, in modo estremamente stabile. Viene fatto
con 26 telescopi a grandissimo campo. La posizione in cui andrà è sempre L2 rivolto in
posizione antisolare. È raffreddato passivamente. Può fare un’imaging di migliaia di gradi
contemporanamente.
Per portare le informazioni a Terra servono stazioni di Terra con grandi dimensioni per
tirare giù dati nell’ordine dei 400 Gbit/giorno.
54
Parte V
55
Capitolo 13
13.1 La complessità
La complessità è intorno a noi, non c’è niente nel mondo di non complesso, solo di più o
meno complesso. La complessità va compresa e accettata, non è eliminabile; è crescente man
mano che l’interazione tra le parti è più importante delle parti stesse. Insieme cresce anche
la tendenza a semplificare, a ridurre tutto a un tweet di 120 caratteri, perché se riusciamo
a trovare una causa e un effetto troviamo anche la prevedibilità, che è una situazione di
comfort e di sicurezza.
La complessità può anche essere bellezza, basti pensare alla musica d’orchestra, in cui il
bello è nell’insieme delle parti.
Sintesi e compromesso non sono la stessa cosa: la sintesi presuppone che si mettano in
secondo piano certe cose, il compromesso è una diminuzione, la sintesi l’unione di tutto.
13.2 L’analisi
Se una cosa è complessa spesso non si è in grado di affrontare il tema da soli: servono
diverse conoscenze, capacità di elaborazione. Serve il confronto tra persone diverse, non per
avere ragione ma per capire, e questo lo si fa lavorando in team.
13.3 Il team
Il team ha un leader: quando bisogna prendere decisioni, la decisione va presa. Il rischio
più grosso è entrare nel circolo infinito delle conseguenze e non decidere. In quel caso il
leader si assume il rischio. Ciò che fa il team è proprio la discussione, se si pensa tutti allo
stesso modo è inutile.
56
subottimali in certi aspetti che però con eventi complessi offrono la maggiore garanzia in
termini di soluzione generale. Questo poi sarà un problema quando lo si spiega.
57
Capitolo 14
14.1 Il relatore
Jacopo Pendola è laureato in economia nel 2012, attualmente ancora studente di un
master. Lavora da quasi 10 anni con Costa Crociere, prima nella sezione del Revenue
Management, cioè quelli che scelgono i prezzi, poi nella sezione in cui si scelgono gli itinerari,
poi nella sezione che fanno previsione dei budget e dell’andamento della domanda. Collabora
con Unige nel dipartimento di economia.
58
14.4 Decision making
Quando un problema è complesso bisogna scomporlo. Nel processo decisionale ci sono 7
passi:
1. Capire su cosa bisogna decidere: sembra una cosa banale, ma molto spesso nel mondo
del lavoro le persone partono a mille senza aver ben capito su cosa bisogna decidere.
Serve per evitare di arrivare ad avere soluzioni per problemi diversi
2. Raccogliere tutte le informazioni rilevanti: cosa devo conoscere per decidere? Mi
procuro le informazioni che mi servono
3. Identificare le alternative: metto in sequenza le alternative, sempre che ce ne siano.
Però è facile che ce ne siano, perché è difficile che qualcuno ti paghi per scegliere
ovvietà
4. Pesare pro e contro delle diverse alternative: bisogna anche pesare l’importanza di
vantaggi e svantaggi, in modo quantitativo e matematico
5. Prendere la decisione: se i primi 4 punti sono fatti bene è la parte più semplice,
ma entrano in gioco fenomeni psicologici-sociologici che potrebbero bloccare chi deve
scegliere
6. Mettere in atto la soluzione: dopo averla scelta, la decisione deve essere portata avanti
e spesso questo avviene da parte di altri. Si definisce un piano di sviluppo con vari
responsabili
7. Rivalutare la decisione presa: nelle aziende di solito non viene fatto ma è sbaglia-
tissimo. A posteriori una decisione può risultare non ottimale, e questo deve essere
valutato per eventualmente essere modificato in alcune parti
59
il finance dice che bisogna vendere a prezzi più alti perché non ci si sta con i margini; il
settore vendite dice che si vende poco, quindi bisogna abbassare i prezzi; il revenue manager
dice che non ci sono dati che dicono che la disponibilità a pagare di più aumenti in futuro,
però la domanda è completamente imprevedibile, quindi non siamo sicuri che alzando i prezzi
venderebbero, ma non è neanche detto che abbassando i prezzi la situazione migliorerebbe;
il marketing dice che scontare tanto è pericoloso perché non è detto che la domanda salga
ma poi potrebbe essere difficile riuscire a tornare ai prezzi precedenti.
La scelta che è stata presa è stata di mantenere i prezzi.
60
Capitolo 15
15.1 Il relatore
General Manager Global Signaling and Rail Control presso Hitachi. È un ingegnere
meccanico laureato a Genova che ha iniziato a lavorare in un’azienda di consulenza e poi ha
iniziato a lavorare per un’azienda del gruppo Ansaldo poi comprata da Hitachi.
15.2 Hitachi
Hitachi è una società con circa 300000 persone presente in tutto il mondo. La divisione
rail conta oltre 12000 persone, con uffici in 38 paesi del mondo e 5 fabbriche. Hitach rail si
occupa tutto ciò che serve per il trasporto su ferro. Hitachi è una società giapponese che
prima del covid aveva un fatturato di circa 4 mld di euro.
Hitachi vende sistemi di trasporto, che sono una cosa abbastanza complicata: c’è il
treno, c’è la linea di distribuzione, ci sono le stazioni, ci sono le biglietterie, ci sono i
sistemi di informazione al pubblico, c’è un sistema di supervisione che instrada i treni sui
binari a specifici orari. Spesso bisogna anche fornire le infrastrutture civili: nel caso delle
metropolitane questo significa anche gli edifici materiali delle stazioni. Talvolta Hitachi
fornisce solo la parte tecnologica, ad esempio quella di segnalamento, mentre il treno in sé
viene comprato da altri; tuttavia Hitachi si occupa molto spesso anche di tutte le operazioni
di manutenzione.
61
15.4 Responsabilità delle scelte
Hitachi Rail lavora per gare e partecipare a un gara, a seconda delle dimensioni, servoe
l’approvazione di un manager sempre più alto, fino ad arrivare all’AD di Hitachi Limited.
Tuttavia qualche volta si sceglie di non partecipare a una gara, per tanti motivi, ad esempio:
• Rischio paese: fare una gara in Iraq non è come farla in Italia
• Livello di prezzo: in Italia le gare in ambito treni sono decisamente al ribasso
• Il mercato in questione non è appealing: dopo la gara in quel mercato non si farà più
per decine di anni, magari
• Condizioni di contratto: capita che venga chiesto di risarcire qualisasi danno per
qualsiasi cifra e non è una condizione sostenibile
• Carico di lavoro e timeline: potrebbe non essere qualcosa di sostenibile per via delle
dimensioni o dei processi dell’azienda
A inizio anno l’azienda stima un budget, che è molto importante perché anche solo preparare
una gara può costare milioni di euro.
Una volta ottenuta l’approvazione per la partecipazione alla gara si guardano i requisiti e
si chiede a ogni responsabili delle parti in gioco di fare una stima di costi, tempi e personale
necessario per realizzare possibili varianti di quanto richiesto. Si arriva quindi a una stima
dei costi, ma ci sono anche i costi imprevisti, ci saranno una serie di eventi che andranno a
cambiare le carte in tavola e questo implica dover inserire ulteriori coperture.
A questo punto bisogna scegliere un prezzo e lo si fa su una serie di considerazioni. Il
primo fattore è il costo interno, poi c’è la concorrenza con i suoi prezzi. Anche la presenza
nel paese in cui si deve vendere è importante, perché ti permette di conoscere i il territorio,
le normative, in un certo senso anche il mercato e i rischi di paese. Il cliente è un’altra com-
ponente che influisce sui prezzi: ci sono clienti che se il fornitore è in difficoltà preferiscono
aiutarlo e cercare soluzioni comuni, mentre da altri sai che non vedrai mai una lira in caso
di difficoltà. Un ulteriore fattore sono le future espansioni: un esempio è la metropolitana.
Mettiamo che io crei la prima linea della metro di una città, a quel punto è molto molto
facile che anche le linee successive vengano prodotte da me.
Ora ho vinto la gara e il progetto promette un certo margine per la società, ma sappiamo
che nella sua vita può succedere di tutto. Per fare in modo che il progetto venga realizzato
bisogna confermare che le considerazioni fatte in sede di preparazione della gara non siano
state troppo diverse da quelle fatte durante la contrattazione, in modo da definire il budjet
operativo.
Una volta partito il progetto bisogna fare periodiche revisioni, sia a livello di timeline che
a livello economico. Hitachi per prima cosa decide che per il tale progetto servirà una certa
cifra per ogni passaggio: se la previsione fatta non si rivela corretta a livello finanziario
è già un campanello d’allarme, se non si rivela corretta a livello temporale è un secondo
campanello d’allarme. Qualcosa che capita spesso è che nel sottomettere la riscrizione delle
specifiche in modo utile all’azienda fornitrice al cliente, questo me lo rigetti. Se capita è un
problema, perché devo fermare il lavoro, rifarne un pezzo già fatto e magari dover modificare
i piani futuri.
A questo punto si consegna al cliente e gli si mostra il prodotto ultimato.
62
shortage dei componenti elettronici. Vengono coinvolti principalmente i direttori di linea
(risorse umane, sicurezza, marketing e tutti gli altri) e le soluzioni possono essere varie,
dall’aumentare il budget a cercare nuove soluzioni che non siano un palliativo immediato
ma inutile nel futuro.
Il rischio di progetto si occupa di gestire il rischio dello specifico progetto e chi deve
essere coinvolto per occuparsene. Le contingencies, cioè le coperture per imprevisti, vengono
allocate in questa sezione; man mano che il progetto avanza se le cose vanno bene ho
sempre meno sviluppo futuro e quindi meno rischi, quindi le contingencies non usate possono
diventare margini.
63
Capitolo 16
16.1 Il relatore
Lorenzo Cabras, laureato in economia presso Unige, si occupa id comunicazione. Ora
chief strategy offerent di different, una delle principali agenzie di comunicazione italiane.
16.3 I meccanismi
Decidere vuol dire scegliere di fare un’azione come conseguenza a una serie di valutazioni
che derivano da aspetti interni ed esterni. Le fasi del processo sono cinque:
1. Il riconoscimento del bisogno: mi accorgo di volere qualcosa
64
16.3.3 Valutazione delle alternative
Faccio uno scoring delle alternative, usando anche valutazioni esterne come recensioni di
terzi
Il paradigma cognitivo
65
Il paradigma di rinforzo
I rinforizi possono essere di due tipi, è andato avanti con la slide mannaggia.
Il paradigma abitudinario
Il coinvlogimento nell’acquisto è determinato da tutte le modifiche che potrebbero essere
causate dal cabiamento di un prodotto acquistato.
16.6.1 La neocorteccia
È la parte del cervello che fa le cose più grosse: ragione, linguaggio, numeri, ed è l’unica
della quale abbiamo controllo diretto. Possiamo decidere a cosa pensare, come organizzare
le informazioni. È molto funzionale, ma consuma tantissima energia, quindi l’evoluzione
ci ha insegnato a usarlo solo quando ce n’è bisogno, decidiamo noi quando accenderlo e
spegnerlo.
66
spinge a fare cose anche estreme, come il doping per uno sportivo, anche se questo può finire
in situazioni patologiche.
Uno degli attivatori più forti delle decisioni secondo Freud è la risoluzione di uno stato
di tensione, e questo può essere sia positivo che negativo, ottenere un piacere o evitare un
dispiacere; questo dall’esterno può sembrare non troppo razionale.
67
16.8.3 Social desirability bias
Specialmente quando si parla di argomenti più intimi è raro che chi risponde a una
domanda si sia del tutto sinceri, spesso si vuole cercare di far vedere qualcos’altro rispetto
a quello che realmente siamo. Questo si riversa anche sul mercato: nell’ambito dei sex toys
per esempio in Italia il mercato online è molto più florido di quello dei negozi fisici.
68
Parte VI
69
Capitolo 17
17.1 La relatrice
Stefania Operto: sociologa, ricercatrice, esperta di metodi e tecniche per la ricerca so-
ciale, Phd in Sociologia sull’interazione tra esseri umani e macchine (Human-Robot Interac-
tion). Interessata all’impatto delle tecnologie nei processi sociali e di costruzione identitaria,
ha vinto il Premio nazionale ETIC promosso da Aica, Associazione Italiana per l’Informatica
e il Calcolo Automatico, per il lavoro di ricerca sulle implicazioni sociali ed etiche legate al-
l’uso delle tecnologie digitali. Attualmente insegna presso l’Università degli studi di Genova
e il Master in Comunicazione della Scienza di Trieste.
Nell’interazione sociale entrano in gioco una serie di intelligenze interpersonali e sociali che
fanno in modo che due persone entrino in contatto.
Ma cos’è l’interazione? L’interazione è un processo di durata variabile tra due o più attori
che orientano reciprocamente le proprie azioni, influenzando e determinando le motivazioni
e ha cambiato slide. Secondo un famoso sociologo lo scopo è mantenere la propria identità.
Se al posto di una persona ci metto un robot la situazione cambia parecchio.
L’introduzione di una nuova tecnologia provoca degli scossoni, ma la robotica ha avuto
un impatto di entità ancora più grande: la robotica fuori dall’industria modifica l’ambiente,
introduce novità estreme, cresce in modo rapido. Non è l’unica tecnologia con effetti di
questo tipo, ma non di quest’entità.
La cosa più importante di un robot, per un sociologo, è il suo corpo grazie al quale
crea un’interazione molto più forte. Questo i designer lo sanno molto bene e passano molto
a studiare come deve essere fatto un robot per essere accettato dalle persone vicino a cui
opera.
70
Ma cosa hanno prodotto le grandi rivoluzioni industriali? Sono un processo esterno o
interno al processo sociale? Le risposte non sono ancora del tutto note e la discussione ha
dato vita a un’importante scuola di pensiero.
Secondo vari studiosi potrebbe verificarsiun giorno in cuib noi non avremo più le ca-
pacità di capire lo sviluppo tecnologico a meno che non saremo in grado di aumentare la
nostra capacità di capire. Da molti quest’ipotesi viene rigettata perché è l’uomo a creare la
tecnologia, quindi la tecnologia è limitata dall’uomo.
La robotica secondo gli occidentali dovrebbe rispondere alla mancanza di tempo e di
risorse.
71
Capitolo 18
Comunicare il territorio:
strategie, strumenti, eventi
18.1 La relatrice
Da oltre 20 anni si occupa di marketing e comunicazione. Prima su Milano per due mul-
tinazionali ICT (Atos Origin e Oracle) e poi rientrando a Genova nell’azienda di famiglia
Words, che dal 1989 opera in ambito marketing e comunicazione, in particolare specializzan-
dosi nella ricerca, nelle strategie e nella promozione territoriale. Nel 2015 fonda Condiviso,
consorzio multidisciplinare per l’innovazione sociale, la rigenerazione urbana e lo sviluppo
dei territori.
18.2 Il marketing
Se ne possono dare varie definizioni:
1. Il marketing è una metodologia per comprendere, creare, comunicare e distribuire
valore. La prima regola è mettersi nei panni dell’utente a cui mi rivolgo, quindi le
ricerche di mercato sono importantissime: devo comprendere coa c’è fuori, quali sono
gli interessi e quali sono le necessità. Poi quando ho conosciuto il mondo fuori posso
usare quello che ho imparato per creare un prodotto per i potenziali clienti. Poi
ancora, quando ho definito il prodotto devo comunicarlo per far sı̀ che i target di
interesse sappiano che io sto facendo proprio quella cosa lı̀. Infine si distribuisce il
valore, non solo economico, ma anche ad esempio a livello di fiducia nei confronti dei
miei prodotti.
2. Il marketing è il processo mediante il quale le imprese creano valore per il cliente e
instaurano solide relazioni al fine di ottenere in cambio un ulteriore valore.
3. Marketing sociale: è il non limitarsi ai bisogni e ai desiderei del cliente di breve periodo
ma anche di quelli di lungo periodo e quindi a quelli della collettività.
In altre parole il marketing è la capacità di costruire dei ponti tra organizzazione e clienti.
Non è banale, è più facile costruire muri che ponti, ma una volta che ho costruito il ponte
è bidirezionale: sto attivando una comunicazione.
72
esempio a livello culturale (palazzi, piazze come siti), i siti Unesco sono un’enorme occasione
per fare marketing territoriale. Un altro elemento che differenzia è la cultura gastronomica,
che va raccontata e bisogna permettere a chi arriva di viverla; cosı̀ inizia la relazione di cui
sopra.
Nel caso di Genova i Palazzi dei Rolli sono un grandissimo valore, protetti, promossi ma
neanche tanto e soprattutto accessibili solo in certi momenti, perché tanti sono abitazioni
privati.
Dal punto di vista strategico bisogna definire il luogo, sapere cosa pensano gli altri del
luogo e formare e mantenere l’immagine desiderata del luogo. Ad esempio per Genova, fino
agli anni ’80, il porto mercantile arrivava fino al Bigo, quindi la reazione tipica di chi arrivava
a Genova era lo stupore per un centro storico tanto ricco.
Quando si parla di marketing per un territorio le cose da dire sono tantissime, dobbiamo
trovare quella diversità ma bisogna poi raccontarle tutte, quindi anche graficamente non è
banale sintetizzare.
Dal punto di vista operativo, il marchio cittadino è gestito dall’amministrazione locale,
anche indirettamente tramite società controllate, oppure del tutto da società private.
18.3.1 Amsterdam
Amsterdam ha sempre avuto un suo logo istituzionale, ma a livello di merketing da anni
ormai esiste il logo I amsterdam ed è iniziata la narrazione secondo cui chiunque arrivi è
Amsterdam, città che accoglie tutti. A questo punto qualsiasi cosa ha quel logo sopra.
18.3.2 Belfast
Anche per Belfast non è stato banale il rebranding, perché è da sempre stata considerata
collegata a violenza e difficoltà di vita. Belfast ha stabilito di lavorare su un segno grafico
basico (cuoricini colorati a forma di B) che porta un tema di amore, affetto e buone relazioni;
anche nella cerimonia di inaugurazione si è insistito molto sull’apertura della città.
18.3.3 Berlino
Negli anni ’90 Berlino ragiona sulla nuova Berlino, con un nuovo luogo, dopo la riunifi-
cazione. Nel decennio dopo la città investe moltissimo sull’industria creativa e sui giovani,
creando un nuovo logo. Dopo il 2010 si dà un’identità più moderna, quella della città smart,
in cui puoi fare quello che vuoi; si recupera il logo della nuova Berlino, declinandolo a
seconda dell’ambito promosso. Nel 2016 Berlino attrae più turisti di Roma.
18.3.4 Genova
Genova inizia a ragionare sull’attrazione turistica nel 1992, con il 500esimo della scoperta
dell’America e con l’inizio dei lavori del Porto Antico. Si scopre come luogo di attrazione
turistica e iniziano ad arrivare i primi finanziamenti, fino ad arrivare al 2004, quando ormai
il Porto Antico è ultimato, c’è l’acquario, via San Lorenzo, via Garibaldi sono pedonali
insieme a molte altre zone. C’è anche stato il G8, che con tutti i suoi problemi ha portato
soldi. Nel 2004 si candida a Capitale europea della Cultura: in tutta Europa di colpo si è
conosciuta Genova e la parola all’ordine del giorno è stupore per tutto quello che si trova.
I genovesi si infervorano ed esce il primo logo di Genova. È una rivoluzione anche culturale
interna della comunità cittadina. In quel periodo inizia il lavoro sui Palazzi dei Rolli, anche
a livello storico; inizia il processo per entrare nel Patrimonio dell’Unesco, fino ad arrivarci
nel 2006.
Si inizia a capire che inizia a servire un nuovo logo per il turismo. Ci si arriva in modo
partecipato, in condivisione del ragionamento; si creano 3 gruppi di 10 15 persone messe lı̀ a
ragionare, scelti con specifici tratti. Si vogliono dare linee guida a grafici che poi dovranno
creare il logo. I tre gruppi erano uno da giovani, uno da addetti alla cultura e uno da
manager. Si fanno incontri pubblici in cui si cercano modi per ottenere finanziamenti, tra
eventi culturali e turistici. Si pubblica un bando e alla fine si sceglie il famoso logo Genova
73
More Than This, che si può mettere ovunque, su immagini di qualsiasi tipo, cosı̀ come a
Genova c’è qualsiasi cosa: more than this, appunto, c’è qualcosa di più.
Oggi siamo invece in un’altra fase, l’amministrazione sta cercando di capire se l’attuale
marchio è sufficiente per consolidare la promozione turistica e culturale.
74
Capitolo 19
19.1 Il relatore
Gabriele Greggio è pedagogista e musicista, diplomato in contrabbasso presso l’IMP di
Aosta e laureato in Pedagogia, progettazione e ricerca educativa presso l’Università degli
studi di Genova. Dal 2011 si occupa di educazione musicale con la prima infanzia in scuole e
associazioni musicali. Collabora nel campo dell’innovazione didattica all’interno dell’Unige
Teaching and Learning Center (Genova), e in quello della pedagogia musicale con il Centro
Studi Maurizio di Benedetto (Lecco). Sta concludendo il corso di musicoterapia presso la
scuola APIM di Genova.
19.2 Intervento
Abbiamo ascoltato brani e discusso sulle sensazioni che ci hanno fatto provare. Di tanto
in tanto ha detto qualcosa su come il suono sia importante nella vita umana fin da prima
della nascita e fino quasi alla morte. Poi più o meno basta.
75