Sei sulla pagina 1di 56

Università degli studi di Genova

Scuola superiore IANUA

Indirizzo STSI

Anno accademico 2022/2023

Pietro Firpo
Indice

I Winter School: People Management 5


1 Organizzazione e risorse umane: tra il dire e il fare . . . 6
1.1 La relatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 L’organizzazione di impresa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Weber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Olivetti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 L’organizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Strutture organizzative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Attrezzi organizzativi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7 Quello che fa lei di lavoro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Ruolo dello spedizioniere e sua gestione nel contesto people management 9


2.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Breve disamina industriale del settore forwarding . . . . . . . . . . . . . . . . 9
2.2.1 Il contesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Il ruolo dello spedizioniere . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.3 I modelli organizzativi dello spedizioniere . . . . . . . . . . . . . . . . 10
2.3 Logistica sostenibile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

II Modulo: Data Science One o’One 11


3 Data Science in action 12
3.1 La relatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.1 Data science lifecycle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2.2 Interdisciplinarietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.3 Gli ambiti di applicazione . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3 Industry 4.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3.1 La fabbrica intelligente . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.4 Use case: materiali metallici per trattori . . . . . . . . . . . . . . . . . . . . . 14
3.5 Use case: macchinette del caffé . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4 Imparare dai dati: concetti fondamentali 15


4.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.2 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.3 Machine learning and deep learning . . . . . . . . . . . . . . . . . . . . . . . . 15
4.4 Formalizzazione dei task . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.5 Tipi di machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.6 Supervised learning pattern . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.7 Regressione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.7.1 Regressione lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.7.2 Regressione non lineare . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.8 Generalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.9 Underfitting e overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1
4.9.1 Model capacity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.10 Classificazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.10.1 Formalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.10.2 Confusion matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

5 Data analytics: dallo stoccaggio dei dati alle piattaforme moderne 19


5.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.2 Le basi (di dati :) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.2.1 Il modello dei dati e i database relazionali . . . . . . . . . . . . . . . . 19
5.3 Stoccaggio dei dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.3.1 Sistemi di analisi informativa . . . . . . . . . . . . . . . . . . . . . . . 20
5.4 Il data warehouse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.4.1 Modellazione logica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.5 La rivoluzione dei big data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.5.1 Motivi del clamore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.5.2 L’uso dei big data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.6 Le sfide dei database distribuiti . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.6.1 NoSQL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.6.2 Implicazioni dell’uso di più modelli di database . . . . . . . . . . . . . 24
5.7 Le sfide dei filesystem distribuiti . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.7.1 I software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.7.2 L’idea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.7.3 Problemi e soluzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

III Modulo: Applicazioni della matematica 26


6 Metodi numerici per problemi ingegneristici complessi 27
6.1 La relatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6.2 La meccanica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6.2.1 Meccanica computazionale . . . . . . . . . . . . . . . . . . . . . . . . . 27
6.3 Metodo degli elementi finiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6.4 Applicazione all’equazione di Poisson . . . . . . . . . . . . . . . . . . . . . . . 28

7 Dai dati agli insights: generare valore nelle aziende attraversi l’utilizzo
dei dati 30
7.1 La relatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.2 Dati e aziende . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3 Tecniche di archiviazione del dato . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.1 Dati strutturati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.2 Dati non strutturati . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.3 Dati semistrutturati . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.4 Archiviazione del dato . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.3.5 Il data lake . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.3.6 Il data warehouse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.3.7 Il lakehouse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.4 Metodi e strumenti per la visualizzazione dei dati . . . . . . . . . . . . . . . . 31
7.4.1 Strumenti per l’analisi e la visualizzazione . . . . . . . . . . . . . . . . 32
7.4.2 Creare il modello dati . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.5 Data science: dai dati agli insights . . . . . . . . . . . . . . . . . . . . . . . . 32
7.5.1 Tipologie di analisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

8 A survey of applications of mathematics to life sciences 33


8.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
8.2 Modelli di popolazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
8.2.1 Modelli a singola popolazione . . . . . . . . . . . . . . . . . . . . . . . 33
8.2.2 Modelli a due popolazioni (predatore-preda) . . . . . . . . . . . . . . . 33

2
IV Modulo: Elaborazione quantistica dell’informazione 35
9 Fast Lane to Quantum Advance 36
9.1 Manca un pezzo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
9.1.1 Algoritmo di Grover . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
9.1.2 Algoritmo di Shor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
9.2 Qubit superconduttivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
9.2.1 Il bit classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
9.2.2 La superconduttività . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
9.2.3 Oscillatore classico e quantistico . . . . . . . . . . . . . . . . . . . . . 37
9.2.4 Trasmon qubit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
9.2.5 QPU a superconduttori . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3 Il rumore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3.1 Decadimento dei qubit . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3.2 Coerenza dei gate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3.3 Parametri di valutazione . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3.4 Soluzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

10 Introduzione alla meccanica quantistica 40


10.1 L’esperimento della doppia fenditura . . . . . . . . . . . . . . . . . . . . . . . 40
10.2 Esperimento di Stan-Gerlack . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
10.3 La polarizzazione della luce . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
10.3.1 Legge di Malus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
10.3.2 Ottica a singolo fotone . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
10.3.3 Parallelismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
10.4 Postulati della meccanica quantistica . . . . . . . . . . . . . . . . . . . . . . . 41
10.4.1 Principio di sovrapposizione . . . . . . . . . . . . . . . . . . . . . . . . 41
10.4.2 Direi che qua smetto di scrivere e dico di guardare le slide . . . . . . . 41

11 Introduzione alla computazione quantistica con QSKIT 42


11.1 Il relatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
11.2 Algoritmi variazionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
11.3 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
11.4 Attività . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

V Summer School: Visual Culture 43


12 Cultura visuale: una genealogia 44
12.1 La visual culture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
12.2 Come nasce la cultura visuale . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
12.3 I ricordi di infanzia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
12.4 Come si lavora in cultura visuale . . . . . . . . . . . . . . . . . . . . . . . . . 44

13 I volti infiniti della vita nell’arte contemporanea 45

14 Rappresentarsi, qualche considerazione dal passato 46

15 L’autoritratto nel cinema 47

16 Il volto nella videoarte 48


16.1 La televisione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
16.2 Il circuito chiuso: il volto come materia prima . . . . . . . . . . . . . . . . . . 48
16.3 Metamorfosi, (con)fusioni, dissoluzioni: gli effetti video . . . . . . . . . . . . . 48

3
VI Summer School: Logica 49
17 Logica dal punto di vista matematico 50
17.1 Logica e matematica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
17.2 Il calcolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
17.3 Macchina di Turing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.4 Macchina di Lafont . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.5 La logica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.5.1 Le deduzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.5.2 Linguaggio delle proposizioni . . . . . . . . . . . . . . . . . . . . . . . 51
17.5.3 Verità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.5.4 Non solo proposizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
17.5.5 Il problema della decisione . . . . . . . . . . . . . . . . . . . . . . . . . 52

18 Logica dal punto di vista filosofico 53


18.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
18.2 Linguaggio e argomentazione . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
18.2.1 Aristotele e la nascita della logica . . . . . . . . . . . . . . . . . . . . . 53
18.2.2 Ragionare correttamente . . . . . . . . . . . . . . . . . . . . . . . . . . 53
18.2.3 Teoria del sillogismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
18.2.4 Verifica della correttezza . . . . . . . . . . . . . . . . . . . . . . . . . . 54

19 Logica dal punto di vista informatico 55

4
Parte I

Winter School: People


Management
Relatori: Giovanna Guarnaccia, Alessandro
Zanin

5
Capitolo 1

Organizzazione e risorse umane:


tra il dire e il fare . . .

1.1 La relatrice
Giovanna Guarnaccia è laureata in economia circa 25 anni fa. Ha trovato aggancio
per entrare nel mondo del lavoro grazie a un’iniziativa dell’Università di Genova presso il
comune di Recco, crescendo via via a livello professionale occupandosi sempre di personale.
Attualmente si occupa di questo in ambito ferroviario.

1.2 L’organizzazione di impresa


È una vera e propria disciplina ricca di metodi e teoria. Con uno schema lavorativo
rispetto al quale bisogna confrontatsi si sceglie quello che più si adatta alle proprie esigenze.

1.3 Taylor
Nel 1911 pubblica un saggio sull’organizzazione scientifica del lavoro. Ha teorizzato il
modello del lavoratore come esecutore motivato, remunerato in base alla propria produt-
tività, con compiti elementari e senza necessità di conoscenze pregresse. Da qua nasce la
catena di montaggio, modello applicato in modo particolare allo sviluppo del mercato di
massa.

1.3.1 Weber
È basato sulla necessità della burocrazia. Weber ha ideato una gerarchia ideale, funzio-
nale al lavoro.

1.3.2 Olivetti
È particolarmente significativo perché ha iniziato a mettere la risorsa umana al centro
della gestione del lavoro, con un modello sociale ispirato a valori come onestà, gratitudine,
attenzione al lavoratore. In questi anni si iniziano a creare gli alloggi per i dipendenti, gli
asili per i figli; le differenze non sono un problema ma un valore aggiunto.

1.4 L’organizzazione
Nasce dall’esigenza di distribuire compiti a più persone e coordinarne lo svolgimento per
un certo scopo, in modo funzionale per potenziare in modo artificiale la capacità operati-
va del singolo. Accompagna il lavoro dei simboli quando questi si mettono in gruppo; dal

6
gruppo deve nascere qualcosa che ha un valore aggiunto rispetto al lavoro di ogni singolo.
L’organizzazione è quindi uno strumento scelto per raggiungere l’obiettivo, che verrà rag-
giunto se l’organizzazione funziona. Devee portare efficienza, quindi non può essere troppo
creativo; deve essere progettato, in modo coerente con il contesto.

1.5 Strutture organizzative


Possono essere verticali, cioè orientate a un forte controllo e con compiti ben specia-
lizzati, o orizzontali, orientate al coordinamento, alla coordinazione e alla condivisione di
informazioni, quel momento in cui ciascuno può dare un contributo aggiuntivo a quello che è
il suo lavoro e l’organizzazione dell’azienda di cui fa parte. Non devono essere eccessivamente
rigide ma devono evolversi nel tempo per evitare di rimanere su modelli del passato.
La struttura poi può esser funzionale, divisionale o a matrice.
• Funzionale: mette al centro l’AD e che si divide tra tutte quelle che sono le funzioni
di un’azienda: la produzione, il marketing, il servizio informatico e cosı̀ via; ognuno
risponde direttamente all’AD.
• Divisionale: è quella delle grandi multinazionali, con un presidente e sottoposti
• Matriciale: è un modello che negli ultimi anni è il più diffuso. Dal funzionale si prende
la ripartizione delle funzioni e si aggiungon i project manager, persona che la vora con
tutti i gruppi funzionali per seguire un certo prodotto. Sono figure specializzate su un
certo tipo di progetto e ne seguono uno dopo l’altro. Il valore aggiunto di un project
manager è quello di svolgere costantemente un processo di ottimizzazione tra le varie
funzioni; il project manager agisce sui tempi del progetto, sui costi e sulla qualità del
prodotto finito, che è meno scontato di quello che sembra. Un project manager deve
avere una forte attitudine al problem solving, alla leadership, alla comunicazione.

1.6 Attrezzi organizzativi


Chiarezza dell’organizzazione: per un’organizzazione è fondamentale che la stessa
sia nota a tutti, con un organigramma, un mansionario, che definisce in modo preciso i
compiti di ognuno, la delega, in termini di condivisione di compito e responsabilità.
Miglioramento continuo: avere un processo che ci porta a svolgere le stesse attività,
seppur ripetute da tanto, a migliorarle a ogni esecuzione. In quest’ambito si utilizza il
metodo Kaizen: il termine significa cambiare in meglio; nasce nel 1986 per descrivere il
miglioramento dell’industria automobilistica giapponese. La base è che non deve passare un
giorno senza che ci sia stato almeno un miglioramento, anche molto piccolo ed economico,
e questo crea un processo continuo che viene eseguito coinvolgendo tutti quelli che sono
coinvolti. Tipicamente l’analisi delle procedure da migliorare viene fatta da qualcuno che
non se ne occupi in modo diretto.
Gestione dei processi: un processo è un insieme di attività in ambiti diversi collega-
te tra loro eseguite per raggiungere un preciso obiettivo. Non sempre sono stati presenti
nell’organizzazione aziendale, ma sono sempre più fondamentali perché non di facilissima
gestione, per via delle risorse condivise e della trasversalità introdotta. Permette di anti-
cipare soluzioni gestionali a eventuali problemi. I processi vengono ridotti a tanti piccoli
microprocessi che possono riguardare un po’ qualsiasi cosa; ogni dipartimento associato a
un microprocesso fa un controllo del proprio lavoro, si documentano tutti i vari passaggi e
li si confronta, su base periodica.
Gestione delle persone Si cerca di usare l’intelligenza le emozioni, le passioni e le
competenze di chi lavora nell’organizzazione per ottenere risultati migliori. È fondamentale
la motivazione, una spinta che influenza il comportamento; ci motiva il riconoscimento, la
considerazione dei suoi bisogni personali, lo stimolo all’apprendimento, il conoscere qual è la
direzione dell’azienda, il sapere di cosa si fa parte. In quest’ambito il boss è l’HR manager,
responsabile della gestione della selezione, dela formazione e dello sviluppo del personale
in un’azienda; lavora a stretto contatto con l’HR Business Partner, che è un esperto di

7
gestione del personale e collabora con il management dell’azienda, avendo una visione simile
dal punto di vista economico. Dal periodo pandemico sono rinate le Task force, collegamenti
all’interno dell’azienda che vanno oltre gli schemi dell’organigramma; si tratta di comitati
temporanei orizzontali composti da rappresentanti di varie unità aziendali interessate da
uno stesso problema.
Gestione dello smart working: è arrivato da noi in modo dirompente durante l’e-
mergenza; ha i suoi pilastri e non deve essere nulla di improvvisato. Si basa sulla revisione
della cultura organizzativa, sull’innovazione dei processi e dei ruoli; il rapporto tra manager
e dipendente passa dal controllo alla fiducia.

1.7 Quello che fa lei di lavoro


Lavora per due aziende che si occupa di trasporto ferroviario. Lei si occupa del personale;
ci sono sia mezzi che cantieri di manutenzione.

8
Capitolo 2

Ruolo dello spedizioniere e sua


gestione nel contesto people
management

2.1 Il relatore
Alessandro Zanin è il classico milanese imbruttito (anche se non è milanese), che dice
cose del tipo ”Dormite poco e mangiate in fretta, io dormo poco, faccio business non bene-
ficienza”, oppure ”Alla vostra età dovreste lavorare 18 ore al giorno, dormire pochissimo”.
Penso basti questo a descriverlo.

2.2 Breve disamina industriale del settore forwarding


2.2.1 Il contesto
Per fare un’analisi prima parto dal macro e poi arrivo al micro. L’Italia è un grandissimo
esportatore, quindi ci sono grandissimi margini di lavoro nel campo del forwarding.
Quando si parla di export ci si riferisce solitamente, all’Unione Europea, nel senso che
più del 50% del prodotto si esporta nell’UE.
L’export non si è fermato durante il covid ed è previsto che nei prossimi anni sia il volano
della ripresa, questa volta anche oltreoceano e specialmente in Africa, che è in grandissima
crescita demografica.
Digressione a caso sulla corrente. Gran parte della produzione è fatta sull’idroelettrico.
Enel ha venduto al tempo t a un certo prezzo energia che doveva produrre con l’idroelettrico
nei successivi fino al tempo t+6 mesi. Il problema è che non è piovuto, i bacini sono secchi,
quindi non può produrre idroelettrico. Il prezzo è già fissato, ma Enel deve comprare a
prezzo molto più alto energia da altri, quindi il prezzo sale. Nei 6 hanno dovuto vendere
l’energia al prezzo pattuito; terminati i 6 mesi hanno dovuto rialzare i prezzi per rientrare
dalle perdite. Questo è per dire che quello che succede nel mondo ha sempre un impatto
nella nostra vita, e cosı̀ è l’export: le aziende italiane stanno in piedi perché esportano, non
per la vendita nel mercato interno che ormai è saturo.
In Italia i trasporti hanno un problema a quanto pare: il relatore per fare 200 km ha
dovuto svegliarsi alle 5 per essere qui alle 8; non funziona bene e quindi non attraiamo
investimenti.
Un fattore importantissimo per il settore delle esportazioni è la liberalizzazione dei
mercati, che permette di avere concorrenza e quindi maggiore convenienza per chi deve
trasportare.
Un altro elemento importante è la dematerializzazione della burocrazia: più efficien-
te e sicura perché tracciabile. Poi ancora hanno grandissima importanza la qualità delle
infrastrutture.

9
2.2.2 Il ruolo dello spedizioniere
Uno dei termini chiave è SCM: supply chain management, composta da tre settore:
• Sourcing: sapere da dove vengono le merci (direzione acquisti)

• Material handling: la trasformazione delle materie (direzione produzione)


• Integrated logistics: integrata con l’ultima parte di produzione, tutto il percorso fino
al cliente finale.
Lo spedizioniere agisce su contratto di mandato, cioè in nome e per conto: contrattate in
nome del cliente le condizioni del contratto di trasporto. In capo allo spedizioniere ci sono
obbligazioni di mezzo, il vettore ha obbligazioni di risultato. Il contratto non è concluso
fintanto che il trasporto tra due luoghi non è stato ordinato.
L’unità di trasporto attualmente è il container, che come moltissime cose a questo mondo
è di origine militaree ha uso civile.

2.2.3 I modelli organizzativi dello spedizioniere


Quelli che erano i vecchi modelli si sono trasformati in imprese, strutture molto più
complesse con divisioni e altro. Ne risulta che lo spedizioniere ha problemi un po’ di tutti i
tipi e per questo motivo può essere paragonato a un vero e proprio architetto del trasporto.

Management avanzato
Consiste nell’essere proattivi e anticipare non la necessità ma l’aspettativa, ad esempio
nel caso di Apple di unire tutto in un unico ecosistema; questo approccio può essere usato
in ogni attività. In questo modo si riesce ad avere quote di mercato che nessuno toglierà,
perché si è sempre avanti agli altri.

Network organizzativo e una rete commerciale


Senza una rete di partner non si va da nessuna parte, quando non si vende qualcosa di
fisico come un oggetto, ad esempio assistenza legale. Senza si rimane in un ambito geografico
estremamente limitato.

Capacità e solidità finanziaria


Nelle attività di imprese ci sono le dilazioni di pagamento: generalmente il cliente paga
dopo 60-180 giorni; tra lavoro e pagamento ci sono un sacco di uscite quindi serve una
solidità finanziaria di base.

2.3 Logistica sostenibile


Si parla di sostenibilità a livello ambientale ma anche sociale ed economico. A livello
economico ed ambientale, perlomeno in teoria, è facile: usare mezzi nuovo meno inquinanti,
usare meno imballaggi e cosı̀ via. Una grande mano viene dalle nuove tecnologie che aprono
nuove strade: 5G, IoT, intelligenza artificiale, trasporto autonomo, blockchain e via dicendo.
Semplice solo in teoria a causa della forte integrazione di tutto il tessuto economico. Ad
esempio, in alcune aree del nord europa le navi ferme in porto possono spegnere i motori
termici perché alimentate elettricamente via cavo da terra. Cosı̀ non è in tanti porti d’Italia,
perché le navi che attraccano non dispongono della tecnologia necessaria; convertire i porti
a tali tecnologie porterebbe le navi ad evitare il nuovo scalo, e di questo soffrirrebbe tutta
l’economia collegata ne soffrirebbe.

10
Parte II

Moduli caratterizzanti: Data


Science One o’One
Relatori: Valentina Cincotta, Paolo Missier,
Enrico Gallinucci

11
Capitolo 3

Data Science in action

3.1 La relatrice
Laureata in informatica presso Unige. Lavora in Deloitte, una delle più grandi aziende
al mondo, nella divisione IoT.

3.2 Introduzione
Big data: risorse informative a elevato volume, velocità e varietà (3 v): sono tanti,
arrivano da ovunque; arrivano ad altissime velocità, nel giro di pochissimo tempo; sono
di vario tipo, da video, immagini, ma anche dati più strutturati come dati anagrafici. La
differenza con i dati tradizionali è quella di non poter essere immagazzinati e elaborati con
strutture tradizionali come i database relazionali. Servono infrastrutture per per accogliere
questi dati, in modo rapido, non strutturato. In quest’ambito collaborano figure di ogni
tipo e si riesce cosı̀ a passare dai big data all’informazione.

3.2.1 Data science lifecycle


Le fasi di un progetto di data science sono: data discovery, data selection & collection,
data preparation & cleaning, data transformation & exploration, data mining, data visua-
lization. Sono step non incrementali, si tratta di un processo iterativo in cui si va avanti e
indietro.

Data selection and collection


Si cerca di capire come sono fatti i dati, che possono essere strutturati o non strutturati
come audio, video o commenti online. Talvolta si usano anche dati pubblici: ad esempio
nell’analisi dell’affluenza in un centro commerciale potrebbero essere interessanti i dati sul
meteo.

Data preparation and cleaning

I dati da usare vanno preparati e puliti. È un lavoro brutto ma importante, tutti gli
errori che vengono commessi a questo punto poi riemergono nei passi successivi. Bisogna
eliminare inconsistenze e problemi simili: in dati aggregati ad esempio si devono sistemare
formati o convenzioni differenti per lo stesso dato.

Data preparation
Tutti i dati che abbiamo pulito vanno trasformati. In base al tipo di processo con
cui abbiamo a che fare possono succedere cose diverse: i dati possono essere rimodellati e
salvati in strutture temporanee, possono essere trasformati al volo e salvati in una struttura
definitiva

12
Data mining
Si passa a tecniche di analisi più avanzate, come classificazione, clusterizzazione, ricerca
di anomalie.

Data visualization
Se siamo riusciti a trovare del valore in informazioni ma non siamo in grado di comuni-
carle è come non avessimo fatto niente: è quindi una fase molto importante. Ad esempio si
usano strumenti di Business intelligence come PowerBI di Microsoft o ClickView (per report
non in tempo reale), oppure ancora dashboard personalizzate che girano su webapp e sono
usate principalmente per analizzare dati che arrivano in tempo reale.

3.2.2 Interdisciplinarietà
Compaiono figure come il data engeneer che si occupa di pensare e manutenere la strut-
tura, disegnata dal data architect (anche se spesso data engeneer e data architect sono la
stessa persona); poi ci sono business analysts, cioè qualcuno che conosce bene il dominio ed
è in grado di fare da intermediario tra cliente non tecnico e sviluppatore.

3.2.3 Gli ambiti di applicazione


Alcuni ambiti di utilizzo sono quelli sanitario, industriale, urbanistico, delle vendite (al
dettaglio) e tanti altri.

3.3 Industry 4.0


Uno dei fattori chiavi abilitanti è stata proprio la data science. È la quarta rivoluzione
industriale: ormai quasi tutte le fabbriche sono connesse, lungo la catena di montaggio
praticamente ogni macchina invia dati che poi vengono ustilizzati. Secondo il paradigma
dell’industria 4.0 il processo produttivo, l’equipaggiamento, i prodotti e i clienti diventano
anche digitali. Tutti i sensori consentono di avare una lettura automatizzata di tutto ciò
che succede in tempo reale; sono dati piccoli ma arrivano con una frequenza altissima e
altrettanto ampia è la varietà dei dati, che vengono aggregati e analizati in tempo reale.
Questo permette all’azienda di prendere decisioni immediate in tempo reale sullo stato
attuale dell’operazione, in modo da risparmiare risorse di molti tipi.

3.3.1 La fabbrica intelligente


La fabbrica intelligente è connessa; è ottimizzata; è proattiva, aiuta a fare manutenzione
predittiva e nel caso ripianificare tutte le attività in pipeline, permette di risolvere i problemi
prima che si verifichino; è agile, manda dati ma riceve anche comandi da remoto per fare
succedere cose al suo interno. Tutto questo permette di migliorare la qualità del prodotto
e di tenerne traccia per fare la route cause analysis: immaginiamo che un produttore di
biscotti si renda conto che dopo averli prodotti un lotto di biscotti è stato prodotto con
farina andata a male. Avendo i dati so che lotti devo ritirare dal mercato.
La fabbrica intelligente non è solo la catena di montaggio, si parte dall’approvvigiona-
mento dei materiali con il settore della logistica, i magazzini, la linea di produzione, le celle
di produzione e l’edificio stesso in cui si trova l’industria. Tutto questo è reso possibile da
IoT, cloud, big data, AI e altre tecnologie. Il cloud è fondamentale, perché oltre a risolvere
problemi di memoria aiuta anche con la questione della necessaria capacità di calcolo per
elaborare le grandi quantità di dati utilizzate.

MES - Manifacturing Execution System


Sono software che monitorano l’avanzamento dei lavori all’interno della fabbrica; sul
mercato ce ne sono ormai diversi, tutti creati secondo uno standard riconosciuto. I MES
abilitano una comunicazione bidirezionale con le macchine, che in tempo reale comunicano

13
tutte le azioni che vengono eseguite e chiedono eventuali conferme. Questo deve essere
eseguito in tempo infinitesimo, ma ogni dispositivo può comunicare in modo diverso, ad
esempio perché i macchinari sono stati creati da costruttori diversi.
In un contesto di questo tipo quali sono i dati che potrebbero arrivare? Ad esempio la
quantità prodotta, il tempo di esecuzione per l’elaborazione di una commessa; in generale
sono dati relativi sia al prodotto sia al macchinario, come il consumo energetico istantaneo
di un macchinario.

3.4 Use case: materiali metallici per trattori


Al cliente interessano:
• Lo stato dei singoli macchinari

• I pezzi prodotti
• L’inizio della lavorazione degli ordini
• Le fasi di lavorazione degli ordini
• I consumi energetici

Ora bisogna preparare i dati e pulirli: i dati arrivano da macchine differenti che usano
protocolli differenti, vanno uniformati per quanto possibile e organizzati. La scelta è stata
di usare un classico database relazionale.
Si è scelto di visualizzare vari dati:

• Lo stato macchina per macchina in funzione del tempo per confrontarlo con la timeline
di lavoro prevista
• I consumi macchina per macchina in funzione del tempo
• I pezzi prodotti per intervalli di tempo

• L’OEE, un indicatore di performance macchina per macchina

3.5 Use case: macchinette del caffé


È un produttore che fornisce in comodato d’uso macchinette del caffé e tutti i servizi a
corredo bar e locali nel mondo intero. Ogni macchinetta invia dati relativi al consumo di
caffé, acqua e latte per ogni erogatore, oltre a id, posizione geografica e timestamp.

14
Capitolo 4

Imparare dai dati: concetti


fondamentali

4.1 Il relatore
Insegna alla Newcastle University School of Computing.

4.2 Introduzione
Negli ultimi venti’anni si è passati da programmi imperativi a programmi che imparano
da esempi per compiere specifiche operazioni, ad esempio classificare immagini, distillando
un modello. Il machine learning è il modo in cui generiamo il modello che è in grado
di risolvere il task. L’idea fondamentale è che ciascun problema di catalogazione venga
customizzato a seconda del tipo di dato, inferendo le regole dagli esempi.

4.3 Machine learning and deep learning


Il deep learning fa uso di reti neurali come modello di apprendimento; esistono da decenni
ma con una specie di rinascimento negli ultimi 15 anni perché sono modelli molto onerosi
in termini computazionali e di dati richiesti e finalmente abbiamo queste cose.

4.4 Formalizzazione dei task


Ci sono vari tipi di problemi:
• Classificazione:
f : Rn → {1, . . . , k}
e a ogni k si associa una probabilità
• Regressione:
f : Rn → R

• Trascrizione
• Traduzione
• Inserimento di dati mancanti
• Rilevamento delle anomalie
• Riduzione del rumore:
x ∈ Rn → x̃ ∈ Rn → p(x|x̃)

15
4.5 Tipi di machine learning
Quando voglio imparare una funzione f ci sono più approcci.
Supervised learning: do gli input, conosco gli output e voglio trovare la funzione che
meglio fa questa cosa.
Unsupervised learning: si cerca di capire quali sono i pattern all’interno dei dati,
cercando somiglianze tra i dati. Ad esempio questo si fa in ambito sanitario, cercando di
creare classi di pazienti con caratteristiche simili estratti in classi in base a una funzione di
distanza che viene definita lato codice.

4.6 Supervised learning pattern


: Ho una sesrie di dati presi da un dataset, ho un algoritmo che impara dai dati estraendo
un modello. A quel punto posso dargli dati dai quali conosco la risposta voluta e valuto la
performance del modello.
Il punto di partenza, cioè i dati, è particolarmente importante: usare rumenta per
addestrare causa un modello che sputa fuori rumenta.

4.7 Regressione
La situazione è sempre la stessa. Ora voglio imparare una funzione f da Rn a R.
Definiamo la performance come la differenza tra il valore previsto e reale, in termini di
errore quadratico medio o errore in modulo medio.

4.7.1 Regressione lineare


Aggiungiamo il vinconolo che la funzione sia lineare, cioè che sia una combinazione lineare
dei dati di input. La funzione è quindi:
n
X
T
f (x) = w x = wi xi
i=1

in cui w ∈ Rn è un vettore dei parametri. Il nostro problema quindi è trovare w per massi-
mizzare la performance, cioè minimizzare l’errore. La più comune funzione di performance
usata è l’errore quadratico medio. Dato un insieme di test X(test) con i corrispondenti valori
reali y( test) e valori previsti ŷ(test) è definito come:
m
1 X (test) (test) 2
MSEtest = (y − ŷi )
m i=1 i

che può essere normalizzato, ma solitamente si usa comunque M SEtest perché permette di
essere risolto in forma chiusa: è un problema di ottimizzazione. Si fanno un po’ di conti
minimizzando un gradiente e trovo:
w = (X(train)T X(train) )−1 X(train) Ty(train)

4.7.2 Regressione non lineare


Quanto appena visto è limitante, funziona solo per funzioni lineari. Ora cerchiamo
un algoritmo iterativo per trovare l’argomento che causa il minimo errore. Supponiamo
che la funzione errore sia f (x). Tipicamente si usano metodi di discesa del gradiente che
convergano a:
X∗ = arg min f (X)
In generale questa cosa funziona solo se la funzione è derivabile e convessa, ma visto che le
funzioni non sono sempre convesse su tutto il loro dominio quindi trovo solo minimi locali;
poi ci sono tecniche per cercare di sopperire a questo problema che prendono il nome di
discesa stocastica del gradiente.

16
4.8 Generalizzazione
Io potrei costruire un algoritmo che funziona molto bene sul dataset su cui è stato
allenato ma male in altri: c’è quello che si chiama generalization error.
Si divide il dataset in training e testing set. Se faccio un partizionamento scegliendo
casualmente i dati (80%-20% solitamente) potrei avere un bias tra i due set. Per evitare
questa cosa si cercano stratificazioni per arrivare ad avere distribuzioni di probabilità simili.

4.9 Underfitting e overfitting


Se restringo troppo la famiglia delle funzioni che sono disposto a imparare posso arrivare
ad avere un underfitting, cioè un modello che non riesce a coprire i dati. Se invece ho una
famiglia troppo ampia posso avere un overfitting, cioè un modello che copre troppo bene i
dati di training ma non riesce a generalizzare.

4.9.1 Model capacity


È una grandezza che indica la capacità di fittare dati di un modello. Se ho un modello con
capacità alta posso fittare dati con molte variabili, se ho un modello con capacità bassa posso
fittare dati con poche variabili. La capacità di un modello dipende dalla sua complessità,
che a sua volta dipende dal numero di parametri che ha.
Se io uso funzioni polinomiali una possibile soluzione è aumentare il grado del polino-
mio, ma una delle regole d’oro è usare il modello più semplice possibile per per risolvere il
problema.

4.10 Classificazione
Abbiamo già definito il problema della classificazione, ma le misure di performance sono
leggermente diverse. Tutta via le considerazioni fatte su numero di features (numero di dati
per record) e numero di esempi sono ancora valide (il numero di esempi deve essere almeno
una decina di volte il numero di features).
L’analisi di performance è eseguita in base al numero di errori, quindi si parla di
accuratezza. Gli algoritmi di apprendimento sono circa gli stessi.
Partiamo dalla classificazione binaria: ad esempio ho una foto e devo capire se è un cane
o gatto.

4.10.1 Formalizzazione
Posso passare da un problema di regressione a un problema di classificazione in questo
modo: prendo l’uscita del problema di regressione e classifico in base a delle soglie che creano
classi disgiunte. Per problemi di regressioni logistica le cose si indicano come:

hθ (x1 , . . . , xd ) = θ0 + θ1 x1 + · · · + θd xd = θT x + θ0

E poi l’uscita viene data in termini di sigmoide, funzione che varia tra 0 e 1; quindi posso
scegliere come soglia 0.5 per due classi.

4.10.2 Confusion matrix


È una tabella in cui inserisco veri positivi, veri negativi, falsi positivi e falsi negativi. Da
lı̀ posso calcolare precisione, recall e F-measure:
TP + TN
accuracy =
TP + TN + FP + FN
TP
precision =
TP + FP

17
TP
recall =
TP + FN
precision · recall
F-measureβ = (1 + β 2 )
β 2 · precision + recall
Molto spesso si usa F1 = F-measure1 .
Da sola, una metrica dice poco: se io ho 100 esempi, 95 positivi e 5 negativi, dicendo
sempre positivo ho una accuratezza del 95% ma il mio modello non ha imparato niente.

18
Capitolo 5

Data analytics: dallo stoccaggio


dei dati alle piattaforme
moderne

5.1 Il relatore
Ricercatore a tempo determinato presso l’Università degli Studi di Bologna. Si occupa
di molti temi intorno all’analisi dati: modellazione, algoritmi e tanto altro. È specializzato
in analisi con dati provenienti dai social in relazione a dati di mercato.

5.2 Le basi (di dati :)


Un database è un collettore di dati usato per gestire in modo digitale le informazioni
che devono girare all’interno di un’azienda. Per aziende intendiamo gruppi di persone che si
danno un’organizzazione interna, lavorano insieme per raggiungere un determinato obiettivo.
Un processo è un insieme di attività che devono essere svolte dalle persone coinvolte
per raggiungere gli obiettivi preposti. Per funzionare un processo prevede che le persone
si scambino informazioni: tutto l’insieme delle informazioni che ci si scambiano è inteso
come sistema informativo dell’azienda; il sistema informatico è quella parte del sistema
informativo che usa le tecnologie digitali. Il database è quella parte di sistema informatico
che immagazzina dati: è il suo unico compito, è slegato dalla logica applicativa dei processi
e questo si vede anche dal modo in cui i dati vengono salvati.
Un DBMS è il software utilizzato per memorizzare i dati, modificarli, fare richieste e tutto
quanto. Molto spesso i termini DBMS e database sono utilizzati, anche se impropriamente,
in modo intercambiabile.

5.2.1 Il modello dei dati e i database relazionali


A seconda del modello usato i DBMS si specializzano: il modello più usato in assoluto
è quello relazionale (RDBMS ). Ne esistono altri, tra cui i modelli reticolari, o gerarchici.
Nei RDBMS i dati sono inseriti in relazioni (implementate come tabelle) e ci sono due
componenti fondamentali: la componente di schema (lo ”stampino” della relazione) e la
componente di istanza (lo stampino ”riempito”); le istanze possono cambiare nel tempo, gli
schemi solitamente rimangono uguali a sé nel tempo.
Nei RDBMS si usano chiavi primarie e chiavi esterne, rispettivamente usate per identi-
ficare univocamente ogni istanza e per stabilire collegamenti con altre relazioni.

Modellazione dei dati


Qual è il modo corretto di rappresentare un insieme di dati? In generale sono state
proposte le cosiddette forme normali per capire se la modellazione usata è corretta, quindi

19
non mi causerà problemi ad esempio a livello di consistenza attraverso le modifiche e dupli-
cazione, oppure no. In questo ambito si parla anche di dipendenze funzionali: ad esempio
tra prezzo ivato, prezzo senza iva e percentuale di iva uno dei tre dati dipende sempre dagli
altri due.

Gestione dei dati


Negli RDBMS esiste un meccanismo detto di transazioni usato per gestire le operazio-
ni effettuate sui dati: ogni volta che eseguo una operazione sui dati tale operazione viene
eseguito all’interno di un costrutto più ampio detto appunto transazione, in quanto solita-
mente più operazioni vengono eseguite insieme. Una transazione termina con un commit,
cioè la scrittura del database Se invece la transazione si interrompe si esegue un rollback,
cioè si ritorna allo stato precedente: in questo modo o le operazioni vengono eseguite tutte
o non ne viene eseguita nessuna, in modo che il database sia sempre in uno stato consisten-
te, anche nel caso di guasti. Questo serve anche per isolare le operazioni e quindi gestire
la contemporaneità delle operazioni, che potrebbe causare problemi quando si opera sugli
stessi dati.
Il meccanismo delle transazione garantire le proprietà dette ACID: atomicità, consisten-
za, isolamento e durabilità.

5.3 Stoccaggio dei dati


I database gestiscono le informazioni nell’azienda; nella maggiorparte delle aziende si
usano strumenti ERP (enterprise resource planning), il tutto gestito con sotto un unico
database integrato in cui si trovano i dati usati da tutti i processi applicativi; questo posso
farlo anche grazie al fatto che con un database relazionale i dati sono agnostici rispetto
all’uso che ne viene fatto.
Nel momento in cui uso questi sistemi per supportare i processi genero dati e questi
dati posso usarli anche per analisi: si entra nella disciplina della business intelligence per
trasformare i dati in conoscenza utile a prendere decisioni.

5.3.1 Sistemi di analisi informativa


I processi di business intelligence avvengono in modo diverso rispetto al banale riempi-
mento del database con gli ordini arrivati, quello è un lavoro continuo nel tempo e molto
legato alla logica applicativa. Nel processo analitico questa cosa è ribalitata, non ho persone
continuamente sul database a chiedere dati. È un processo periodico, non continuo. Le
elaborazioni che si fanno sono molto diverse a livello di carico di lavoro: devo leggere magari
da molte tabelle, aggregare dati e fare operazioni piuttosto complesse.
I due carichi di lavoro si possono suddividere in:
• OLTP (On-line transactional processing): operazioni pressoché continue di lettu-
ra/scrittura di poche righe del database, molto standardizzate

• OLAP (On-line analythical process): operazioni non standard, magari molto diverse
una dall’altra; si tratta quindi di un carico di lavoro meno prevedibile
Mischiando questi carichi di lavoro sullo stesso database posso avere problemi, le query
analitiche potrebbero mettere in difficolta le operazioni OLTP, il database potrebbe non
riuscire a gestire tutto contemporaneamente. Da qui l’idea: dividere il database, da una
parte i dati per OLTP e dall’altra i adti per OLAP.

5.4 Il data warehouse


Per costruirlo si integrano dati provenienti anche da sorgenti diversi: se sono fortunato
i dati mi provengono tutti dal database dell’ERP, ma in molti casi questo non basta, ad
esempio bisogna integrare con dati provenienti da social network o altre sorgenti. Questo

20
però prevede anche lavori di integrazione e pulizia del dato e può prevedere anche la co-
struzione di un operational data store, cioè un luogo in cui si trovano tutti i dati puliti e
omogeneizzati, anche se poi non si interroga direttamente lui.
Nel data warehouse la rappresentazione dei dati dipende molto dal soggetto che voglio
analizzare, a differenza del database dell’ERP in cui voglio supportare processi standard.
Nel data warehouse tipicamente si tiene in memoria anche lo storico di come sono
cambiati in quanto questi dati possono venire utili per analisi di vario tipo.
Nel data warehouse il flusso di dati è principalmente in lettura, quando ci sono delle
modifiche le aggiungo in coda ma si tratta di una minima parte delle operazioni eseguite.
L’astrazione usata è quella del modello multidimensionale: i dati sono rappresentati
come cubi a più dimensioni; ogni dimensione del cubetto specifica una quantità che si vuole
rappresentare. Ognuna di queste dimensioni può essere associata a una gerarchia di attributi
che mi permette di analizzare i dati a diversa granularità. Ad esempio se sto analizzando
per data, posso avere granularità giornaliera, mensile, trimestrale e cosı̀ via. L’idea delle
query sull’ipercubo è quella di raggruppare i suoi pezzettini.

5.4.1 Modellazione logica


Ci sono principalmente due tipi di modellazione:
MOLAP: si usa un sistema con strutture tipicamente proprietarie in cui il modello
multidimensionale è effettivamente implementato. Non è un approccio utilizzatissimo.
ROLAP: si usa un sistema relazionale per memorizzare gli ipercubi di prima. Lo si usa
perché lo si conosce bene, è molto utilizzato e molto trasferibile da un RDBMS a un altro.
La base di partenza è uno schema a stella: c’è una tabella che contiene le dimensioni e poi
una tabella per ogni dimensione con tutti gli attributi del caso.
Questa cosa in realtà va in conflitto con il discorso sulle dipendenze funzionali e c’è
infatti un sacco di ridondanza. Si sceglie comunque questo approccio perché a livello di
interrogazione dei dati è molto più efficiente, visto che risparmia non poche operazioni di
join e, visto che sostanzialmente si legge e basta non ho particolari problemi di consistenza
durante le modifiche.

5.5 La rivoluzione dei big data


I big data provengono da due fonti principali: i social network e l’IoT, fonti in grado di
generare quantità enormi di dati in pochissimo tempo.
Big data, ma quanto big? Qualche anno fa Facebook parlava di circa 180 PB di dati
l’anno, mentre il radiotelescopio SKA attualmente in construzione è previsto che genererà
3 TB di dati in un secondo, ovvero 260 PB al giorno. Il secondo esempio è forse fin troppo
estremo, si prevede che i dati ottenuti poi vengano eliminati per fare spazio a dati nuovi,
però può rendere l’idea.
Una delle possibili definizioni di big data è quella tipologia di dati che per caratteristiche
rende difficile la sua gestione con sistemi tradizionali. Un’altra definizione usata è quella
delle 4 v: sono big data dati particolarmente importanti dal punto di vista di volume,
velocità, varietà, veridicità.

5.5.1 Motivi del clamore


La differenza principale è che abbiamo molti più dati da analizzare e questo ha creato
casi specifici particolari. Ad esempio, la possibilità di considerare enormi quantità di dati ha
permesso di memorizzare anche le grandi code che si sono sempre ritenute meno importanti,
scopren do a livello economico particolari mercati di nicchia dai quale estrarre valore.
Da un certo punto di vista avere moli di dati cosı̀ grandi può rendere i software più
intelligenti. Un esempio lampante ne è Google Translate, dietro a cui c’è una quantità
enorme di snippet di traduzione tra una lingua e un’altra che vengono uniti tra loro per
tradurre frasi.

21
5.5.2 L’uso dei big data
La prima cosa da fare è scalare, non è possibile mantenere i big data dentro a compu-
ter ordinari: il bus è limitato, le risorse di memoria pure, quindi bisogna usare soluzioni
hardware ad hoc.
Scale up: uso un sistema hardware più complesso, con risorse molto elevate. Tipica-
mente si usano sistemi formati armadi di risorse composte da moduli indipendenti tra di
loro, ognuno con le sue CPU, i suoi dischi e le sue RAM, che comunicano tramite una se-
rie di protocolli MPI (message passing interface). Questo ha dei limiti: devo farlo con un
produttore specifico, sono meno scalabili, più costosi e con altri problemi.
Scale BOH: si usano una serie (cluster ) di macchine ”normali” connesse tra loro in
LAN. È una soluzione meno costosa, scalabile potenzialmente in modo quasi infinito, ma un
pochina più lenta rispetto a soluzioni di tipo scale up. Un esempio da macchina da cluster
può avere un i7 da 12 core, 64 GB di RAM, 12 TB di dischi e network GigaBit l’uno.
Ultimamente soluzioni di questo tipo stanno migrando verso il cloud per risolvere tutte
le problematiche di manutenzione e gestione fisica del sistema.
Non è detto che le aziende abbiano un unico cluster: oggi è diffusa l’idea di avere più
cluster usati per compiti diversi, in modo da isolare lavori differenti, isolare ambienti di
sviluppo diverso, oppure anche per aumentare resilienza duplicando o dividere l’aspetto
di storage da quello di elaborazione. Con tanti dati ho bisogno di tante macchine che
alimentano tanti dischi per mantenere l’accesso ai dati possibile, anche se non è una cosa
che magari faccio ogni minuti. Quindi può avere senso avere un cluster con CPU con minori
prestazioni (e minori consumi) usato per immagazzinare e uno con maggiori prestazioni ma
meno memoria usato per elaborare.

Il modello NIST
Alla base c’è l’infrastruttura hardware su cui vengono installati software per la gestione
dei dati in modo distribuito, software per elaborare dati in vario modo (in batch, in live, in
streaming ad esempio) e poi l’orchestrator, quell’entità che decide quando andare ad attivare
determinate operazioni, quali dati usare, quante risorse allocare; può essere l’utente o uno
strumento che con una qualche logica decide quando lanciare cosa.

Il modello di Microsoft

È fatta quasi nello stesso modo, c’è un po’ più di differenza nel tipo di processazione dei
dati. Si enfatizza di più il fatto di avere le due modalità di batch e streaming e di avere due
centri di memorizzazione, uno in cui sono presenti i dati ”di partenza” e uno in cui vengono
salvati i dati elaborati per effettuare operazioni di data visualization e simili.

Data platform
Sono soluzioni complete per gestire, processare, analizzare, e presentare big data. Nel
livello base, secondo il NIST, vengono usati solitamente due tipi di immagazzinazione: HDFS
e NoSQL. Uno prevede l’uso di un normale file system per salvare i dati, l’altro è un database
(non relazionale).

5.6 Le sfide dei database distribuiti


Non si usano più i database relazionali, seppur tanto belli come visto prima. Hanno
qualche problema che ora diventa fondamentale. Il primo è che i RDBMS non sono fatti per
l’uso distribuito, quindi al massimo potrei usare soluzioni proprietarie come quelle di Oracle
che ti vende i rack su cui far girare il suo software. Questo è stato l’aspetto scatenante che
ha portato all’ideazione dei database NoSQL.
Poi ci sono altri problemi:
Impedence mismatch: il livello applicativo usa strutture fondamentalmente diverse
da quelle usate dal modello relazionale per immagazzinare i dati.

22
Consistenza vs latenza: ci sono contesti in cui l’azienda è più interessata ad avere un
accesso rapido ai dati anche se questi non sono perfettamente consistenti. Uno dei primi a
scegliere (e creare) soluzioni di questo tipo è stato Amazon e gli ha permesso di velocizzare
di molto la ricerca dei prodotti, anche se il prezzo durante la ricerca è un po’ differente non
fa tutta questa differenza.

5.6.1 NoSQL
È un termine usato per la prima volta nel 2009 da parte delle organizzazioni che si
erano ritrovate su un meetup nell’ambito dello sviluppo open source di soluzioni simili a
quelle commerciali di Amazon e compagnia bella. Indica database che usano modelli non
relazionali.
Ci sono diverse soluzioni di database NoSQL: l’aspetto principale è che supportano mo-
delli di dati differenti dalle tabelle. Sono pensati per funzionare in un contesto distribuito e
non hanno più una rigida definizione di schema: dentro a una stessa collezione di dati posso
avere struttura differente.
Gli schemi più usati sono quelli chiave-valore, documentale, colonnare e a grafo. I primi
tre sono piuttosto simili, l’ultimo è più particolare e non è banale da distribuire: se devo
seguire un percorso da una macchina all’altra potenzialmente devo saltare da una macchina
all’altra

Database chiave-valore

È il database più semplice. Prevede collezioni con due soli campi: una chiave e un valore,
in cui posso mettere qualsiasi cosa, che sia una stringa, un’immagine o qualsiasi altra cosa.
Posso cercare solo per chiave. È molto flessibile per i dati da inserire ma è molto vincolato
sulla ricerca.

Database documentale
Molto simile al chiave-valore, in cui i valori vengono definiti come JSON: la chiave deve
essere unica nel documento e il valore può essere semplice o complesso, cioè a sua volta un
documento.
Il problema che mi porto dietro è che se tutti i documenti hanno struttura diversa ogni
documento ha informazioni sia sull’istanza che il proprio schema e questo rende la collezione
molto più grande anche in termini di memoria.

Database colonnare

È una sorta di chiave-valore a due livelli, una chiave mi identifica il documento e


una seconda chiave che mi specifica le proprietà; la differenza con una tabella normale è
che gli attributi sono definiti direttamente nella riga. Questa cosa si presta bene per la
memorizzazione di matrici sparse.

Database a grafo
Memorizza un grafo in cui ogni nodo ha delle sue proprietà e lo stesso vale per gli archi.

A parte quello a grafo, i database NoSQL prevedono che ogni oggetto contenga tutto
sé stessi. Si parla di dati orientati ad altri dati, orientati all’aggregazione. Un’approccio
di questo tipo si presta molto bene alla distribuzione, perché ho tutti i dati aggregati qua
e là; tanti database di questo tipo non permettono neanche di eseguire join. Il contro
è che ho denormalizzazione dei dati e potenziali incosistenze dei dati. Come anche vale
per i database relazionali bisogna scegliere la modellazione che ottimizza le operazioni che
eseguirò più frequentemente.

23
Nella pratica questi sistemi non si sostituiscono completamente ai database relazionali,
molto spesso si usano insieme a database relazionali che vengono usati per svolgere compiti
differenti.

5.6.2 Implicazioni dell’uso di più modelli di database


Quando uso più database diversi devo avere applicazioni che sappiano interagire con
dati modellati in modo diverso, con database che funzionano in modo diverso e con dati
potenzialmente inconsistenti.
Si stanno iniziando ad avere DBMS che possano implementare i modelli NoSQL, con
eventuali limitazioni: ad esempio potrei usare un database relazionale per implementare le
altre logiche, ma ho i soliti problemi di distribuibilità. Una linea in cui attualmente si sta
effettuando ricerca è l’uso di un unico linguaggio per gestire database come quelli appena
citati.
Tutto questo però risolve solo i problemi di interconnessione tra i sistemi. Resta da
risolvere il problema dell’eterogeneità degli schemi, ma devo anche capire cosa ho nelle
collezioni; nulla vieta di avere lo stesso dato in posti diversi con nomi diversi. Una delle
possibili soluzioni è l’uso di profili standardizzati: se in un oggetto trovo un certo valore nel
campo ”Tipo” so che mi troverò determinati campi.
È ancora da risolvere il problema di interrogare i database: bisogna capire le corrispon-
denze tra i vari oggetti o attributi in strutture diverse e sistemare tutte queste cose per
riottenere la consistenza, che comprende anche la risoluzione del problema dei conflitti, fino
ad arrivare alla data fusion. Con grandi quantità di dati provenienti da contesti diversi
questo è particolarmente complesso.

Nuove tecniche di integrazione


Invece di cercare di risolvere tutti i problemi a monte lo faccio progressivamente, volta
per volta, con dati in collezioni diverse e usando tecniche diverse. Però in generale recuperare
la consistenza è particolarmente complesso.

5.7 Le sfide dei filesystem distribuiti


5.7.1 I software
Il pacchetto software più usato per l’implementazione di filesystem distribuiti è Apache
Hadoop, anche se per interrogare i dati si usano principalmente altri software.
Il meccanismo è quello master-slave: una macchina ha i riferimenti di tutti i dati su
tutte le macchine e gli slave si occupano di gestire i file, divisi in blocchi distribuiti tra le
macchine. Quando voglio accedere a un dato chiedo al master che mi dice quanti blocchi
sono e dove si trovano.

5.7.2 L’idea
Una metafora molto usata per i dati memorizzati in filesystem è quella del data lake:
ho tante sorgenti diverse che mi danno dati, io voglio averli tutti insieme da qualche parte;
l’utente deve navigare il lago alla ricerca del file che vuole trovare. L’idea è quella di
rappresentare il contenitore dei dati nel loro formato originale, poi dopo andrò a fare tutte
le operazioni di pulizia. Anche qua c’è il passaggio da dati originali a dati puliti salvati da
un’altra parte.

5.7.3 Problemi e soluzioni


Uno dei problemi del data lake è la possibilità di buttare dentro cose talmente eteroge-
nee da rendere difficile capire cosa sia. Questo problema si limita con dati che mi danno
informazioni sui dati nel datalake (metadati), specificando dove si trovano quali tipi di dati.

24
I metadati usati sono di tipo tecnico, che descrivono la struttura dei dati; operazionale,
che descrivono che operazioni sono state eseguite sui dati e magari anche da chi, comprenden-
do anche la sorgente del dato; business, dati più semantici che aiutano a dare un significato
ai dati, cioè ad esempio cosa riguardano.
Come colleziono i metadati? Alcuni si ottengono in modo semplice: li guardo e vedo
quanto siano grandi, che parametri ci sono e altre cose simili; per ottenere i dati operazionali
invece servono software che tutte le volte che operano con i dati creino i metadati necessari.
Quanto colleziono metadati? Anche questo può essere un problema, perché possono
diventare anche loro big data con tutti i problemi annessi. In particolare, nei metadati di
provenienza, è stato sviluppato lo standard PROV per rispondere a queste domande.

Soluzioni industriali
Qui si parla di soluzioni recenti. Ci sono tre filosofie principali.
Data lakeouse: abbiamo un sistema che cattura autonomamente i metadati operazio-
nali, supporta un livello di governance per cui si ha possibilità di fornire profili utenti, viene
automaticamente fatto il riconoscimento dei dati ottenendo una via di mezzo tra data lake
e data warehouse, prendendo il buono di entrambi.
Data fabric: è una soluzione molto spinta da Gartner. Il concetto di data fabric è più
avanzato del data leakhouse: si prevede sempre di catturare automaticamente i metadati, ma
si arriva a utilizzarli per svolgere quasi automaticamente le operazioni di pulizia, integrazione
e via dicendo. Sono soluzioni ancora in via di sviluppo, molto ambiziose.
Data mesh: è l’approccio opposto al data fabric. Si parte dall’idea che non si possa
riuscire automaticamente ad integrare i dati usando soluzioni complesse: se ci diamo regole
interne per trattare i dati poi sarà più facile per tutti usare i dati. Le regole sono quattro e
se vuoi leggerle si trovano o nelle slide del relatore o penso su Internet.

25
Parte III

Modulo: Applicazioni della


matematica
Relatori: Antonia Larese, Anna Codispoti,
Enzo Venturino

26
Capitolo 6

Metodi numerici per problemi


ingegneristici complessi

6.1 La relatrice
Professore associato presso il dipartimento di matematica all’Università di Padova, di
formazione ingegneristica in ambito civile.

6.2 La meccanica
Definizione: la meccanica è l’area matematico-fisica che si occupa dell’interazione, con
forze o energia, tra oggetti fisici.
Può essere suddivisa in:
• Teoretica: quella delle formule, con la forza, dimostrativa

• Applicata: risolve problemi pratici del contesto reale


• Sperimentale: crea modelli in scala per la ricostruzione di fenomeni
• Computazionale

6.2.1 Meccanica computazionale


Si occupa di tradurre modelli matematici in modelli computazionale. A seconda dell’area
si parla di nano meccanica, micro meccanica, meccanica dei sistemi e meccanica del continuo.
Il focus di questa lezione è la meccanica del continuo, che si occupa di solidi, fluidi, particelle
e, anche se ai fisici il termine non piace, problemi di multifisica, ovvero situazioni in cui mezzi
diversi interagiscono fortemente tra di loro.
Per la simulazione, nell’arco dei decenni sono state proposte varie tecniche di discretiz-
zazione, per passare dalla natura al pc; uno dei metodi più usati, specialmente per i solidi,
è il metodo degli elementi finiti, ma ne esistono molti altri: metodo delle differenze finite,
metodo degli elementi di confine, metodo dei volumi finiti, metodo basato sulle particelle e
vari altri.

6.3 Metodo degli elementi finiti


Nasce negli anni 40 ed è un’idea che nasce in posti diversi: l’idea è dividere un domi-
nio continuo in una serie di elementi finiti; cominciavano ad apparire i primi calcolatori e
le esigenze erano diverse: il calcolo doveva essere sistematico e ripetibile. Il metodo degli
elementi finiti è stato reso famoso dall’Università di Stoutgard, Swansea e Berkeley, prin-
cipalmente da ingegneri civili e aeronautici. Negli anni 70 sono stati pubblicati Nastran di

27
Nasa e Sap di Berkeley, i primi codici che facevano ampio uso degli elementi finiti, ma si è
dovuto aspettare fino al 1973 per una formalizzazione matematica.
In realtà gli elementi finiti sono partiti molto molto prima: il primo utilizzatore degli
elementi finiti è stato Archimede, che cercò di calcolare il perimetro di una circonferenza
come il perimetro di un poligono regolare con sempre più lati, arrivando a una stima anche
molto precisa del π. È un’approssimazione che dipende dalla discretizzazione e per questo
bisogna fare molta attenzione.
È nato perché per tanti problemi alle derivate parziali non si riesce a trovare soluzioni
analitiche.
Quando si studia un modello fisico si è già fatto un passo di astrazione: sto studiando un
disegno su carta, non più il tetto che c’è in cima all’edificio; da lı̀ va fatto ancora un passo,
che è quello di passare dal modello fisico al modello matematico. Perché serve l’ultimo
passaggio? Perché se il sistema è ”piccolo” posso fare tutto a mano, ma non sempre la
situazione è questa e quindi mi serve il calcolatore. Il modello matematico è solitamente
continuo, quindi va discretizzato. Si commettono errori nel farlo ed è normale cosı̀: ogni
modello è inesatto, quindi bisogna arrivare alla situazione in cui l’inesattezza è accettabile.
Una volta ottenuto li modello discreto bisogna fare due controlli: verifica, tra modello
numerico e modello matematico, e validazione, tra modello numerico e realtà.

6.4 Applicazione all’equazione di Poisson


L’equazione di Poisson è:
∇ · K∇ϕ + Q = 0
e può rappresentare tantissimi fenomeni fisici. È di semplice soluzione, e per semplificare
ancora di più consideriamo il caso monodimensionale.
Immaginiamo una barra lunga l, che conduce calore. La legge di Pick ci dice:

q = −k
dx
in cui k è una costante che dipende dal materiale e la derivata è il flusso termico attraverso
la barretta. Arriviamo allı̀equazione di bilanciamento termico:

q+k =0
dx
Alla fine l’equazione che descrive il fenomeno è
 
d dϕ
k +Q=0
dx dx
In tutte le equazioni precedenti ϕ è la temperatura, k la conduttività, Q la sorgente di calore,
q il flusso di calore.
Poi servono le condizioni al contorno, che possono essere di Dirichlet o di Neumann, sono
un po’ diverse, ma la cosa importante è che non si devono sovrapporre in modo conflittuale
e devono coprire l’intero contorno.
Ora bisogna risolvere un’equazione alle derivate parziali su un certo dominio con certe
condizioni al contorno.
L’approccio degli elementi finiti è risolvere integrali invece che derivate. Dalla forma
forte (appena scritta) si arriva alla forma debole:
Z l   Z l
d dϕ
− W k dx = W Qdx
0 dx dx 0

in cui W è una funzione di test. Sto chiedendo a ϕ di essere C 1 , a W di essere C −1 e all’altro


termine di essere C 0 . Possiamo fare di meglio, integrando per parti: si chiede di più a W che
deve essere C 0 , ma chiediamo meno agli altri due. C’è di più: ho simmetrizzato l’equazione:
Z l Z l
dW dϕ
k = W Qdx + [W q]0 − [W q̄]l
0 dx dx 0

28
Ecco il concetto base: invece di integrare su tutta la barra, divido la barra in tante barrette:
il dominio Ω deve essere l’unione dei tutti i domini Ωe tali che gli Ωe e Ω abbiano intersezione
vuota. Si vuole risolvere su uno degli Ωe e fare lo stesso su tutti gli altri: la matrice soluzione
sarà l’unione di tutte le soluzioni.
Le funzioni peso come si definiscono? Bisogna trovare qualcosa di pratico e semplice, di
solito si vuole che le matrici siano idealmente sparse e più diagonali possibili. Mi servono
funzioni base ben scelte, con cui approssimare sia la funzione peso che le funzioni del mio
modello, lineari a tratti: devono avere support compatto, facili da intefrare e i coefficienti
devono avere un chiaro significato fisico. Si hanno tante funzioni di base quanti sono i
nodi,cioè gli estremi degli elementi finiti. Tutto questo ci permette di lavorare localmente,
sul singolo elemento.
Siamo al punto in cui c’è un’equazione in forma debole, siamo passati dal continuo al
discreto scegliendo la nostra base {Ni |i = 1, . . . , nN } e si arriva a:
Z lXn n Z lXn
dNi (x) X dNj (x)
k ϕj dx = Ni (x)Qdx
0 i=0 dx j=0
dx 0 i=0

in cui per semplicità sono stati tolti i termini dovuti alle condizioni al contorno. Ormai è un
sistema lineare e lo risolviamo su ogni piccolo dominio (se vuoi l’equazione guarda slide 36
che ci sono anche notazioni importanti), con metodi numerici, poi bisogna mettere assieme
tutti i risultati e tornare al continuo. L’assemblaggio va fatto con una certa accuratezza, il
passaggio tra nodo locale e nodo globale non è cosı̀ banale e lo si fa con una matrice detta
di connettività.

29
Capitolo 7

Dai dati agli insights: generare


valore nelle aziende attraversi
l’utilizzo dei dati

7.1 La relatrice
Anna Codispoti, laureata in matematica a Genova con PhD in Matematica e appli-
cazioni. Ora lavora nel gruppo Prada con il ruolo di Head of Analythics & Insights; ha
precedentemente lavorato in Costa occupandosi di revenue.

7.2 Dati e aziende


Ci sono due tipi di aziende: aziende per cui i prodotti si sviluppano intorno al dato (vedi
Google) e aziende che si aiutano con i dati con particolari scopi, tipicamente per migliorare
i processi.

7.3 Tecniche di archiviazione del dato


Ci sono più sistemi che acquisiscono e conservano i dati. Dati che possono essere interni,
come dati dei clienti, dei sistemi produttivi e dei dipendenti, o dati esterni, che possono
essere a pagamento o pubblici. Dati pubblici sono dati come quelli dell’Istat, mentre tra i
fornitori di dati a pagamento c’è Google, che in realtà ha anche tier gratuiti.

7.3.1 Dati strutturati


L’esempio tipico è la tabella: si tratta principalmente di stringhe e numeri, acquisiti in
modo automatico o più raramente manuale.

7.3.2 Dati non strutturati


Sono dati che hanno una propria struttura interna ma non possono essere catalogati con
un modello dati o uno schema predefinito. Possono essere dati testuali oppure no, generati
da umani o macchine, tipicamente acquisiti dai social, da Internet e dalle interazioni con il
servizio clienti.

7.3.3 Dati semistrutturati


Sono dati che hanno tag interni per identificare diversi tipi di elementi, ma al loro interno
i campi sono dati non strutturati.

30
7.3.4 Archiviazione del dato
Tipi diversi di dato richiedono tecniche di archivazioni diverse; tante aziende ne usano
più di uno. Le tre principali strutture sono il data warehouse, il data lake e il lakehouse

7.3.5 Il data lake


Il data lake assomiglia al desktop del pc, è uno spazio in cui io metto dati un po’ di tutti
i tipi e come piace a me. Il punto è che non tutti i dati vanno processati nello stesso modo; a
livello software è più facile da potenziare, aggiornare e gestire. Ha tre livelli: il dato grazzo
(raw data), il dato pulito (cleansed data) e il modello (Data model ).

Raw data - bronze level

È l’area in cui arriva il dato, con le sue modalità temporali. Ad esempio, non mi interessa
avere il dato real time di un flusso di cassa, mentre mi interessa avere in tempo reale quali
articoli un utente ha aggiunto al carrello per evitare di proporglieli di nuovo.

Cleansed data - silver level

È la zona in cui i dati vengono scelti, trasformati, puliti e arricchiti; è lo step più
importante per generare previsioni a partire dai dati ed è questo il momento in cui vengono
uniti dati interni ed esterni all’azienda.

Data model - gold level

È l’organizzazione finale del dato che mi permette di esporlo per essere fruito da chi lo
deve usare, con sintesi utili.

La sandbox

È un livello che può dover accedere ai diversi gradi di raffinazione del dato per fare
sperimentazione.

7.3.6 Il data warehouse


Il data warehouse ha bisogno di dati strutturati; per arrivarci in modo utile bisogna
prima capire che analisi vogio fare sui miei dati. La maggiore struttura interna permette a
più utenti di usarlo, con professionalità più elementari. Sono sistemi solidi, organizzati, ma
più difficili da gestire a livello di operazioni di sviluppo.

7.3.7 Il lakehouse
È un approccio molto recente che combina i benefici del datalake con quelli della strut-
tura del data warehouse. È scalabile e può gestire grandi volumi di dati, può gestire dati
strutturati e non strutturati, può processare il dato appena arriva ed è facile da gestire.

7.4 Metodi e strumenti per la visualizzazione dei dati


La visualizzazione dei dati è una loro sintesi grafica che permette di comprendere ten-
denze, valori anomale, ricorrenze; è indispensabile per fare buone analisi.

31
7.4.1 Strumenti per l’analisi e la visualizzazione
I software più usati, a diversi livelli di competenze, sini Excel (ahia), Tableau, PowerBI,
R, Python.
Excel è facile da usare, ha un’interfaccia semplice, stressandolo un po’ si riescono a
fare cose anche interessanti, ma oltre un certo punto non si può andare anche per motivi
prestazionali.
Tableau e PowerBI sono i software più usati in azienda per fare data analysis visualiza-
tion. Hanno parti di interfaccia grafica e si può interagire con loro api.
R e Python permettono di fare molte più cose: sistemi di forecast, motori di otti-
mizzazione, per interagire con loro si scrive codice e la curva di apprendimento è molto
ripida.

7.4.2 Creare il modello dati


Nel momento in cui creiamo una visualizzazione dei dati dobbiamo distinguere tra tabella
principale, il nucleo numerico intorno a cui costruirò tutto (tabella dei fatti ), e tabelle
satellite. C’è anche la tabella delle dimensioni, che è il centro per la rappresentazione dei
dati qualitativi.

7.5 Data science: dai dati agli insights


La data science è la parte all’interno di un’azienda che si occcupa di estrarre gli insight
che sono più difficili da scovare. Il data scientist si occupa di tutte le fasi del processo di
analisi dei dati per trovare soluzioni ai problemi aziendali, migliorando decisioni e processi.
Un data scientist ha competenze nel mondo del software, nel mondo della matematica
e statistica per usare tecniche di machine e deep learning, nel dominio in cui opera e nella
visualizzazione dei dati.

7.5.1 Tipologie di analisi


Analisi descrittiva: è usata per descrivere i dati per comprendere le caratteristiche dei
dati, individuando pattern e trend.
Analisi predittiva: prende il dato e cerca di predire qualcosa che succederà in futuro.
Analisi prescrittiva: si simulano più scenari partendo dall’analisi predittiva e si sceglie
quello migliore secondo determinati parametri.

32
Capitolo 8

A survey of applications of
mathematics to life sciences

8.1 Il relatore
Professore di analisi numerica a Torino che ha fatto ricerca nel mondo delle equazioni
differenziali integrali. Negli ultimi vent’anni ha lavorato con biologi, agrari, veterinari in
scenari che poi analizzeremo.

8.2 Modelli di popolazione


8.2.1 Modelli a singola popolazione
Il cambiamento della popolazione in un tempo ∆t è provocata da nascite, morti e mi-
grazioni. In sutazioni più idealizzate posson non considerare morti o migrazioni e, pensando
in modo lineare, è possibile fare stime di crescita o decrescita; partendo da una condizione
iniziale diversa trovo risultati diversi.
Facendo un po’ di maneggi arrivo a un’equazione con un esponenziale che dipende dal
tasso di crescita, r0 ; questo prende il nome di modello di Maltus.
Il punto è che con questo modello la popolazione o si estingue o cresce indefinitamente.
Una soluzione è considerare r0 = r(P ) come funzione di P , in prima battuta come funzione
lineare; se r0 è crescente ho ancora una popolazione che esplode, quindi in realtà non ho
risolto nulla.
Altra possibile soluzione: il tasso decresce con la popolazione invece di crescere, in questo
momento ancora in modo lineare. In questo caso ho una popolazione che per un po’ cresce
e poi decresce, come una parabola con concavità rivolta verso il basso. Se la retta ha
equazione:
 
P
r(P ) = r0 1 −
K

in cui K prende il nome di capacità portante dell’ambiente.

8.2.2 Modelli a due popolazioni (predatore-preda)


Consideriamo conigli R(t) e volpi F (t), prede e predatori; i primi si riproducono con r0
costante, le seconde si riproducono con l’ultimo modello visto. Con un po’ di conti arrivo
a due equazioni differenziali non lineari. Parto dai punti di equilibrio, in cui le derivate si
annullano, con i conti ne trovo 3. Poi posso studiare le linee di livello: dove crescono i conigli
e dove crescono le volpi? A seconda delle condizioni di partenza posso avere un sistema che
nello spazio delle fasi è a spirale convergente o divergente.

33
Per proseguire l’analisi posso ignorare i termini quadratici vicino all’origine, vengo-
no fuori equazioni lineari e ottengo che lı̀ vicino ho due sistemi che crescono entrambi
indipendentemente e quindi ho equilibrio instabile.
Un’altro dei tre punti era sull’asse delle prede; studio la perturbazione e viene fuori un
sistema di equazioni differenziali, una si risolve da sola, mentre l’altra si risolve in un’e-
quazione differenziale lineare a coefficienti costanti non omogenea. Si può risolvere al solito
modo oppure con il metodo della variazione delle costanti. Arrivo a vedere che la stabilità
dipende dai parametri iniziali.
Per il terzo punto di equilibrio ho un po’ più menate per risolvere, devo riscrivere il
sistema in forma matriciale e poi disaccopiare il sistema con un opportuno cambio di varia-
bili, ovvero ottenere una matrice diagonale. Qui serve il teorema di Rouché Capelli che a
quanto pare è lo scheletro nell’armadio di un po’ tutti. Alla fine si vede che questo punto
di equilibrio è ammissibile se e solo se il punto precedente è di equilibrio instabile.

34
Parte IV

Modulo: Elaborazione
quantistica dell’informazione
Relatori: XXXX, Gian Marcello Andolina,
Michele Grossi

35
Capitolo 9

Fast Lane to Quantum Advance

9.1 Manca un pezzo


9.1.1 Algoritmo di Grover
È un algoritmo che funziona per cercare un dato in una lista. Consideriamo una funzione
oracolo che ritorna 1 se il dato è quello che cerco, 0 altrimenti; ad esempio voglio trovare
la stringa di bit che mi dà un certo hash sha 256. In computazione classica posso fare solo
bruteforcing; in media, se ho N dati, devo provare N/2 volte.
Quantisticamente creo uno stato che è sovrapposizione di tutti gli elementi del database,
scrivo la funzione sotto forma di circuito quantistico e applico allo stato (−1)f . In un
colpo solo ho modo di taggare con un segno − la risposta giusta. Lo si fa in un colpo
solo, in parallelo. C’è il problema della misura: se misuro le cose elevo al quadrato delle
quantità e quindi
√ il meno non fa cambiare nulla. Il metodo per farlo è appunto l’algoritmo di
Grover: con N step si riesce ad avidenziare la soluzione giusta. Quindi nel caso classico la
computazione cresce linearmente, nel caso quantistico cresce con la radice quadrata. Quindi
la computazione quantistica si può usare per fare tanti calcoli contemporaneamente.

9.1.2 Algoritmo di Shor


È un algoritmo quantistico per fattorizzare numeri e potrebbe essere un problema per le
comunicazioni criptate che si basano su queste cose.
In entrambi i casi si sfrutta il parallelismo fornito dalla tecnologia quantistica e si cerca
un modo per accentuarne la probabilità

9.2 Qubit superconduttivi


Come si passa dal concetto astratto di qubit all’oggetto fisico qubit? È stato fatto in
molti modi: elettroni, ioni e altro. Uno dei modi è quella dei circuiti superconduttivi: è uno
dei più sviluppati e il relatore lavora con questi quindi li conosce.

9.2.1 Il bit classico


In computazione classica posso fare un bit di memoria con un condensatore, 1 per il
condensatore carico e 0 per il condensatore scarico. Nelle implementazioni più miniaturizzate
la differenza tra 0 e 1 è nell’ordine di 3 · 105 , che è bello perché è più facile controllare tanti
elettroni che uno solo.
Perché non si può rendere la cella quantistica? Nel condensatore c’è un sacco di carica,
quindi cariche lı̀ intorno sentono il campo magnetico e interagiscono, in qualche modo la cari-
ca viene misurata continuamente, che è l’opposto di quello che vorrei fare quantisticamente:
fare operazioni prima di misurare.

36
Bisogna quindi creare un circuito elettrico il più possibile isolato dall’ambiente e semplice
come modello; non è per niente banale.

9.2.2 La superconduttività
In un filo di metallo ci sono un sacco di elettroni e ognuno fa un po’ quello che vuole,
si muove, rimbalza e interagisce su ciò che ci sta intorno. Se volessi descriverlo bene dovrei
modellare ogni singolo elettrone, che può assorbire o perdere energia.
Nel 1911 il fisico Onnes si divertiva a raffreddare cose, vicino allo zero assoluto: ha creato
metalli liquidi e a quel punto ha cercato di misurarne la resistenza. Sotto i 4.2K la resistenza
scende di colpo a zero: l’idea è che sotto a questa temperatura gli elettroni si organizzano
in coppie che parlano tra di loro in modo coordinato. A quel punto tutti gli elettroni sono
descritti con la stessa funzione d’onda, come se iniziassero tutti a ballare facendo gli stessi
passi di danza, quando prima ognuno faceva quello che gli pareva. Avendo gli elettroni che
si muovono tutti nello stesso modo, se do una bicellata a uno, se non è abbastanza forte
non si muove niente. Se do un colpo abbastanza forte un paio di elettroni ricomincia a
fare quello che vuole, ma noi vogliamo evitarlo: fino a quando non succede questo abbiamo
ottenuto un sistema coordinato, esteso, modellisticamente semplice.
Quindi, riassumendo, sotto una certa temperatura gli elettroni si mettono a funzionare
allo stesso modo.
Ora possiamo iniziare a pensare di fare circuiti elettrici con materiale superconduttivo a
bassissima temperatura: tutti gli elettroni si comportano allo stesso modo e per descriverli
ci bastano pochi numeri. Si riesce quindi ad avere effetti quantistici (con gli elettroni che si
muovono tutti allo stesso modo) su oggetti moderatamente grossi, anche qualche millimetro.
Gli effetti sono strani, ma è quello che vogliamo: la corrente, quantisticamente, può
girare in un senso, nell’altro o in sovrapposizione di entrambi.

9.2.3 Oscillatore classico e quantistico


Nel circuito LC c’è un condensatore, un induttore e l’energia immagazzinata nel circuito
oscilla tra i due componenti; può avere un valore arbitrario ma è sempre costante. Un
oscillatore quantistico ha invece energia quantizzata, cioè può avere solo determinati valori,
a multipli della costante di Planck ridotta; il modo in cui l’oscillatore è descritto è discreto,
quindi posso decidere che uno stato è 0 e l’altro è 1. Ci sono altre possibilità, non voglio
finire fuori dal mio spazio computazionale che è 0-1. Quindi quello che si fa è usare spettri
anarmonici, in cui la distanza tra gli stati cresce man mano: con una bicellata sono sicuro
di non andare in un livello che non voglio, ha più robustezza. Per farlo non si usa più un
LC, si toglie la L e si aggiunge un altra cosa che causa l’anarmonicità.
TL;DR il qubit è come un pendolo discreto con più stati da cui ne isolo due; lo realizziamo
con superconduttori a bassissima temperatura.

Scale di energia
Un pendolo classico si può descrivere con la frequenza; per un qbit la frequenza di solito
è intorno ai 5 GHz. La differenza di energia tra i due livelli è nell’ordine dei 3 · 10−24 : se vo-
gliamo controllare bicellate cosı̀ picole dobbiamo essere a bassissime temperature, nell’ordine
dei 20 mK, a cui l’ambiente è praticamente fermo.

9.2.4 Trasmon qubit


Il chip ha quel quasi oscillatore. È fatto con sotto del silicio, sopra del superconduttore
e si creano zone diverse non ha contatto tra loro nel superconduttore. Ci sono delle parti
circuitali a forma di croce, non a contatto con il resto del circuito; praticamente sono il
conduttore e il condensatore dell’oscillatore, manca ancora quello che nell’LC classico è
l’induttore. È messo in una della tre estremità della croce ed è una giunzione tra cose
moooooolto piccole, nell’ordine del 20 nm. Nella giunzione c’è un piccolo strato di ossido
isolante (giunzione Jaulson (?)) che non fa toccare i due superconduttori.

37
Siamo finalmente arrivati ad avere una sorta di qubit, ora bisogna farci sopra delle
operazioni. Gli parliamo dandogli le bicellate: con un filo si arriva molto vicino al qubit
e si manda sul filo un segnale elettrico alla giusta frequenza (con la giusta energia), nelle
microonde, per ogni operazione, anche la più semplice, cioè set 0 o set 1. L’informazione
sull’angolo di rotazione è codificata nel tempo e nell’energia dell’onda inviata
I qbit devono parlare tra loro: se ne mettono tre vicini e in parole povere devono parlare
tra loro alla stessa frequenza, un po’ come quando io spingo l’altalena. Quando la frequenza
in mezzo è diversa dalle altre due i due qubit agli estremi non parlano, se le frequenze sono
uguali sı̀.
La misura si fa con un risonatore: quando si vuole misurare (a fine processo) si mandano
tante microonde, si guarda la riflessione dell’onda a da lı̀ si capisce lo stato del qubit.

9.2.5 QPU a superconduttori


QPU significa quantum processing unit. Si mettono tanti qubit vicini con i loro accop-
piatori, con un layout a scacchiera. L’architettura non è la classica Voi Neumann perché
muovere le informazioni dai qubit è problematico, quindi memoria e calcolo sono nello stesso
posto, se un dato non lo voglio usare lo lascio nel suo qubit e basta.

9.3 Il rumore
Il problema principale è che nonostante tutti gli sforzi per isolare ci sono sempre cose
fuori controllo, quindi il computer ha errori.

9.3.1 Decadimento dei qubit


Un elemento chiave è la giunzione: lo strado di ossido che separa i superconduttori può
avere difetti. Se la frequenza associata all’imperfezione è diversa da quella del qubit va bene,
se no i due interagiscono ed è un problema perché non lo possiamo controllare; ad esempio
si possono avere flip o variazioni dell’angolo ϕ. Questo succede un po’ a tutti i qubit, in
tempi dell’ordine dei 250 µS. Se la durata della mia computazione è lunga di sicuro avrò
problemi di questo tipo.

9.3.2 Coerenza dei gate


I gate sono controllati da impulsi nelle microonde e la precisione dei segnali è finita; se
per tantissime volte invece di routare di 90° ruoto di 90.0001° è un problema

9.3.3 Parametri di valutazione


Attualmente un parametro molto usato è quello del numero di qubit, ma la qualità è
ancora più importante. Valori tipici allo stato dell’arte sono tra i 100 e i 1000 µS sia per il
decadimento che per la coerenza. Un altro parametro è la fedeltà di un operazione a singolo
qubit, pari al 99.99%, o a doppio qubit, del 99.8%, e poi c’è la fedeltà di lettura, di circa
il 99%. Sembra meno ma tipicamente le operazioni di lettura sono molte meno di quelle di
elaborazione.
È sufficente? Dipende, facendo 5000 operazioni fedeli al 99.9% la probabilità di non avere
errori è dello 0.7 %, che è tanto. È evidente che il problema principale della computazione
quantistica è proprio quello degli errori.

9.3.4 Soluzioni
A breve termine si usa la mitigazione degli errori, a lungo termine si usa la correzione
degli errori.
Nella computazione classica ci sono tante soluzioni, la più facile è trasmettere due volte
lo stesso bit e vedere all’arrivo se ho due bit uguali; in caso contrario rilevo un errore. Non

38
rilevo l’errore se ho un doppio flip, che però è molto meno probabile. Se addirittura triplico
il bit prima di mandarlo posso avere una minima capacità di correzione.

Correzione di errori quantistici


Gli errori quantistici sono molto più complessi degli errori classici: si parla di flip contro
migrazione di 62.4 gradi a sud-est. Problemi: c’è un teorema che mi dice che non posso
copiare un generico stato quantistico, se misuro il sistema perdo la sovrapposizione. Quindi
non posso copiare uno stato per dare ridondanza e se anche potessi non potrei misurare
il messaggio all’uscita dal canale: perderei la sovrapposizione e allora tanto vale usare bit
tradizionali.
L’idea di base è generare due terzetti di qubit uguali e assegnare a ogni terzetto un
valore logico. A quel punto chi riceve può chiedere al terzetto arrivato se i primi due qubit
sono uguali: ho sı̀ o no, quindi non è proprio una misura, e per questo uccido meno la
sovrapposizione. Poi faccio lo stesso sugli ultimi due qubit. Se ho due uguali so che non ci
sono errori, se ho almeno un no ho errori. Ad esempio se ho un sı̀ e un no posso flippare
l’ultimo qubit e ho tolto (poca) sovrapposizione, perché più misuro più distruggo. Trovare
la domanda giusta è un lavoro di fino, non banale.
Teoricamente più qubit uso più ho sicurezza, in pratica quando ho più qubit mi servono
più gate e più gate causano più errori. C’è un teorema che però mi specifica che se riesco
a superare una carta soglia di precisione nei gate ho effettivamente guadagno negli errori
sfruttando la ridondanza. Questo è stato dimostrato in pratica pochi mesi fa da Google
ed è attualmente un topic di ricerca molto caldo. Tutto questo significa che alzando la
ridondanza, in linea di principio, posso avere arbitrariamente pochi errori

39
Capitolo 10

Introduzione alla meccanica


quantistica

10.1 L’esperimento della doppia fenditura


In ottica dal 1700-1800 si sa che io metto una lampadina e lascio passare la luce in un
buco c’è una sola zona illuminata sul pannello dietro alla fenditura, se i buchi sono due ho
una figura di interferenza che però non rispetta il principio di sovrapposizione. E fin qui
tutto ok. Se invece mettiamo degli oggetti che misurano dove è passata la luce l’interferenza
sparisce e il principio di sovrapposizione è rispettato.
Ora immaginiamo che la sorgente sia di elettroni e non di luce, con la stessa configurazio-
ne, e dietro uno schermo che misura quanti elettroni arrivano, vedo una sola zona illuminata,
poi se le fenditure sono due ho di nuovo la figura di interferenza. Nel 1900 non era possibile
farlo, ma ora la tecnologia ci permette di sparare elettroni a uno a uno. Questo è un po’
strano, perché gli elettroni tra di loro non interagiscono perché sono sparati uno per volta.
Quindi in qualche modo gli elettroni si comportano un po’ come onde.
Il punto ora qual è: avendo capito qualcosa dall’ottica si può inferire qualcosa sugli
elettroni.

10.2 Esperimento di Stan-Gerlack


Un fascio di atomi viene fatto passare tra due magneti; ogni atomo ha un suo momento
angolare intrinseco e muovendosi subisce la forza di Lorentz, quindi viene spinto verso uno
dei due magneti, oppure no. Se io emetto gli atomi in modo casuale mi aspetto una gaussiana
o simile sullo schermo dopo i due magneti. Se faccio l’esperimento con atomi molto semplici
non ho solo un picco, ne ho due; con atomi più complessi ne ho anche di più.
Che succede? Difficile da dire, e se uso più stadi di Stan-Gerlack su fasci già succedono
cose ancora più strane.

10.3 La polarizzazione della luce


Ci può aiutare a capire le cose strane che succedono in Stan-Gerlack. La luce è un’onda
elettromagnetica in cui il campo elettrico è sempre perpendicolare alla direzione di propa-
gazione dell’onda e la sua direzione è detta polarizzazione dell’onda. Una sorgente come
una lampadina genera onde con polarizzazione di ogni tipo; esistono dei filtri che fanno
passare soltanto la luce polarizzata in un certo modo. A questo punto il filtro polarizzato è
molto simile allo Stan-Gerlack che blocca spin di un certo tipo; se prendo una lampadina e
faccio passare la luce prima polarizzata su un asse e poi su quello perpendicolare non passa
niente. Se invece faccio passare la luce su un filtro x, poi su uno come x ruotato di un angolo
arbitrario gradi (che chiameremo x’) e poi ancora attraverso un filtro x alla fine ho ancora
luce polarizzata lungo x.

40
10.3.1 Legge di Malus
Mi dice che intensità ha la luce che esce da un filtraggio x-x’:

I1 = I0 cos2 (θ)

In cui I1 è l’intensità dopo il primo filtro e I2 è l’intensità dopo il secondo. Questo ci


permette di determinare l’intensità anche con più filtri uno dopo l’altro.

10.3.2 Ottica a singolo fotone


Tutti questi effetti si possono far vedere anche abbassando talmente tanto l’intensità
luminosa da far passare i fotoni a uno a uno. In questo caso l’intensità luminosa scala con
il numero quadro dei fotoni.

10.3.3 Parallelismo
Per fare un parallelismo tra SG e ottica possiamo dire che se a E ⃗ si associano i versori
x̂ ŷ, mentre alla sorgente di atomi |S0 ⟩ si associano due quantità |Sx = +S⟩, |Sx = −S⟩.
Analogamente alla legge di Malus, con questo parallelismo, è possibile determinare una legge
che esplicita il numero di atomi che passano attraverso gli SG; non è determinata in modo
analitico, solo per analogia, ma il fenomeno lo descrive bene. Quindi ora certi fenomeni
continuo a non capirli, ma li posso calcolare (testuali parole, non mi sono inventato niente).
E quindi a quanto pare i prodotti scalari sono fondamentali in meccanica quantistica.
Quindi siamo arrivati a dire che gli atomi si comportano come la luce. Che succede
agli atomi? Boh non lo capisco, ma tanto non lo capisce nessuno (di nuovo sono parole del
relatore). Tante cose vengono analizzate in modo stocastico: ad esempio se la lampadina
genera onde con polarizzazione arbitraria l’intensità dopo un filtro dipende da quell’angolo,
quindi al massimo potrò farne una media statistica.
Quindi in meccanica quantistica ogni stato è rappresentato da un vettore di uno spazio
astratto; il risultato di un esprimento è descritto da una probabilità data dal prodotti scalare
tra il vettore in entrata e quello in uscita.

10.4 Postulati della meccanica quantistica


10.4.1 Principio di sovrapposizione
Tutti gli stati fisici sono rappresentati da elementi o vettori di un C-spazio vettoriale H.
Vettori proporizionali rappresentano lo stesso stato. Quindi l’informazione è negli angoli
più che nelle lunghezze.
Lo spazio H è dotato di un prodotto scalare che però ha proprietà strane di antilinearità:

⟨A|B⟩ = ⟨B|A⟩ ∈ Ce altre

H è detto spazio di Hillbert.


Si chiamano osservabili le grandezze che possono essere misurate su in sistema. Sia ξ
un osservabile e ξi i possibili risultati delle misure di ξ sul sistema. Chiamiamo gli ξi gli
autovalori di ξ (credo).
Chiamiamo autostati ⟨ξi | di ξ quei particolari stati sui quali il risultato di misure è
determinato a priori in modo deterministico ed è sempre lo stesso. Allora lo stato ⟨ξi | è
detto autostato e qualcos’altro, sta andando un po’ veloce.

10.4.2 Direi che qua smetto di scrivere e dico di guardare le slide

41
Capitolo 11

Introduzione alla computazione


quantistica con QSKIT

11.1 Il relatore
Fisico dell’alta energia che ha cambiato ambito, ora lavora al Cern.

11.2 Algoritmi variazionali


Sono modelli che comprendono calcolo quantistico e tradizionale; faccio computazione
quantistica e ottimizzazione classica. Ottengo un risultato e uso il risultato per far girare
di nuovo la computazione quantistica e cosı̀ via.

11.3 Machine learning


Cercheremo di capire cosa vuol dire quantum machine learning. In natura abbiamo due
tipi di dati: dati classici e dati quantistici, ed entrambi possono essere elaborati con metodi
classici e metodi quantistici. Per ora niente big data: i circuiti quantistici sono piccoli e per
pochi qbit.
Ci sono due approcci per il machine learning quantistico: uno è quello esplicito, con
algoritmi variazionali; l’altro è implicito e si chiamano kernel methods. Questo consiste
nell’ingrandire il problema e a livello quantistico questo è meno problematico.

11.4 Attività
Vedi codice a questo link.

42
Parte V

Summer School: Visual Culture


Relatori: Michele Cometa, INSERISCINOME
Magnani, Laura Busetti, Sandra Lischi

43
Capitolo 12

Cultura visuale: una genealogia

12.1 La visual culture


Più che una disciplina, secondo il fondatore, è più una indisciplina che una disciplina,
irritando molto spesso gli storici dell’arte ma non solo: cinema, televisione e media, in quanto
erode le loro sicurezze. Si attacca alle varie discipline legate al mondo dell’immagine, in modo
volendo pericoloso, per creare collegamenti con altre discipline: fino a poco tempo fa nessuno
si sarebbe occupato di parlare di immagini partendo dal mondo della biologia, antropologia,
paleontologia. La cultura visuale ha quindi anche il compito di andare a guardare anche
discipline non legate al mondo umanistico, e questo per chi non è dello specifico settore può
vole significare dire cose anche sbagliate.
È una disciplina relativamente nuova che pian piano si sta sviluppando.

12.2 Come nasce la cultura visuale


Perché ci si è inventati questa nuova disciplina? Perché bisogna occuparsi di questo
oggetto nuovo ma non cosı̀ tanto. Per occuparsi di cultura visuale non è possibile occuparsi
solo di immagini, bisogna occuparsi anche di dispositivi di visualizzazione e del modo in cui
l’immagine viene fruita.

12.3 I ricordi di infanzia


Sono legati all’influsso di Freud e Schliemann sulla cultura visuale; Schliemann stesso,
per scoprire Troia aveva seguito un suo desiderio infantile.

12.4 Come si lavora in cultura visuale


Boh, mi sono perso

44
Capitolo 13

I volti infiniti della vita nell’arte


contemporanea

Antonello da Messina, Annunciata: non è più l’annunciazione, non c’è l’angelo che è
fuori dal quadro, si vede solo il volto illuminato della Vergine. È qualcosa di rivoluzionario,
anticipa l’arte concettuale degli anni 60, in cui il titolo dell’opera è fondamentale per l’opera
stessa, oppure addirittura è l’opera stessa.
The Morgue è una foto scatattata da Andrés Serrano, che girava per gli obitori a fare
foto, nel 1992, e ritrae un bambino morto. Anche qui c’è silenzio.
L’urlo di Munch è del 1893 e anche qui c’è silenzio, di dolore, ma è molto più vicino al
silenzio di The Morgue che al silenzio dell’Annunciata.
C’è un installazione del 2016 di due cinesi in cui un braccio robotico cerca di arginare
un liquido rosso che sembra sangue; fa rumore nel farlo e sembra qualcuno che si lamenta
morente.
Manet nel bar delle FOlies-Bergère rappersenta un volto molto simile a quello di Munch,
in Pubertà. Entrambe sono in un non-luogo: la barista di Manet è l’unico personaggio reale
sullo schermo, la ragazzina di Munch è la sola figure in assoluto nell’opera.
Douglas Gordon a cavallo degli anni 2000 esplora il tema del doppio nei suoi ritratti
(Monster Reborn) e le deformazioni del volto vengono riprese anche da un altro americano
più tardi. Quella di deformare il volto con lo scotch è una tendenza che nasce su Facebook
a partire dal 2014: ormai nella nostra epoca arte e vita non sono distinguibili perché l’arte
è vita e la vita è arte.
Poi basta, mi sono rotto le palle e in quello che sta dicendo non riesco a trovare un filo
logico. Poi c’è un po’ di registrazione.

45
Capitolo 14

Rappresentarsi, qualche
considerazione dal passato

Registrazione se serve. Ha qualche buchino.

46
Capitolo 15

L’autoritratto nel cinema

Secondo alcuni l’autoritratto è il genere che meglio descrive la nostra epoca. Poi basta
c’è la registrazione.

47
Capitolo 16

Il volto nella videoarte

16.1 La televisione
La televisione ha la caratteristica di essere simultanea e diretta: tante persone vedono
contemporaneamente la stessa cosa e, in linea di principio, non c’è latenza tra il momento
in cui la cosa mostrata avviene e il momento in cui viene mostrata. Poi nel mondo della tv
lo sguardo è molte volte rivolto alla telecamera; la tv prevede contatto, quello che vedo è
nel salotto, di dimensioni realistiche, e un po’ imperfetto almeno i primi tempi. Lo schermo
della tv mostra luce, lo schermo del cinema lo riflette: è una metafora perfetta per mostrare
la differenza tra il mondo della tv e il mondo cinematografico.
La tekevisione nasce negli anni 30 e subisce una battuta d’arresto durante la II guerra
mondiale, quando le antenne iniziano ad essere obiettivi critici. Poi dopo la guerra ricomincia
la sua ascesa. Il video diventa praticabile a partire dalla fine degli anni 50; prima la tv era
solo in diretta, se si voleva registrare serviva una videocamera a pellicola che registrasse
tutto. Poi si iniziano a diffondere i nastri magnetici, simile a quello dei vhs, che possono
registrare le immagini in modo tale da essere successivamente trasmesse. Il nastro può essere
riutilizzato, dura di più, può contenere più materiale nelle stesse dimensioni e si comincia
a capire che è un mezzo molto versatile. Sono periodi di grandi cambiamenti sociali, con
il nastro magnetico si possono documentare in modo tutto sommato economico. Quando
arriva il digitale si passa ai pixel, che permettono manipolazioni dell’immagine piuttosto
facili.

16.2 Il circuito chiuso: il volto come materia prima


Gli artisti iniziano a procurarsi gli strumenti di cattura; con il nastro magnetico, nei
primi anni 60 si riesce a vedere sé stessi su un monitor in diretta, pur potendo conservare
il video. Si inizia a sperimentare e a disposizione si ha il proprio corpo, il proprio volto:
si registrano persone che parlano, che si muovono, e la fantasia è l’unico limite. Uno degli
esempi è la canzone dello stomaco di William Wegman. Una famosa performance di Michele
Sambin (”il tempo consuma”) sfrutta un nastro chiuso, che viene scritto più volte senza
cancellare quanto era stato scritto in precedenza, finendo per sovrapporre audio e video con
ritardi diversi. Detto cosı̀ non si capisce niente, se vuoi vederlo cercalo su Internet. Un’altra
categoria di sperimentazioni sfrutta l’uso di colori che in pellicola rimangono trasparenti,
lasciando mostrare ciò che c’è dietro.

16.3 Metamorfosi, (con)fusioni, dissoluzioni: gli effetti


video
Da qui segui più la registrazione, è diventato un elenco di gente che ha fatto effetti
speciali strani usando tecnologie varie, partendo dalle più vecchie.

48
Parte VI

Summer School: Logica


Relatori: (Nome Rosolini, Riccardo Camerlo),
Fabio Pasquali, Ruggero Pagnano, Mirko
Innocenti

49
Capitolo 17

Logica dal punto di vista


matematico

17.1 Logica e matematica


Sono due diverse discipline. La matematica non è il calcolo, comprende il calcolo e molto
altro. Il termine calcolo è legato ai sassi, il termine matematica è legato al capire il mondo.
Nel 1900 Hilbert lancia una sfida: vuole determinare un calcolo meccanico gnerale etc.
etc. Cosa significa? Il proposito è trovare un calcolo meccanico, o un computer, in cui
io scrivo un qualsiasi problema che ha soluzione sı̀ o no e il computer mi dà la soluzione.
Una tale macchina non esiste, ma si può restringere il campo dei problemi da porre a tale
computer ai soli problemi matematici. Una macchina che risolve problemi simili esiste?

17.2 Il calcolo
L’uomo conta da almeno 300000 anni fa, non è ben chiaro il come. Secondo alcuni il
contare (gestire quantità) è dentro di noi ed è in qualche modo uscita; secondo altri l’uomo
di suo sa contare solo fino a 3, ha dovuto inventare i numeri (esempio con gli oggetti e il
colpo d’occhio) per andare avanti. Secondo i secondi, la necessità dei numeri è stata il primo
stimolo per l’invenzione del linguaggio.
La mente non è un buono strumento per fare i conti, sbaglia facilmente; lo strumento
più rudimentale sono le mani e infatti gli antichi contavano tutti in base 10, in base 5 o
in base 12 (numero delle falangi in una mano). C’è un altro problema, le dita sono poche:
si passa a usare tacche segnate su un oggetto, che è più adeguato a descrivere quantità
grandi. Da strumento a strumento si arriva fino all’abaco, usato dall’umanità in tutto il
mondo; permette di gestire quantità grandi, anche molto. Il suo vantaggio principale è che è
comodissimo per fare le 4 operazioni ed era ampiamente usato anche negli anni 50, quando le
calcolatrici erano ancora enormi e difficili da usare. Il primo problema che viene riscontrato
nell’abaco è che è un po’ lento: non è che si può mettere qualcos’altro al posto delle mie
manine per muovere le palline? Ci aveva già pensato Pascal e molti altri, fino a Charles
Babbage che idea una macchina che esegue calcoli automaticamente, è grossa quanto una
locomotiva e va a vapore: serve un omino che la carica di carbone. Gli input sono dati
con schede perforate, l’output è dato in stampa con caratteri mobili alla Gutemberg. Arriva
l’elettricità e arriviamo alle calcolatrici tipo quelle che si usano per le verifiche di matematica:
veloce, precisa. Che limiti ha la calcolatrice? Ha un numero finito di operazioni che è in
grado di eseguire, non può andare oltre. È qui che arriva Alan Touring, che ragiona su cosa
vuol dire calcolare e definisce cos’è un’algoritmo, un insieme finito di istruzioni elementari
univoche il cui risultato ha interpretazione univoca e lo si ottiene in un tempo finito.

50
17.3 Macchina di Turing
È una macchina che fa operazioni tra numeri naturali ed è programmabile, cioè è in
grado di fare qualsiasi operazione definita da un algoritmo, e queste sono infinite. Turing si
chiede: può una macchina sostituire il calcolatore umano? Il cervello non è troppo distante
da un calcolatore di Touring: è in grado di fare tante cose, pur essendo composto da un
numero finito di elementi.

17.4 Macchina di Lafont


È equivalente a una macchina di Touring dal punto di vista delle possibilità di calcolo,
ma è un po’ più user friendly.
Immagininiamo di avere ciotole a, b, c eccetera, di avere dei sassolini e un foglio su cui
posso disegnare due segnali (via e alt) e caselle: una quadrata con freccia e una lettera al
suo interno, l’altra sempre quadrata con due frecce distinguibili e una lettera al suo interno.
Tutte queste cose si usao per indicare un percorso, ottenuto collegando il segnale via,
alt e un numero finito di caselle che escono da una casella o dal segnale di via ed entrano in
una casella o nel segnale di alt. Un percorso si esegue partendo dal via e termina quando si
arriva sull’alt; seguendo le frecce si passa sopra a casella. Se finisco sulla casella A metto un
sassolino nella ciotola A; se finisco su una casella bivio con A guardo cosa c’è nella ciotola
A: se è vuota seguo una freccia, se ci sono sassolini ne lascio due e seguo l’altra freccia.
Per calcolare un’operazione in questo modo bisogna indicare tante ciotole quanti sono
gli input, indicaere le ciotole di output. Parto dal via, mi muovo sul percorso, alla fine ho
il risultato dell’operazione nelle ciotole di output.

17.5 La logica
Torniamo alla domanda iniziale e riformuliamola: può esistere un algoritmo che risolve
problemi matematici con si/no? Per logica intendiamo tante cose, una delle definizioni è
che oggi la logica è una branca della matematica e della filosofia che si occupa dello studio
del ragionamento corretto; secondo un’altra la logica si occupa di dire cosa segue da cosa.
In entrambi i casi si parla di logica deduttiva: è universale, valida a priori e per tutti. Ma
c’è di più: il pensiero deduttivo è esatto, quindi è materia della matematica, e anch’esso si
basa sul calcolo.

17.5.1 Le deduzioni
La logica si occupa di deduzioni. Si parte da una serie di premesse numerate, lette
dalla 1 alla n, e si giunge a una conclusione. Una deduzione è corretta se la conclusione
segue logicamente dalle premesse, senza occuparsi del significato delle premesse. Un modo
per rendere la deduzione comprensibile a prescindere dalla lingua si può usare una qualche
linguaggio simbolico convenzionale.

17.5.2 Linguaggio delle proposizioni


Si parte da proposizioni atomiche, le si collegano tra di loro con i connettivi (ognuno ha
il suo simbolo). Alle proposizioni atomiche viene associato un valore, zero o uno. A quel
punto posso fare le tabelle di verità, per rappresentare il vero o falso.

17.5.3 Verità
Formalmente ora possiamo dire che una deduzione è corretta se ogni volta che tutte le
premesse hanno valore 1, anche la conclusione ha valore di verità 1. La conseguenza è che
una deduzione non è corretta se c’è un caso in cui il valore di verità delle premesse è uno e
la conclusione è zero.

51
17.5.4 Non solo proposizioni
Oltre alle proposizioni esistono predicati, del tipo ”x è un numero pari”; è una compli-
cazione in più. Poi esistono predicati di secondo ordine, che comprendono proposizioni e
predicati, come frasi che parlano di frasi.

17.5.5 Il problema della decisione


Per predicati di secondo ordine la macchina che risolve non può esistere; per le proposi-
zioni sı̀, per i predicati no, almeno non tutti: ci sono predicati che non possono essere decisi
da alcun algoritmo.

52
Capitolo 18

Logica dal punto di vista


filosofico

18.1 Introduzione
Iniziamo usando il linguaggio naturale e consideriamo la frase ”Se oggi è sanato, allora
io sono un filosofo”. Ha due parti e ognuna può essere sostituita con quasi qualsiasi cosa,
posso generalizzare, riscriverla come ”Se A allora B”. Fare deduzioni logiche in realtà non
è una cosa cosı̀ intelligente, è un calcolo matematico. Non sono relazioni causa-effetto, sono
relazioni logiche, è trasmissione del pensiero tramite linguaggio.

18.2 Linguaggio e argomentazione


Secondo Chomsky i meccanismi del linguaggio vanno ben oltre la possibilità di una seria
indagine scientifica; Tolkien sostiene che le storie siano state inventate per creare un mondo
per il linguaggio, piuttosto che il contrario.

18.2.1 Aristotele e la nascita della logica


La logica è lo studio del logos, cioè di come il pensioero si esprime nel linguaggio; Ari-
stotele è il primo a voler sistemare in modo scientifico la logica partendo dal linguaggio. La
logica aristotelica ha tutte le principali caratteristiche degli approcci moderni alla logica: è
formale, simbolica, assiomatica.
Fino a metà 1800 la logica è quella aristotelica, ”ipse dixit”, nessuno aveva osato con-
traddirlo. In questo periodo operano Leibniz, Boole, De Morgan, Frege. Leibniz parte da
un background giuridico, è uno dei primi che si occupano di formalizzazione del calcolo dif-
ferenziale ma non solo; non ha prodotto tantissimo ma ha aperto la strada a tutti gli altri.
Boole è stato autodidatta, non ha mai letto Leibniz; ragionando sulla logica mette insieme
il calcolo con 0 e 1, quello che oggi chiamiamo calcolo booleano. Il suo grande merito è
stato mostrare che si può fare logica con metodo matematico. Frege ha scritto l’Ideografia,
in cui propone un linguaggio a formule modellato sull’aritmetica per il pensiero puro. È
morto senza sapere la sua grandezza, ma a Leibniz sarebbe piaciuto moltissimo soprattutto
per l’inserimento del formalismo e per l’approccio calcolativo; tuttavia non comprende un
metodo di completezza, per sapere se qualcosa è dimostrabile oppure no.

18.2.2 Ragionare correttamente


Un ragionamento deduttivo è una forma di discorso strutturato che parte da premesse e
conduce a una conclusione; il passaggio dalle premesse alla conclusione avviene per deduzione
logica o inferenza. Un ragionamento è corretto se la conclusione segue logicamente dalle
premesse secondo le regole definite. Il ragionamento induttivo, dal punto di vista logico,
non è corretto.

53
18.2.3 Teoria del sillogismo
La teoria del sillogismo contiene la teoria del silllogismo categorico (già sistemato da
Aristotele) e il sillogismo modale (sistemato molto più tardi).
Le affermazioni cateforiche sono quattro: universale positiva (A, ogni S è P), universale
negativa (E, ogni S non è P), particolare positiva (I, qualche S è P), particolare negativa
(O, qualche S non è P); compongono il quadrato aristotelico (cerca immagine :D ).

Sillogismi categorici
Un sillogismo ha due premesse e una conclusione, tutte e tre affermazioni categoriche:
P1 , P2 ∴ C. Un sillogismo coinvolge tre termini, S, P e M: M deve compoarire in P1 e P2
ma non può comparire in C, è il termine medio; S compare in P2 e C come soggetto di
C; P compare in P1 e in C, come predicato di C (M medio, S soggetto, P predicato). La
regola di inferenza del sillogismo è la cancellazione del termine medio. Tutti i sollogismi
che si possono costruire sono 256; quelli corretti sono 26 di cui 9 un po’ particolari perché
funzionano solo se si ammette di poter predicare sul vuoto.

18.2.4 Verifica della correttezza


Boh mi sono perso qualcosa e ora registro

54
Capitolo 19

Logica dal punto di vista


informatico

Facciamo che registro

55

Potrebbero piacerti anche