Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Indirizzo STSI
Pietro Firpo
Indice
1
4.9.1 Model capacity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.10 Classificazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.10.1 Formalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.10.2 Confusion matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
7 Dai dati agli insights: generare valore nelle aziende attraversi l’utilizzo
dei dati 30
7.1 La relatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.2 Dati e aziende . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3 Tecniche di archiviazione del dato . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.1 Dati strutturati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.2 Dati non strutturati . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.3 Dati semistrutturati . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3.4 Archiviazione del dato . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.3.5 Il data lake . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.3.6 Il data warehouse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.3.7 Il lakehouse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.4 Metodi e strumenti per la visualizzazione dei dati . . . . . . . . . . . . . . . . 31
7.4.1 Strumenti per l’analisi e la visualizzazione . . . . . . . . . . . . . . . . 32
7.4.2 Creare il modello dati . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.5 Data science: dai dati agli insights . . . . . . . . . . . . . . . . . . . . . . . . 32
7.5.1 Tipologie di analisi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2
IV Modulo: Elaborazione quantistica dell’informazione 35
9 Fast Lane to Quantum Advance 36
9.1 Manca un pezzo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
9.1.1 Algoritmo di Grover . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
9.1.2 Algoritmo di Shor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
9.2 Qubit superconduttivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
9.2.1 Il bit classico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
9.2.2 La superconduttività . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
9.2.3 Oscillatore classico e quantistico . . . . . . . . . . . . . . . . . . . . . 37
9.2.4 Trasmon qubit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
9.2.5 QPU a superconduttori . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3 Il rumore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3.1 Decadimento dei qubit . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3.2 Coerenza dei gate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3.3 Parametri di valutazione . . . . . . . . . . . . . . . . . . . . . . . . . . 38
9.3.4 Soluzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3
VI Summer School: Logica 49
17 Logica dal punto di vista matematico 50
17.1 Logica e matematica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
17.2 Il calcolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
17.3 Macchina di Turing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.4 Macchina di Lafont . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.5 La logica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.5.1 Le deduzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.5.2 Linguaggio delle proposizioni . . . . . . . . . . . . . . . . . . . . . . . 51
17.5.3 Verità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
17.5.4 Non solo proposizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
17.5.5 Il problema della decisione . . . . . . . . . . . . . . . . . . . . . . . . . 52
4
Parte I
5
Capitolo 1
1.1 La relatrice
Giovanna Guarnaccia è laureata in economia circa 25 anni fa. Ha trovato aggancio
per entrare nel mondo del lavoro grazie a un’iniziativa dell’Università di Genova presso il
comune di Recco, crescendo via via a livello professionale occupandosi sempre di personale.
Attualmente si occupa di questo in ambito ferroviario.
1.3 Taylor
Nel 1911 pubblica un saggio sull’organizzazione scientifica del lavoro. Ha teorizzato il
modello del lavoratore come esecutore motivato, remunerato in base alla propria produt-
tività, con compiti elementari e senza necessità di conoscenze pregresse. Da qua nasce la
catena di montaggio, modello applicato in modo particolare allo sviluppo del mercato di
massa.
1.3.1 Weber
È basato sulla necessità della burocrazia. Weber ha ideato una gerarchia ideale, funzio-
nale al lavoro.
1.3.2 Olivetti
È particolarmente significativo perché ha iniziato a mettere la risorsa umana al centro
della gestione del lavoro, con un modello sociale ispirato a valori come onestà, gratitudine,
attenzione al lavoratore. In questi anni si iniziano a creare gli alloggi per i dipendenti, gli
asili per i figli; le differenze non sono un problema ma un valore aggiunto.
1.4 L’organizzazione
Nasce dall’esigenza di distribuire compiti a più persone e coordinarne lo svolgimento per
un certo scopo, in modo funzionale per potenziare in modo artificiale la capacità operati-
va del singolo. Accompagna il lavoro dei simboli quando questi si mettono in gruppo; dal
6
gruppo deve nascere qualcosa che ha un valore aggiunto rispetto al lavoro di ogni singolo.
L’organizzazione è quindi uno strumento scelto per raggiungere l’obiettivo, che verrà rag-
giunto se l’organizzazione funziona. Devee portare efficienza, quindi non può essere troppo
creativo; deve essere progettato, in modo coerente con il contesto.
7
gestione del personale e collabora con il management dell’azienda, avendo una visione simile
dal punto di vista economico. Dal periodo pandemico sono rinate le Task force, collegamenti
all’interno dell’azienda che vanno oltre gli schemi dell’organigramma; si tratta di comitati
temporanei orizzontali composti da rappresentanti di varie unità aziendali interessate da
uno stesso problema.
Gestione dello smart working: è arrivato da noi in modo dirompente durante l’e-
mergenza; ha i suoi pilastri e non deve essere nulla di improvvisato. Si basa sulla revisione
della cultura organizzativa, sull’innovazione dei processi e dei ruoli; il rapporto tra manager
e dipendente passa dal controllo alla fiducia.
8
Capitolo 2
2.1 Il relatore
Alessandro Zanin è il classico milanese imbruttito (anche se non è milanese), che dice
cose del tipo ”Dormite poco e mangiate in fretta, io dormo poco, faccio business non bene-
ficienza”, oppure ”Alla vostra età dovreste lavorare 18 ore al giorno, dormire pochissimo”.
Penso basti questo a descriverlo.
9
2.2.2 Il ruolo dello spedizioniere
Uno dei termini chiave è SCM: supply chain management, composta da tre settore:
• Sourcing: sapere da dove vengono le merci (direzione acquisti)
Management avanzato
Consiste nell’essere proattivi e anticipare non la necessità ma l’aspettativa, ad esempio
nel caso di Apple di unire tutto in un unico ecosistema; questo approccio può essere usato
in ogni attività. In questo modo si riesce ad avere quote di mercato che nessuno toglierà,
perché si è sempre avanti agli altri.
10
Parte II
11
Capitolo 3
3.1 La relatrice
Laureata in informatica presso Unige. Lavora in Deloitte, una delle più grandi aziende
al mondo, nella divisione IoT.
3.2 Introduzione
Big data: risorse informative a elevato volume, velocità e varietà (3 v): sono tanti,
arrivano da ovunque; arrivano ad altissime velocità, nel giro di pochissimo tempo; sono
di vario tipo, da video, immagini, ma anche dati più strutturati come dati anagrafici. La
differenza con i dati tradizionali è quella di non poter essere immagazzinati e elaborati con
strutture tradizionali come i database relazionali. Servono infrastrutture per per accogliere
questi dati, in modo rapido, non strutturato. In quest’ambito collaborano figure di ogni
tipo e si riesce cosı̀ a passare dai big data all’informazione.
I dati da usare vanno preparati e puliti. È un lavoro brutto ma importante, tutti gli
errori che vengono commessi a questo punto poi riemergono nei passi successivi. Bisogna
eliminare inconsistenze e problemi simili: in dati aggregati ad esempio si devono sistemare
formati o convenzioni differenti per lo stesso dato.
Data preparation
Tutti i dati che abbiamo pulito vanno trasformati. In base al tipo di processo con
cui abbiamo a che fare possono succedere cose diverse: i dati possono essere rimodellati e
salvati in strutture temporanee, possono essere trasformati al volo e salvati in una struttura
definitiva
12
Data mining
Si passa a tecniche di analisi più avanzate, come classificazione, clusterizzazione, ricerca
di anomalie.
Data visualization
Se siamo riusciti a trovare del valore in informazioni ma non siamo in grado di comuni-
carle è come non avessimo fatto niente: è quindi una fase molto importante. Ad esempio si
usano strumenti di Business intelligence come PowerBI di Microsoft o ClickView (per report
non in tempo reale), oppure ancora dashboard personalizzate che girano su webapp e sono
usate principalmente per analizzare dati che arrivano in tempo reale.
3.2.2 Interdisciplinarietà
Compaiono figure come il data engeneer che si occupa di pensare e manutenere la strut-
tura, disegnata dal data architect (anche se spesso data engeneer e data architect sono la
stessa persona); poi ci sono business analysts, cioè qualcuno che conosce bene il dominio ed
è in grado di fare da intermediario tra cliente non tecnico e sviluppatore.
13
tutte le azioni che vengono eseguite e chiedono eventuali conferme. Questo deve essere
eseguito in tempo infinitesimo, ma ogni dispositivo può comunicare in modo diverso, ad
esempio perché i macchinari sono stati creati da costruttori diversi.
In un contesto di questo tipo quali sono i dati che potrebbero arrivare? Ad esempio la
quantità prodotta, il tempo di esecuzione per l’elaborazione di una commessa; in generale
sono dati relativi sia al prodotto sia al macchinario, come il consumo energetico istantaneo
di un macchinario.
• I pezzi prodotti
• L’inizio della lavorazione degli ordini
• Le fasi di lavorazione degli ordini
• I consumi energetici
Ora bisogna preparare i dati e pulirli: i dati arrivano da macchine differenti che usano
protocolli differenti, vanno uniformati per quanto possibile e organizzati. La scelta è stata
di usare un classico database relazionale.
Si è scelto di visualizzare vari dati:
• Lo stato macchina per macchina in funzione del tempo per confrontarlo con la timeline
di lavoro prevista
• I consumi macchina per macchina in funzione del tempo
• I pezzi prodotti per intervalli di tempo
14
Capitolo 4
4.1 Il relatore
Insegna alla Newcastle University School of Computing.
4.2 Introduzione
Negli ultimi venti’anni si è passati da programmi imperativi a programmi che imparano
da esempi per compiere specifiche operazioni, ad esempio classificare immagini, distillando
un modello. Il machine learning è il modo in cui generiamo il modello che è in grado
di risolvere il task. L’idea fondamentale è che ciascun problema di catalogazione venga
customizzato a seconda del tipo di dato, inferendo le regole dagli esempi.
• Trascrizione
• Traduzione
• Inserimento di dati mancanti
• Rilevamento delle anomalie
• Riduzione del rumore:
x ∈ Rn → x̃ ∈ Rn → p(x|x̃)
15
4.5 Tipi di machine learning
Quando voglio imparare una funzione f ci sono più approcci.
Supervised learning: do gli input, conosco gli output e voglio trovare la funzione che
meglio fa questa cosa.
Unsupervised learning: si cerca di capire quali sono i pattern all’interno dei dati,
cercando somiglianze tra i dati. Ad esempio questo si fa in ambito sanitario, cercando di
creare classi di pazienti con caratteristiche simili estratti in classi in base a una funzione di
distanza che viene definita lato codice.
4.7 Regressione
La situazione è sempre la stessa. Ora voglio imparare una funzione f da Rn a R.
Definiamo la performance come la differenza tra il valore previsto e reale, in termini di
errore quadratico medio o errore in modulo medio.
in cui w ∈ Rn è un vettore dei parametri. Il nostro problema quindi è trovare w per massi-
mizzare la performance, cioè minimizzare l’errore. La più comune funzione di performance
usata è l’errore quadratico medio. Dato un insieme di test X(test) con i corrispondenti valori
reali y( test) e valori previsti ŷ(test) è definito come:
m
1 X (test) (test) 2
MSEtest = (y − ŷi )
m i=1 i
che può essere normalizzato, ma solitamente si usa comunque M SEtest perché permette di
essere risolto in forma chiusa: è un problema di ottimizzazione. Si fanno un po’ di conti
minimizzando un gradiente e trovo:
w = (X(train)T X(train) )−1 X(train) Ty(train)
16
4.8 Generalizzazione
Io potrei costruire un algoritmo che funziona molto bene sul dataset su cui è stato
allenato ma male in altri: c’è quello che si chiama generalization error.
Si divide il dataset in training e testing set. Se faccio un partizionamento scegliendo
casualmente i dati (80%-20% solitamente) potrei avere un bias tra i due set. Per evitare
questa cosa si cercano stratificazioni per arrivare ad avere distribuzioni di probabilità simili.
4.10 Classificazione
Abbiamo già definito il problema della classificazione, ma le misure di performance sono
leggermente diverse. Tutta via le considerazioni fatte su numero di features (numero di dati
per record) e numero di esempi sono ancora valide (il numero di esempi deve essere almeno
una decina di volte il numero di features).
L’analisi di performance è eseguita in base al numero di errori, quindi si parla di
accuratezza. Gli algoritmi di apprendimento sono circa gli stessi.
Partiamo dalla classificazione binaria: ad esempio ho una foto e devo capire se è un cane
o gatto.
4.10.1 Formalizzazione
Posso passare da un problema di regressione a un problema di classificazione in questo
modo: prendo l’uscita del problema di regressione e classifico in base a delle soglie che creano
classi disgiunte. Per problemi di regressioni logistica le cose si indicano come:
hθ (x1 , . . . , xd ) = θ0 + θ1 x1 + · · · + θd xd = θT x + θ0
E poi l’uscita viene data in termini di sigmoide, funzione che varia tra 0 e 1; quindi posso
scegliere come soglia 0.5 per due classi.
17
TP
recall =
TP + FN
precision · recall
F-measureβ = (1 + β 2 )
β 2 · precision + recall
Molto spesso si usa F1 = F-measure1 .
Da sola, una metrica dice poco: se io ho 100 esempi, 95 positivi e 5 negativi, dicendo
sempre positivo ho una accuratezza del 95% ma il mio modello non ha imparato niente.
18
Capitolo 5
5.1 Il relatore
Ricercatore a tempo determinato presso l’Università degli Studi di Bologna. Si occupa
di molti temi intorno all’analisi dati: modellazione, algoritmi e tanto altro. È specializzato
in analisi con dati provenienti dai social in relazione a dati di mercato.
19
non mi causerà problemi ad esempio a livello di consistenza attraverso le modifiche e dupli-
cazione, oppure no. In questo ambito si parla anche di dipendenze funzionali: ad esempio
tra prezzo ivato, prezzo senza iva e percentuale di iva uno dei tre dati dipende sempre dagli
altri due.
• OLAP (On-line analythical process): operazioni non standard, magari molto diverse
una dall’altra; si tratta quindi di un carico di lavoro meno prevedibile
Mischiando questi carichi di lavoro sullo stesso database posso avere problemi, le query
analitiche potrebbero mettere in difficolta le operazioni OLTP, il database potrebbe non
riuscire a gestire tutto contemporaneamente. Da qui l’idea: dividere il database, da una
parte i dati per OLTP e dall’altra i adti per OLAP.
20
però prevede anche lavori di integrazione e pulizia del dato e può prevedere anche la co-
struzione di un operational data store, cioè un luogo in cui si trovano tutti i dati puliti e
omogeneizzati, anche se poi non si interroga direttamente lui.
Nel data warehouse la rappresentazione dei dati dipende molto dal soggetto che voglio
analizzare, a differenza del database dell’ERP in cui voglio supportare processi standard.
Nel data warehouse tipicamente si tiene in memoria anche lo storico di come sono
cambiati in quanto questi dati possono venire utili per analisi di vario tipo.
Nel data warehouse il flusso di dati è principalmente in lettura, quando ci sono delle
modifiche le aggiungo in coda ma si tratta di una minima parte delle operazioni eseguite.
L’astrazione usata è quella del modello multidimensionale: i dati sono rappresentati
come cubi a più dimensioni; ogni dimensione del cubetto specifica una quantità che si vuole
rappresentare. Ognuna di queste dimensioni può essere associata a una gerarchia di attributi
che mi permette di analizzare i dati a diversa granularità. Ad esempio se sto analizzando
per data, posso avere granularità giornaliera, mensile, trimestrale e cosı̀ via. L’idea delle
query sull’ipercubo è quella di raggruppare i suoi pezzettini.
21
5.5.2 L’uso dei big data
La prima cosa da fare è scalare, non è possibile mantenere i big data dentro a compu-
ter ordinari: il bus è limitato, le risorse di memoria pure, quindi bisogna usare soluzioni
hardware ad hoc.
Scale up: uso un sistema hardware più complesso, con risorse molto elevate. Tipica-
mente si usano sistemi formati armadi di risorse composte da moduli indipendenti tra di
loro, ognuno con le sue CPU, i suoi dischi e le sue RAM, che comunicano tramite una se-
rie di protocolli MPI (message passing interface). Questo ha dei limiti: devo farlo con un
produttore specifico, sono meno scalabili, più costosi e con altri problemi.
Scale BOH: si usano una serie (cluster ) di macchine ”normali” connesse tra loro in
LAN. È una soluzione meno costosa, scalabile potenzialmente in modo quasi infinito, ma un
pochina più lenta rispetto a soluzioni di tipo scale up. Un esempio da macchina da cluster
può avere un i7 da 12 core, 64 GB di RAM, 12 TB di dischi e network GigaBit l’uno.
Ultimamente soluzioni di questo tipo stanno migrando verso il cloud per risolvere tutte
le problematiche di manutenzione e gestione fisica del sistema.
Non è detto che le aziende abbiano un unico cluster: oggi è diffusa l’idea di avere più
cluster usati per compiti diversi, in modo da isolare lavori differenti, isolare ambienti di
sviluppo diverso, oppure anche per aumentare resilienza duplicando o dividere l’aspetto
di storage da quello di elaborazione. Con tanti dati ho bisogno di tante macchine che
alimentano tanti dischi per mantenere l’accesso ai dati possibile, anche se non è una cosa
che magari faccio ogni minuti. Quindi può avere senso avere un cluster con CPU con minori
prestazioni (e minori consumi) usato per immagazzinare e uno con maggiori prestazioni ma
meno memoria usato per elaborare.
Il modello NIST
Alla base c’è l’infrastruttura hardware su cui vengono installati software per la gestione
dei dati in modo distribuito, software per elaborare dati in vario modo (in batch, in live, in
streaming ad esempio) e poi l’orchestrator, quell’entità che decide quando andare ad attivare
determinate operazioni, quali dati usare, quante risorse allocare; può essere l’utente o uno
strumento che con una qualche logica decide quando lanciare cosa.
Il modello di Microsoft
È fatta quasi nello stesso modo, c’è un po’ più di differenza nel tipo di processazione dei
dati. Si enfatizza di più il fatto di avere le due modalità di batch e streaming e di avere due
centri di memorizzazione, uno in cui sono presenti i dati ”di partenza” e uno in cui vengono
salvati i dati elaborati per effettuare operazioni di data visualization e simili.
Data platform
Sono soluzioni complete per gestire, processare, analizzare, e presentare big data. Nel
livello base, secondo il NIST, vengono usati solitamente due tipi di immagazzinazione: HDFS
e NoSQL. Uno prevede l’uso di un normale file system per salvare i dati, l’altro è un database
(non relazionale).
22
Consistenza vs latenza: ci sono contesti in cui l’azienda è più interessata ad avere un
accesso rapido ai dati anche se questi non sono perfettamente consistenti. Uno dei primi a
scegliere (e creare) soluzioni di questo tipo è stato Amazon e gli ha permesso di velocizzare
di molto la ricerca dei prodotti, anche se il prezzo durante la ricerca è un po’ differente non
fa tutta questa differenza.
5.6.1 NoSQL
È un termine usato per la prima volta nel 2009 da parte delle organizzazioni che si
erano ritrovate su un meetup nell’ambito dello sviluppo open source di soluzioni simili a
quelle commerciali di Amazon e compagnia bella. Indica database che usano modelli non
relazionali.
Ci sono diverse soluzioni di database NoSQL: l’aspetto principale è che supportano mo-
delli di dati differenti dalle tabelle. Sono pensati per funzionare in un contesto distribuito e
non hanno più una rigida definizione di schema: dentro a una stessa collezione di dati posso
avere struttura differente.
Gli schemi più usati sono quelli chiave-valore, documentale, colonnare e a grafo. I primi
tre sono piuttosto simili, l’ultimo è più particolare e non è banale da distribuire: se devo
seguire un percorso da una macchina all’altra potenzialmente devo saltare da una macchina
all’altra
Database chiave-valore
È il database più semplice. Prevede collezioni con due soli campi: una chiave e un valore,
in cui posso mettere qualsiasi cosa, che sia una stringa, un’immagine o qualsiasi altra cosa.
Posso cercare solo per chiave. È molto flessibile per i dati da inserire ma è molto vincolato
sulla ricerca.
Database documentale
Molto simile al chiave-valore, in cui i valori vengono definiti come JSON: la chiave deve
essere unica nel documento e il valore può essere semplice o complesso, cioè a sua volta un
documento.
Il problema che mi porto dietro è che se tutti i documenti hanno struttura diversa ogni
documento ha informazioni sia sull’istanza che il proprio schema e questo rende la collezione
molto più grande anche in termini di memoria.
Database colonnare
Database a grafo
Memorizza un grafo in cui ogni nodo ha delle sue proprietà e lo stesso vale per gli archi.
A parte quello a grafo, i database NoSQL prevedono che ogni oggetto contenga tutto
sé stessi. Si parla di dati orientati ad altri dati, orientati all’aggregazione. Un’approccio
di questo tipo si presta molto bene alla distribuzione, perché ho tutti i dati aggregati qua
e là; tanti database di questo tipo non permettono neanche di eseguire join. Il contro
è che ho denormalizzazione dei dati e potenziali incosistenze dei dati. Come anche vale
per i database relazionali bisogna scegliere la modellazione che ottimizza le operazioni che
eseguirò più frequentemente.
23
Nella pratica questi sistemi non si sostituiscono completamente ai database relazionali,
molto spesso si usano insieme a database relazionali che vengono usati per svolgere compiti
differenti.
5.7.2 L’idea
Una metafora molto usata per i dati memorizzati in filesystem è quella del data lake:
ho tante sorgenti diverse che mi danno dati, io voglio averli tutti insieme da qualche parte;
l’utente deve navigare il lago alla ricerca del file che vuole trovare. L’idea è quella di
rappresentare il contenitore dei dati nel loro formato originale, poi dopo andrò a fare tutte
le operazioni di pulizia. Anche qua c’è il passaggio da dati originali a dati puliti salvati da
un’altra parte.
24
I metadati usati sono di tipo tecnico, che descrivono la struttura dei dati; operazionale,
che descrivono che operazioni sono state eseguite sui dati e magari anche da chi, comprenden-
do anche la sorgente del dato; business, dati più semantici che aiutano a dare un significato
ai dati, cioè ad esempio cosa riguardano.
Come colleziono i metadati? Alcuni si ottengono in modo semplice: li guardo e vedo
quanto siano grandi, che parametri ci sono e altre cose simili; per ottenere i dati operazionali
invece servono software che tutte le volte che operano con i dati creino i metadati necessari.
Quanto colleziono metadati? Anche questo può essere un problema, perché possono
diventare anche loro big data con tutti i problemi annessi. In particolare, nei metadati di
provenienza, è stato sviluppato lo standard PROV per rispondere a queste domande.
Soluzioni industriali
Qui si parla di soluzioni recenti. Ci sono tre filosofie principali.
Data lakeouse: abbiamo un sistema che cattura autonomamente i metadati operazio-
nali, supporta un livello di governance per cui si ha possibilità di fornire profili utenti, viene
automaticamente fatto il riconoscimento dei dati ottenendo una via di mezzo tra data lake
e data warehouse, prendendo il buono di entrambi.
Data fabric: è una soluzione molto spinta da Gartner. Il concetto di data fabric è più
avanzato del data leakhouse: si prevede sempre di catturare automaticamente i metadati, ma
si arriva a utilizzarli per svolgere quasi automaticamente le operazioni di pulizia, integrazione
e via dicendo. Sono soluzioni ancora in via di sviluppo, molto ambiziose.
Data mesh: è l’approccio opposto al data fabric. Si parte dall’idea che non si possa
riuscire automaticamente ad integrare i dati usando soluzioni complesse: se ci diamo regole
interne per trattare i dati poi sarà più facile per tutti usare i dati. Le regole sono quattro e
se vuoi leggerle si trovano o nelle slide del relatore o penso su Internet.
25
Parte III
26
Capitolo 6
6.1 La relatrice
Professore associato presso il dipartimento di matematica all’Università di Padova, di
formazione ingegneristica in ambito civile.
6.2 La meccanica
Definizione: la meccanica è l’area matematico-fisica che si occupa dell’interazione, con
forze o energia, tra oggetti fisici.
Può essere suddivisa in:
• Teoretica: quella delle formule, con la forza, dimostrativa
27
Nasa e Sap di Berkeley, i primi codici che facevano ampio uso degli elementi finiti, ma si è
dovuto aspettare fino al 1973 per una formalizzazione matematica.
In realtà gli elementi finiti sono partiti molto molto prima: il primo utilizzatore degli
elementi finiti è stato Archimede, che cercò di calcolare il perimetro di una circonferenza
come il perimetro di un poligono regolare con sempre più lati, arrivando a una stima anche
molto precisa del π. È un’approssimazione che dipende dalla discretizzazione e per questo
bisogna fare molta attenzione.
È nato perché per tanti problemi alle derivate parziali non si riesce a trovare soluzioni
analitiche.
Quando si studia un modello fisico si è già fatto un passo di astrazione: sto studiando un
disegno su carta, non più il tetto che c’è in cima all’edificio; da lı̀ va fatto ancora un passo,
che è quello di passare dal modello fisico al modello matematico. Perché serve l’ultimo
passaggio? Perché se il sistema è ”piccolo” posso fare tutto a mano, ma non sempre la
situazione è questa e quindi mi serve il calcolatore. Il modello matematico è solitamente
continuo, quindi va discretizzato. Si commettono errori nel farlo ed è normale cosı̀: ogni
modello è inesatto, quindi bisogna arrivare alla situazione in cui l’inesattezza è accettabile.
Una volta ottenuto li modello discreto bisogna fare due controlli: verifica, tra modello
numerico e modello matematico, e validazione, tra modello numerico e realtà.
28
Ecco il concetto base: invece di integrare su tutta la barra, divido la barra in tante barrette:
il dominio Ω deve essere l’unione dei tutti i domini Ωe tali che gli Ωe e Ω abbiano intersezione
vuota. Si vuole risolvere su uno degli Ωe e fare lo stesso su tutti gli altri: la matrice soluzione
sarà l’unione di tutte le soluzioni.
Le funzioni peso come si definiscono? Bisogna trovare qualcosa di pratico e semplice, di
solito si vuole che le matrici siano idealmente sparse e più diagonali possibili. Mi servono
funzioni base ben scelte, con cui approssimare sia la funzione peso che le funzioni del mio
modello, lineari a tratti: devono avere support compatto, facili da intefrare e i coefficienti
devono avere un chiaro significato fisico. Si hanno tante funzioni di base quanti sono i
nodi,cioè gli estremi degli elementi finiti. Tutto questo ci permette di lavorare localmente,
sul singolo elemento.
Siamo al punto in cui c’è un’equazione in forma debole, siamo passati dal continuo al
discreto scegliendo la nostra base {Ni |i = 1, . . . , nN } e si arriva a:
Z lXn n Z lXn
dNi (x) X dNj (x)
k ϕj dx = Ni (x)Qdx
0 i=0 dx j=0
dx 0 i=0
in cui per semplicità sono stati tolti i termini dovuti alle condizioni al contorno. Ormai è un
sistema lineare e lo risolviamo su ogni piccolo dominio (se vuoi l’equazione guarda slide 36
che ci sono anche notazioni importanti), con metodi numerici, poi bisogna mettere assieme
tutti i risultati e tornare al continuo. L’assemblaggio va fatto con una certa accuratezza, il
passaggio tra nodo locale e nodo globale non è cosı̀ banale e lo si fa con una matrice detta
di connettività.
29
Capitolo 7
7.1 La relatrice
Anna Codispoti, laureata in matematica a Genova con PhD in Matematica e appli-
cazioni. Ora lavora nel gruppo Prada con il ruolo di Head of Analythics & Insights; ha
precedentemente lavorato in Costa occupandosi di revenue.
30
7.3.4 Archiviazione del dato
Tipi diversi di dato richiedono tecniche di archivazioni diverse; tante aziende ne usano
più di uno. Le tre principali strutture sono il data warehouse, il data lake e il lakehouse
È l’area in cui arriva il dato, con le sue modalità temporali. Ad esempio, non mi interessa
avere il dato real time di un flusso di cassa, mentre mi interessa avere in tempo reale quali
articoli un utente ha aggiunto al carrello per evitare di proporglieli di nuovo.
È la zona in cui i dati vengono scelti, trasformati, puliti e arricchiti; è lo step più
importante per generare previsioni a partire dai dati ed è questo il momento in cui vengono
uniti dati interni ed esterni all’azienda.
È l’organizzazione finale del dato che mi permette di esporlo per essere fruito da chi lo
deve usare, con sintesi utili.
La sandbox
È un livello che può dover accedere ai diversi gradi di raffinazione del dato per fare
sperimentazione.
7.3.7 Il lakehouse
È un approccio molto recente che combina i benefici del datalake con quelli della strut-
tura del data warehouse. È scalabile e può gestire grandi volumi di dati, può gestire dati
strutturati e non strutturati, può processare il dato appena arriva ed è facile da gestire.
31
7.4.1 Strumenti per l’analisi e la visualizzazione
I software più usati, a diversi livelli di competenze, sini Excel (ahia), Tableau, PowerBI,
R, Python.
Excel è facile da usare, ha un’interfaccia semplice, stressandolo un po’ si riescono a
fare cose anche interessanti, ma oltre un certo punto non si può andare anche per motivi
prestazionali.
Tableau e PowerBI sono i software più usati in azienda per fare data analysis visualiza-
tion. Hanno parti di interfaccia grafica e si può interagire con loro api.
R e Python permettono di fare molte più cose: sistemi di forecast, motori di otti-
mizzazione, per interagire con loro si scrive codice e la curva di apprendimento è molto
ripida.
32
Capitolo 8
A survey of applications of
mathematics to life sciences
8.1 Il relatore
Professore di analisi numerica a Torino che ha fatto ricerca nel mondo delle equazioni
differenziali integrali. Negli ultimi vent’anni ha lavorato con biologi, agrari, veterinari in
scenari che poi analizzeremo.
33
Per proseguire l’analisi posso ignorare i termini quadratici vicino all’origine, vengo-
no fuori equazioni lineari e ottengo che lı̀ vicino ho due sistemi che crescono entrambi
indipendentemente e quindi ho equilibrio instabile.
Un’altro dei tre punti era sull’asse delle prede; studio la perturbazione e viene fuori un
sistema di equazioni differenziali, una si risolve da sola, mentre l’altra si risolve in un’e-
quazione differenziale lineare a coefficienti costanti non omogenea. Si può risolvere al solito
modo oppure con il metodo della variazione delle costanti. Arrivo a vedere che la stabilità
dipende dai parametri iniziali.
Per il terzo punto di equilibrio ho un po’ più menate per risolvere, devo riscrivere il
sistema in forma matriciale e poi disaccopiare il sistema con un opportuno cambio di varia-
bili, ovvero ottenere una matrice diagonale. Qui serve il teorema di Rouché Capelli che a
quanto pare è lo scheletro nell’armadio di un po’ tutti. Alla fine si vede che questo punto
di equilibrio è ammissibile se e solo se il punto precedente è di equilibrio instabile.
34
Parte IV
Modulo: Elaborazione
quantistica dell’informazione
Relatori: XXXX, Gian Marcello Andolina,
Michele Grossi
35
Capitolo 9
36
Bisogna quindi creare un circuito elettrico il più possibile isolato dall’ambiente e semplice
come modello; non è per niente banale.
9.2.2 La superconduttività
In un filo di metallo ci sono un sacco di elettroni e ognuno fa un po’ quello che vuole,
si muove, rimbalza e interagisce su ciò che ci sta intorno. Se volessi descriverlo bene dovrei
modellare ogni singolo elettrone, che può assorbire o perdere energia.
Nel 1911 il fisico Onnes si divertiva a raffreddare cose, vicino allo zero assoluto: ha creato
metalli liquidi e a quel punto ha cercato di misurarne la resistenza. Sotto i 4.2K la resistenza
scende di colpo a zero: l’idea è che sotto a questa temperatura gli elettroni si organizzano
in coppie che parlano tra di loro in modo coordinato. A quel punto tutti gli elettroni sono
descritti con la stessa funzione d’onda, come se iniziassero tutti a ballare facendo gli stessi
passi di danza, quando prima ognuno faceva quello che gli pareva. Avendo gli elettroni che
si muovono tutti nello stesso modo, se do una bicellata a uno, se non è abbastanza forte
non si muove niente. Se do un colpo abbastanza forte un paio di elettroni ricomincia a
fare quello che vuole, ma noi vogliamo evitarlo: fino a quando non succede questo abbiamo
ottenuto un sistema coordinato, esteso, modellisticamente semplice.
Quindi, riassumendo, sotto una certa temperatura gli elettroni si mettono a funzionare
allo stesso modo.
Ora possiamo iniziare a pensare di fare circuiti elettrici con materiale superconduttivo a
bassissima temperatura: tutti gli elettroni si comportano allo stesso modo e per descriverli
ci bastano pochi numeri. Si riesce quindi ad avere effetti quantistici (con gli elettroni che si
muovono tutti allo stesso modo) su oggetti moderatamente grossi, anche qualche millimetro.
Gli effetti sono strani, ma è quello che vogliamo: la corrente, quantisticamente, può
girare in un senso, nell’altro o in sovrapposizione di entrambi.
Scale di energia
Un pendolo classico si può descrivere con la frequenza; per un qbit la frequenza di solito
è intorno ai 5 GHz. La differenza di energia tra i due livelli è nell’ordine dei 3 · 10−24 : se vo-
gliamo controllare bicellate cosı̀ picole dobbiamo essere a bassissime temperature, nell’ordine
dei 20 mK, a cui l’ambiente è praticamente fermo.
37
Siamo finalmente arrivati ad avere una sorta di qubit, ora bisogna farci sopra delle
operazioni. Gli parliamo dandogli le bicellate: con un filo si arriva molto vicino al qubit
e si manda sul filo un segnale elettrico alla giusta frequenza (con la giusta energia), nelle
microonde, per ogni operazione, anche la più semplice, cioè set 0 o set 1. L’informazione
sull’angolo di rotazione è codificata nel tempo e nell’energia dell’onda inviata
I qbit devono parlare tra loro: se ne mettono tre vicini e in parole povere devono parlare
tra loro alla stessa frequenza, un po’ come quando io spingo l’altalena. Quando la frequenza
in mezzo è diversa dalle altre due i due qubit agli estremi non parlano, se le frequenze sono
uguali sı̀.
La misura si fa con un risonatore: quando si vuole misurare (a fine processo) si mandano
tante microonde, si guarda la riflessione dell’onda a da lı̀ si capisce lo stato del qubit.
9.3 Il rumore
Il problema principale è che nonostante tutti gli sforzi per isolare ci sono sempre cose
fuori controllo, quindi il computer ha errori.
9.3.4 Soluzioni
A breve termine si usa la mitigazione degli errori, a lungo termine si usa la correzione
degli errori.
Nella computazione classica ci sono tante soluzioni, la più facile è trasmettere due volte
lo stesso bit e vedere all’arrivo se ho due bit uguali; in caso contrario rilevo un errore. Non
38
rilevo l’errore se ho un doppio flip, che però è molto meno probabile. Se addirittura triplico
il bit prima di mandarlo posso avere una minima capacità di correzione.
39
Capitolo 10
40
10.3.1 Legge di Malus
Mi dice che intensità ha la luce che esce da un filtraggio x-x’:
I1 = I0 cos2 (θ)
10.3.3 Parallelismo
Per fare un parallelismo tra SG e ottica possiamo dire che se a E ⃗ si associano i versori
x̂ ŷ, mentre alla sorgente di atomi |S0 ⟩ si associano due quantità |Sx = +S⟩, |Sx = −S⟩.
Analogamente alla legge di Malus, con questo parallelismo, è possibile determinare una legge
che esplicita il numero di atomi che passano attraverso gli SG; non è determinata in modo
analitico, solo per analogia, ma il fenomeno lo descrive bene. Quindi ora certi fenomeni
continuo a non capirli, ma li posso calcolare (testuali parole, non mi sono inventato niente).
E quindi a quanto pare i prodotti scalari sono fondamentali in meccanica quantistica.
Quindi siamo arrivati a dire che gli atomi si comportano come la luce. Che succede
agli atomi? Boh non lo capisco, ma tanto non lo capisce nessuno (di nuovo sono parole del
relatore). Tante cose vengono analizzate in modo stocastico: ad esempio se la lampadina
genera onde con polarizzazione arbitraria l’intensità dopo un filtro dipende da quell’angolo,
quindi al massimo potrò farne una media statistica.
Quindi in meccanica quantistica ogni stato è rappresentato da un vettore di uno spazio
astratto; il risultato di un esprimento è descritto da una probabilità data dal prodotti scalare
tra il vettore in entrata e quello in uscita.
41
Capitolo 11
11.1 Il relatore
Fisico dell’alta energia che ha cambiato ambito, ora lavora al Cern.
11.4 Attività
Vedi codice a questo link.
42
Parte V
43
Capitolo 12
44
Capitolo 13
Antonello da Messina, Annunciata: non è più l’annunciazione, non c’è l’angelo che è
fuori dal quadro, si vede solo il volto illuminato della Vergine. È qualcosa di rivoluzionario,
anticipa l’arte concettuale degli anni 60, in cui il titolo dell’opera è fondamentale per l’opera
stessa, oppure addirittura è l’opera stessa.
The Morgue è una foto scatattata da Andrés Serrano, che girava per gli obitori a fare
foto, nel 1992, e ritrae un bambino morto. Anche qui c’è silenzio.
L’urlo di Munch è del 1893 e anche qui c’è silenzio, di dolore, ma è molto più vicino al
silenzio di The Morgue che al silenzio dell’Annunciata.
C’è un installazione del 2016 di due cinesi in cui un braccio robotico cerca di arginare
un liquido rosso che sembra sangue; fa rumore nel farlo e sembra qualcuno che si lamenta
morente.
Manet nel bar delle FOlies-Bergère rappersenta un volto molto simile a quello di Munch,
in Pubertà. Entrambe sono in un non-luogo: la barista di Manet è l’unico personaggio reale
sullo schermo, la ragazzina di Munch è la sola figure in assoluto nell’opera.
Douglas Gordon a cavallo degli anni 2000 esplora il tema del doppio nei suoi ritratti
(Monster Reborn) e le deformazioni del volto vengono riprese anche da un altro americano
più tardi. Quella di deformare il volto con lo scotch è una tendenza che nasce su Facebook
a partire dal 2014: ormai nella nostra epoca arte e vita non sono distinguibili perché l’arte
è vita e la vita è arte.
Poi basta, mi sono rotto le palle e in quello che sta dicendo non riesco a trovare un filo
logico. Poi c’è un po’ di registrazione.
45
Capitolo 14
Rappresentarsi, qualche
considerazione dal passato
46
Capitolo 15
Secondo alcuni l’autoritratto è il genere che meglio descrive la nostra epoca. Poi basta
c’è la registrazione.
47
Capitolo 16
16.1 La televisione
La televisione ha la caratteristica di essere simultanea e diretta: tante persone vedono
contemporaneamente la stessa cosa e, in linea di principio, non c’è latenza tra il momento
in cui la cosa mostrata avviene e il momento in cui viene mostrata. Poi nel mondo della tv
lo sguardo è molte volte rivolto alla telecamera; la tv prevede contatto, quello che vedo è
nel salotto, di dimensioni realistiche, e un po’ imperfetto almeno i primi tempi. Lo schermo
della tv mostra luce, lo schermo del cinema lo riflette: è una metafora perfetta per mostrare
la differenza tra il mondo della tv e il mondo cinematografico.
La tekevisione nasce negli anni 30 e subisce una battuta d’arresto durante la II guerra
mondiale, quando le antenne iniziano ad essere obiettivi critici. Poi dopo la guerra ricomincia
la sua ascesa. Il video diventa praticabile a partire dalla fine degli anni 50; prima la tv era
solo in diretta, se si voleva registrare serviva una videocamera a pellicola che registrasse
tutto. Poi si iniziano a diffondere i nastri magnetici, simile a quello dei vhs, che possono
registrare le immagini in modo tale da essere successivamente trasmesse. Il nastro può essere
riutilizzato, dura di più, può contenere più materiale nelle stesse dimensioni e si comincia
a capire che è un mezzo molto versatile. Sono periodi di grandi cambiamenti sociali, con
il nastro magnetico si possono documentare in modo tutto sommato economico. Quando
arriva il digitale si passa ai pixel, che permettono manipolazioni dell’immagine piuttosto
facili.
48
Parte VI
49
Capitolo 17
17.2 Il calcolo
L’uomo conta da almeno 300000 anni fa, non è ben chiaro il come. Secondo alcuni il
contare (gestire quantità) è dentro di noi ed è in qualche modo uscita; secondo altri l’uomo
di suo sa contare solo fino a 3, ha dovuto inventare i numeri (esempio con gli oggetti e il
colpo d’occhio) per andare avanti. Secondo i secondi, la necessità dei numeri è stata il primo
stimolo per l’invenzione del linguaggio.
La mente non è un buono strumento per fare i conti, sbaglia facilmente; lo strumento
più rudimentale sono le mani e infatti gli antichi contavano tutti in base 10, in base 5 o
in base 12 (numero delle falangi in una mano). C’è un altro problema, le dita sono poche:
si passa a usare tacche segnate su un oggetto, che è più adeguato a descrivere quantità
grandi. Da strumento a strumento si arriva fino all’abaco, usato dall’umanità in tutto il
mondo; permette di gestire quantità grandi, anche molto. Il suo vantaggio principale è che è
comodissimo per fare le 4 operazioni ed era ampiamente usato anche negli anni 50, quando le
calcolatrici erano ancora enormi e difficili da usare. Il primo problema che viene riscontrato
nell’abaco è che è un po’ lento: non è che si può mettere qualcos’altro al posto delle mie
manine per muovere le palline? Ci aveva già pensato Pascal e molti altri, fino a Charles
Babbage che idea una macchina che esegue calcoli automaticamente, è grossa quanto una
locomotiva e va a vapore: serve un omino che la carica di carbone. Gli input sono dati
con schede perforate, l’output è dato in stampa con caratteri mobili alla Gutemberg. Arriva
l’elettricità e arriviamo alle calcolatrici tipo quelle che si usano per le verifiche di matematica:
veloce, precisa. Che limiti ha la calcolatrice? Ha un numero finito di operazioni che è in
grado di eseguire, non può andare oltre. È qui che arriva Alan Touring, che ragiona su cosa
vuol dire calcolare e definisce cos’è un’algoritmo, un insieme finito di istruzioni elementari
univoche il cui risultato ha interpretazione univoca e lo si ottiene in un tempo finito.
50
17.3 Macchina di Turing
È una macchina che fa operazioni tra numeri naturali ed è programmabile, cioè è in
grado di fare qualsiasi operazione definita da un algoritmo, e queste sono infinite. Turing si
chiede: può una macchina sostituire il calcolatore umano? Il cervello non è troppo distante
da un calcolatore di Touring: è in grado di fare tante cose, pur essendo composto da un
numero finito di elementi.
17.5 La logica
Torniamo alla domanda iniziale e riformuliamola: può esistere un algoritmo che risolve
problemi matematici con si/no? Per logica intendiamo tante cose, una delle definizioni è
che oggi la logica è una branca della matematica e della filosofia che si occupa dello studio
del ragionamento corretto; secondo un’altra la logica si occupa di dire cosa segue da cosa.
In entrambi i casi si parla di logica deduttiva: è universale, valida a priori e per tutti. Ma
c’è di più: il pensiero deduttivo è esatto, quindi è materia della matematica, e anch’esso si
basa sul calcolo.
17.5.1 Le deduzioni
La logica si occupa di deduzioni. Si parte da una serie di premesse numerate, lette
dalla 1 alla n, e si giunge a una conclusione. Una deduzione è corretta se la conclusione
segue logicamente dalle premesse, senza occuparsi del significato delle premesse. Un modo
per rendere la deduzione comprensibile a prescindere dalla lingua si può usare una qualche
linguaggio simbolico convenzionale.
17.5.3 Verità
Formalmente ora possiamo dire che una deduzione è corretta se ogni volta che tutte le
premesse hanno valore 1, anche la conclusione ha valore di verità 1. La conseguenza è che
una deduzione non è corretta se c’è un caso in cui il valore di verità delle premesse è uno e
la conclusione è zero.
51
17.5.4 Non solo proposizioni
Oltre alle proposizioni esistono predicati, del tipo ”x è un numero pari”; è una compli-
cazione in più. Poi esistono predicati di secondo ordine, che comprendono proposizioni e
predicati, come frasi che parlano di frasi.
52
Capitolo 18
18.1 Introduzione
Iniziamo usando il linguaggio naturale e consideriamo la frase ”Se oggi è sanato, allora
io sono un filosofo”. Ha due parti e ognuna può essere sostituita con quasi qualsiasi cosa,
posso generalizzare, riscriverla come ”Se A allora B”. Fare deduzioni logiche in realtà non
è una cosa cosı̀ intelligente, è un calcolo matematico. Non sono relazioni causa-effetto, sono
relazioni logiche, è trasmissione del pensiero tramite linguaggio.
53
18.2.3 Teoria del sillogismo
La teoria del sillogismo contiene la teoria del silllogismo categorico (già sistemato da
Aristotele) e il sillogismo modale (sistemato molto più tardi).
Le affermazioni cateforiche sono quattro: universale positiva (A, ogni S è P), universale
negativa (E, ogni S non è P), particolare positiva (I, qualche S è P), particolare negativa
(O, qualche S non è P); compongono il quadrato aristotelico (cerca immagine :D ).
Sillogismi categorici
Un sillogismo ha due premesse e una conclusione, tutte e tre affermazioni categoriche:
P1 , P2 ∴ C. Un sillogismo coinvolge tre termini, S, P e M: M deve compoarire in P1 e P2
ma non può comparire in C, è il termine medio; S compare in P2 e C come soggetto di
C; P compare in P1 e in C, come predicato di C (M medio, S soggetto, P predicato). La
regola di inferenza del sillogismo è la cancellazione del termine medio. Tutti i sollogismi
che si possono costruire sono 256; quelli corretti sono 26 di cui 9 un po’ particolari perché
funzionano solo se si ammette di poter predicare sul vuoto.
54
Capitolo 19
55