Sei sulla pagina 1di 29

Lezione del: 21 Aprile 2008

ISTOGRAMMI
E DISTRIBUZIONI

In generale è conveniente organizzare le misure sotto forma di


istogramma

Esistono due tipi di istogramma

· Istogramma a barre

· Istogramma ad intervalli

Istogramma a barre

· Utilizzato per organizzare dei valori discreti (ad es. i risul-


tati del lancio di un dado, le votazioni di un esame, quante
volte si è vericato un certo evento, ecc.)

· L'altezza di ogni barra rappresenta quante volte, nk , si è


presentato quel certo valore k -esimo
· La larghezza delle barre non ha nessun signicato

Istogramma a barre normalizzato

L'altezza di ogni barra rappresenta la frazione di volte, Fk , in


cui si è presentato il valore k -esimo
nk
Fk = ,
N
dove N è il numero totale di misure.
In tal modo, la somma delle lunghezze delle barre, in un is-
togramma a barre normalizzato, è uguale a 1.

1
ISTOGRAMMI
E DISTRIBUZIONI
Istogramma ad intervalli

· Viene utilizzato per organizzare i valori di una grandezza


continua

· L'intervallo totale di variazione della grandezza continua


viene diviso in un certo numero di intervalli più piccoli di
ampiezza ∆k
L'intervallo k -esimo contiene i valori della grandezza x tali che
xk 6 x < xk+1 ,
dove xk e xk+1 sono i limiti dell'intervallo k -esimo.
L'altezza, fk , del rettangolo corrispondente all'intervallo di
ampiezza ∆k , viene scelta in modo tale che

fk ∆k = Fk ,
dove Fk è la frazione di misure comprese nell'intervallo k-
esimo.

Un istogramma ad intervalli è quindi, di regola, normalizzato,


ovvero, la somma delle aree dei rettangoli
X
fk ∆k = 1 .
k

L'area fk ∆k del rettangolo k -esimo, ha lo stesso signicato


dell'altezza della barra k -esima di un istogramma a barre nor-
malizzato.

Le ampiezze degli intervalli, ∆k , possono, in generale, essere


diverse tra loro, ma di solito vengono scelte tutte uguali.
Come scelgo l'ampiezza degli intervalli? vediamo un esempio.

2
DISTRIBUZIONI

Consideriamo di avere un numero sempre maggiore di misu-


re che vogliamo organizzare in un istogramma ad intervalli
in cui gli intervalli stessi diventano sempre più numerosi e di
ampiezza sempre più piccola.

Nel caso limite di un numero innito di misure, organizzate


in inniti intervalli di ampiezza innitesima, si ha una dis-
tribuzione.
Una distribuzione è quindi una funzione f (x) normalizzata,
ovvero tale che
Z ∞
f (x) dx = 1 .
−∞

La frazione di misure Px che si trovano in un intervallo piccolo


a piacere dx, tra x e x + dx sarà data da f (x) dx.
In generale, la frazione di misure Pa,b che si trovano in un
generico intervallo a, b è data da
Z b
Pa,b = f (x) dx .
a

Dato che stiamo considerando un numero infinito di misure, la


quantità Pa,b rappresenta anche la probabilità che una misura
si trovi nell'intervallo a, b.

3
DISTRIBUZIONE LIMITE

In generale, si osserva che all'aumentare del numero di misure,


la forma del corrispondente istogramma ad intervalli cambia,
inizialmente in modo molto evidente, poi sempre meno, avvic-
inandosi progressivamente ad una forma a campana.

La distribuzione a cui tende una serie di misure, all'aumentare


del numero di misure stesso è anche detta:
distribuzione limite.
Vediamo questo ideale passaggio da un numero di misure lim-
itato ad uno innito con un esempio numerico.

4
DISTRIBUZIONE LIMITE
Calcolo della media delle misure, x̄

Ripartiamo dalla denizione di media di un numero limitato


di misure di una grandezza con valori discreti
P
i xi
x̄ = . (1)
N
Indicando con nk il numero di volte che è stato ottenuto il
valorexk della misura, possiamo riscrivere l'eq.1 come una
media pesata, ovvero
P
k nk xk
x̄ = , (k = 1, 2, 3, . . . , M ) ,
N
dove k indichiamo le M differenti misure
con (mentre
i = 1, 2, 3, . . . , N indica tutte le misure).
Se introduciamo nell'espressione precedente la denizione di
frazione, Fk , di misure con valore xk
nk
Fk = ,
N
possiamo esprimere la media come
X
x̄ = xk Fk .
k

Nel caso di misure di una grandezza con valori continui, or-


ganizzate in un istogramma ad intervalli, ricordiamo che si
ha

Fk = fk ∆k ,
dove Fk è la frazione di misure comprese nell'intervallo k-
esimo.

5
DISTRIBUZIONE LIMITE
Calcolo della media delle misure, x̄

La media sarà quindi


X
x̄ = xk fk ∆k .
k

Passando dall'istogramma alla distribuzione, sostituendo la


sommatoria con l'integrale e la frazione di misure in ogni in-
tervallo, fk ∆k , con f (x) dx, si ottiene
Z ∞
x̄ = x f (x) dx .
−∞

Ovvero, deniamo il valore medio, x̄, della distribuzione lim-


f (x), come il prodotto di ogni possibile valore della misura
ite,
x per la probabilità, f (x) dx, di avere quella misura, inte-
grando su tutti i valori.

Analogamente, deniamo la varianza, σx2 , della distribuzione


limite, f (x), come la seguente media dei quadrati degli scarti,
(x − x̄)2
Z ∞
σx2 = (x − x̄)2 f (x) dx .
−∞

6
LA DISTRIBUZIONE GAUSSIANA

Abbiamo visto con un esempio numerico che nel caso di misure


soggette ad errori che sono:

· molti,
· piccoli,
· casuali,
e in assenza di errori sistematici, la distribuzione delle
misure tende ad assomigliare alla funzione Gaussiana
all'aumentare del numero degli errori.

Questo importante risultato è noto come:


Teorema del limite centrale
la distribuzione di una grandezza che risulta dalla somma
(normalizzata) di un numero grande a piacere di variabili
casuali tende alla distribuzione Gaussiana.
identica distribuzione, la
Se le variabili casuali hanno anche
distribuzione della loro somma tende più “velocemente”
alla distribuzione Gaussiana.

La forma funzionale base della Gaussiana è semplicemente

−x 2
f (x) = e ,
che rappresenta la nota curva a campana, simmetrica
rispetto allo zero dove la funzione ha l'unico massimo.
Ad x = 0, f (x) = 1.

7
LA DISTRIBUZIONE GAUSSIANA

È possibile denire una Gaussiana centrata su un valore X 6=


0, sostituendo x con (x − X)
−(x−X) 2
f (x) = e .
Inne, è possibile variare l'ampiezza della campana, intro-

ducendo un coeciente σ al denominatore dell'esponente:

−(x−X) 2/2σ 2
f (x) = e .
Il coeciente viene introdotto in questa forma particolare,
2σ 2, in quanto, come vedremo, tale σ corrisponde proprio alla
deviazione standard delle misure, σx , denita in precedenza.

Anché la funzione Gaussiana, appena introdotta, possa de-

scrivere una distribuzione limite, occorre che sia normalizzata.

Vogliamo quindi determinare un fattore di normalizzazione,

N, tale che
Z ∞
−(x−X) 2/2σ 2
Ne dx = 1 .
−∞
Risolvendo l'integrale con una semplice sostituzione, si ot-

tiene:

1
N = √ .
σ 2π

8
LA DISTRIBUZIONE GAUSSIANA

La forma completa, normalizzata della distribuzione Gaus-

siana è quindi:

1 −(x−X) 2/2σ 2
GX,σ (x) = √ e .
σ 2π
I pedici X e σ nell'espressione GX,σ (x) indicano il centro e
l'ampiezza della distribuzione.

La funzione GX,σ (x) descrive quindi la distribuzione limite dei


valori delle misure di una grandezza x, il cui valore vero è X e
la cui deviazione standard è σ , nel caso in cui le misure stesse
siano soggette solo a molti, piccoli errori casuali.

9
LA DISTRIBUZIONE GAUSSIANA
Calcolo del valore medio
Abbiamo visto che conoscendo la distribuzione limite è possi-
bile calcolare il valore medio, x̄, che si avrebbe dopo innite
misure, come
Z ∞
x̄ = x f (x) dx ,
−∞

ovvero, nel caso della distribuzione Gaussiana, GX,σ (x)


Z ∞
1 −(x−X)2 /2σ 2
x̄ = √ xe dx .
σ 2π −∞

Introducendo un cambiamento di variabile, tale che y = x−


X , si ha che dx = dy e x = y +X . È quindi possibile separare
l'integrale precedente nella somma di due termini:
Z ∞ Z ∞ 
1 2 /2σ 2 2 /2σ 2
x̄ = √ y e−y dy + X e−y dy .
σ 2π −∞ −∞

Si vede facilmente che il primo termine è nullo in quanto il


contributo dei valori positivi di y nell'integrazione è cancellato
dal contributo, simmetrico, dei valori negativi, −y .

Il secondo termine è analogo all'integrale di normalizzazione



della funzione Gaussiana, già visto, e vale σ 2π .
Si ottiene dunque

1  √ 
x̄ = √ 0 + X σ 2π .
σ 2π
da cui

x̄ = X .

10
LA DISTRIBUZIONE GAUSSIANA

Tale risultato è rigorosamente vero solo nel caso di un numero


infinito di misure.
Facendo, in pratica, un numero limitato di misure, è ragione-
vole aspettarsi che il valore medio sia simile al valore vero X .
Vedremo più avanti in cosa consiste questa ragionevolezza.

Calcolo della Deviazione Standard


Utilizzando la funzione Gaussiana, GX,σ (x), come dis-
tribuzione limite è anche possibile calcolare la varianza, σx2 ,
che si avrebbe dopo innite misure, come
Z ∞
σx2 = (x − x̄)2 GX,σ (x) dx .
−∞

L'integrale si calcola sostituendo x̄ con X (utilizzando il


risultato appena ottenuto) e con i cambiamenti di variabile
y =x−X e y/σ = z .
Integrando per parti, si ottiene, come previsto

σx2 = σ 2 ,
σx = σ ,
ovvero, il parametro, σ , di ampiezza della Gaussiana, GX,σ (x),
rappresenta proprio la deviazione standard che si otterrebbe
con un numero innito di misure.

Anche in questo caso, è ragionevole aspettarsi che la devi-


azione standard, σx, calcolata su un numero limitato di mis-
ure, sia simile all'ampiezza della distribuzione limite, σ.

Dovremo quindi giusticare queste ragionevolezze.

11
LA DEVIAZIONE STANDARD
COME INTERVALLO DI CONFIDENZA
La distribuzione limite,f (x), di una serie di misure di una
certa quantità x, ci dà la probabilità di ottenere un particolare
valore di x.
Più precisamente, la probabilità, Pa,b , che una misura cada
nell'intervallo a 6 x 6 b è data da
Z b
Pa,b = f (x) dx . (2)
a

Se la distribuzione limite è la Gaussiana, GX,σ (x), l'integrale


2 può essere calcolato.
Il suo valore rappresenta la probabilità relativa a quel certo
intervallo di confidenza a 6 x 6 b.
Ad esempio, potremmo calcolare la probabilità, Pσ , che una
misura cada in un intervallo di ampiezza ±σ , centrato sul
valore vero, X.
Tale probabilità è
Z X+σ
Pσ = GX,σ (x) dx ,
X−σ
Z X+σ
1 −(x−X)2 /2σ 2
= √ e dx .
σ 2π X−σ

Più in generale, potremmo calcolare la probabilità, Pt σ , che


una misura cada in un intervallo di ampiezza ±t σ , sempre
centrato sul valore vero, X, con t reale, positivo.
Tale probabilità sarà
Z X+tσ
1 −(x−X)2 /2σ 2
Pt σ = √ e dx . (3)
σ 2π X−tσ

12
LA DEVIAZIONE STANDARD
COME INTERVALLO DI CONFIDENZA
L'integrale 3 può essere semplicato con un cambio di vari-
abile, sostituendo
x−X
z = √ ,

da cui
   
x−X d x−X 1
dz = d √ = √ dx = √ dx ,
2σ dx 2σ 2σ
e quindi

dx = 2 σ dz .
I limiti di integrazione per la nuova variabile, z, si ottengono
x−X
sostituendo x = X − tσ o x = X + tσ nell'espressione √ ,
√ √ 2σ
da cui si hanno i nuovi limiti −t 2 e t 2.
In tal modo si ha

1
Z t 2
−z 2

Pt σ = √ √ e 2 σ dz ,
σ 2π −t 2 √
Z t 2
1 2
= √ √ e−z dz .
π −t 2
Dato che si tratta dell'integrale di una funzione simmetrica,
si ha che

Z t 2
2 −z 2
Pt σ = √ e dz .
π 0
Questo è un integrale notevole che compare nella denizione
della cosiddetta error function, erf(t),
Z t
2 −z 2
erf(t) = √ e dz , (4)
π 0

13
LA DEVIAZIONE STANDARD
COME INTERVALLO DI CONFIDENZA

da cui risulta che



Pt σ = erf(t/ 2)

La funzione erf(t) si calcola sviluppando la funzione inte-


granda della 4 in serie di Taylor e integrando i membri della
serie
∞ n 2n+1
 3 5 7 9

2 X (−1) t 2 t t t t
erf(t) = √ =√ t− + − + − ···
π n=0 n! (2n + 1) π 3 10 42 216

Una volta i valori di erf(t) erano tabulati, ora vengono facil-


mente calcolati con un computer.

Possiamo quindi (nalmente) calcolare la probabilità, Pt σ , che


una misura cada in un intervallo di ampiezza ±t σ , centrato
sul valore vero, X .

Per i primi valori interi di t, si ha:



t = 1.0, P1 σ = erf(1.0/ 2) = 0.683 . . .,

t = 2.0, P2 σ = erf(2.0/ 2) = 0.954 . . .,

t = 3.0, P3 σ = erf(3.0/ 2) = 0.997 . . ..
Ovvero, in termini percentuali:

P1 σ = 68.3 . . . %,
P2 σ = 95.4 . . . %,
P3 σ = 99.7 . . . %.
Vediamo una rappresentazione graca di questo risultato.

14
LA DEVIAZIONE STANDARD
COME INTERVALLO DI CONFIDENZA
DI UNA SINGOLA MISURA

Abbiamo detto che se GX,σ (x) è la distribuzione limite delle


nostre misure, la probabilità che una misura, xi, cada in un
intervallo di condenza di ampiezza ±σ centrato sul valore
vero, X, è del 68.3. . . %.

Questo equivale a dire che se faccio una singola misura, xi ,


usando la stessa procedura sperimentale di cui conosco la dis-
tribuzione limite, GX,σ (x), ho la probabilità del 68.3. . . % che
il valore vero sia compreso nell'intervallo xi ± σ .

La probabilità che il valore vero sia compreso nell'intervallo


xi ± 2σ è del 95.4. . . %, ecc.

Quindi, l'incertezza espressa in termini della deviazione stan-


dard, σ, rappresenta l'errore su una singola misura.

NOTA: In pratica, noi conosciamo σx, la deviazione standard di un


numero nito di misure.
All'aumentare del numero di misure, il valore di σx, tende
al valore della distribuzione limite, σ.
Ovvero, all'aumentare del numero di misure l'errore su una
singola misura tende ad un valore limite, non a zero.
Vedremo che è l'errore sulla media, x̄, a diminuire pro-
gressivamente, con l'aumentare del numero di misure.

Quindi fare molte misure non serve solo a migliorare la


conoscenza dell'incertezza, σx, sulla singola misura, xi, ma
anche a diminuire l'incertezza sul valore medio, x̄.

15
LA DEVIAZIONE STANDARD
COME INTERVALLO DI CONFIDENZA
ESERCIZIO
Le misure di una certa grandezza, x, sono distribuite normal-
mente (distr. Gaussiana) con X = 10 e σ = 2.
Indicare la probabilità che una singola misura cada
nell'intervallo tra x=7 e x = 13
Indicare la probabilità che si trovi al di fuori dell'intervallo
713.

16
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”

Supponiamo di conoscere la distribuzione limite,GX,σ (x),


delle nostre misure, ovvero di conoscere il valore vero, X , e la
deviazione standard, σ .

In questo caso, potremmo calcolare la probabilità di ottenere


ognuno dei valori, x1, x2, . . . , xN , della grandezza misurata.
Ad esempio, la probabilità, Px1 , di ottenere il valore x1, in un
intervallo piccolo a piacere dx1, sarebbe
1 −(x −X) 2/2σ 2
Px 1 = √ e 1 dx1 . (5)
σ 2π

Semplichiamo la 5 eliminando il fattore 2π e rendi-

amo l'espressione indipendente dalla eettiva dimensione

dell'intervallo dx1
1 −(x1−X)2/2σ2
Px 1 ∝ e .
σ
La probabilità, Px2 , di ottenere un secondo valore, x2, sarebbe
1 −(x2−X)2/2σ2
Px 2 ∝ e .
σ
Procediamo in questo modo no alla N -esima misura, xN , che
avrebbe probabilità, Px N
1 −(xN −X)2/2σ2
Px N ∝ e .
σ

17
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”

Quale sarebbe la la probabilità complessiva di avere proprio


quell'insieme di misure?

Dato che ogni misura è indipendente (nel senso che il risultato

della misura xi non inuenza il risultato della misura xi+1),


la probabilità complessiva, PX,σ , di ottenere l'insieme delle

N misure, x 1 , x 2 , . . . , xN , sarebbe data dal prodotto delle

singole probabilità

PX,σ = Px1 × Px2 × · · · × PxN .


Ovvero

1 − P (xi−X)2/2σ2
PX,σ ∝ N e i . (6)
σ

In realtà non conosciamo X e σ ma vogliamo trovarne la


miglior stima
La miglior stima di X e σ è quella che massimizza la proba-
bilità PX,σ denita nell'eq. 6

Perché?

18
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”
La procedura utilizzata per determinare la miglior stima di X
e σ è chiamata Metodo della massima verosimiglianza.
In breve: date N misure, x1 , x2 , . . . , xN , la miglior stima
di X e σ è rappresentata da quei valori, Xbest e σbest,
per cui le misure osservate sono maggiormente verosim-
ili, ovvero, sono le più probabili.
D'altra parte, se le misure osservate non fossero le più prob-
abili. . . non sarebbe verosimile aermare che le abbiamo
davvero osservate. . . Ne avremmo osservate altre.

In altre parole, appare verosimile assumere che un evento che


abbiamo osservato sia più probabile di uno che non abbiamo
osservato.

La miglior stima di X e σ è quindi data da quei valori, Xbest


e σbest , per cui la probabilità PX,σ

1 − P (xi−X)2/2σ2
PX,σ ∝ N e i
σ
è massima.

Per massimizzare PX,σ rispetto al valore vero, X , occorre min-


imizzare l'esponente, cioè determinare il valore di X per cui

la quantità

N
X (xi − X)2
2σ 2
i=1
è minima.

19
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”
Per farlo, dierenziamo rispetto a X e poniamo la derivata
parziale uguale a zero
N
∂ X (xi − X)2
= 0.
∂X i=1 2σ 2
In generale, la derivata parziale rispetto a X del termine i-
esimo della sommatoria, sarà

∂ (xi − X)2 1
= 2 (X − xi) .
∂X 2σ 2 σ
Sommando su tutti i termini si ha
N
1 X
(X − xi) = 0 ,
σ 2 i=1
N
X
(X − xi) = 0 .
i=1

Dato che X è costante nella sommatoria, si ha


N
X
NX+ −xi = 0 ,
i=1

da cui
N
X
NX = xi ,
i=1

e inne
P
i xi
Xbest = .
N

20
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”

Ovvero

Xbest = x̄ .

Abbiamo dunque dimostrato che la stima migliore, Xbest, del


valore vero, X , è rappresentata proprio dal valore medio delle
misure, x̄.
(. . . bella scoperta. . . )

Analogamente, la miglior stima, σbest, di σ è data da quel

valore per cui

1 − P (xi−X)2/2σ2
PX,σ ∝ N e i (7)
σ
è massima.
Anche qui dovremo dierenziare rispetto a σ e porre la
derivata uguale a zero.

Dato che PX,σ è una funzione un po' più complicata rispetto


alla variabile σ, non vedremo in dettaglio i passaggi della
derivazione che sono lasciati allo studente. . .

Con questa procedura si ottiene la seguente espressione per


σbest, il valore di σ che massimizza la 7, ovvero la stima
migliore di σ
rP
i (xi− X)2
σbest = , (8)
N

21
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”
Dato che non conosciamo il valore vero, X, lo possiamo sos-
tituire con la sua miglior stima, x̄, ottenendo
rP
− x̄)2
i (xi
σbest = . (9)
N
Abbiamo quindi dimostrato che la miglior stima, σbest, per
l'ampiezza della distribuzione limite, σ, corrisponde proprio
alla denizione della deviazione standard delle misure, σx,
vista in precedenza.

Riassumendo
1. Da una serie nita di misure otteniamo la media, x̄, e la de-
viazione standard, σx.
2. Abbiamo dimostrato che tali valori corrispondono proprio alle
stime migliori, Xbest e σbest, del valore vero, X , e della devi-
azione standard, σ , della distribuzione limite.

Resta però un problema.


La denizione di σbest, eq. 9, contiene N al denominatore,
mentre la denizione della deviazione standard delle misure,
σx, vista in precedenza, conteneva (N − 1).
Come mai?

Occorre una ultima precisazione.


La denizione corretta di σbest è quella di eq. 8. Tale
denizione contiene il valore vero, X.
Nella eq. 9 abbiamo sostituito tale valore con x̄.
In generale x̄ 6= X .

22
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”

Ci ricordiamo dalla derivazione di Xbest che quando X = x̄ la


quantità
X
(xi − X)2
i

è minima.

Ovvero, in generale si ha che


X X
2
(xi − x̄) 6 (xi − X)2 .
i i

Di conseguenza, si ha anche
rP rP

i (xi x̄)2 i (xi− X)2
6 .
N N
Quindi la denizione di σbest che utilizza la media delle mis-
ure, x̄, tende a sottostimare la deviazione standard.
Si può dimostrare che tale sottostima viene corretta sos-
tituendo N con N − 1:
rP
− x̄)2
i (xi
σbest = .
N −1

In pratica, non è possibile determinare se la distribuzione lim-


ite delle nostre misure sia realmente Gaussiana.
Sappiamo però che se ci poniamo nelle condizioni sperimen-
tali migliori (molti errori, piccoli e casuali, non sistematici) la
distribuzione Gaussiana resta la migliore approssimazione.
Ciò giustica l'applicabilità delle procedure descritte.

23
LEGGE DI PROPAGAZIONE
DEGLI ERRORI
Il problema della propagazione degli errori si ha quando i val-
ori di una o più grandezze misurate, x, y, . . . , z , ognuna
con la propria incertezza, σx , σy , . . . , σz , vengono usati per
calcolare una nuova grandezza, q(x, y, . . . , z), funzione delle
grandezze misurate.

Ci chiediamo quale sarà l'incertezza, σq , della grandezza q?


In altre parole, conoscendo la distribuzione delle misure,
x, y, . . . , z , cosa possiamo dire della distribuzione dei valori
della grandezza q ?

ESEMPIO 1:
Grandezza misurata più quantità fissa
Supponiamo di aver misurato la grandezza x e di voler calco-
lare la quantità

q = x + A, (10)
dove A è una quantità ssa che assumiamo di conoscere pre-
cisamente, senza incertezza.

Supponiamo che i valori delle misure di x siano distribuiti


secondo la solita Gaussiana, GX,σx (x), centrata sul valore vero
X, di ampiezza σx.
Abbiamo visto che è possibile esprimere la probabilità, Px, di
ottenere un certo valore della grandezza x come

−(x−X) 2/2σ 2
Px ∝ e x. (11)

24
LEGGE DI PROPAGAZIONE
DEGLI ERRORI
Dalla eq. 10 si ha che

x = q − A.
Sostituendo tale valore a x nella eq. 11, è possibile esprimere

la probabilità, Pq , di ottenere un certo valore della grandezza

q come

−[(q−A)−X]2/2σ 2
Pq ∝ e x,

da cui
−[q−(X+A)] 2/2σ 2
Pq ∝ e x.

Ovvero, i valori della grandezza q , così ottenuti, sono dis-


tribuiti secondo una Gaussiana centrata sul valore X + A e di
ampiezza σx .

Quindi l'incertezza sulla grandezza q è la stessa della


grandezza x.
ESEMPIO 2:
Grandezza misurata per quantità fissa
Supponiamo di aver misurato la grandezza x e di voler calco-
lare la quantità

q = Bx,
dove B è una quantità ssa, senza incertezza. Analogamente

a prima, sostituendo il valore di x = q/B nella 11, si ha


2
−( Bq −X ) /2σx2
Pq ∝ e ,

25
LEGGE DI PROPAGAZIONE
DEGLI ERRORI

da cui

−(q−B X) 2/2 B 2 σ 2
Pq ∝ e x.

Ovvero, i valori della grandezza q sono distribuiti secondo una


Gaussiana centrata sul valore B X e di ampiezza B σx.
Quindi l'incertezza sulla grandezza q è B σx.

ESEMPIO 3:
Somma di due grandezze misurate
Supponiamo di aver misurato due grandezze x, y e di voler
calcolare la loro somma x + y.
Supponiamo che i valori delle misure di x e y abbiano entrambi
distribuzione Gaussiana, centrata sui rispettivi valori veri X
e Y, e di ampiezze σx e σy .
Vogliamo determinare la distribuzione dei valori calcolati
x + y.
Procediamo come già visto e semplichiamo ulteriormente
l'espressione, assumendo che i valori veri X e Y, siano en-
trambi zero.
Le probabilità, Px e Py , di ottenere un certo valore delle
grandezze x e y possono essere espresse come
2
 
−x
Px ∝ exp 2
,

 x2 
−y
Py ∝ exp .
2σy2

26
LEGGE DI PROPAGAZIONE
DEGLI ERRORI

Dato che le due misure sono indipendenti, la probabilità di


ottenere una certo valore per ognuna sarà data dal prodotto
delle singole probabilità

1 x2 y 2
  
Px,y ∝ exp − + , (12)
2 σx2 σy2
Per procedere, riscriviamo l'espressione precedente mettendo
in evidenza la quantità (x + y). Per farlo, utilizziamo la
seguente identità

x2 y 2 (x + y)2 (σy2 x − σx2 y)2


2
+ 2 = 2 2
+ 2 2 2 2
.
σx σy σx + σy σx σy (σx + σy )
Per semplicità introduciamo la notazione

2
(σy2 x − σx2 y)2
z = 2 2 2 .
σx σy (σx + σy2)
da cui

x2 y 2 (x + y)2 2
2
+ 2
= 2 2
+ z . (13)
σx σy σx + σy
Sostituiamo la 13 nella 12, ottenendo

(x + y)2 z2
 
Px,y ∝ exp − − .
2 (σx2 + σy2) 2
Separiamo l'esponenziale nel prodotto di due termini
2 2
   
−(x + y) −z
Px,y ∝ exp exp .
2 (σx2 + σy2) 2

27
LEGGE DI PROPAGAZIONE
DEGLI ERRORI

Che possiamo anche indicare come

2 2
   
−(x + y) −z
P(x+y), z ∝ exp exp . (14)
2 (σx2 + σy2) 2
Ovvero, l'eq. 14 può anche essere considerata come la prob-
abilità,P(x+y), z , di ottenere una certa combinazione delle
grandezze (x + y) e z .

Dato che ci interessa solo la probabilità di ottenere un certo


valore della grandezza (x + y), indipendentemente dal valore
di z, occorre integrare su tutti i possibili valori di z
Z ∞
P(x+y) ∝ P(x+y), z dz ,
−∞

da cui

−(x + y)2
   2
−z
Z
P(x+y) ∝ exp exp dz .
−∞ 2 (σx2 + σy2) 2
 2
Z ∞  2

−(x + y) −z
P(x+y) ∝ exp exp dz .
2 (σx2 + σy2) −∞ 2

Integrare sulla grandezza z introduce il fattore 2π
nell'espressione di proporzionalità, quindi si ha sempre

2
 
−(x + y)
P(x+y) ∝ exp 2 2
.
2 (σx + σy )

28
LEGGE DI PROPAGAZIONE
DEGLI ERRORI

Ovvero, il valore della grandezza (x + y) è distribuito


q secondo
una Gaussiana centrata sullo zero e di ampiezza σx2 + σy2.
Quindi l'incertezza, σ(x+y) , sulla grandezza (x + y) è data da
q
σx2 + σy2.

CASO GENERALE
Abbiamo visto degli esempi di propagazione degli errori in
alcuni casi particolari.

Nel caso generale di una grandezza q(x, y, . . . , z), funzione


di un qualunque numero di grandezze misurate, x, y, . . . , z ,
ognuna con la propria incertezza, σx , σy , . . . , σz , si ha che
l'incertezza, σq , di q , è data dal cosiddetto differenziale to-
tale
s 2  2  2
∂q ∂q ∂q
σq = σx + σy + ... + σz . (15)
∂x ∂y ∂z

In pratica, l'incertezza su una quantità, funzione di un


qualunque numero di grandezze, si ottiene sommando il con-
tributo di ogni grandezza all'incertezza totale.

Ad esempio, il contributo della grandezza x è dato sem-


plicemente dalla derivata parziale della quantità q rispetto
a quella grandezza, moltiplicato per l'incertezza, σx, su quella
grandezza.

29