Sei sulla pagina 1di 7

1

La determinazione della distribuzione di Gauss

Consideriamo il classico gioco delle freccette. Abbiamo un bersaglio circolare centrato su un


punto origine. Assegniamo un errore ad ogni lancio a seconda di quanto la freccetta colpisca
lontano dal punto origine. Facciamo tre ipotesi ragionevoli:
1) gli errori di lancio non dipendono dallorientazione degli assi x e y;
2) gli errori di lancio in direzioni perpendicolari sono indipendenti, cio lerrore nella direzione alto-basso non in alcuna relazione con lerrore nella direzione destra-sinistra;
3) gli errori di lancio grandi sono meno probabili degli errori di lancio piccoli.
Con queste ipotesi possiamo andare a ricavare la distribuzione di probabilit che descrive le
incertezze di misura per una misura soggetta soltanto a tante piccole sorgenti di incertezze
casuali.
Indichiamo con A levento colpire un punto qualsiasi nella striscia verticale di estremi
x e x + x. Indichiamo con B levento colpire un punto qualsiasi nella striscia orizzontale
di estremi y e y + y. Indichiamo con p(x) x la probabilit dellevento A e con p(y) y la
probabilit dellevento B.
Vogliamo determinare la densit di probabilit p. Dallipotesi (3) sappiamo solo che p non
costante, ma dipende da x e da y.
Le due strisce, orizzontale e verticale, si sovrappongono individuando un quadratino di lati
x e y. Grazie allipotesi (2) possiamo ricavare la probabilit di colpire il quadratino. Essendo gli errori di lancio nelle direzioni x e y indipendenti tra di loro, la probabilit cercata
il prodotto delle probabilit dei due eventi elementari: p(A e B) = p(A) p(B). Vogliamo
pertanto determinare la probabilit p(x)p(y) x y.
Dallipotesi (1) sappiamo che qualsiasi piccola regione di area x y posta ad una stessa distanza r dallorigine pu essere colpita con la stessa probabilit, pertanto: p(x)p(y) x y =
g(r) x y.
La funzione g dipende soltanto dalla variabile r (distanza dallorigine). In coordinate polari,
vuol dire che g non dipende dallaltra coordinata (angolo tra lasse x e il raggio r). Essendo
indipendente da , la sua derivata rispetto a sempre nulla: d g/d = 0.
dg
=0
d

d p(x)p(y)
=0
d

d p(x)
d p(y)
p(y) + p(x)
=0
d
d

d p(x) dx
d p(y) d y
p(y) + p(x)
=0
dx d
d y d
Dalle coordinate polari x = r cos e y = r sin si ottiene
d p(x)
d p(y)
( r sin )p(y) + p(x)(r cos )
dx
dy

dx
d

= r sin e

dy
d

= r cos .

d p(x)
d p(y)
yp(y) + p(x)x
=0
dx
dy

1 d p(y)
1 d p(x)
=
xp(x) dx
yp(y) d y
Questa equazione vera per tutti i valori di x e y. Inoltre deve valere per valori di x e y
indipendenti tra di loro (ipotesi 2). Lunica possibilit che le due funzioni di x e di y siano
la funzione costante:
1 d p(x)
=c
xp(x) dx
Z
Z
1 d p(x)
d p(x)
1
=c
= cxdx
d p(x) = cxdx
xp(x) dx
p(x)
p(x)

1
1
1
2
2
ln p(x) = cx2 eln p( x) = e 2 cx
p(x) = e 2 cx
2
Moltiplichiamo per una costante di normalizzazione A e otteniamo una prima forma della
distribuzione di densit di probabilit cercata:
p(x) = Ae

cx2
2

Lipotesi (3) ci permette di affermare che il coefficiente c deve essere negativo (per c positivo,
la funzione diverge allinfinito per x crescente). Scriviamo c = k con k > 0:
p(x) = Ae

kx2
2

Questa funzione simmetrica, centrata su x = 0, ha


p un massimo per x = 0, tende a 0 per x
che tende allinfinito, e ha punti di flesso in x = 1/ k.

La normalizzazione della distribuzione di Gauss

Cerchiamo per quale valore A un coefficiente di normalizzazione cio si ha lintegrale


R +
p(x)dx = 1.
Z

Cambiamento di variabile:

p(x)dx =

kx = t,

Ae

kx2
2

dx = 1

kdx = dt:
Z +
Z +
kx2
t2 1
Ae 2 dx =
Ae 2 p dt = 1

Dato che lintegrale


p cercato vale 1, possiamo scriverlo come la radice quadrata positiva del
suo quadrato (1 = 1 1); indichiamo inoltre con due simboli distinti (x e y) le variabili nei
due integrali sotto radice:
A
p
k

sZ

2
x2

dx

y2
2

dy = 1

A
p
k

sZ

+ Z +

x 2 + y2
2

dxd y = 1

Cambiamento di coordinate: passiamo alle coordinate polari, per cui dxd y = rdrd :
A
p
k

+ Z 2

e
0

2
r2

Cambiamento di variabile:

r2
2

rdrd = 1

= w, rdr = dw:

A
p
k

s
Z

e
0

r2

rdr

d = 1

A
p
k

Z
0

ew dw

Z
0

d = 1

A
p
k

q
2
+
e w 0 0 = 1

A p
1 2 = 1
p
k

Abbiamo cos ricavato che il coefficiente di normalizzazione vale A = 2k per cui possiamo
scrivere la distribuzione di densit di probabilit nella forma normalizzata:
s

p(x) =

k kx2
e 2
2

Il valore atteso

Calcoliamo il valore atteso per la distribuzione di Gauss p(x) =


Z

E[x] =

xp(x)dx =

k kx2
e 2 dx =
2

k
2

k kx2
2 e

xe

kx2
2

dx = 0

essendo lintegrale di una funzione dispari esteso a tutto lasse reale.


q
kx2
Il valore atteso della distribuzione p(x) = 2k e 2 0, cio la distribuzione di Gauss in questa forma - centrata sul valore x = 0.

La varianza

Calcoliamo la varianza per la distribuzione di Gauss p(x) =


2

x2

2
x E[x] p(x)dx =

k kx2
e 2 dx =
2

Integriamo per parti usando f = x e


s

dg
dx

= xe

kx2
2

k
2

k kx2
2 e

x2 p(x)dx =

x xe

kx2
2

, da cui g = 1k e

dx

kx2
2

+ s
Z
k 1 kx2
k + 1 kx2
2
x xe
dx =
x
e

e 2 dx =

2 k
2 k

s
s
s
Z
k 1 + kx2
k 1 2 1
= 0+
e 2 dx =
=
2 k
2 k
k
k
q
2
kx
La varianza della distribuzione p(x) = 2k e 2 2 = 1k , cio il parametro k vale

k
2

kx2

1
.
2

Possiamo scrivere pertanto la distribuzione di Gauss nella forma:


2
1
x
p(x) = p e 22
2

Questa una distribuzione centrata su x = 0 e di larghezza . Se vogliamo che la distribuzione sia centrata su un generico valore x = X dobbiamo traslarla. Otteniamo cos la forma
3

pi generale della distribuzione di Gauss, centrata su x = X e di larghezza (che sono i due


parametri definitori di ogni particolare distribuzione di Gauss):
2
1
( x X )
f X , (x) = p e 22
2

La giustificazione della media aritmetica

Misuriamo N volte una stessa grandezza ottenendo i valori x1 , x2 , . . . x N . Assumiamo che


questi valori siano distribuiti secondo una distribuzione di Gauss di cui non conosciamo i
due parametri definitori X e . Avendo a disposizione un numero finito di valori (campione)
non possiamo ricavare i parametri della distribuzione (popolazione) in modo esatto, per
possiamo cercare le migliori stime di X e a partire dai valori noti x1 , x2 , . . . x N .
Essendo una distribuzione continua non ha senso chiedersi quale sia la probabilit di ottenere esattamente il valore x1 da una misura, in quanto questa probabilit sarebbe 0 qualunque per ogni valore x1 . Possiamo, invece, chiederci quale sia la probabilit di ottenere
un qualsiasi valore compreso nellintervallo (x1 , x1 + dx1 ).
Questa probabilit :
Z

p(x1 , x1 + dx1 ) =

x1 + dx1
x1

2
1
( x X )
p e 22 dx
2

Purtroppo non siamo in grado di determinare una primitiva della distribuzione di Gauss per
poter procedere con un calcolo dellintegrale in modo analitico (si possono usare tecniche di
calcolo numerico). Osserviamo che se la larghezza dx1 dellintervallo considerato infinitesima, possiamo approssimare il calcolo dellintegrale al calcolo dellarea di un rettangolo di
altezza

p1 e
2

( x1 X )2
2 2

e base dx1 :
( x X )2
1
1
p(x1 , x1 + dx1 ) p e 22 dx1
2

Con abuso di linguaggio, diciamo che questa la probabilit di misure il valore x1 . Inoltre
assumiamo che per tutte le misure la larghezza del rettangolino sia la stessa (dx1 = dx2 =
= dx N ) che tralasciamo, essendo irrilevante nel seguito. Con queste avvertenze in mente,
scriviamo pertanto lespressione:
p(x1 )

1 (x1 X2 )2
e 2

Espressioni simili possono essere scritte per gli altri valori x2 , x3 , . . . , x N .


Osserviamo che i valori ottenuti x1 , x2 , . . . , x N sono indipendenti tra loro, per cui la probabilit di averli misurati data dal prodotto delle singole probabilit:
p(x1 , x2 , . . . , x N ) = p(x1 ) p(x2 ) p(x N )

e
N

P ( x n X )2
2 2

Applichiamo ora il principio della massima verosimiglianza:


dp
=0
dX

d 1 P (xn 2X )2
2
=0
e
d X N
4

e
N

P ( xn X )2
2 2

X 2(xn X )

2 2

=0

X xn X
2

=0

X
(xn X ) = 0

xn

X =0

xn = N X

da cui otteniamo la migliore stima per il parametro X :


P
xn
X=
=x
N
La media aritmetica dei valori misurati x la migliore stima del parametro X valore atteso
della distribuzione di Gauss che regola la distribuzione dei valori misurati.

La giustificazione della formula per

Anche in questo caso applichiamo il principio della massima verosimiglianza:


dp
=0
d

e
N +1

P ( xn X )2
2 2

e
N

P ( xn X )2
2 2

d 1 P (xn 2X )2
2
e
=0
d N

X (xn X )2 2
3

P
(xn X )2
N +
=0
2

=0

N
N +1

(xn X )2
N +3

=0

P
(xn X )2
=
N
2

A questo punto saremmo tentati di sostituire x a X e scrivere 2 =


ricordarci che x solo la nostra migliore stima di X e non X stesso.

( x n x )2
.
N

Dobbiamo per

P
P
P
P
P
(xn x + x X )2
(xn x)2
(x X )2
(xn x)(x X )
(xn X )2
=
=
=
+
+2
=
N
N
N
N
N
2

P
P
P
(xn x)2 N(x X )2
(xn x)
(xn x)2
=
+
+ 2(x X )
=
+ (x X )2 + 2(x X ) 0 =
N
N
N
N

(xn x)2
+
N

xn
X
N

P
P
P
P
P
(xn x)2 ( xn N X )2
(xn x)2 ( xn X )2
+
=
+
=
N
N
N2
N2

P
2 P
P
P
P
(xn X )
(xn x)2
(xn x)2
(xn X ) (xm X )
=
+
=
+
=
N
N
N2
N2
P
P
P
P
(xn x)2
(xn X )2
n (x n X ) m6= n (x m X )
+
+
=
=
N
N2
N2
P
P
P
P
(xn x)2
(xn X )2
n (x n X ) m6= n (x m X )
=
+
+
=
N
N
N
N2
P
P
(xn x)2
(xn X )2
=
+
+0
N
N2

Abbiamo ottenuto lespressione

P
( x n X )2
N

( x n x )2
N

( x n X )2
.
N2

Isoliamo il secondo termine:

(xn x)2
=
N

P
P
P
P
(xn X )2
(xn X )2 N (xn X )2 (xn X )2
=
=

N
N2
N2
P
P
P
(N 1) (xn X )2
(xn x)2
(xn X )2
2
=
=

=
N
N 1
N2

La giustificazione della somma in quadratura

Ricordiamo le seguenti propriet del valore atteso e della varianza:


2 [ax + b] = a2 2 [x]

E[ax + b] = aE[x] + b

Inoltre, per grandezze x e y indipendenti vale la propriet:


2 (x + y) = 2 (x) + 2 (y)

Consideriamo una grandezza z calcolata in funzione di due grandezze misurate x e y:


z = f (x, y). Supponiamo di aver misurato le grandezze x e y con incertezze (x) e (y)
sufficientemente piccole, e che i valori ottenuti siano distribuiti secondo due distribuzioni di
Gauss centrate su X (risp. Y ) e di larghezza (x) (risp. (y). Possiamo allora approssimare
la grandezza calcolata con lo sviluppo di Taylor della funzione f :
f (x, y) f (X , Y ) +

f
x

(x X ) +

f
y

(y Y )

dove le derivate devono essere valutate nel punto (X , Y ).


Calcoliamo il valore atteso della grandezza calcolata:

E f (x, y) = E f (X , Y ) +

f
x

(x X ) +

f
y

(y Y ) =

f
= f (X , Y ) +
E (x X ) +
E (y Y ) =
x
y

f
= f (X , Y ) +
(X X ) +
(Y Y ) = f (X , Y ) + 0 + 0 = f (X , Y )
x
y

Calcoliamo la varianza della grandezza calcolata:

f
f
2
f (x, y) = f (X , Y ) +
(x X ) +
(y Y ) =
x
y

f
2 f
2 f
2 f
=
(x X ) +
(y Y ) =
(x X ) +
(y Y ) =
x
y
x
y
2

f
x

2 (x X ) +

f
y

2 (y Y ) =

f
x

2 (x) +

f
y

2 (y)

Otteniamo quindi la formula per la propagazione delle incertezze (per due variabili, estendibile al caso di N variabili):
v
u 2
2
u f
f
t
f (x, y) =
2 (x) +
2 (y)
x
y

La giustificazione della formula per x

Misuriamo una grandezza N volte ottenendo i valori x1 , x2 , . . . , x N . Da questi valori possiamo calcolare le migliori stime dei parametri X e .
Supponiamo ora di ripetere molte volte il gruppo di N misure. Ogni gruppo di N misure ha
la sua media aritmetica x k . Queste medie aritmetiche sono distribuite secondo una distribuzione di Gauss centrata sul valore atteso X . Cerchiamo ora lincertezza su x utilizzando
la formula della propagazione delle incertezze (attenzione agli indici delle sommatorie!).
P

xn
x=
N

v
v
v
u
2 u
2 u
2
uX X x
uX 1
uX x
m
x = t
n = t
n = t
n
n xn
n xn m N
n N

Assumiamo, ragionevolmente, che tutte le incertezze n siano circa uguali, per cui n = :
v
v
s
u
u
uX 1 2 u 1 2
2

t
x = t
= N
=
=p
N
N
N
n N