Sei sulla pagina 1di 29

Laboratorio di

Sperimentazione di Fisica
PARTE II
Corso di Laurea in Matematica

Dr. Riccardo Cerulli, INFN-Tor Vergata


http://users.lngs.infn.it/~cerulli/didattica.html
Analisi statistica dei dati
Misura di una grandezza fisica: V-M≠0
Incertezze nella misura

• La misura è soggetta a fenomeni casuali. La singola misura è un evento


casuale (aleatorio) che si può trattare con le leggi della probabilità e della
statistica.
• La singola misura fornisce un valore che corrisponde ad una grandezza fisica
che può essere considerata come una variabile casuale.

Obiettivo: definire un intervallo di valori della variabile casuale associata alla


misura con una probabilità nota di contenere il valore vero, V, della grandezza da
misurare.
Probabilità

• Definizione classica:
Probabilità P(E) di un evento casuale E: rapporto tra il numero di casi
“favorevoli” (casi in cui si presenta E) e il numero totale degli eventi possibili
(però tutti equiprobabili)
0 ≤ P( E ) ≤ 1
Es: dado P(3) = 1/6; due dadi P(2) = P(12) = 1/36, P(7)=6/36=1/6

• Definizione empirica:
Frequenza di un evento casuale E: f(E) = rapporto tra il numero di volte in cui
tale evento si è presentato e il numero di prove eseguite.
n
f (E) =
N
n
Si definisce: P( E ) = lim f ( E ) = lim (legge empirica del caso)
N →∞ N →∞ N
Proprietà della Probabilità

Probabilità totale per eventi mutuamente esclusivi (probabilità che si verifichi o


l’evento A, o l’evento B, o ... - mutuamente esclusivi)

• N casi totali;
n
• n casi “favorevoli”: m1 casi in modalità e1 ∑m k n
mk n

m2 casi in modalità e2 p= k =1
=∑ = ∑ pk
N k =1 N k =1
m3 casi in modalità e3 .....

evento complementare di A:
P ( A + B) = P( A) + P( B) A

N −n
P( A ) = = 1 − P( A) P( A) + P( A ) = 1
N

∑ P( A
k =1
M ) =1 Se A1, A2, ..., AM insieme di tutti gli eventi possibili
Probabilità composta per eventi statisticamente indipendenti (probabilità che si
verifichi sia l’evento A, che l’evento B, che ... – statisticamente indipendenti)

P( A ⋅ B ) = P ( A) ⋅ P ( B )

due dadi: probabilità che escano due 3: P(“3”.”3”)=P(“3”)*P(“3”)=1/6*1/6 = 1/36

Probabilità condizionata (probabilità che si verifichi A se si è verificato B e viceversa)

P( A ⋅ B ) = P ( A B ) ⋅ P ( B ) = P ( B A) ⋅ P ( A)
4 modalità possibili, N eventi totali
B B
A n AB n AB n AB n N 1
A nAB nAB P( A | B) = = AB ⋅ = P( A ⋅ B) ⋅
n AB + n A B N n AB + n A B P( B)

c.v.d.
P( B A) ⋅ P( A)
Teorema di Bayes: P( A B) =
P( B)

Se A e B mutuamente esclusivi: P ( A | B ) = P ( B | A) = 0

P( A ⋅ B) = 0
Se A e B statisticamente indipendenti: P ( A | B) = P( A)

P( A ⋅ B) = P( A) ⋅ P( B)
Probabilità totale per eventi non mutuamente esclusivi (probabilità che si verifichi o
l’evento A, o l’evento B, o entrambi)
n AB + n AB + n A B (n AB + n AB ) + (n AB + n A B ) − n AB
P( A + B) = = = P( A) + P( B) − P( A ⋅ B)
N N

P( A + B) = P( A) + P( B) − P( A ⋅ B)
Sommario sulla probabilità

Statisticamente Statisticamente Mutuamente


indipendenti dipendenti esclusivi

P(A.B) P(A).P(B) P(A|B).P(B) 0


P(B|A).P(A)
P(A+B) P(A)+P(B)-P(A.B) P(A)+P(B)-P(A.B) P(A)+P(B)

• P(A.B): probabilità che si verifichi sia l’evento A che l’evento B.


• P(A+B): probabilità che si verifichi o l’evento A o l’evento B.
• P(A|B): probabilità condizionata che si verifichi A se si è verificato B
Distribuzioni di probabilità

• Variabili casuali discrete


• Ad ogni valore della variabile discreta xi è associata una probabilità Pi=P(xi)
n
• ∑ P =1
i =1
i

• L’insieme dei valori Pi è detto funzione di distribuzione di probabilità

• Variabili casuali continue


• Variabile x continua nell’intervallo (a,b)
• Si definisce funzione di distribuzione cumulativa F(x)=P(a≤X≤x)
• P(x≤X≤x+dx) = P(a≤X≤x+dx) - P(a≤X≤x) = F(x+dx)-F(x) = dF(x) = f(x)dx
• la funzione f(x) è la funzione di densità di probabilità
x
dF ( x)
• f ( x) = ≥0 F ( x) = ∫ f ( x′)dx′ con F(a)=0 e F(b)=1
dx a
Es: variabile discreta
n
P(x) un dado P(x)
6/36
due dadi
∑ P =1 i
1/6 i =1

1/36
1 2 3 4 5 6 xi 2 3 4 5 6 7 8 9 10 11 12 xi

Es: variabile continua f(x)

x2
P( x1 ≤ X ≤ x2 ) = ∫ f ( x)dx = F ( x2 ) − F ( x1 )
x1

∫ f ( x)dx = 1
a a x1 x2 b x
Esempi di alcune distribuzioni di probabilità

• Variabile aleatoria discreta

• distribuzione binomiale
• distribuzione multinomiale
• distribuzione di Poisson
• ...
• Variabile aleatoria continua

• distribuzione uniforme
• distribuzione esponenziale
• distribuzione normale di Gauss
• distribuzione del χ2
• distribuzione del t-Student
• distribuzione gamma
• ....
Definizione di valore aspettato di una variabile

n1 x1 + n2 x2 + ... + nk xk n1 k
Es: x= = x1 + ... → ∑ pi xi
n n i =1

Caso var. discreta Caso var. continua


k b
E ( x) = ∑ pi xi E ( x) = ∫ x ⋅ f ( x)dx
i =1
a

Definizione di valore aspettato di una funzione di una variabile


Funzione g(x)

Caso var. discreta Caso var. continua


k b
E [g ( x)] = ∑ pi g ( xi ) E [g ( x)] = ∫ g ( x) ⋅ f ( x)dx
i =1 a

E (1) = 1; Il valore di aspettazione è un operatore lineare:


E [a ⋅ g1 ( x) + b ⋅ g 2 ( x)] = a ⋅ E [g1 ( x)] + b ⋅ E [g 2 ( x)]
• Valor medio: m=E(x); scarto: ξ=x-m; E(ξ)=0.

• Varianza: σ2=E(ξ2)
[ ] [ ] [ ] [ ] [ ]
E (ξ 2 ) = E ( x − m) 2 = E x 2 − 2mx + m 2 = E x 2 − 2m ⋅ E[x] + m 2 = E x 2 − 2m 2 + m 2 = E x 2 − m 2

σ 2 = E [x 2 ]− m 2

• Deviazione standard o scarto quadratico medio, σ.

• Moda; valore per cui la distribuzione ha il massimo (unimodali, multimodali)

• Mediana; valore, xm, che divide a metà la distribuzione

xm b
1

a
f ( x)dx = ∫
xm
f ( x)dx =
2
(per la gaussiana: Moda=Mediana=Media)
Alcune informazioni utilissime sulla media
• Ho n misure della stessa grandezza fisica: x1, x2, ..., xn. (misure tra loro indipendenti)
• Esse, quindi, appartengono alla stessa distribuzione statistica (es: gaussiana)
• Cioé: µ=E(xk) e σ2=E[(xk- µ)2] per qualunque k.
• Calcoliamo il valore di aspettazione e la varianza della media.
n

∑ xk 1 n 1
• Valore di aspettazione della media: E [x ] = ∑ E [xk ] = ⋅ n ⋅ µ = µ
n k =1 n
x= k =1
;
n
• Varianza della media: σ x2 = E [( x − µ ) 2 ] =
1
n 2
E ∑ ξ
k k
2
= [( )]
σ2
n
1 2 2
[ 2

n
1 2
]
σ x = 2 E ξ1 + ξ 2 + ... + ξ n + 2ξ1ξ 2 + ... = 2 {n ⋅ σ + 0 + 0 + ...} =
2

n
Si sono usate le seguenti formule (ξk è lo scarto k-esimo da µ):

x−µ =
∑ k
n
xk
−µ =
∑ (x
k k

n
− µ)
=

n
k
ξk [ ]
E ξ k2 = σ 2 ; E [ξ1 ⋅ ξ 2 ] = E [ξ1 ]⋅ E [ξ 2 ] = 0

σ2 σ
E [x ] = µ ; σ = 2
x ; σx =
n n
Alcune informazioni utili sulla deviazione standard
• Ho n misure della stessa grandezza fisica: x1, x2, ..., xn. (misure tra loro indipendenti)
• Esse, quindi, appartengono alla stessa distribuzione statistica (es: gaussiana)
• Cioé: µ=E(xk) e σ2=E[(xk- µ)2] per qualunque k.
• Calcoliamo il valore di aspettazione dello scarto quadratico medio.
n
• Definiamo: Z = ∑ ( xk − x ) 2 ;
k =1
 n Il valore di aspettazione della scarto
2 
∑ k ( x − x )  quadratico medio è la varianza.
E k =1
 =σ 2 Il miglior stimatore della varianza è lo
 n −1  scarto quadratico medio.
 

Infatti, ricordiamo che: b= x−µ =


∑ k
ξk
[ ]
E b =σ =
2 2 σ2
x
n n
[ ]
n n n n n
Z = ∑ ( xk − x ) = ∑ ( xk − µ − b) = ∑ ( xk − µ ) − 2b ⋅ ( xk − µ ) + b = ∑ ( xk − µ ) − 2b∑ ( xk − µ ) + nb 2 =
2 2 2 2 2

k =1 k =1 k =1 k =1 k =1

n n n n
Z = ∑ ( xk − µ ) − 2b∑ ξ k + nb = ∑ ( xk − µ ) − 2nb + nb = ∑ ( xk − µ ) 2 − nb 2
2 2 2 2 2

k =1 k =1 k =1 k =1

[ ] σ 2
Quindi: E ( Z ) = ∑ E (xk − µ )2 − nE [b 2 ] = nσ 2 − n
n
= (n − 1) ⋅ σ 2
k =1 n
Sommario
• Valore vero di una grandezza fisica è incognito: V=µ
• Ho n misure della stessa grandezza fisica: x1, x2, ..., xn. (misure tra loro indipendenti)
• Esse, quindi, appartengono alla stessa distribuzione statistica (es: gaussiana) con
parametri incogniti:
Valore di aspettazione di x: E(xk)= µ Varianza di x: E[(xk- µ)2] =σ2
• Migliore stima dei parametri incogniti µ e σ2 :

 la media x =
∑ k
xk
è la migliore stima del parametro incognito µ.
n n

∑ (x k − x )2
 lo scarto quadratico medio s = k =1
è la migliore stima del
n −1
parametro incognito σ.
σ
 la migliore stima della deviazione standard della media, σx = , è:
n n
s ∑ (x k − x) 2

sx = = k =1

n n ⋅ ( n − 1)

Quindi, l’incertezza da associare alla singola misura è s; mentre l’incertezza da


associare alla media è s/√n.
Migliore stima di V: x ± sx = x ± s n =x± (
∑k kx − x )2
n(n − 1)
Propagazione delle incertezze casuali

• Perchè la varianza di una variabile somma di variabili indipendenti si ottiene


sommando tra loro le varianza delle variabili addendo?
• Consideriamo y=g(x) funzione di una sola variabile e calcoliamo il valore di
aspettazione e la varianza di y.
• Sappiamo che E(x)=m e E[(x-m)2]= σx2

 dg  1  d 2g 
y = g ( x) = g (m) +   ( x − m) +  2  ( x − m) 2 + ...
 dx  x = m 2  dx  x = m

1  d 2g 
 dg 
[ ]
E ( y ) = E [g ( x)] = g (m) +   E ( x − m) +  2  E ( x − m) 2 + ... ≈ g (m)
2  dx  x = m
 dx  x = m

  dg     dg 
2

[ ]
2 2

σ y2 = E ( y − g (m) )2 [ ]
 dg 
= E    ( x − m) + ...   ≈   ⋅ E ( x − m) =   ⋅ σ x2
2

  dx  x = m    dx  x = m  dx  x = m

2
 dg 
E ( y ) = E [g ( x)] ≅ g (m) σ y ≅   ⋅ σ x2
2

 dx  x = m
• Nel caso di una funzione di n variabili: y=g(x1,x2,...,xn)

 dg 
n
g ( x1 , x2 ,..., xn ) = g (m1 , m2 ,..., mn ) + ∑   ( xi − mi ) + ...
i =1  dxi  xi = mi

E ( y ) ≈ g (m1 , m2 ,..., mn )
 
2
 2

[
σ y2 = E ( y − g (m1 , m2 ,..., mn ) )2 ] 
= E  ∑i 
dg
  dxi 



( xi − mi ) + ...   ≈ ∑i 
 
dg 
 ⋅ σ i2
    dxi  xi = mi
 xi = mi

Sapendo che: E [( x1 − m1 ) ⋅ ( x2 − m2 )] = 0 perchè xi variabili tra loro


indipendenti

2
 dg  Formula di propagazione
σ ≅ ∑i 
2
y
 ⋅ σ i2 delle incertezze casuali
 dxi  xi = mi
Distribuzione normale di Gauss
• f(x) definita tra -∞ e +∞

( x−µ )2
1 −
f ( x) = e 2σ 2

2π σ
+∞

∫ f ( x)dx = 1
−∞
σ
E (x) = µ
µ
σ x2 = E [( x − µ ) 2 ] = E [x 2 ]− µ 2 = σ 2

Distribuzione ridotta di Gauss


z2
x−µ 1 −
E ( z ) = 0 σ z2 = 1
z= f ( z) = e 2
σ 2π
∞ ( x−µ )2 ∞ z2 ∞ z2 ∞ z2
1 − 1 − 1 − σ −
E ( x) =
2π σ ∫ x⋅e
−∞
2σ 2
dx =
2π ∫ (µ + σ ⋅ z) ⋅ e
−∞
2
dz = µ ∫
−∞ 2π
⋅e 2
dz +
2π ∫ z ⋅e
−∞
2
dz

E (x) = µ

∞ ( x−µ )2 ∞ z2
σ2
[
E ( x − µ )2 =] 1
∫ ( x − µ ) 2
⋅e

2σ 2
dx = ∫ ⋅e
z 2

2
dz =
2π σ −∞ 2π −∞

+∞
σ  − z2 
2
2 ∞ z2
[
E (x − µ) = −
2
] 
z ⋅e  +σ 2 1
 ∫e

2
dz = σ 2
c.v.d.
2π   −∞ 2π −∞
x
Funzione cumulativa: F ( x) = ∫ f ( z )dz

Si trova tabulata ...
1 2

∫ f ( z )dz = 0.683; ∫ f ( z )dz = 0.955;


−1 −2
3

∫ f ( z )dz = 0.997;
−3
Legge dei grandi numeri
“Scelto un ε piccolo a piacere, la probabilità che la media scarti dal valore
aspettato meno di ε tende a 1 al crescere di n”.

lim x = µ P( x − µ ≤ ε ) → 1; per n → ∞
n →∞

Teorema del limite centrale


Date n variabili casuali x1, x2, ..., xn ciascuna distribuita secondo una propria funzione
di distribuzione con valori di aspettazione, µi, e varianza, σi, si ha che una qualsiasi
loro combinazione lineare ha una distribuzione di probabilità che tende a quella
normale al crescere di n.

y = ∑i ai ⋅ xi La variabile y avrà una distribuzione gaussiana con parametri


µ e σ al crescere di n.

µ = ∑i ai ⋅ µi ; σ 2 = ∑i ai2 ⋅ σ i2
Quindi, consideriamo il caso in cui l’incertezza della misura ε sia la combinazione di
tanti errori molto piccoli, εi.

ε = ∑εi; E (ε i ) = 0

E (ε ) = 0; σ ε2 = ∑ σ ε2 i

Per il teorema del limite centrale, per n→ ∞, sapendo che ε=x-µ:

ε2 ( x−µ )2
1 − 2
2σ ε 1 −
2σ ε2
f ( x) = e = e
2π σ ε 2π σ ε

Le misure seguono una distribuzione normale di Gauss


La media pesata
Si abbiano n misure xi±σi della stessa grandezza fisica il cui valore “Vero” è µ. Si
noti che le incertezze casuali sono diversi da misura a misura. Quale è la migliore
stima del parametro µ e il relativo errore?

( xi − µ ) 2
1 −
L( µ ; x) = ∏ e 2σ i2
principio della massima verosimiglianza:
i =1, n 2π σ i

Il miglior stimatore di µ è quel valore che massimizza la funzione di verosimiglianza


n
1

log L = 0 ∑σ 2
xi
∂µ µ= i =1 i
Media pesata
n
1
∑σ
i =1
2
i 2
 ∂µ  2
L’incertezza su µ si calcola con la regola della propagazione : σ µ = ∑   σ i
2

 ∂xi 
1
σ µ2 = n
1
∑σ
i =1
2
i
Metodo dei minimi quadrati
Ad esempio: dipendenza lineare y vs x
migliore stima di a e di b: y = a⋅x+b
• rette minima/massima pendenza (caso di incertezze massime) (già trattato)
• metodo dei minimi quadrati (caso deelle incertezze casuali).

Dati sperimentali: n coppie (xi, yi). Errori relativi su xi trascurabili rispetto a quelli su
yi. Si usa il principio della massima verosimiglianza.
( yi − a⋅ xi −b ) 2
1 −
L ( a, b) = ∏ e 2σ i2

i =1, n 2π σ i
n
( yi − a ⋅ xi − b) 2
massimizzare tale funzione equivale a minimizzare la: ∑
i =1 2σ i2

∂ n ( yi − a ⋅ xi − b) 2 ∂ n ( yi − a ⋅ xi − b) 2
cioè: ∑
∂a i =1 2σ i 2
= 0; ∑
∂b i =1 2σ i 2
=0
Caso semplice: incertezze su yi tutti uguali a σ.

y = a⋅x+b Calcoliamo prima: x =


∑ xi i

n
a=
xy − x y
x2 =
∑i i
x 2

2
x − x 2 n
xy =
∑i xi yi
2 n
x y − x xy
b= 2 y =
∑i yi
2
x − x n

σ σ⋅ x2
σa = σb =
2 2 2 2
n⋅ x − x n⋅ x − x
Dimostrazioni:
Caso generale: incertezze su yi differenti

y = a⋅x+b Calcoliamo prima: x =


∑σi
1
i
2
xi

1
Formule di a e b uguali; le medie vanno ∑σ i 2
i
sostituite con le medie pesate. 1
∑σ i 2
xi2
x2 = i

xy − x y ∑σ
1
a= 2 2 1
i
i
2

x − x xy =
∑σ
i
i
2
xi yi

1
∑σ i 2
i
1
x 2
y − x xy ∑σ
i 2
yi
y = i

b= 2 2 ∑σ
1
2

x − x
i
i

1 1 x2 1
σa = ⋅ σb = ⋅
x2 − x
2
1 x2 − x
2
1
∑σ
i 2 ∑σ i 2
i i
Il test del χ2 può essere usato per verificare il fit effettuato con il metodo dei minimi
quadrati.

n
( yi − a ⋅ xi − b) 2
χ =∑
2 n-2 gradi di libertà; a e b stimati con il
i =1 σ i2 metodo dei minimi quadrati.
Covarianza e correlazione. Coefficiente di correlazione lineare
Se x e y variabili non indipendenti:

[
cov[x, y ] = E ( x − µ x ) ⋅ ( y − µ y ) = E [xy ] − µ x ⋅ µ y ]
Una misura adimensionale della covarianza è il coefficiente di correlazione:

cov[x, y ]
ρ xy =
σ xσ y
Se x e y variabili indipendenti: ρ xy = 0 (non è vero il contrario)
[
σ 2 ( x + y ) = E (x + y − µ x − µ y ) ] = E [(x + y ) ]− (µ
2 2
x + µ y ) = E ( x 2 ) + E ( y 2 ) + 2 E ( xy ) − µ x2 − µ y2 − 2 ⋅ µ x ⋅ µ y
2

σ 2 ( x + y ) = σ x2 + σ y2 + 2 ⋅ cov[x, y ]

Migliore stima: ρ xy = ∑ (x − x) ⋅ ( y − y)
i i

∑ (x − x) ⋅ ∑ ( y − y)
i
2
i
2

-1<ρxy<1; se ρxy è vicino a ±1 allora i punti giacciono vicino ad una retta, altrimenti
sono scorrelati.