Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Sperimentazione di Fisica
PARTE II
Corso di Laurea in Matematica
• Definizione classica:
Probabilità P(E) di un evento casuale E: rapporto tra il numero di casi
“favorevoli” (casi in cui si presenta E) e il numero totale degli eventi possibili
(però tutti equiprobabili)
0 ≤ P( E ) ≤ 1
Es: dado P(3) = 1/6; due dadi P(2) = P(12) = 1/36, P(7)=6/36=1/6
• Definizione empirica:
Frequenza di un evento casuale E: f(E) = rapporto tra il numero di volte in cui
tale evento si è presentato e il numero di prove eseguite.
n
f (E) =
N
n
Si definisce: P( E ) = lim f ( E ) = lim (legge empirica del caso)
N →∞ N →∞ N
Proprietà della Probabilità
• N casi totali;
n
• n casi “favorevoli”: m1 casi in modalità e1 ∑m k n
mk n
m2 casi in modalità e2 p= k =1
=∑ = ∑ pk
N k =1 N k =1
m3 casi in modalità e3 .....
evento complementare di A:
P ( A + B) = P( A) + P( B) A
N −n
P( A ) = = 1 − P( A) P( A) + P( A ) = 1
N
∑ P( A
k =1
M ) =1 Se A1, A2, ..., AM insieme di tutti gli eventi possibili
Probabilità composta per eventi statisticamente indipendenti (probabilità che si
verifichi sia l’evento A, che l’evento B, che ... – statisticamente indipendenti)
P( A ⋅ B ) = P ( A) ⋅ P ( B )
P( A ⋅ B ) = P ( A B ) ⋅ P ( B ) = P ( B A) ⋅ P ( A)
4 modalità possibili, N eventi totali
B B
A n AB n AB n AB n N 1
A nAB nAB P( A | B) = = AB ⋅ = P( A ⋅ B) ⋅
n AB + n A B N n AB + n A B P( B)
c.v.d.
P( B A) ⋅ P( A)
Teorema di Bayes: P( A B) =
P( B)
Se A e B mutuamente esclusivi: P ( A | B ) = P ( B | A) = 0
P( A ⋅ B) = 0
Se A e B statisticamente indipendenti: P ( A | B) = P( A)
P( A ⋅ B) = P( A) ⋅ P( B)
Probabilità totale per eventi non mutuamente esclusivi (probabilità che si verifichi o
l’evento A, o l’evento B, o entrambi)
n AB + n AB + n A B (n AB + n AB ) + (n AB + n A B ) − n AB
P( A + B) = = = P( A) + P( B) − P( A ⋅ B)
N N
P( A + B) = P( A) + P( B) − P( A ⋅ B)
Sommario sulla probabilità
1/36
1 2 3 4 5 6 xi 2 3 4 5 6 7 8 9 10 11 12 xi
x2
P( x1 ≤ X ≤ x2 ) = ∫ f ( x)dx = F ( x2 ) − F ( x1 )
x1
∫ f ( x)dx = 1
a a x1 x2 b x
Esempi di alcune distribuzioni di probabilità
• distribuzione binomiale
• distribuzione multinomiale
• distribuzione di Poisson
• ...
• Variabile aleatoria continua
• distribuzione uniforme
• distribuzione esponenziale
• distribuzione normale di Gauss
• distribuzione del χ2
• distribuzione del t-Student
• distribuzione gamma
• ....
Definizione di valore aspettato di una variabile
n1 x1 + n2 x2 + ... + nk xk n1 k
Es: x= = x1 + ... → ∑ pi xi
n n i =1
• Varianza: σ2=E(ξ2)
[ ] [ ] [ ] [ ] [ ]
E (ξ 2 ) = E ( x − m) 2 = E x 2 − 2mx + m 2 = E x 2 − 2m ⋅ E[x] + m 2 = E x 2 − 2m 2 + m 2 = E x 2 − m 2
σ 2 = E [x 2 ]− m 2
xm b
1
∫
a
f ( x)dx = ∫
xm
f ( x)dx =
2
(per la gaussiana: Moda=Mediana=Media)
Alcune informazioni utilissime sulla media
• Ho n misure della stessa grandezza fisica: x1, x2, ..., xn. (misure tra loro indipendenti)
• Esse, quindi, appartengono alla stessa distribuzione statistica (es: gaussiana)
• Cioé: µ=E(xk) e σ2=E[(xk- µ)2] per qualunque k.
• Calcoliamo il valore di aspettazione e la varianza della media.
n
∑ xk 1 n 1
• Valore di aspettazione della media: E [x ] = ∑ E [xk ] = ⋅ n ⋅ µ = µ
n k =1 n
x= k =1
;
n
• Varianza della media: σ x2 = E [( x − µ ) 2 ] =
1
n 2
E ∑ ξ
k k
2
= [( )]
σ2
n
1 2 2
[ 2
n
1 2
]
σ x = 2 E ξ1 + ξ 2 + ... + ξ n + 2ξ1ξ 2 + ... = 2 {n ⋅ σ + 0 + 0 + ...} =
2
n
Si sono usate le seguenti formule (ξk è lo scarto k-esimo da µ):
x−µ =
∑ k
n
xk
−µ =
∑ (x
k k
n
− µ)
=
∑
n
k
ξk [ ]
E ξ k2 = σ 2 ; E [ξ1 ⋅ ξ 2 ] = E [ξ1 ]⋅ E [ξ 2 ] = 0
σ2 σ
E [x ] = µ ; σ = 2
x ; σx =
n n
Alcune informazioni utili sulla deviazione standard
• Ho n misure della stessa grandezza fisica: x1, x2, ..., xn. (misure tra loro indipendenti)
• Esse, quindi, appartengono alla stessa distribuzione statistica (es: gaussiana)
• Cioé: µ=E(xk) e σ2=E[(xk- µ)2] per qualunque k.
• Calcoliamo il valore di aspettazione dello scarto quadratico medio.
n
• Definiamo: Z = ∑ ( xk − x ) 2 ;
k =1
n Il valore di aspettazione della scarto
2
∑ k ( x − x ) quadratico medio è la varianza.
E k =1
=σ 2 Il miglior stimatore della varianza è lo
n −1 scarto quadratico medio.
k =1 k =1 k =1 k =1 k =1
n n n n
Z = ∑ ( xk − µ ) − 2b∑ ξ k + nb = ∑ ( xk − µ ) − 2nb + nb = ∑ ( xk − µ ) 2 − nb 2
2 2 2 2 2
k =1 k =1 k =1 k =1
[ ] σ 2
Quindi: E ( Z ) = ∑ E (xk − µ )2 − nE [b 2 ] = nσ 2 − n
n
= (n − 1) ⋅ σ 2
k =1 n
Sommario
• Valore vero di una grandezza fisica è incognito: V=µ
• Ho n misure della stessa grandezza fisica: x1, x2, ..., xn. (misure tra loro indipendenti)
• Esse, quindi, appartengono alla stessa distribuzione statistica (es: gaussiana) con
parametri incogniti:
Valore di aspettazione di x: E(xk)= µ Varianza di x: E[(xk- µ)2] =σ2
• Migliore stima dei parametri incogniti µ e σ2 :
la media x =
∑ k
xk
è la migliore stima del parametro incognito µ.
n n
∑ (x k − x )2
lo scarto quadratico medio s = k =1
è la migliore stima del
n −1
parametro incognito σ.
σ
la migliore stima della deviazione standard della media, σx = , è:
n n
s ∑ (x k − x) 2
sx = = k =1
n n ⋅ ( n − 1)
dg 1 d 2g
y = g ( x) = g (m) + ( x − m) + 2 ( x − m) 2 + ...
dx x = m 2 dx x = m
1 d 2g
dg
[ ]
E ( y ) = E [g ( x)] = g (m) + E ( x − m) + 2 E ( x − m) 2 + ... ≈ g (m)
2 dx x = m
dx x = m
dg dg
2
[ ]
2 2
σ y2 = E ( y − g (m) )2 [ ]
dg
= E ( x − m) + ... ≈ ⋅ E ( x − m) = ⋅ σ x2
2
dx x = m dx x = m dx x = m
2
dg
E ( y ) = E [g ( x)] ≅ g (m) σ y ≅ ⋅ σ x2
2
dx x = m
• Nel caso di una funzione di n variabili: y=g(x1,x2,...,xn)
dg
n
g ( x1 , x2 ,..., xn ) = g (m1 , m2 ,..., mn ) + ∑ ( xi − mi ) + ...
i =1 dxi xi = mi
E ( y ) ≈ g (m1 , m2 ,..., mn )
2
2
[
σ y2 = E ( y − g (m1 , m2 ,..., mn ) )2 ]
= E ∑i
dg
dxi
( xi − mi ) + ... ≈ ∑i
dg
⋅ σ i2
dxi xi = mi
xi = mi
2
dg Formula di propagazione
σ ≅ ∑i
2
y
⋅ σ i2 delle incertezze casuali
dxi xi = mi
Distribuzione normale di Gauss
• f(x) definita tra -∞ e +∞
( x−µ )2
1 −
f ( x) = e 2σ 2
2π σ
+∞
∫ f ( x)dx = 1
−∞
σ
E (x) = µ
µ
σ x2 = E [( x − µ ) 2 ] = E [x 2 ]− µ 2 = σ 2
E (x) = µ
∞ ( x−µ )2 ∞ z2
σ2
[
E ( x − µ )2 =] 1
∫ ( x − µ ) 2
⋅e
−
2σ 2
dx = ∫ ⋅e
z 2
−
2
dz =
2π σ −∞ 2π −∞
+∞
σ − z2
2
2 ∞ z2
[
E (x − µ) = −
2
]
z ⋅e +σ 2 1
∫e
−
2
dz = σ 2
c.v.d.
2π −∞ 2π −∞
x
Funzione cumulativa: F ( x) = ∫ f ( z )dz
∞
Si trova tabulata ...
1 2
∫ f ( z )dz = 0.997;
−3
Legge dei grandi numeri
“Scelto un ε piccolo a piacere, la probabilità che la media scarti dal valore
aspettato meno di ε tende a 1 al crescere di n”.
lim x = µ P( x − µ ≤ ε ) → 1; per n → ∞
n →∞
µ = ∑i ai ⋅ µi ; σ 2 = ∑i ai2 ⋅ σ i2
Quindi, consideriamo il caso in cui l’incertezza della misura ε sia la combinazione di
tanti errori molto piccoli, εi.
ε = ∑εi; E (ε i ) = 0
E (ε ) = 0; σ ε2 = ∑ σ ε2 i
ε2 ( x−µ )2
1 − 2
2σ ε 1 −
2σ ε2
f ( x) = e = e
2π σ ε 2π σ ε
( xi − µ ) 2
1 −
L( µ ; x) = ∏ e 2σ i2
principio della massima verosimiglianza:
i =1, n 2π σ i
∂xi
1
σ µ2 = n
1
∑σ
i =1
2
i
Metodo dei minimi quadrati
Ad esempio: dipendenza lineare y vs x
migliore stima di a e di b: y = a⋅x+b
• rette minima/massima pendenza (caso di incertezze massime) (già trattato)
• metodo dei minimi quadrati (caso deelle incertezze casuali).
Dati sperimentali: n coppie (xi, yi). Errori relativi su xi trascurabili rispetto a quelli su
yi. Si usa il principio della massima verosimiglianza.
( yi − a⋅ xi −b ) 2
1 −
L ( a, b) = ∏ e 2σ i2
i =1, n 2π σ i
n
( yi − a ⋅ xi − b) 2
massimizzare tale funzione equivale a minimizzare la: ∑
i =1 2σ i2
∂ n ( yi − a ⋅ xi − b) 2 ∂ n ( yi − a ⋅ xi − b) 2
cioè: ∑
∂a i =1 2σ i 2
= 0; ∑
∂b i =1 2σ i 2
=0
Caso semplice: incertezze su yi tutti uguali a σ.
n
a=
xy − x y
x2 =
∑i i
x 2
2
x − x 2 n
xy =
∑i xi yi
2 n
x y − x xy
b= 2 y =
∑i yi
2
x − x n
σ σ⋅ x2
σa = σb =
2 2 2 2
n⋅ x − x n⋅ x − x
Dimostrazioni:
Caso generale: incertezze su yi differenti
1
Formule di a e b uguali; le medie vanno ∑σ i 2
i
sostituite con le medie pesate. 1
∑σ i 2
xi2
x2 = i
xy − x y ∑σ
1
a= 2 2 1
i
i
2
x − x xy =
∑σ
i
i
2
xi yi
1
∑σ i 2
i
1
x 2
y − x xy ∑σ
i 2
yi
y = i
b= 2 2 ∑σ
1
2
x − x
i
i
1 1 x2 1
σa = ⋅ σb = ⋅
x2 − x
2
1 x2 − x
2
1
∑σ
i 2 ∑σ i 2
i i
Il test del χ2 può essere usato per verificare il fit effettuato con il metodo dei minimi
quadrati.
n
( yi − a ⋅ xi − b) 2
χ =∑
2 n-2 gradi di libertà; a e b stimati con il
i =1 σ i2 metodo dei minimi quadrati.
Covarianza e correlazione. Coefficiente di correlazione lineare
Se x e y variabili non indipendenti:
[
cov[x, y ] = E ( x − µ x ) ⋅ ( y − µ y ) = E [xy ] − µ x ⋅ µ y ]
Una misura adimensionale della covarianza è il coefficiente di correlazione:
cov[x, y ]
ρ xy =
σ xσ y
Se x e y variabili indipendenti: ρ xy = 0 (non è vero il contrario)
[
σ 2 ( x + y ) = E (x + y − µ x − µ y ) ] = E [(x + y ) ]− (µ
2 2
x + µ y ) = E ( x 2 ) + E ( y 2 ) + 2 E ( xy ) − µ x2 − µ y2 − 2 ⋅ µ x ⋅ µ y
2
σ 2 ( x + y ) = σ x2 + σ y2 + 2 ⋅ cov[x, y ]
Migliore stima: ρ xy = ∑ (x − x) ⋅ ( y − y)
i i
∑ (x − x) ⋅ ∑ ( y − y)
i
2
i
2
-1<ρxy<1; se ρxy è vicino a ±1 allora i punti giacciono vicino ad una retta, altrimenti
sono scorrelati.