Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
STATISTICA E PROBABILITA'
Strumenti di misura
AS-1
x(E)
(numero reale)
in modo univoco
x(E):
Variabili casuali
discrete o continue
numero finito o infinito di valori
valore
vero
PROBABILITA`
1) Definizione "classica"
Probabilit P(E) di un evento casuale E: rapporto fra numero
dei casi "favorevoli" (casi in cui si presenta E) e numero totale
casi possibili, purch tutti i casi possibili siano equiprobabili
COROLLARIO:
0P1
numero reale
PROBLEMA:
Es. 1.
Lotto
P(n) =
Es. 2.
1
90
P(pari) =
45
1
=
90
2
3
P(non stesso sesso)= 6 =
8
4
AS-3
2) Definizione "empirica"
(Frequenzistica)
n
N
n
N
PROBLEMA:
.5
0
0
1
1
2
2
3
3
4
5
3
5
3
6
3
7
4
8
4
9
5 6
10 11
AS-4
2) Definizione "assiomatica"
s
A
A tale che:
P(A) E' un numero associato univocamente ad
Unione
P(A) 0 per ogni A
Intersezione
Contenuto
P(S) = 1
P(A+B) = P(A) + P(B)
se A B = 0
A B
PROBLEMA:
P(E)
per N
AS-5
P (|f(E) - (E)|>e)<e
(In analisi: |f(E) - P(E)|<e)
Si dimostra a partire dalla diseguaglianza
v
di BIENAYME' - CEBICEV
AS-6
1) Evento complementare di E : E
N-n = 1 N
f (E) =
n
N
= 1 - f(E)
P(E) = 1 - P(E)
P(E) + P(E) = 1
Se E1... E m: insieme di tutti gli eventi possibili in S, mutuamente
esclusivi:
m
S1 i
P(Ei) = 1
F
Su N prove
n11 n12
n21
n22
4 possibili casi:
EF
EF
EF
EF
AS-7
f (EF) =
n 11 ;
N
n11 =
n11 + n 21
n11 =
f (F|E) =
n11 + n 12
P(F|E)
n11
N
f (EF)
N
.
= f (F)
n11 + n 21
f (EF)
f (E)
P(E|F) =
P(EF)
P(F)
P(F|E) =
P(EF)
P(E)
AS-8
P(F|E) = P(F)
P(E i )
P
1 i
P(E|F) = P(F|E) = 0
P(EF) = 0
AS-9
f (E + F) : evento
f (E + F) =
n 11 + n12 + n 21
o evento
o ambedue
S1 i P(E i )
probabilit:
C
A = (A - C) + C
B = (B - C) + C
(A - C),(B - C), C: disgiunti
AS-10
A2
1-2
1-3 1-2-3
2-3
A3
AS-11
STATISTICAMENTE DIPENDENTI
P(F) = 4
42
P(E|F) = 1
4
P(F|E) = 1
3
P(E . F) =
3 . 1
42
3
1
42
# P(E) . P(F)
AS-12
P(A)+P(B)-P(A).P(B)
P(A) +P(B)
P(2) =
P(1, 2) =
N12 + N1
N
N12 + N2
N
N12
P(1) =
= P(1) . P(2)
N12
N12 + N2
N=
(N12 + N1 ).(N12 + N2 )
N12
N12
P(2) =
(N12 + N1 )
DISTRIBUZIONE DI PROBABILITA`
E
DENSITA` DI PROBABILITA`
xi
Pi (xi ) = lim
N
i = 1, ...
n (xi )
N
Si Pi (xi ) = 1
S
L'insieme di Pi costituisce la
distribuzione di probabilit della variabile casuale
2) Variabile casuale continua x
Dx
2
Dx
2
x
f (x - Dx , x + Dx ) : frequenza in x Dx
2
2
2
n(x Dx 2)
N
Frequenza limite per unit di Dx:
f (x - Dx , x + Dx )
2
2
lim
= f(x)
Dx 0
Dx
N
f(x) : DENSITA` DI PROBABILITA` o
FUNZIONE DI DISTRIBUZIONE
AS-15
dP(x, x + dx)
=
dx
dP =
f(x) dx
P(a, b) =
probabilit che la
variabile casuale
cada in (a,b)
f(x) dx =
Es.
P(x)
1
f(x)
f(x) dx
+
f(x) dx = 1
-
11
12
21
P(x)
un dado
2 dadi (somma)
13
22
31
.
.
.
36
6
1
1 2 3 4 5 6
36
2
12
2
3
4
Es.
f(x)
f(x)
1
b-a
C . dx = C . (b - a) = 1
1
C= b-a
AS-16
Funzione cumulativa:
F(x) =
PROPRIETA':
- f(x') dx'
= f(x)
Se x definito fra a e b:
F(a) = 0
F(b) = 1
(F(-) = 0; F(+) = 1)
Es.
f(x)
1
b-a
F(x)
1
F(x) =
0
1
b-a
dx' =
x-a
b-a
AS-17
PARAMETRI CARATTERISTICI
DELLE DISTRIBUZIONI DI PROBABILITA`
II
-
III
f(x) dx =
xM
f(x) dx =
1
2
- x . f(x) dx
n
S i x i .P i (x i )
1
continuo
discreto
g(x) . f(x) dx
AS-18
f(x)
0.15
0.1
0.05
5
10
20 x
15
f(x)
xo
x
Moda
Mediana
Media (valore aspettato)
AS-19
E[a] = a
a. f(x) dx = a . f(x) dx = a
E[a . g(x)] = a . E[g(x)]
=1
Notare:
E[(x - )] = E[x] - = 0
2)
Varianza = s2
E[(x - )2]
s2 =
(x - )2 .f(x) dx continuo
discreto
s = s2 = deviazione standard
AS-19A
SKEWNESS
SK =
- (x- )3 f(x) dx
s3
= 0 per distribuzioni
CURTOSIS
E [(x - )4 ] - 3
> 0 pi piccata
s4
= 0 per gaussiana
< 0 meno piccata
In generale la funzione di distribuzione completamente definita
dall'insieme dei suoi momenti:
+
Momento k-esimo di f(x) rispetto a xo =
(x - xo)k . f(x) dx
k
-
= k(xo) = E[(x - xo) ]
o(0) = 1 o() = 1
S i (xi - xo)k Pi(xi)
Si pu dimostrare che:
k
r
k(xo) = S r (-1)r . kr . x o. k -r (0)
o
coefficiente binomiale
Funzione simmetrica
momenti dispari rispetto = 0
rispetto a
VALORE ASPETTATO : 1(0)= = momento primo rispetto a xo = 0
VARIANZA :
SKEWNESS :
CURTOSIS :
AS-20
VALORE ASPETTATO
x
x f(x) dx =
x' = x - xo
=
x = x' + xo
= 0 (f dispari . f pari)
VARIANZA
=1
a
=
s
2=
x f(x) dx =
f(x) =
b
x
b
(x - ) f(x) dx =
b3 - a3
3(b-a)
dx = dx'
(b + a)2
4
s =
b-a
x dx =
c=
b-a
b2 - a2
b-a
a,b
b+a
x2 f(x) dx - 2 =
(b - a) 2
12
(b - a)
12
(b - a)
2
1
3
D
3
AS-21
x2 t2
2
+...
xk tk
k!
+ . . .] =
2
k
= 1 + 1 (0)t + 2 (0) t2 . . . k (0) t
k!
+...
dk Gx(0)
= E xk = k (0)
k
dt
AS-22
PROPRIETA` NOTEVOLI :
I
= Gx (ct)
.
II Gc+x (t) = E [e (c+x) t] = ect E [ext] = ect .Gx (t)
III Gx (0) = 1
La II ci permette di calcolare i momenti centrali:
Es. s 2 : momento secondo di (x - )
Gx- (t) = e-t Gx (t)
d
dt
d
dt
d2
dt2
. x(t) - e.-t
Gx- (t) = 2e-t G
. d Gx (t) +
dt
Gx (t)
d
d2
t
t
.
.
.
- e
2 Gx (t)
dt Gx (t) + e
dt
d
dt
Gx (0) = 0
=
=1
d2
dt2
d
dt
d
dt
Gx (0) =
2
d G (0) + d G (0)
2
.
x
Gx- (0) = - - dt x
dt2
2
=
s2
s2=
d2
dt2
Gx (0) - 2
AS-23
y = y(x)
f(x)
f(y) ?
corr. biunivoca
f(x) dx = f(y) dy
f(y) =
dx (y)
dy
. f(x(y))
dato che
f deve
essere
sempre
0
essere > 0
AS-24
NOTARE :
g(x) . f(x) . dx
E[g(x)] =
g(x) = y
E[y] =
y . f(x) . dx =
y . f(y) . dy
Infatti:
f(y) =
dx
dy
. f(x)
E[y] = y f(y) dy =
= y.
dx
f(x) . dy =
dy
= y(x) f(x) . dx
AS-25
Es.
r
q
f
y
Isotropa: flusso di particelle emesso (per unit di tempo )
proporzionale ad angolo solido e costante
dS
dSsfera= r2 sinqdqd
dW = sfera
= d(cos q) . d
2
r
Quindi la funzione di distribuzione di cosq sar costante
fra -1, +1; f(cosq) = 1
2
Funzione di distribuzione di q ?
-1 < x < 1
q = arcos (cos q)
>y>0
y
x
1 sin q
f(y) = f(x) . dx = 1 dcos q =
2
dy
2
dq
Es.
1 sin q d q = - 1 cos q
2
2
=1
CUMULATIVA
x
dy
= f(x)
dx
-
dxdx = f(x)1 = 1
Funzione di distribuzione di y : f(y)
=
f(x)
f ( y) = f ( x) dy= f ( x) f(x)
=1
dy
f ( x)
uniforme fra 0 e 1
y = F(x) =
f(x') dx'
AS-26
DISTRIBUZIONE ESPONENZIALE
x
1
x
f(x) =
e
o
xo
y = F(x) =
0
1 e
xo
- xx
o dx' = 1 - e o
- xx'
f(x) dx = 1
0
lge (1 - y) = - x
xo
x = - xo lge (1 - y)
y = g(x)
dy .
dx (x - x) +
x
d2y
(x - x)2 + . . .
2
dx x
1
2
A
y = E[y] = y(x) +
dy .
dx E [(x - x)] +
x
=0
1
2
d2y .
E (x - x)2 + . . .
dx2 x
y = E [y] ~ y(x)
E y - y(x)
dy 2 .
2
dalla ~
dy 2
(x - x) = dx
E (x - x )2
E dx
A
x
x
s 2x
(y)
2
s y = E y - y(x)
dy 2 . s 2
x
dx
x
approssimata
AS-28
Se y funzione lineare di x :
y = g (x)
y = ax + b
y = ax + b
sy2 = a2 s2x
ESATTA
AS-29
DISTRIBUZIONE BINOMIALE
p (1 - p)n-k p k-1
.
.
.
Sommare su tutte le possibili combinazioni:
n!
n =
n. di combinazioni n oggetti k a k =
k
k! (n - k)!
AS-30
PERMUTAZIONI
nPr = n . (n - 1) . . . (n - r + 1)
nPn = n . (n - 1) . . . (n - n + 1) = n!
nPr =
COMBINAZIONI
n!
(n - r)!
RICORDARE:
0! = 1
.(n - 1)...(n - r + 1)
n
n!
n
nCr = (n - r)! r! = r =
r!
nCr . r! = nPr
nCr =
n!
(n - r)! r!
AS-31
S1
k P10,1/6
= E[k] =
S0
n!
. pk . (1 - p)n-k =
k! (n - k)!
1 dato che k = 0 annulla primo termine
k.
k
= n.p
k' = k - 1
n' = n - 1
= n.p
(n -1)!
k-1 .(1 - p)n-k
p
k (k -1)! (n - k)!
1
S
n'
n'!
pk'.(1 - p)n'-k'
k' k'! (n' - k')!
0
=1
=n.p
AS-33
E[k2] =
S
0
n!
pk (1 - p)n-k
k! (n - k)!
k2
n
=np
S
1
k' = k - 1
n' = n - 1
(n -1)!
pk-1(1 - p)n-k =
(k -1)! (n - k)!
n'
=np
S (k' + 1) P
n',p
(k') =
su n-1 prove
= np . E[(k' + 1)] = np . (E[k'] + 1) =
(n - 1) . p
= np . {(n - 1) . p + 1} = n (n - 1) . p2 + n . p
s2 = n (n - 1) . p2 + n . p -(n . p)2
= np(1 - p)
s2 = np . (1 - p)
s = np (1 - p)
Distribuzione binomiale:
pn,p (k) =
= np
n k n-k
p q
k
q = (1 - p)
s = npq
AS-34
= 1 (0)
s2 = 2 ()
N
Gk (t) = E [etk] =
=
S
0
0 k
etk N pk qN-k =
k
N . ( p)k . qN-k =
k
sviluppo di
un binomio
= (et . p + q)N
d G (t) = N .(et . p + q)N-1 . p .et
k
dt
d2 G (t) = N . (et . p + q)N-1 . p .et +
k
2
dt
+ N . (N - 1) . (et . p + q)N-2 p2 . e2t
d G (0)
1 (0) = dt
k
2
2 () = s2 = d 2 Ge (0) - 2
dt
AS-35
d
= dt
Gk (0) = N .(p + q)N-1. p = N . p
=1
d2 G (0) = N .(p + q)N-1 . p +
k
dt2
=1
+ N (N - 1) . (p + q)N-2 . p2 =
=1
= N . p + N . (N - 1) . p2
2
s2 = d 2 Gk (0) - 2 = Np + N2p2 - Np2 +
dt
-(Np)2 = Np .(1 - p) =
= N. p .q
AS-36
se np >> 1
pk+1 qN-k-1
=
k
N-k
p .q
p
= N-k . q
k+1
k Np - q
AS-37
Massimo in corrispondenza a k ~ np
se np >> 1
se p = 0.5
pn,1/2 (k) =
1
2
n!
(n - k)! k!
1
2
n!
k! (n - k)!
pn,1/2 (n - k) =
. 1- 1
2
n-k
n-k
. 1- 1
2
p(k) = p (n - k)
Se p = 0.5 distribuzione simmetrica intorno a np (intero)
n
, p = costante
= np
5
s=
np . (1 - p)
, np = costante
DISTRIBUZIONE DI POISSON
Evento casuale E cui associata variabile casuale t con le
seguenti caratteristiche :
1) Densit di probabilit uniforme f(t) =
dP = dt
2) Eventi statisticamente indipendenti
3) Probabilit trascurabile di avere pi di un evento in dt
Distribuzione di probabilit che in un intervallo (0, t) si
verifichino k eventi:
P (k, t)
dP (1, dt) = dt
dP(0, dt) = 1 - dt
P(k, t + dt) = P(k -1, t). dP(1, dt) + P(k,t) dP (0, dt)
= P(k -1, t) . dt + P(k, t). (1 - dt)
P(k, t + dt) - P(k, t) = . P(k - 1, t) - . P(k, t)
dt
dP(k, t)
+ . P(k, t) - . P(k - 1, t) = 0
dt
AS-53
k=0
P(k - 1, t) = 0
dP(0, t)
= - P(0, t)
dt
P(0, t) = e-t
P(0, 0) = 1
k=1
dP(1, t) + . P(1, t) - e-t = 0
dt
Sol. : P(1, t) = t .e-t
infatti:
k=2
..
.
k
=0
dt
k
P(k, t) = ( t)
k!
e-t
t : costante; m = t costante
mk -m
Pm(k) = k! e
Distribuzione
di
Poisson
(dipende da un solo
parametro: m)
mk = e-m . e+m = 1
mk e-m = e-m . S
S
0 k k!
0 k k!
sviluppo in serie di em
AS-54
Valore aspettato : 0 k
mk-1
mke-m = m .e-m .
S1 k (k -1)!
k!
= E[k] = Sk k
0
1
k' = k - 1
= m .e-m
S0 k'
em
Notare:
m
Pm (k) = Pm (k -1) .
k
crescente fino a
k=m
Pm (m) = Pm (m - 1)
=m
Varianza :
s2 = E (k - m)2 = E k2 - m2
E k2
k' = k - 1
S0 k
k2
mk e-m = m
k!
Sk k
1
mk-1 e-m =
(k - 1)!
mk' e-m =
(k'
+
1)
S0 k'
k'!
= m E [k' + 1] = m (m + 1)
=m
s2 = m(m + 1) - m2
s2 = m
s = m
AS-55
Pn,p(k) = lim
n
np=cost.
pk(1 - p)n-k =
1-p~1 se p piccolo
s 2(k) ~ n p.
(k) = n .p
in Poisson
m
p= m
n
n . (n - 1) . . . (n - k +1) m
= lim
n
k!
n
1 -m
n
n-k
1 -m
n
n . (n - 1) . . . (n - k +1) m k
.
= lim
nk
k! 1 - m
n
n
= 1 dato che k finito
mk
.
.
= lim 1 1 - 1n 1 - 2n . . . 1 - k-1
n
k!
n
1 -m
n
1 -m
n
n
k
k
-m
= m
e
k!
c.v.d.
Ricordare che:
lim 1 + ax
x
= ea
lim 1 - m
n
n
= e-m
AS-56
DIMOSTRAZIONE ALTERNATIVA:
n!
. pk (1 - p)n-k =
n k! (n - k)!
lim
p= m
n
FORMULA DI STIRLING :
2n
.
2 (n - k)
= lim 1
n k!
= lim 1
n k!
n! ~ 2n . nn . e-n
n>>1
n-k
nn . e-n
(n - k)n-k .e-(n-k)
k
. m . 1 -m
n
n
n-k
=1
n-k
1
k 1 -m
m
=
n-k k
n
k
1-n . e
e-m
e-k
Ricordare:
lim 1 + ax
x
= ea
= 1 mk . e-m
k!
AS-57
Es.
Probabilit di 0 dec.?
100 -10
P10 (0) =
e = 4.5 10-5
0!
P10 (10) =
=m
1010 -10
e = 0.13
10!
s= m
P(m - m k m + m )
AS-58
Es.
(Esperimento di Rutherford)
Sorgente a su bersaglio
k
nk
10
(osservato)
45
27
11
nk
(aspettato)
68
29
17
sn k
14
20
23
22
20
16
12
AS-59
Es.
quale : P (r)
1
= Sr n n!
nn . e-n
1 .(p )r .e-n
= r!
n
n r .
n-r
r p (1 - p) =
Sr n
1
(n - r)!
n . (1 - p)
n-r
DISTRIBUZIONE UNIFORME
b-x
F(x) = b
-a
f(x) = b 1- a
= E[x] =
x 1 dx = b 1- a
b-a
x2 b
2 a=
2
2
= 12 bb -- aa = 12 (b + a)
s 2 = E (x - )2 = E x2 - 2
E
s
x2
2=
= x2
a
1 dx = 1
b-a
b-a
b3 - a3
3
3
b3 - a3 - (b + a)2 = 1 = (b - a) = 1 (b - a)2
12
b-a
12
3(b - a)
4
m = 21 (b + a)
s2 = 1 (b - a)2
12
s=
(b - a) = 2 .Dx
s=
1
Dx
3
1 (b - a)
12
2
Dx
3
P( - s x + s) = 2 x = 0.58
D
AS-61
DISTRIBUZIONE ESPONENZIALE
fb(x) = 1 e-x/ b
0x
b>0
f(x) dx = 1b
(x) = 1b
e-x/ b
dx
= - e-x/ b
=0
x . e-x/ b
dx = -
x . e-x/ b
=1
-x/ b
dx =
=b
1
s2 = b
x2 e-x/ b dx - b 2 = 1 .2 b 3 - b 2 = b 2
b
2 eax
ax
= ea
fm(x) = 1 e-x/m
m
dx =
2
x2 - 2x
+
a
a2
(x) =
s 2 (x) = 2
AS-62
F(x) =
AS-63
Esempio
Distribuzione del Dt fra due particelle consecutive in
un fascio con distribuzione temporale uniforme.
Ntot particelle
Dt
t
t2
t0
f(t) = cost
t1
f(t)
1
t2 - t1
t1
t2
Fissato arbitrariamente t0 :
0 particella in Dt
1
" dt
"
dP(Dt ) = e-Dt . dt
dP(1, dt)
P(0, t) (vedi pag. AS-54)
f(Dt ) =
=
Ntot
t2 - t1
dP(Dt ) = . e-Dt
dt
(Dt ) = 1 =
t2 - t1
Ntot
AS-64
DISTRIBUZIONE DI GAUSS
(NORMALE)
f(x) =
1
2 p.a
x - xo)2
(
. e- 2a2
;
f(x)dx = 1
1 Simmetria intorno a: x = xo
2
2f
d
xo - a, xo + a sono i punti di flesso
=0
dx2
a misura la larghezza della distribuzione
df
dx = 0
2 p.a
Valore aspettato
1
= E[x] =
2 p.a
xe-
+ (x - x )2
o
2a2
cambiando variabile:
x-x
t= a o
dt = a1 dx
=
1
2p
t2
.
(a t + xo) e 2
-
=0
Gauss con
xo = 0
-
a =1
xo
t2
.
dt
+
t
e
=
a
2
2 p -
2p
1
dx =
=1
dt =
t2 dt
e 2
-
= xo
AS-65
f(x)
xo = - 1
a = 0.5
t2
xo = 3.5
a = 1.5
0.5
t
-2
-1
xo = 1.5
a=2
AS-66
Varianza
= xo
2p a
s2 = E (x - )2 =
t= x-
a
=
a2
2p
u=t
+
t2
2
.
t e 2
-
(x - )2
(x - )2
e- 2a2
dx =
dt = 1 dx
a
dt = integrando per parti
du = dt
t2
v= e 2
dv =
t2
t .e 2
u . dv = u . v
+
2
=- a t
+
-
dt
-
+
t2
vdu =
a2
. e- 2
+
-
2p
2p
=0
=1
t
e- 2 dt
Gauss
x=0
a=1
= a2
(x - )2
.
f(x)=
e 2s2
2p s
1
Distribuzione
di
Gauss
AS-67
F(x) =
(x' - )2
e- 2s2
- 2 p . s
dx'
Cumulativa
Variabile ridotta
t=
x-
s
dx
dt = s
t = t(x)
Funzione universale
g(t) = s .
Cumulativa
G(t) =
1
2p s
2
t
. e- 2
Gaussiana
=0
s=1
g(t') dt'
~0.4
g(t)
0.3
0.2
0.1
-3
-2
-1
1.0
G(t)
0.5
-3
-2
-1
AS-69
-t
to
g(t) dt = 2
to
g(t) dt =
xo -
s
Se si ha G(t)
=
tabulata
fra 0 e t
to
g(t) dt -
g(t) dt =
g(t)
G(0) = 0.5
G(1) = 0.841345
G(2) = 0.977250
G(3) = 0.998650
G(4) = 0.999968
G(to)
G(0) =
-2
-1
to
1
2
P(a x b) = G
b-
s
-G
a-
s
b-
s
a-
s
-G
infinite soluzioni
Es:
b-
s
b-
s
-1
Po + 1
2
Po = 0.9
b-
s
G
= 1.645
b-
s
= 0.95
b - = 1.645 . s
AS-71