Sei sulla pagina 1di 58

ANALISI STATISTICA DEI DATI

STATISTICA E PROBABILITA'

Misura di una grandezza fisica


Errori
dovuti a:

Strumenti di misura

Parametri non controllabili da sperimentatore

= da valore vero grandezza


varia da misura a misura
La misura fenomeno casuale e la singola misura sar evento
casuale.
Evento casuale (o aleatorio): evento ripetibile (infinite volte) che
si manifesta in modo non prevedibile singolarmente
(es. lancio dado/moneta, estrazione carta ...)

AS-1

S: insieme di tutti i modi possibili del


fenomeno casuale
E: generica modalit dell'evento casuale
(generico evento casuale )

x(E)

(numero reale)

in modo univoco

x(E):

variabile casuale definita nell'insieme S.

Variabili casuali

discrete o continue
numero finito o infinito di valori

La misura di una grandezza fisica pu essere considerata come


un evento casuale e il numero (che si ottiene) la variabile
casuale associata all'evento.
PROBLEMA DELLA MISURA
insieme di misure della
stessa grandezza fisica

valore
vero

Analisi statistica delle misure


che utilizza teoria della probabilit

Definire intervallo di valori della variabile casuale "misura" con


assegnata probabilit di contenere valore vero della grandezza
AS-2

La STATISTICA un ramo della matematica che studia i


fenomeni casuali utilizzando la TEORIA della PROBABILITA`

PROBABILITA`
1) Definizione "classica"
Probabilit P(E) di un evento casuale E: rapporto fra numero
dei casi "favorevoli" (casi in cui si presenta E) e numero totale
casi possibili, purch tutti i casi possibili siano equiprobabili

COROLLARIO:

0P1
numero reale

PROBLEMA:

Es. 1.

Tautologia (per definire probabilit


necessario valutare equiprobabilit)

Lotto
P(n) =

Es. 2.

1
90

P(pari) =

45
1
=
90
2

3 figli non dello stesso sesso

MMM MMF MFM FMM MFF FMF FFM FFF


Tot casi possibili = 8

3
P(non stesso sesso)= 6 =
8
4
AS-3

2) Definizione "empirica"

(Frequenzistica)

Frequenza relativa di E : f (E)


f (E) =

n
N

N: numero totale prove


n: numero volte in cui si presentato E su N prove
Si definisce:

P(E) = lim f (E) = lim

n
N

postula che lim f (E) sia numero definito

PROBLEMA:

non def. operativa


f (E )

.5

0
0
1

1
2

2
3

3
4

5
3
5

3
6

3
7

4
8

4
9

E: testa su lancio moneta

5 6
10 11

AS-4

2) Definizione "assiomatica"

s
A

S: Insieme di tutti i possibili E


A: Sottoinsieme di S

A tale che:
P(A) E' un numero associato univocamente ad
Unione
P(A) 0 per ogni A
Intersezione
Contenuto
P(S) = 1
P(A+B) = P(A) + P(B)
se A B = 0
A B
PROBLEMA:

Non ci dice quanto vale P


L'asseganzione di P ad A un modello matematico

A partire da definizione assiomatica di P si pu dimostrare che:


f(E)

P(E)

per N

LEGGE DEI GRANDI NUMERI

AS-5

LEGGE DEI GRANDI NUMERI


Dato evento casuale E a cui associata P(E),
n
se f(E) =
(su N prove), scelti due numeri positivi a piacere
N
e', e" possibile definire un N tale che, per ogni M > N:

P (|f(E) - (E)|>e)<e
(In analisi: |f(E) - P(E)|<e)
Si dimostra a partire dalla diseguaglianza
v

di BIENAYME' - CEBICEV

AS-6

PROPRIETA` DELLA PROBABILITA`

1) Evento complementare di E : E

N-n = 1 N

f (E) =

n
N

= 1 - f(E)

P(E) = 1 - P(E)
P(E) + P(E) = 1
Se E1... E m: insieme di tutti gli eventi possibili in S, mutuamente
esclusivi:
m

S1 i

P(Ei) = 1

Evento complesso = prodotto logico di due eventi casuali


E, F (es.: moneta/carta)

F
Su N prove

n11 n12

n21

n22

4 possibili casi:
EF
EF
EF
EF

AS-7

f (EF) =

n 11 ;
N

f(EF) = n 21 ; f(EF) = n 12 ; f(EF) = n 22 ;


N
N
N

f (E) = n11 + n12 = f (EF) + f (EF)


N
f (F) = n11 + n21 = f (EF) + f (EF)
N
P(E) = P(EF) + P(EF)
P(F) = P(EF) + P(EF)
PROBABILITA` CONDIZIONATA:
Probabilit che si verifichi E se si verificato F (o viceversa)
P(E|F)
f (E|F) =

n11 =
n11 + n 21

n11 =
f (F|E) =
n11 + n 12

P(F|E)
n11
N

f (EF)
N
.
= f (F)
n11 + n 21

f (EF)
f (E)

P(E|F) =

P(EF)
P(F)

P(EF) = P(F) .P(E|F)

P(F|E) =

P(EF)
P(E)

P(EF) = P(E) .P(F|E)

AS-8

2) LEGGE DELLE PROBABILITA` COMPOSTE

Se E ed F sono statisticamente indipendenti


P(E|F) = P(E)

P(F|E) = P(F)

P(EF) = P(E). P(F)


P(E1 . E2 ... . E m ) =

P(E i )
P
1 i

La probabilit che avvengano contemporaneamente E ed F


(prodotto logico) uguale al prodotto delle probabilit
dell'evento E e dell'evento F
se E ed F sono statisticamente indipendenti
Es. 2 dadi - Probabilit che escano due 4
P(4,4) = P(4) . P(4) = 1 . 1 = 1
6 6
36
Se E ed F sono mutuamente esclusivi:

P(E|F) = P(F|E) = 0

P(EF) = 0

AS-9

3) LEGGE DELLE PROBABILITA` TOTALI

f (E + F) : evento
f (E + F) =

n 11 + n12 + n 21

o evento

o ambedue

(n11+ n12 )+(n 21 + n 11)-n11


=
N

f (E + F) = f (E) + f (F) - f (EF)

P(E + F) = P(E) + P(F) - P(EF)


Se E ed F sono mutuamente esclusivi
P(EF) = 0
P(E + F) = P(E) + P(F)
P(E1 ... E m ) =

S1 i P(E i )

Dimostrabile anche usando la definizione assiomatica di

probabilit:

C
A = (A - C) + C

B = (B - C) + C
(A - C),(B - C), C: disgiunti

AS-10

Da III assioma: (P(A + B) = P (A) + (P(B) ) se A,B disgiunti;


P(A) = P(A - C) + P(C)
P(B) = P(B - C) + P(C)

P(A - C) = P(A) - P(C)


P(B - C) = P(B) - P(C)

Se ora consideriamo insieme somma A+B :


A + B = (A - C) + (B - C) + C
P(A + B) = P(A - C) + P(B - C) + P(C)
P(A + B) = P(A) - P(C) + P(B) - P(C) + P(C)
P(A + B) = P(A) + P(B) - P(C)
P(A . B)
P(A + B) = P(A) + P(B) - P(A .B)
Se considero 3 eventi casuali :
P(A1 + A 2+ A 3) = P(A 1) + P(A 2) + P(A )3 - P(A A
1 )2 - P(A A
1 )3
- P(A2.A 3) + ( P(A 1. A 2 .A 3)
A1

A2
1-2
1-3 1-2-3
2-3

A3
AS-11

STATISTICAMENTE DIPENDENTI

MAZZO CON 42 CARTE (solo KQJ fiori)


E estrazione FIORI
F estrazione RE
P(E) = 3
42

P(F) = 4
42

P(E|F) = 1
4

P(F|E) = 1
3

P(E . F) =

3 . 1
42
3

1
42

# P(E) . P(F)

AS-12

P(A)+P(B)-P(A).P(B)

P(A) +P(B) -P(A).P(B|A)

P(A) +P(B)

Es.: efficienza di scanning nella ricerca di eventi rari

N : N. di eventi rari presenti nel campione (incognito)


N12 + N1 : N. di eventi trovati nella 1 a ricerca
N12 + N2 : N. di eventi trovati nella 2 a ricerca
N12 : N. di eventi trovati in ambedue
P(1) =

P(2) =
P(1, 2) =

N12 + N1
N

(1) e (2) statisticamente indipendenti

N12 + N2
N

N12

P(1) =

= P(1) . P(2)
N12

N12 + N2

N=

(N12 + N1 ).(N12 + N2 )

N12

N12
P(2) =
(N12 + N1 )

Probabilit di trovare un evento nelle due ricerche:


(N12 + N1 ) (N12 + N2 ) N12
.
P(1 +2) = P(1) + P(2) - P(1) P(2) =
=
+
N
N
N
N12
. (N1 + N2 + N12 )
=
(N12 + N1 ) . (N12 + N2 )
AS-14

DISTRIBUZIONE DI PROBABILITA`
E
DENSITA` DI PROBABILITA`

1) Variabile casuale discreta


xi

xi

Pi (xi ) = lim
N

i = 1, ...
n (xi )
N

Si Pi (xi ) = 1
S

L'insieme di Pi costituisce la
distribuzione di probabilit della variabile casuale
2) Variabile casuale continua x
Dx
2

Dx
2
x

f (x - Dx , x + Dx ) : frequenza in x Dx
2
2
2
n(x Dx 2)
N
Frequenza limite per unit di Dx:
f (x - Dx , x + Dx )
2
2
lim
= f(x)
Dx 0
Dx

N
f(x) : DENSITA` DI PROBABILITA` o
FUNZIONE DI DISTRIBUZIONE

AS-15

dP(x, x + dx)
=
dx

dP =

f(x) dx

P(a, b) =

probabilit che la
variabile casuale
cada in (a,b)

f(x) dx =

Es.
P(x)
1

f(x)

f(x) dx

+
f(x) dx = 1
-

11
12
21

P(x)

un dado

2 dadi (somma)

13
22
31
.
.
.

36

6
1
1 2 3 4 5 6

36
2

12

2
3
4

Es.
f(x)

f(x)

1
b-a

Densit uniforme di probabilit


f(x) = C

C . dx = C . (b - a) = 1

1
C= b-a
AS-16

CUMULATIVA DI UNA FUNZIONE DI DISTRIBUZIONE

Funzione cumulativa:

F(x) =

PROPRIETA':

- f(x') dx'

F(x) = P (- < x' < x)


P(a < x < b) =

f(x) dx = - f(x) dx - - f(x) dx = F(b) - F(a)

f(x)dx = F(x + dx) - F(x) = dF(x)


dF(x)
dx

F(x) monotona crescente


dato che f(x) 0 sempre

= f(x)

Se x definito fra a e b:
F(a) = 0

F(b) = 1

(F(-) = 0; F(+) = 1)

Es.
f(x)
1
b-a

F(x)
1

F(x) =
0

1
b-a

dx' =

x-a
b-a
AS-17

PARAMETRI CARATTERISTICI
DELLE DISTRIBUZIONI DI PROBABILITA`

1) La "posizione" della distribuzione


I

La moda: x A per cui la distribuzione ha il massimo


(unimodali, multimodali)

II

La mediana: x M che divide a met la distribuzione


xM

-
III

f(x) dx =

xM

f(x) dx =

1
2

La media (o valore aspettato) : (= )


E[x] = =
E[x] = =

- x . f(x) dx
n

S i x i .P i (x i )
1

continuo
discreto

In generale si definisce il valore aspettato di una funzione di x, g(x)


(se x variabile casuale g(x) anche variabile casuale):
E[g(x)] =

g(x) . f(x) dx

AS-18

f(x)
0.15
0.1
0.05
5

10

20 x

15

Media (valore aspettato)


Mediana
Moda

f(x)

xo

x
Moda
Mediana
Media (valore aspettato)

AS-19

Propriet del valore aspettato:


E[Sk ak. gk (x)] = Sk ak .E[gk (x)]
Casi notevoli:

E[a] = a
a. f(x) dx = a . f(x) dx = a
E[a . g(x)] = a . E[g(x)]
=1
Notare:
E[(x - )] = E[x] - = 0
2)

La "larghezza" della distribuzione = varianza =


= valore aspettato di (x - )2

Varianza = s2
E[(x - )2]

s2 =

(x - )2 .f(x) dx continuo

s2 = Si (xi - )2 .Pi (xi)


1

discreto

E[(x - )2] = E[(x2 + 2 - 2x)] =


E[x2] + 2 - 2E[x] = E[x2] - 2 = E[x2] - (E[x])2

s = s2 = deviazione standard

AS-19A

3) La "asimmetria" della distribuzione


(valore aspettato di (x - )3)
+

SKEWNESS

SK =

- (x- )3 f(x) dx
s3
= 0 per distribuzioni

> 0: coda a destra


< 0: coda a sinistra
rispetto a
f(x) simmetriche

CURTOSIS

E [(x - )4 ] - 3
> 0 pi piccata
s4
= 0 per gaussiana
< 0 meno piccata
In generale la funzione di distribuzione completamente definita
dall'insieme dei suoi momenti:
+
Momento k-esimo di f(x) rispetto a xo =
(x - xo)k . f(x) dx

k
-
= k(xo) = E[(x - xo) ]
o(0) = 1 o() = 1
S i (xi - xo)k Pi(xi)
Si pu dimostrare che:
k
r
k(xo) = S r (-1)r . kr . x o. k -r (0)
o
coefficiente binomiale
Funzione simmetrica
momenti dispari rispetto = 0
rispetto a
VALORE ASPETTATO : 1(0)= = momento primo rispetto a xo = 0
VARIANZA :
SKEWNESS :

CURTOSIS :

() = s2 = momento secondo rispetto a xo =


2

3(/s3) = momento terzo rispetto a s3


momento quarto rispetto a s4

AS-20

VALORE ASPETTATO

di f(x) simmetrica rispetto a xo


= xo
xo
Infatti:
=

x
x f(x) dx =

(x' + xo ) f(x' + xo) dx' =

x' = x - xo
=

x = x' + xo

x'. f(x' + xo) dx' + xo

f(x' + xo) dx' = xo

= 0 (f dispari . f pari)
VARIANZA

=1

di una distribuzione uniforme


D

a
=
s

2=

x f(x) dx =

f(x) =
b

x
b

(x - ) f(x) dx =

b3 - a3
3(b-a)

dx = dx'

(b + a)2
4

s =

b-a

x dx =

c=

b-a

b2 - a2

b-a

a,b
b+a

x2 f(x) dx - 2 =

(b - a) 2
12

(b - a)
12

(b - a)
2

1
3

D
3

AS-21

FUNZIONE GENERATRICE DEI MOMENTI

Funzione della variabile casuale x :


Gx (t) = E [ext]

Sviluppano in serie ext :


Gx (t) = E [1 + xt +

x2 t2
2

+...

xk tk
k!

+ . . .] =

2
k
= 1 + 1 (0)t + 2 (0) t2 . . . k (0) t

k!

+...

I coefficienti dello sviluppo della Gx (t) in serie di potenze di t


sono i momenti intorno all'origine.
dk Gx(t)
dk ext
k . ext
x
=
E
=
E
k
dt
dtk

dk Gx(0)
= E xk = k (0)
k
dt

AS-22

PROPRIETA` NOTEVOLI :
I

Gcx (t) = E [e c.x.t] = E [e x .ct]

= Gx (ct)

.
II Gc+x (t) = E [e (c+x) t] = ect E [ext] = ect .Gx (t)

III Gx (0) = 1
La II ci permette di calcolare i momenti centrali:
Es. s 2 : momento secondo di (x - )
Gx- (t) = e-t Gx (t)
d
dt

Gx- (t) = - .e-t .Gx(t) + e-t .

d
dt

d2
dt2

. x(t) - e.-t
Gx- (t) = 2e-t G

. d Gx (t) +
dt

Gx (t)

d
d2
t
t
.
.
.
- e
2 Gx (t)
dt Gx (t) + e
dt

d
dt

Gx- (0) = - Gx (0)

Gx (0) = 0
=

=1
d2
dt2

d
dt

d
dt

Gx (0) =

2
d G (0) + d G (0)
2
.
x
Gx- (0) = - - dt x
dt2
2

=
s2
s2=

d2
dt2

Gx (0) - 2
AS-23

FUNZIONE DI DISTRIBUZIONE PER FUNZIONE


DELLA VARIABILE CASUALE

y = y(x)

f(x)

f(y) ?

corr. biunivoca

dP(x, x + dx) = dP(y, y + dy)


y(x)

f(x) dx = f(y) dy

f(y) =

dx (y)
dy

. f(x(y))

dato che f deve

dato che
f deve
essere
sempre

0
essere > 0

AS-24

NOTARE :
g(x) . f(x) . dx

E[g(x)] =

g(x) = y
E[y] =

y . f(x) . dx =

y . f(y) . dy

Infatti:
f(y) =

dx
dy

. f(x)

E[y] = y f(y) dy =
= y.

dx
f(x) . dy =
dy

= y(x) f(x) . dx

AS-25

Es.

SORGENTE DI PARTICELLE ISOTROPA

r
q
f

y
Isotropa: flusso di particelle emesso (per unit di tempo )
proporzionale ad angolo solido e costante
dS
dSsfera= r2 sinqdqd
dW = sfera
= d(cos q) . d
2
r
Quindi la funzione di distribuzione di cosq sar costante
fra -1, +1; f(cosq) = 1
2
Funzione di distribuzione di q ?
-1 < x < 1
q = arcos (cos q)
>y>0
y
x
1 sin q
f(y) = f(x) . dx = 1 dcos q =
2
dy
2
dq

Es.

1 sin q d q = - 1 cos q
2
2

=1

F(x) variabile casuale funzione di x

CUMULATIVA
x

dy
= f(x)
dx
-
dxdx = f(x)1 = 1
Funzione di distribuzione di y : f(y)
=
f(x)
f ( y) = f ( x) dy= f ( x) f(x)

=1
dy
f ( x)
uniforme fra 0 e 1

y = F(x) =

f(x') dx'

AS-26

Dato che F(x) distribuita uniforme (0, 1) posso ottenere


variabili casuali con funzione di distribuzione qualsiasi a
partire da variabile casuale con distribuzione uniforme fra
0 e 1 (utile nei calcolatori).
Es.

DISTRIBUZIONE ESPONENZIALE
x
1
x
f(x) =
e
o
xo

y = F(x) =
0

1 e
xo

- xx
o dx' = 1 - e o

- xx'

f(x) dx = 1
0

Se y la cumulativa di f(x), generato y uniforme, x = g(y) sar


distribuito secondo f(x)
x
y = 1 - e xo

lge (1 - y) = - x
xo

x = - xo lge (1 - y)

Per generare gaussiana( = 0, s = 1) :


x = sin (2y1) . - 2 lgey2
y1, y2 : 2 numeri casuali con distribuzione uniforme
AS-27

VALORE ASPETTATO E VARIANZA DI y

y = g(x)

Siano x e s x2 valore aspettato e varianza di x.


Sviluppo y(x) in serie di Taylor intorno a x:
y(x) = y(x) +

dy .
dx (x - x) +
x

d2y
(x - x)2 + . . .
2
dx x

1
2

A
y = E[y] = y(x) +

dy .
dx E [(x - x)] +
x
=0

1
2

d2y .
E (x - x)2 + . . .
dx2 x

Trascurando i termini di ordine pi alto:

y = E [y] ~ y(x)

E y - y(x)

dy 2 .
2
dalla ~
dy 2
(x - x) = dx
E (x - x )2
E dx
A
x
x
s 2x

(y)
2

s y = E y - y(x)

dy 2 . s 2
x
dx
x

approssimata

AS-28

Se y funzione lineare di x :

y = g (x)

y = ax + b
y = ax + b

sy2 = a2 s2x
ESATTA

AS-29

DISTRIBUZIONE BINOMIALE

Processo casuale generico


"successo" :

una certa modalit E di presentarsi nel


processo casuale con probabilit

(evento complementare E , probabilit (1 - p) )


Se facciamo n prove, quale la probabilit che il successo si
presenti k volte?
Pn,p (k)
Da teorema delle probabilit composte (le prove sono
statisticamente indipendenti ) :
k successi, n-k insuccessi
pk ( 1 - p )n-k

k volte (SI), (n-k) volte (NO)

p (1 - p)n-k p k-1

SI, (n-k) volte NO, (k-1) SI

.
.
.
Sommare su tutte le possibili combinazioni:
n!
n =
n. di combinazioni n oggetti k a k =
k
k! (n - k)!
AS-30

PERMUTAZIONI

Dati n oggetti distinti, in quanti modi se ne possono selezionare r?

nPr = n . (n - 1) . . . (n - r + 1)
nPn = n . (n - 1) . . . (n - n + 1) = n!

nPr =

COMBINAZIONI

n!
(n - r)!

RICORDARE:

0! = 1

Se non siamo interessati all'ordine in cui compaiono gli r oggetti:

.(n - 1)...(n - r + 1)
n
n!
n
nCr = (n - r)! r! = r =
r!
nCr . r! = nPr

nCr =

n!
(n - r)! r!
AS-31

Probabilit di avere almeno un 2:


10

S1

k P10,1/6

(k) = 1 - P10,1/6 (0) = 1 - 0.16 = 0.84

Propriet notevoli della binomiale:


1 Valore aspettato e varianza
n

= E[k] =

S0

n!
. pk . (1 - p)n-k =
k! (n - k)!
1 dato che k = 0 annulla primo termine

k.
k

= n.p
k' = k - 1
n' = n - 1
= n.p

(n -1)!
k-1 .(1 - p)n-k
p
k (k -1)! (n - k)!
1

S
n'

n'!
pk'.(1 - p)n'-k'
k' k'! (n' - k')!
0
=1
=n.p

s2 = E (k - np)2 = E[k2] - (np)2

AS-33

E[k2] =

S
0

n!
pk (1 - p)n-k
k! (n - k)!

k2
n

=np

S
1

k' = k - 1
n' = n - 1

(n -1)!
pk-1(1 - p)n-k =
(k -1)! (n - k)!

n'

=np

S (k' + 1) P

n',p

(k') =

su n-1 prove
= np . E[(k' + 1)] = np . (E[k'] + 1) =
(n - 1) . p
= np . {(n - 1) . p + 1} = n (n - 1) . p2 + n . p
s2 = n (n - 1) . p2 + n . p -(n . p)2

= np(1 - p)

s2 = np . (1 - p)

s = np (1 - p)

Distribuzione binomiale:
pn,p (k) =
= np

n k n-k
p q
k

q = (1 - p)

s = npq
AS-34

e s2 della distribuzione binomiale


usando funzione generatrice dei momenti

= 1 (0)

PN,p (k) = N .pk qN-k


k

s2 = 2 ()
N

Gk (t) = E [etk] =
=

S
0

0 k

etk N pk qN-k =
k

N . ( p)k . qN-k =
k

sviluppo di
un binomio

= (et . p + q)N
d G (t) = N .(et . p + q)N-1 . p .et
k
dt
d2 G (t) = N . (et . p + q)N-1 . p .et +
k
2
dt
+ N . (N - 1) . (et . p + q)N-2 p2 . e2t
d G (0)
1 (0) = dt
k
2
2 () = s2 = d 2 Ge (0) - 2
dt

AS-35

d
= dt
Gk (0) = N .(p + q)N-1. p = N . p
=1
d2 G (0) = N .(p + q)N-1 . p +
k
dt2
=1
+ N (N - 1) . (p + q)N-2 . p2 =
=1
= N . p + N . (N - 1) . p2
2
s2 = d 2 Gk (0) - 2 = Np + N2p2 - Np2 +
dt
-(Np)2 = Np .(1 - p) =

= N. p .q

AS-36

Massimo della distribuzione


Massimo in corrispondenza a k ~ np
N!
PN,p(k + 1)
(k + 1)! (N -k -1)! .
=
PN,p(k)
N!
k! (N - k)!

se np >> 1

pk+1 qN-k-1
=
k
N-k
p .q

p
= N-k . q
k+1

Distribuzione crescente per :


N-k . p
q
k+1

k Np - q

AS-37

Massimo della distribuzione

Massimo in corrispondenza a k ~ np

se np >> 1

se p = 0.5
pn,1/2 (k) =

1
2

n!
(n - k)! k!

1
2

n!
k! (n - k)!

pn,1/2 (n - k) =

. 1- 1
2
n-k

n-k

. 1- 1
2

p(k) = p (n - k)
Se p = 0.5 distribuzione simmetrica intorno a np (intero)
n

, p = costante

Tende alla distribuzione "normale" (gaussiana) con:

= np
5

s=

np . (1 - p)

, np = costante

Tende alla distribuzione di Poisson


AS-38

DISTRIBUZIONE DI POISSON
Evento casuale E cui associata variabile casuale t con le
seguenti caratteristiche :
1) Densit di probabilit uniforme f(t) =
dP = dt
2) Eventi statisticamente indipendenti
3) Probabilit trascurabile di avere pi di un evento in dt
Distribuzione di probabilit che in un intervallo (0, t) si
verifichino k eventi:
P (k, t)
dP (1, dt) = dt

dP(0, dt) = 1 - dt

P(k, t + dt) = P(k -1, t). dP(1, dt) + P(k,t) dP (0, dt)
= P(k -1, t) . dt + P(k, t). (1 - dt)
P(k, t + dt) - P(k, t) = . P(k - 1, t) - . P(k, t)
dt

dP(k, t)
+ . P(k, t) - . P(k - 1, t) = 0
dt

AS-53

k=0

P(k - 1, t) = 0
dP(0, t)
= - P(0, t)
dt
P(0, t) = e-t

P(0, 0) = 1

k=1
dP(1, t) + . P(1, t) - e-t = 0
dt
Sol. : P(1, t) = t .e-t

infatti:

e-t - 2 te-t + 2 te-t - e-t

k=2
..
.
k

=0

dP(2, t) + . P(2, t) - 2 t . e-t = 0

dt
k

P(k, t) = ( t)
k!

e-t

t : costante; m = t costante
mk -m
Pm(k) = k! e

Distribuzione
di
Poisson

(dipende da un solo
parametro: m)

k: variabile casuale discreta fra 0 +


Normalizzazione :

mk = e-m . e+m = 1
mk e-m = e-m . S
S
0 k k!
0 k k!
sviluppo in serie di em

AS-54

Valore aspettato : 0 k

mk-1
mke-m = m .e-m .
S1 k (k -1)!
k!

= E[k] = Sk k
0

1
k' = k - 1
= m .e-m

mk' = m .e-m .em


k'!

S0 k'

em

Notare:
m
Pm (k) = Pm (k -1) .
k
crescente fino a
k=m
Pm (m) = Pm (m - 1)

=m

Varianza :

s2 = E (k - m)2 = E k2 - m2
E k2
k' = k - 1

S0 k

k2

mk e-m = m
k!

Sk k
1

mk-1 e-m =
(k - 1)!

mk' e-m =
(k'
+
1)
S0 k'
k'!
= m E [k' + 1] = m (m + 1)

=m

s2 = m(m + 1) - m2
s2 = m

s = m

AS-55

La distribuzione di Poisson si pu anche ottenere da


distribuzione binomiale per n molto grande, p molto piccolo
(n . p limitato).
Infatti (esempio decadimento radioattivo): per ogni intervallo
di tempo t:
p : probabilit di decadere
1) Si fanno n prove (n nuclei che possono decadere)

2) Si ottengono k "successi" (= k decadimenti)


p : molto piccolo n : molto grande np : limitato
n
k

Pn,p(k) = lim

n
np=cost.

pk(1 - p)n-k =
1-p~1 se p piccolo

s 2(k) ~ n p.

(k) = n .p

in Poisson

m
p= m
n
n . (n - 1) . . . (n - k +1) m
= lim
n
k!
n

1 -m
n

n-k

1 -m
n

n . (n - 1) . . . (n - k +1) m k
.
= lim
nk
k! 1 - m
n
n
= 1 dato che k finito
mk

.
.
= lim 1 1 - 1n 1 - 2n . . . 1 - k-1
n
k!
n

1 -m
n
1 -m
n

n
k

k
-m
= m
e
k!

c.v.d.

Ricordare che:
lim 1 + ax
x

= ea

lim 1 - m
n
n

= e-m
AS-56

DIMOSTRAZIONE ALTERNATIVA:
n!
. pk (1 - p)n-k =
n k! (n - k)!
lim

p= m
n

FORMULA DI STIRLING :

2n
.
2 (n - k)

= lim 1
n k!
= lim 1
n k!

n! ~ 2n . nn . e-n
n>>1
n-k
nn . e-n
(n - k)n-k .e-(n-k)

k
. m . 1 -m
n
n

n-k

=1
n-k
1
k 1 -m
m
=
n-k k
n
k
1-n . e
e-m
e-k

Ricordare:
lim 1 + ax
x

= ea

= 1 mk . e-m
k!

AS-57

Es.

Decadimento nuclei radioattivi :

Se m numero medio di decadimenti per unit di tempo


(m = media), la probabilit di osservare k dec. nell'unit
di tempo data dalla :
k
m
Pm (k) =
e-m
k!
10 dec./U.T. ;

Probabilit di 0 dec.?
100 -10
P10 (0) =
e = 4.5 10-5
0!
P10 (10) =

=m

1010 -10
e = 0.13
10!
s= m

P(m - m k m + m )

P10 (7 k 13) = F10 (13) - F10 (7) = 0.865 - 0.220 = 0.645


Se m = 4:
P4 (2 k 6) = F4 (6) - F4 (2) = 0.889 - 0.238 = 0.651

AS-58

Es.

(Esperimento di Rutherford)
Sorgente a su bersaglio

conteggio numero di particelle con angolo di "scattering" q


2608 conteggi da 7.5 s; 10. 094 particelle in totale.
.
10 094 = in media 3.87 particelle/conteggio = m
2608
Verifica della distribuzione Poisson del numero di particelle
osservate in un conteggio:
Prove fatte: 2608 = N
Probabilit di osservare k particelle in un conteggio :
k
m
Pm (k) =
e-m
k!

Numero aspettato di conteggi in cui osservo k particelle,


avendo fatto N prove (da binomiale) :
nk = N .Pm(k)

k
nk

10

(osservato)

57 203 383 525 532 408 273 139

45

27

11

nk
(aspettato)

54 210 407 526 508 393 254 140

68

29

17

sn k

14

20

23

22

20

16

12

AS-59

Es.

Conteggi da rivelatore con e < 1

numero medio per unit di tempo di particelle nel


rivelatore : n
(con distribuzione di Poisson)
r: numero di particelle osservate nell'unit di tempo

quale : P (r)

Per avere r conteggi, r particelle nel rivelatore con


p = probabilit del rivelatore di osservare particella

P(r) = Sr n Pn(n) .Bn,p(r) =

1
= Sr n n!

nn . e-n

1 .(p )r .e-n
= r!
n

n r .
n-r
r p (1 - p) =

Sr n

1
(n - r)!

n . (1 - p)

n-r

sviluppo in serie di ek con


k = n (1 - p)
1 .(p )r . e-n . e(1-p)n =
= r!
n
= 1 .(pn)r . e-pn = Ppn (r)
r!
Poisson con m = pn
AS-60

DISTRIBUZIONE UNIFORME

b-x
F(x) = b
-a

f(x) = b 1- a
= E[x] =

x 1 dx = b 1- a
b-a

x2 b
2 a=

2
2
= 12 bb -- aa = 12 (b + a)

s 2 = E (x - )2 = E x2 - 2
E
s

x2

2=

= x2
a

1 dx = 1
b-a
b-a

b3 - a3
3

3
b3 - a3 - (b + a)2 = 1 = (b - a) = 1 (b - a)2
12
b-a
12
3(b - a)
4

m = 21 (b + a)
s2 = 1 (b - a)2
12
s=

(b - a) = 2 .Dx

s=

1
Dx
3

1 (b - a)
12
2
Dx
3

P( - s x + s) = 2 x = 0.58
D
AS-61

DISTRIBUZIONE ESPONENZIALE

fb(x) = 1 e-x/ b

0x
b>0

f(x) dx = 1b

(x) = 1b

e-x/ b

dx

= - e-x/ b
=0

x . e-x/ b

dx = -

x . e-x/ b

=1

-x/ b

dx =

integrando per parti :


u=x
v = e-x/ b
dv = - 1 e-x/ b dx
b

=b

1
s2 = b

x2 e-x/ b dx - b 2 = 1 .2 b 3 - b 2 = b 2
b

2 eax

ax
= ea

fm(x) = 1 e-x/m
m

dx =
2
x2 - 2x
+
a
a2

(x) =
s 2 (x) = 2

AS-62

CUMULATIVA DELLA DISTRIBUZIONE ESPONENZIALE

F(x) =

1 -x'/ m dx' = 1 - e-x/ m


m e

P( - s x + s) = F(2) = 1 - e-2 = 0.86


2
0

AS-63

Esempio
Distribuzione del Dt fra due particelle consecutive in
un fascio con distribuzione temporale uniforme.
Ntot particelle
Dt
t

t2
t0
f(t) = cost

t1

f(t)
1
t2 - t1
t1

t2

Fissato arbitrariamente t0 :
0 particella in Dt
1
" dt
"
dP(Dt ) = e-Dt . dt
dP(1, dt)
P(0, t) (vedi pag. AS-54)
f(Dt ) =
=

Ntot
t2 - t1

dP(Dt ) = . e-Dt

dt
(Dt ) = 1 =

t2 - t1
Ntot
AS-64

DISTRIBUZIONE DI GAUSS
(NORMALE)

f(x) =

1
2 p.a

x - xo)2
(
. e- 2a2
;

f(x)dx = 1

1 Simmetria intorno a: x = xo
2

2f
d
xo - a, xo + a sono i punti di flesso
=0
dx2
a misura la larghezza della distribuzione

massimo: f(x = xo) =

df
dx = 0

2 p.a

Valore aspettato
1

= E[x] =

2 p.a

xe-

+ (x - x )2
o

2a2

cambiando variabile:
x-x
t= a o
dt = a1 dx
=

1
2p

t2
.
(a t + xo) e 2
-

=0

Gauss con
xo = 0
-
a =1

xo
t2
.
dt
+
t
e
=
a
2
2 p -
2p
1

dx =

=1

dt =

t2 dt
e 2
-

= xo
AS-65

f(x)
xo = - 1
a = 0.5
t2
xo = 3.5
a = 1.5

0.5
t

-2

-1

xo = 1.5
a=2

AS-66

Varianza

= xo

2p a

s2 = E (x - )2 =

t= x-
a
=

a2

2p

u=t

+
t2
2
.
t e 2
-

(x - )2

(x - )2

e- 2a2

dx =

dt = 1 dx
a
dt = integrando per parti

du = dt

t2
v= e 2

dv =

t2
t .e 2

u . dv = u . v
+

2
=- a t

+
-

dt
-

+
t2

vdu =
a2

. e- 2
+
-
2p
2p
=0

=1

t
e- 2 dt

Gauss

x=0
a=1

= a2
(x - )2
.
f(x)=
e 2s2
2p s
1

Distribuzione
di
Gauss
AS-67

F(x) =

(x' - )2

e- 2s2
- 2 p . s

dx'

Cumulativa

Variabile ridotta

t=

x-
s

dx
dt = s

Se x ha funzione di distribuzione f(x) ,


g(t) = dx . f(x = t)
dt

t = t(x)
Funzione universale
g(t) = s .

Cumulativa
G(t) =

1
2p s

2
t
. e- 2

Gaussiana

=0
s=1

g(t') dt'

g(t) e G(t) tabulate.


AS-68

~0.4

g(t)

0.3
0.2
0.1

-3

-2

-1

1.0

G(t)
0.5

-3

-2

-1

AS-69

Il contenuto probabilistico di un intervallo Dx per la


funzione di Gauss si ottiene usando G(t):

-t

to

P,s (-D, +D) = P(-to, to) =


to =

g(t) dt = 2

to

g(t) dt =

xo -
s

Se si ha G(t)
=
tabulata
fra 0 e t

to

g(t) dt -

g(t) dt =

= 2 G(to) - G(0) = 2G(to) - 1


1
2

g(t)

G(0) = 0.5
G(1) = 0.841345
G(2) = 0.977250
G(3) = 0.998650
G(4) = 0.999968

G(to)
G(0) =

-2

-1

to

1
2

P( 1s) = 2 . G(1) - 1 = 0.6827

P( 3s) = 2 . G(3) - 1 = 0.9973

P( 2s) = 2 . G(2) - 1 = 0.9545

P( 4s) = 2 . G(4) - 1 = 0.99994


AS-70

P(a x b) = G

b-
s

-G

a-
s

Se, fissato P = Po, voglio ricavare (a, b) ?


Po = G

b-
s

a-
s

-G

infinite soluzioni

Se richiedo intervallo simmetrico: (intorno a )


Po = 2G
G

Es:

b-
s

b-
s

-1

Po + 1
2

Po = 0.9
b-
s

G
= 1.645

b-
s

= 0.95
b - = 1.645 . s

P(x > + ns) = 1 - G(n)


P( - ns x + ns) = 2(1 - G(n))

AS-71

Potrebbero piacerti anche