Sei sulla pagina 1di 4

1

Probabilit`a e statistica.

1.1 Definizione di probabilit`a

1

Se ho M possibili eventi, tutti equivalenti, definisco p = M la probabilit`a di ciascuno di essi.

Esempio: Se lancio un dado, ho 6 possibili risultati equivalenti. Ciascuno di essi avr`a probabilit`a

1

6 .

Esempio 2: Se lancio due dadi, ho 36 possibili risultati equivalenti. Ciascuno di essi avr`a probabilit`a 36 1 . Se voglio calcolare la probabilit`a che, lanciando due dadi, la somma dei valori sia uguale a 5, devo

considerare tutte le diverse possibilit`a che corrispondono a tale risultato. Poich´e ci sono 4 possibilit`a,

ovvero (1, 4), (2, 3), (3, 2) e (4, 1), la probabilit`a che la somma dei valori sia 5 `e uguale a

4 1

36

=

9 .

1.2 Distribuzione di probabilit`a

Se x `e una variabile casuale che pu`o assumere un numero finito di valori x 1 ,

che associa a ogni valore x k la sua probabilit`a `e detta distribuzione di probabilit`a. La funzione P (x k ) deve soddisfare la condizione di normalizzazione

, x N , la funzione P (x k )

N

k=1

P(x k ) = 1.

Il valore atteso, o media, della distribuzione, `e definito da

µ = E(x) =

N

k=1

x k P(x k ).

La varianza della distribuzione, `e il valore atteso degli scarti quadratici,

σ 2 = var(x) =

N

k=1

(x k µ) 2 P(x k ).

La radice quadrata della varianza σ = var(x) viene detta deviazione standard della distribuzione.

Esempio: Supponiamo di lanciare due dadi, e di chiederci qual `e la distribuzione di probabilit`a della

, 7 ci sono n 1 possibilit`a su 36 di formare una

, 12 le possibilit`a sono 13 n. La distribuzione di probabilit`a

somma n dei valori usciti dal lancio. somma uguale a n, mentre per n = 7, sar`a quindi

Per n = 2,

P(n) =

come mostrato in figura

(n − 1)/36 (13 − n)/36 per n = 2, , 7, per n =
(n − 1)/36
(13 − n)/36
per
n
=
2,
, 7,
per
n = 7,
, 12,

1

Esercizio: Calcolare la media e la deviazione standard della distribuzione P (n) dei lanci di due dadi. Soluzione: La media `e uguale a

µ =

12

n=2

nP (n) = 7

12

n=2

P(n) +

12

n=2

(n 7)P (n) = 7.

Poich´e infatti la probabilit`a P (n) `e simmetrica attorno al valore n = 7, la seconda somma, che corrisponde alla media degli scarti attorno a n = 7, `e uguale a zero. In generale si pu`o dire che se una distribuzione

di probabilit`a `e simmetrica attorno a un valore, tale valore coincide con la media della distribuzione. La

varianza della distribuzione `e uguale a

σ 2

=

=

12

n=2

(n 7) 2 P(n) = 2

6

n=2

(n 7) 2 P(n)

2 5 2 · 36 + 4 2 · 36 + 3 2 · 36 + 2 2 · 36 + 1 2 · 36 = 2 · 105 = 5.8333

1

2

3

4

5

36

La deviazione standard quindi `e uguale a σ = 5.8333

= 2.415

1.3 Distribuzione binomiale

Se un determinato evento ha una probabilit`a p di verificarsi, e q = 1 p di non verificarsi, la distribuzione

, N volte. Se

binomiale descrive la probabilit`a che su N prove ripetute, l’evento si verifichi n = 0,

chiamiamo successo (S) il verificarsi dell’evento, e insuccesso (I) il suo non verificarsi, eseguendo N prove

avremo un sequenza SSIISISSIIISIS

una probabilit`a di verificarsi pari a p n (1 p) (Nn) , dove n `e il numero di successi, e N n il numero

di successi e insuccessi. Ciascuna particolare sequenza ha

di insuccessi. Per ottenere la probabilit`a di avere n successi, indipendentemente dall’ordine in cui essi si

verificano, dobbiamo allora moltiplicare questa probabilit`a per il numero di sequenze che corrispondono

a

un numero n di successi. Questo numero `e dato dal fattore binomiale di N su n, cio`e il numero di modi

in

cui possiamo estrarre n oggetti da un gruppo di N , che `e uguale a

N =

n

N! n!(N n)! ,

dove N ! indica il fattoriale di N , cio`e il prodotto N · (N 1) · (N 2) · · · 3 · 2 · 1. La distribuzione binomiale

`e quindi uguale a

P(n) = N

n

p n q (Nn) =

N! n)! p n (1 p) (Nn) .

n!(N

Utilizzando la formula dello sviluppo della potenza di un binomio, otteniamo

N

n=0

P(n) =

N

n=0 N

n

p n q (Nn) = (p + q) N = 1,

per cui la distribuzione binomiale `e normalizzata, come deve essere. La media e la varianza della distibuzione sono date da

E(n) =

N

n=0

N

nP (n) = N p,

var(n) =

n=0

(n Np) 2 P (n) = N pq = N p(1 p).

Esercizio: Calcolare la probabilit`a che, lanciando una moneta 5 volte, esca testa 3 volte.

2

Soluzione: In questo caso il successo (testa) ha probabilit`a p = 1/2, il numero di prove `e N = 5, e infine n = 3. Abbiamo dunque

P (3) =

3!2! 1

5!

2 5 = 5 · 4

2

1

32 = 0.3125.

1.4 Distribuzione normale o gaussiana

Quando N `e molto grande, la distribuzione binomiale assume una forma pi`u semplice da calcolare, detta distribuzione normale, o di Gauss. Essa `e data da

P(n) =

2πN pq exp (n Np) 2 2N pq

1

.

Se indichiamo con µ la media della distribuzione, e con σ 2 la sua varianza, in generale la distribuzione gaussiana si scrive come

P(x) =

2πσ 2 exp (x µ) 2

1

2σ 2

.

Se ∆x `e un intervallo abbastanza piccolo (molto pi`u piccolo della deviazione standard σ), la probabilit`a che la variabile x sia compresa nell’intervallo tra x e x + ∆x `e data da P (x)∆x. Esempio: Calcolare la probabilit`a che, lanciando una moneta 100 volte, esca testa 43 volte. Soluzione: Essendo N abbastanza grande, possiamo usare la distribuzione normale. Abbiamo dunque

µ = N p = 50,

σ 2 = N pq = 25, da cui

1

P (43) = 3.14159 · 50 e (4350) 2 /50 = 0.0299

In figura `e mostrata la distribuzione binomiale con p = 0.5 e N = 100, confrontata con la distribuzione gaussiana avente µ = 50 e σ 2 = 25.

distribuzione gaussiana avente µ = 50 e σ 2 = 25. 1.5 Distribuzione di Poisson Quando

1.5 Distribuzione di Poisson

Quando N `e grande, ma la probabilit`a p `e piccola, in modo che il valore atteso µ = N p sia dell’ordine dell’unit`a, la distribuzione binomiale assume un’altra forma semplice, detta distribuzione di Poisson, o poissoniana. Essa `e data da

P(n) = µ

n

n! e µ .

Notare che la varianza della distribuzione di Poisson `e uguale al suo valore atteso, σ 2 = µ. Esempio: Sapendo che la probabilit`a che esca un ambo `e circa p = 1/400, calcolare la probabilit`a che giocando N = 1000 volte un ambo, i soldi vinti siano di pi`u di quelli giocati.

3

Soluzione: poich´e l’ambo paga 250 volte la posta, `e necessario vincere almeno 5 volte. Siamo nelle condizioni in cui possiamo usare la distribuzione di Poisson. Il valore atteso `e µ = N p = 2.5. La probabilit`a che l’ambo esca n volte su N = 1000 giocate `e data allora da

P (0) = e 2.5 = 0.0821

P (1) = 2.5 e 2.5 = 0.2052

P (2) = (2.5) 2! 2 e 2.5 = 0.2565

P (3) = (2.5) 3! 3 e 2.5 = 0.2138

P (4) = (2.5) 4! 4 e 2.5 = 0.1336

(N.B.: il fattoriale di zero `e uguale a uno.) La probabilit`a che esca meno di 5 volte `e allora P (0) + · · · + P (4) = 0.8912. La probabilit`a di guadagnare qualcosa `e quindi circa 1/10. In figura `e mostrata la distribuzione binomiale con p = 1/400 e N = 1000, confrontata con la distribuzione poissoniana avente µ = 2.5.

con la distribuzione poissoniana avente µ = 2 . 5. 1.6 Stima della media e della

1.6 Stima della media e della varianza

Supponiamo di eseguire un esperimento, il cui risultato pu`o essere espresso da un valore numerico x. Se ripetiamo l’esperimento diverse volte, il risultato x sar`a estratto da una certa distribuzione di probabilit`a P (x), che noi per`o non conosciamo. Vogliamo porci il problema di determinare i parametri della dis- tribuzione, ad esempio media e varianza, da un numero finito di misure. Se eseguiamo N misure, i cui

risultati sono x 1 , x 2

, x N , diciamo che tali valori costituiscono un campione statistico, estratto dalla

distribuzione (incognita) P (x). La stima migliore del valore atteso µ della distribuzione `e data dalla media aritmetica degli N valori,

x¯ =

1

N

N

k=1

x k .

Si pu`o infatti dimostrare che il valore atteso della media `e Ex) = µ, mentre la sua varianza `e var(¯x) = σ 2 per cui la media approssima il valore atteso µ della distribuzione tanto meglio quando maggiore `e la dimensione del campione. La stima migliore della varianza σ 2 `e invece data dalla media (corretta) degli scarti quadratici,

N ,

s 2 =

1

N 1

N

k=1

(x k x¯) 2 .

La correzione consiste nel dividere per il fattore N 1 invece che per N . In questa maniera il valore di aspettazione E(s 2 ) `e esattamente uguale alla varianza σ 2 .

4