Sei sulla pagina 1di 24

Distribuzioni di Probabilità

Abbiamo visto una particolare variabile aleatoria, quella che deriva


dalla rappresentazione in termini probabilistici di una scommessa.

Eventi  Vincita X Pr(X=xi)


S 5.50 1/10
B = “Non S” -1.0 9/10

Abbiamo visto che ne possiamo calcolare le media e devizione standard.


Questo è un caso di una variabile aleatoria discreta e in generale possiamo avere
molti altri esempi. Questi possono derivare da:
1. Specifiche applicazioni (la nostra scommessa)
2. Modelli generali.

Un caso di modello generale è la distribuzione binomiale.

n k
Pr(X  k)    p (1  p)n  k
k 

Dove:

n n!
k  
  k !(n  k)!
Immaginiamo di avere una urna con 15 palline rosse (R) e 5 palline
bianche (B).

Estraiamo una pallina, guardiamo il colore, poi la reinseriamo nell’urna.


Lo facciamo per 4 volte.

Pr[R-R-B-B] =

Pr[R-B-R-B] =

Pr[B-R-R-B] =
Ora mi chiedo: quale è la probabilità di estrarre 2 bianche e 2
rosse, prescindendo dall’ordine?

X = numero di volte che esce R:

Pr[X = 2] = (Probabilità di una sequenze con 2 R)*


*(numero di sequenze con 2 R su 4 estrazioni)
n = numero estrazioni,
k = numero successi.

n n!
k  
  k !(n  k)!

Conta quante sono:

1) Le sequenze di k successi su n estrazioni;


2) Il numero di sottoinsiemi di k elementi presi da un insieme di n elementi.

Esempio: n = 4, k = 2
S = “successo”; N = “insuccesso”.

Probabilità di una sequenza con k successi:

Pr[ S  S  ...
144444442 S
44444443 N  N 42 44444444
144444444 ...  N
43 ]  1444444
p  p 42
 ...  4p3  q
444444  q  ...
14444442  q  p kq n  k
4444443
k volte n  k volte k volte n  k volte
Formula deela variabile aleatoria Bernoulliana (o binomiale):

n k n k
Pr[X  k]  k  p q 443
1442
{ probabilità
sin gola
numero sequenza
sequenze
Variabili aleatorie continue:

Abbiamo fino ad ora parlato di variabili discrete, variabili cioè che


sono definite su numeri interi, oppure su un insieme finito di eventi.
Quando una variabile è continua, essa può essere assumere
qualunque numero reale (sia razionale che irrazionale).
Come conseguenza, la scrittura:

Pr[X  2]  un certo numero

è priva di senso!
Però posso definire la seguente probabilità:

Pr[ 2  0.01  X  2  0.01]

e più in generale:

Pr[ 2    X  2  ]
Questo comporta che la probabilità viene descritta da una “funzione di
densità” nella quale è l’area che descrive la probabilità, non l’altezza
della funzione!
Definizione: Se la probabilità di una variabile aleatoria X può
essere descritta come:

Pr[a  X  b]  ab f(x)dx

allora f(x) è detta funzione di distribuzione di X,


(o funzione di densità di probabilità di X).
Le formule per media e varianza cambiano (l’operazione di integrale
sostituisce l’operazione di sommatoria) e diventano:

E(X)  x D xf(x)dx

Var(X)  x D(x  E(X)) f(x)dx 2


La distribuzione di probabilità normale (o distribuzione di Gauss):

x2
1 
f(x)  e 2
2
Caratteristiche principali:
1. E(X) = 0, DS(X) = 1 (infatti N(0,1) è un altro modo per indicare la curva
di Gauss).
2. Va a 0 molto rapidamente: per esempio Pr(X > 3) è molto bassa.
3. Le altre curve normali N( m, s) sono trasformabili in N(0,1) .
4. L’integrale non è calcolabile in forma chiusa:

b x2
1 
Pr(a  X  b)  
a 2
e 2
dx
Per calcolare l’integrale è necessario usare le tavole della normale:

0 1 2 3 4 5 6 7 8 9
0,0 0,0000 0,0040 0,0080 0,0120 … … … … 0,0319 0,0359
0,1 0,0398 … … … 0,0754

0,6 0,2258 0,2291 0,2324 0,2357 0,2518 0,2549


3,9 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000

Da cui risulta:

Pr(0  X  0.62)  0.2324


Nel caso di una normale con media diversa da 0 o deviazione standard
diversa da 1, bisogna usare la procedura di standardizzazione:

X N(m, s)
Allora:

a  m X  m b  m
Pr(a  X  b)  Pr(   )
s s s
Ponendo:

X  m
Z 
s
Allora

Z N(0,1)
Esempio: X si distribuisce come una normale di media E(X)=6 e DS(1.5).
Quanto vale la probabilità che X sia compreso tra 6 e 8.3?

6 6 X 6 8.3  6
Pr(6  X  8.3)  Pr(   )
1.5 1.5 1.5
 Pr(0  Z  1.53)  0.4370
Infine: come approssimare le probabilità attraverso
media e deviazione standard
Pr(m  s  X  m  s) 0.68

Pr(m  2s  X  m  2s) 0.95

Pr(m  3s  X  m  3s) 0.99

sono dette leggi empiriche del caso (empiriche perché valgono


solo se i dati sono approssimativamente normali)
Esempio: E(X)=0.34, DS(X)=0.07.

Pr(0.34  0.07  X  0.34  0.07) 


 Pr(0.28  X  0.41) 0.68

Pr(0.34  2(0.07)  X  0.34  2(0.07)) 


 Pr(0.21  X  0.48) 0.95

Pr(0.34  3(0.07)  X  0.34  3(0.07)) 


 Pr(0.14  X  0.48) 0.99
Teorema del limite centrale:

Siano X1, X2,…Xn variabili aleatorie con certi valori di media e


deviazione standard, ma aventi distribuzione qualsiasi. Allora:

Y  X1  X2  ...  X n

si distribuisce come una normale, con una certa media e deviazione


standard.

…ma questo lo vedremo meglio con gli esperimenti di R!

Potrebbero piacerti anche