Sei sulla pagina 1di 49

PROBABILITA’

La teoria della probabilità si applica ad esperimenti


aleatori o casuali, quelli cioè il cui risultato (esito)
non è noto a priori (lancio di un dado, di una moneta,
estrazione del lotto, numero di contatti ad un sito web...)

Per caratterizzare un esperimento casuale definiamo:


• evento elementare ωi : ogni singolo risultato di
un esperimento casuale;
• spazio campionario Ω = {ω1, ω2, . . .}: insieme
costituito da tutti i possibili esiti (eventi elementari)
Esempio 1: lancio di una moneta ⇒ Ω = {T, C}
dove T =“testa” e C=“croce” (2 eventi elementari)

Esempio 2: lancio di una moneta 3 volte (o 3 monete...)


Ω = {T T T, T T C, T CT, CT T, CCT, CT C, T CC, CCC}
vi sono 8 eventi elementati: |Ω| = 8

Esempio 3: lancio di due dadi


Ω = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), . . . , (6, 6)}
|Ω| = 62 = 36 (prodotto cartesiano, reticolo...)

Esempio 4: lancio una moneta finchè non esce “testa”


Ω = {T, CT, CCT, CCCT, . . .} infinità numerabile
Esempio 5: osservo la durata della prossima telefonata
Ω = R+ infinità non numerabile: potenza del continuo

1
Lo spazio campionario si dice discreto se Ω ha cardi-
nalità finita (esempi 1, 2 e 3) o al più numerabile (esem-
pio 4); Ω è detto continuo se è costituito da una infinità
non numerabile di eventi elementari (esempio 5).

Si definisce evento E un qualsiasi insieme di eventi ele-


mentari, ossia un qualunque sottoinsieme E ⊆ Ω.

Esempio 6: lancio di un dado ⇒ Ω = {1, 2, 3, 4, 5, 6}


E = “esce un numero dispari” = {1, 3, 5}

Poiché ogni evento E è un sottoinsieme di Ω allora

• E può sempre essere espresso in termini formali me-


diante un insieme di eventi elementari;
• le relazioni tra eventi possono essere rappresentate
tramite le operazioni dell’insiemistica.

Unione: A ∪ B = insieme di eventi elementari di Ω che


appartengono ad A oppure a B (l’evento unione si ver-
ifica se almeno uno degli eventi si verifica).

Esempio 6: lancio di un dado.


A = “esce un numero pari” = {2, 4, 6}
B = “esce un numero primo” = {1, 2, 3, 5}
A ∪ B = {1, 2, 3, 4, 5, 6} = Ω

2
Intersezione: A∩B = insieme di eventi elementari di Ω
che appartengono sia ad A che a B (l’evento intersezione
si verifica se entrambi gli eventi si verificano).
Esempio 6: lancio di un dado
A ∩ B = {2}

Negazione o Complementare: Ā = Ac = insieme


di eventi elementari di Ω che non appartengono ad A (il
complementare si verifica se l’evento non si verifica)
Esempio 6: lancio di un dado.
Ā = “esce un numero dispari” = {1, 3, 5}

Sottrazione: B − A = insieme di eventi elementari di


Ω che appartengono a B ma non appartengono a A (si
verifica l’evento sottrazione se si verifica B ma non A)
B − A = B ∩ Ā
Esempio 6: lancio di un dado
B − A = {1, 3, 5}

Alcune Proprietà:
• (A ∪ B)c = Ac ∩ B c
• (A ∩ B)c = Ac ∪ B c
• A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
• A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

3
INCOMPATIBILITA’

Due eventi A e B si dicono disgiunti o incompatibili


se A ∩ B = ∅ (non avendo eventi elementari in comune,
il verificarsi dell’uno esclude il verificarsi dell’altro).

Esempio 6: lancio di un dado

A = “esce un numero dispari” = {1, 3, 5}


B = “esce un numero maggiore di 5” = {6}
A∩B =∅

Gli eventi A, B, C, . . . sono detti mutuamente esclu-


sivi o mutuamente incompatibili se tutte le coppie
sono disgiunte (il verificarsi di uno esclude il verificarsi di
tutti gli altri).

N.B. Gli eventi elementari sono mutuamente esclusivi!

4
MISURA DI PROBABILITA’
Ad ogni evento dello spazio campionario di un esperi-
mento casuale potremmo assegnare un valore numerico
compreso tra 0 e 1 che ne misuri la tendenza a verificarsi.
Chiamiamo questo valore probabilità dell’evento.

Storicamente sono stati adottati diversi approcci nello


sviluppo della teoria della probabilità, ciascuno basato
su di una diversa definizione del concetto di probabilità.
• Approccio Classico (Laplace): se tutti gli eventi
elementari sono equiprobabili, si definisce proba-
bilità di un evento A il rapporto tra il numero di casi
favorevoli ad A ed il numero dei casi possibili:

num casi favorevoli ad A


Pr(A) =
num casi possibili
num di eventi elementari che compongono A
=
num totale di eventi elementari

Esempio 2: lancio una moneta 3 volte


Ω = {T T T, T T C, T CT, CT T, CCT, CT C, T CC, CCC}
Numero di casi possibili = |Ω| = 8
A= “escono almeno due teste”={T T T, T T C, T CT, CT T }
Numero di casi favorevoli ad A = |A| = 4
4
Pr(A) = = 0, 5
8
Esempio 6: lancio di un dado ⇒ Ω = {1, 2, 3, 4, 5, 6}
A= “esce un numero primo”={1,2,3,5}
|A| 4
Pr(A) = =
|Ω| 6
5
• Approccio Frequentista (von Mises): ripetendo
l’esperimento infinite volte nelle medesime condizioni,
si definisce la probabilità di un evento A come il
limite della frequenza relativa di volte in cui A si
è verificato
num volte che si verifica A in n prove
Pr(A) = lim
n→∞ n
Entrambi gli approcci hanno delle limitazioni:
1. L’approccio classico definisce la probabilità partendo
da eventi elementari equiprobabili (definizione circo-
lare). Inoltre è applicabile solo se |Ω| < ∞.
2. L’approccio frequentista richiede che l’esperimento
sia ripetibile nelle medesime condizioni (ma vi sono
ambiti in cui ciò è impossibile); inoltre deve essere
ripetuto tantissime volte, ma quante?
3. In entrambi gli approcci la probabilità è pensata come
una proprietà oggettiva dell’evento e dell’esperimento
aleatorio a cui esso si riferisce.
Tutte queste limitazioni vengono superate attraverso i
due più moderni approcci di tipo soggettivista (che non
approfondiremo) ed assiomatico.
• Approccio Soggettivista (De Finetti e Savage):
la probabilità è una misura del grado di fiducia che
un individuo ha nel verificarsi dell’evento (scommessa
equa: quanto si è disposti a scommettere per ricevere
1 se l’evento si verifica e 0 se non si verifica).

6
APPROCCIO ASSIOMATICO
(Kolmogorov)
La probabilità è definita come una funzione Pr(·) che ad
ogni evento A associa un valore in IR, tale da soddisfare
le seguenti condizioni (assiomi della probabilità)
1. Pr(A) ≥ 0
2. Pr(Ω) = 1
3. Se A ∩ B = ∅, Pr(A ∪ B) = Pr(A) + Pr(B)

PROPRIETA’
P1) Per ogni evento A
Pr(Ā) = 1 − Pr(A)
Dim: A ∪ Ā = Ω e A ∩ Ā = ∅, ossia A e Ā sono
disgiunti. Allora,
Pr(A ∪ Ā) = Pr(A) + Pr(Ā) = Pr(Ω) = 1
da cui Pr(Ā) = 1 − Pr(A).

P2) Pr(∅) = 0
Dim: da P1), Pr(∅) = 1 − Pr(Ω) = 1 − 1 = 0.

P3) Per ogni evento A


0 ≤ Pr(A) ≤ 1
Dim: dal primo assioma segue che Pr(A) ≥ 0 e
Pr(Ā) ≥ 0, da cui Pr(Ā) = 1 − Pr(A) ≥ 0 e
Pr(A) ≤ 1.

7
P4) Se A = A1 ∪ . . . ∪ An, dove A1, . . . , An sono eventi
mutuamente esclusivi, allora
Pr(A) = Pr(A1 ∪ . . . ∪ An) = Pr(A1) + . . . + Pr(An )
Dim: è un’immediata conseguenza del terzo assioma.

P5) Qualunque siano gli eventi A e B


Pr(A − B) = Pr(A) − Pr(A ∩ B)
Dim: A = (A − B) ∪ (A ∩ B), dove (A − B) e
(A ∩ B) sono eventi disgiunti, e pertanto si ha che
Pr(A) = Pr(A − B) + Pr(A ∩ B)

P6) Qualunque siano A e B


Pr(A ∪ B) = Pr(A) + Pr(B) − Pr(A ∩ B)
Dim: A ∪ B = (A − B) ∪ (B − A) ∪ (A ∩ B),
dove i tre eventi (A − B), (B − A) e (A ∩ B) sono
mutuamente esclusivi. Allora
Pr(A ∪ B) = Pr(A − B) + Pr(B − A) + Pr(A ∩ B)
= Pr(A) − Pr(A ∩ B) + Pr(B) − Pr(A ∩ B) + Pr(A ∩ B)
= Pr(A) + Pr(B) − Pr(A ∩ B)

8
PROBABILIZZAZIONE DI EVENTI
Ogni evento A può essere espresso come l’unione di eventi
elementari di Ω, che per definizione sono tra loro mutu-
amente esclusivi. Pertanto, se sono note le probabilità
dei singoli eventi elementari, applicando la proprietà P4)
possiamo calcolare la probabilità di A sommando le prob-
abilità dei singoli eventi elementari che lo compongono.

Esempio 6: lancio di un dado


A =“esce un numero pari” = {2} ∪ {4} ∪ {6}
Pr(A) = Pr({2}∪{4}∪{6}) = Pr({2})+Pr({4})+Pr({6})

Il problema consiste quindi nel determinare la probabilità


di ogni singolo evento elementare

Supponiamo che Ω sia finito: Ω = {ω1, ω2, . . . , ωn }.


Pr(Ω) = 1 = Pr(ω1) + Pr(ω2) + . . . + Pr(ωn )
Se tutti gli eventi elementare sono equiprobabili
Pr(ωi ) = c ∀i = 1, . . . , n
allora,
Pr(ω1)+Pr(ω2)+. . .+Pr(ωn) = c+c+. . .+c = n×c = 1
da cui segue che
1
c=
n
ossia
1
Pr(ωi ) = ∀i = 1, . . . , n
n
9
Pertanto, nel caso in cui Ω sia costituito da un numero
finito di eventi elementari tutti equiprobabili, se A è
l’unione di un certo numero r eventi elementari:
1 1 1 r
Pr(A) = + + . . . + =
|n n {z n} n
r volte
|A| num. casi favorevoli
= =
|Ω| num. casi possibili
ossia ritroviamo la definizione classica di probabilità.

Esempio 6: lancio di un dado non truccato


Ω = {1, 2, 3, 4, 5, 6} ⇒ |Ω| = 6 < ∞
e gli eventi elementari sono equiprobabili:
1
Pr({i}) = i = 1, . . . , 6.
6
Le probabilità degli eventi di questo esperimento possono
quindi essere calcolate usando la definizione classica:
A=“esce un numero pari”
3 1
Pr(A) = Pr({2}) + Pr({4}) + Pr({6}) = 6
= 2

B=“esce un numero maggiore di 4”


Pr(B) = Pr({5}) + Pr({6}) = 26 = 1
3

C=“esce un numero dispari”


3
Pr(C) = Pr({1}) + Pr({3}) + Pr({5}) = 6
= 12 .
Alternativamente, dato che C = Ac
1 1
Pr(C) = Pr(Ac) = 1 − Pr(A) = 1 − =
2 2
10
D=“esce un numero pari o maggiore di 4”
4 2
Pr(D) = Pr({2})+Pr({4})+Pr({6})+Pr({5}) = =
6 3
Alternativamente, dato che D = A ∪ B allora
Pr(D) = Pr(A) + Pr(B) − Pr(A ∩ B)
dove A ∩ B = {6} e quindi
1 1 1 1 1 2
Pr(D) = + − Pr({6}) = + − =
2 3 2 3 6 3
Esempio 3: lancio di due dadi non truccati.
In questo caso |Ω| = 36 e tutti gli eventi elementari (ossia
le coppie (i, j) con i = 1, . . . , 6 e j = 1, . . . , 6) sono
equiprobabili. Possiamo allora applicare la definizione
classica di probabilità.
3
A=“la somma delle facce è ≤ 3” ⇒ Pr(A) = 36

B=“esce almeno un numero pari”


Il modo più semplice di calcolare Pr(B) consiste nel
porre B = C̄, dove C =“entrambe le facce sono
dispari”. Dato che
3×3 9
Pr(C) = =
36 36
9
allora Pr(B) = Pr(C̄) = 1 − Pr(C) = 1 − 36 = 27
36
.
D = A∪B =“la somma delle facce è ≤ 3 oppure appare
almeno un numero pari”
Pr(D) = Pr(A) + Pr(B) − Pr(A ∩ B)
dove A ∩ B = {(1, 2), (2, 1)} e quindi
3 27 2
Pr(D) = + −
36 36 36

11
Se Ω è finito, attraverso le tecniche viste in precedenza (e
sfruttando opportunamente gli assiomi) possiamo calco-
lare probabilità di eventi anche nel caso in cui gli eventi
elementari non siano equiprobabili.

Esempio: supponiamo di lanciare un dado che è stato


truccato in modo tale che l’uscita di una faccia sia pro-
porzionale al valore della faccia stessa.

Anche se Ω = {1, 2, 3, 4, 5, 6} è finito, non possiamo av-


valerci della definizione classica in quanto ora gli eventi
elementari in esso contenuti non sono più equiprobabili
dato che per ipotesi si ha:
Pr({i}) = c · i i = 1, . . . , 6
Calcoliamo allora la costante di proporzionalità c, usando
gli assiomi della probabilità.
Pr({i}) ≥ 0 ⇒ c ≥ 0
6
X
Pr(Ω) = 1 = Pr({i})
i=1
= c + 2c + 3c + 4c + 5c + 6c = 21c
da cui c = 1/21. Pertanto, esiste ed è unica la misura di
probabilità ed è data da
i
Pr({i}) = i = 1, . . . , 6.
21
A=“esce un numero pari”
2 4 6 12 1
Pr(A) = Pr({2})+Pr({4})+Pr({6}) = + + = >
21 21 21 21 2

12
CENNI DI CALCOLO COMBINATORIO
La definizione classica di probabilità, nelle situazioni in
cui può essere applicata, richiede il conteggio del numero
di casi possibili e del numero di casi favorevoli. Al tal fine
è utile richiamare alcuni concetti di calcolo combinatorio.

Supponiamo di disporre di un’urna contenente n oggetti


diversi.

Permutazioni: in quanti modi diversi possono essere


ordinati questi n oggetti?
n! = n · (n − 1) · (n − 2) · . . . · 2 · 1
(per convenzione 0! = 1)
N.B.: configurazioni ordinate ⇒ vettori.
Esempio: in quanti modi posso ordinare le lettere a, b, c?
3! = 3 · 2 · 1 = 6 (ossia: abc acb bac bca cab cba)
Disposizioni semplici: se estraiamo dall’urna k ogget-
ti, via via senza reinserirli, in quanti modi posso ordi-
narli?
n!
= n · (n − 1) · . . . · (n − k + 1) con k ≤ n
(n − k)!
Esempio: supponiamo che l’urna contenga le 3 lettere
a, b, c. Se ne estraiamo senza reinserimento 2 quante
configurazioni ordinate posso ottenere?
3! 6
= = 6 (ossia: ab ac ba bc ca cb)
(3 − 2)! 1

13
Disposizioni con replicazione: se estraiamo dal-
l’urna k oggetti, via via reinserendoli nell’urna, in quanti
modi posso ordinarli?
nk
N.B.: in questo modo ottengo vettori k−dimensionali
in cui, essendo l’estrazione con reinserimento, lo stesso
oggetto può comparire più volte.

Esempio: quale è la probabilità di vincere al totocalcio


giocando un’unica colonna?
Abbiamo 13 partite, ciascuna delle quali consente 3 pos-
sibili esiti (1, 2 e X). Giocando una colonna ho un unico
caso favorevole, mentre i casi possibili sono 313 e pertanto
1 1
Pr(“vincere”) = 313
= 1594323 .

Combinazioni: effettuando k estrazioni senza rein-


serimento dall’urna, quanti insiemi diversi possiamo for-
mare?  
n n!
=
k k! × (n − k)!
(coefficiente binomiale)

N.B.: estraendo senza reinserimento, ciascuna configu-


razione sara formata da k oggetti diversi tra loro dove ora
non prestiamo attenzione all’ordine!

Esempio: nel Super-Enalotto vengono estratti 6 numeri


sui 90 disponibili senza possibili ripetizioni e l’ordine è
irrilevante ⇒ 90
6 ≃ 622614630 possibili combinazioni.

14
PROBABILITA’ CONDIZIONATA
Dati due eventi A e B (con Pr(B) > 0) si definisce prob-
abilità di A condizionata al verificarsi dell’evento B (o
probabilità di A dato B) la quantità
Pr(A ∩ B)
Pr(A|B) =
Pr(B)
• è definita come il rapporto tra la probabilità congiun-
ta di A e B e la probabilità di B e pertanto il ruolo
dei due eventi non è simmetrico;
• soddisfa gli assiomi della probabilità;
• è ben definita a patto che B possa verificarsi, ossia
Pr(B) > 0; altrimenti, se B coincidesse con l’evento
impossibile ∅
Pr(A ∩ ∅) Pr(∅) 0
Pr(A|∅) = = =
Pr(∅) Pr(∅) 0
quindi non ha senso condizionare rispetto ad eventi
impossibili.
Essa rappresenta la probabilità che si verifichi A dato il
verificarsi dell’evento B, ossia supponendo che quest’ul-
timo si verifichi: dando per scontato il verificarsi di B,
Pr(A|B) riscala la probabilità di A non piu su tutto Ω
ma solo sugli eventi elementari che costituiscono B.

Si noti l’analogia con le frequenze relative condizionate:


la frequenza relativa condizionata della modalità xi di X
data la modalità yj di Y è il rapporto tra la frequen-
za relativa congiunta di xi e yj e la frequenza relativa
marginale di yj .
15
Se possiamo applicare la definizione classica di probabilità
(Ω finito ed eventi elementari equiprobabili):
casi favorevoli a A ∩ B / casi possibi
Pr(A|B) =
casi favorevoli a B / casi possibili
casi favorevoli a A ∩ B
=
casi favorevoli a B
B diventa lo spazio campionario in sostituzione di Ω.

In alcuni casi è semplice calcolare Pr(A|B) direttamente;


in altri casi invece può risultare più semplice calcolare
Pr(A ∩ B) e Pr(B) e derivare da questi Pr(A|B).

Esempio: estraendo da un mazzo di 40 carte 2 carte


senza reinserimento e supponendo che la prima carta es-
tratta sia un asso, qual è la probabilità che anche la sec-
onda sia un asso?
Se indichiamo con
B=“la prima carta estratta è un asso”
A=“la seconda carta estratta è un asso”
è facile calcolare direttamente la probabilità condizionata
3
Pr(A|B) =
39
Altrimenti dobbiamo procedere come segue:
4
Pr(B) =
40
4
 4!
2 2!2! 4·3
Pr(A ∩ B) = 40 = 40! =
2 2!38!
40 · 39
Pr(A ∩ B) (4 · 3)/(40 · 39) 3
Pr(A|B) = = =
Pr(B) 4/40 39

16
Esempio 3: lancio di due dadi. Calcolare la probabilità
che il primo dado produca la faccia 3 sapendo che la som-
ma delle due facce è pari a 7.
Poniamo
A=“il primo dado produce la faccia 3”
B=“la somma delle due facce è 7”
non è semplice calcolare Pr(A|B) direttamente, ma pos-
siamo procedere usando la definizione.
casi favorevoli a (I = 3 ∩ I + II = 7)
Pr(A ∩ B) =
casi possibili
casi favorevoli a (I = 3 ∩ II = 4) 1
= =
36 36
casi favorevoli a (I + II = 7) 6
Pr(B) = =
36 36
dato che i casi favorevoli a (I + II = 7) sono
{(1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3)}

Pr(A ∩ B) 1/36 1
⇒ Pr(A | B) = = =
Pr(B) 6/36 6

Esercizio: un’urna contiene 7 palline, di cui 3 rosse e 4


bianche. Effettuando due estrazioni senza reinserimento
1. calcolare la probabilità che la seconda estratta sia
bianca dato che la prima è bianca;
2. calcolare la probabilità che siano entrambe bianche.

17
TEOREMA DELLE PROBABILITA’
TOTALI
Dato che B ∪ B̄ = Ω, allora
A = A ∩ Ω = A ∩ (B ∪ B̄) = (A ∩ B) ∪ (A ∩ B̄)
e poichè gli eventi (A ∩ B) e (A ∩ B̄) sono disgiunti
Pr(A) = Pr((A∩B)∪(A∩ B̄)) = Pr(A∩B)+Pr(A∩ B̄)
Dalla definizione di probabilità condizionata
Pr(A ∩ B)
Pr(A|B) =
Pr(B)
segue che
Pr(A∩B) = Pr(A|B) Pr(B) e Pr(A∩B̄) = Pr(A|B̄) Pr(B̄)
e quindi
Pr(A) = Pr(A|B) Pr(B) + Pr(A|B̄) Pr(B̄)

Esempio 7: un’urna contiene 5 palline, numerate da


1 a 5, e supponiamo di estrarne 2 senza reinserimento.
Qual è la probabilità che la seconda pallina sia pari?
Poniamo
A =“la prima pallina è pari”
B =“la seconda pallina è pari”
12 23 4
Pr(B) = Pr(B|A) Pr(A)+Pr(B|Ā) Pr(Ā) = + =
4 5 4 5 10

18
TEOREMA DI BAYES

Dalla definizione di probabilità condizionata


Pr(A ∩ B)
Pr(A|B) =
Pr(B)
da cui
Pr(A ∩ B) = Pr(A|B) Pr(B)
Allo stesso tempo
Pr(B ∩ A)
Pr(B|A) =
Pr(A)
e quindi
Pr(B ∩ A) = Pr(B|A) Pr(A)
Infine, dato che A ∩ B = B ∩ A
Pr(A|B) Pr(B) = Pr(B|A) Pr(A)
da cui
Pr(A|B) Pr(B)
Pr(B|A) =
Pr(A)
Pr(A|B) Pr(B)
=
Pr(A|B) Pr(B) + Pr(A|B̄) Pr(B̄)

Interpretazione: supponiamo che A sia un evento di in-


teresse e B un evento che possiamo vedere come una pos-
sibile causa di A. Allora il teorema di Bayes indica come
si modifica la valutazioni a priori circa la causa B (ossia
Pr(B)) alla luce del verificarsi di A (ossia Pr(B|A)).

19
Esempio 7 (pag 18): abbiamo un’urna con 5 palline nu-
merate da cui facciamo 2 estrazioni senza reinserimento.
1. Calcolare la probabilità che la prima pallina sia pari
dato che la seconda è pari.
1 2
Pr(B|A) Pr(A) 4 · 5 1
Pr(A|B) = = 1 2 =
Pr(B) 4
· 5
+ 24 · 35 4

2. Calcolare la probabilità che entrambe le palline es-


tratte siano pari.
1 2 1
Pr(A ∩ B) = Pr(B|A) Pr(A) = · =
4 5 10
Si sarebbe anche potuto seguire la strada
Pr(A ∩ B) = Pr(A|B) Pr(B)
sfruttando i risultati precedenti.

N.B.: si noti come in questo caso Pr(A|B) e Pr(B) siano


difficili da calcolare direttamente attraverso le rispettive
definizioni.

20
Esempio. Un amico ci ha detto che con una probabilità
del 80% oggi ci sarebbe venuto a trovare a mezzogiorno. Il
nostro amico ha deciso di viaggiare in pullman e sappiamo
che il 40% dei pullman arriva in ritardo a destinazione.
1. Calcolare la probabilità che a mezzogiorno il nostro
amico non sia ancora arrivato.
Poniamo
M=“a mezzogiorno il nostro amico non è arrivato”
V=“il nostro amico ha deciso di venirci a trovare”

Pr(M ) = Pr(M |V ) Pr(V ) + Pr(M |V̄ ) Pr(V̄ )


=0, 4 · 0, 8 + 1 · 0, 2 = 0, 52
2. Se a mezzogiorno non è ancora arrivato, qual è la
probabilità che venga comunque a trovarci?
Pr(M |V ) Pr(V ) 0, 4 · 0, 8
Pr(V |M ) = = = 0, 6154
Pr(M ) 0, 52
Esempio. In una popolazione la percentuale di fumatori
è pari al 35%. Inoltre è noto che il 20% dei fumatori
e il 6% dei non fumatori sono affetti da una malattia
respiratoria cronica. Si vuole determinare la probabilità
che un individuo affetto dalla malattia sia fumatore.
Poniamo: F=“fumatore” M=“malato”

Pr(M |F ) Pr(F )
Pr(F |M ) =
Pr(M |F ) Pr(F ) + Pr(M |F̄ ) Pr(F̄ )
0, 2 · 0, 35
= = 0, 64
0, 2 · 0, 35 + 0, 06 · 0, 65

21
Esercizio (pag. 17): un’urna contiene 7 palline, di
cui 3 rosse e 4 bianche; effettuando due estrazioni senza
reinserimento, calcolare la probabilità che
1. la seconda pallina estratta sia bianca dato che la
prima è bianca;
2. siano entrambe bianche;
3. la seconda sia bianca;
4. la prima sia bianca, dato che la seconda è bianca.
Nel caso in cui le estrazioni venissero effettuate con rein-
serimento, come dovrebbero essere modificati i calcoli ai
punti precedenti?

22
INDIPENDENZA DI EVENTI
Due eventi A e B si dicono indipendenti se e solo se
Pr(A ∩ B) = Pr(A) Pr(B)
Se A e B sono indipendenti, allora
Pr(A ∩ B) Pr(A) Pr(B)
Pr(A|B) = = = Pr(A)
Pr(B) Pr(B)
che possiamo interpretare nel modo seguente: se A e B
sono indipendenti la probabilità che si verifichi A non è
modificata dall’informazione che B si è verificato.

Ma se A e B sono indipendenti, vale anche


Pr(A ∩ B) Pr(A) Pr(B)
Pr(B|A) = = = Pr(B)
Pr(A) Pr(A)
ossia la probabilità che si verifichi B non è modificata dal-
l’informazione che A si è verificato.

Se A e B si riferiscono ad esperimenti o prove tra loro


indipendenti (ossia a sé stanti, che non si influenzano
a vicenda), i due eventi saranno essi stessi indipendenti
e possiamo calcolare la loro probabilità congiunta come
prodotto delle due probabilità marginali.

Esempio: lancio 2 volte una moneta. I due lanci pos-


sono essere visti come due prove indipendenti. Pertanto,
1 1
Pr({T T }) = Pr({T }) Pr({T }) = ·
2 2
1 1
Pr({T C}) = Pr({T }) Pr({C}) = · ecc...
2 2
23
Esempio 3: lancio di due dadi. Dato che i lanci possono
essere considerati prove indipendenti,
Pr(“entrambe le facce sono pari”) = Pr(“I pari”∩“II pari”)
3 3
= Pr(“I pari”) · Pr(“II pari”) = ·
6 6
Esempio 7 (pag. 18): abbiamo un’urna con 5 palline
numerate da cui facciamo 2 estrazioni.
1. Se le estrazioni sono con reinserimento, esse possono
essere considerate prove indipendenti, in quanto la
composizione dell’urna rimane sempre inalterata:
Pr(“entrambe le palline sono pari”) = Pr(A ∩ B)
2 2
= Pr(A) Pr(B) = ·
5 5
e
2
Pr(B|A) = Pr(B) =
5
2. Se le estrazioni sono senza reinserimento, la prima
modifica la composizione dell’urna e pertanto le due
estrazioni non possono considerarsi indipendenti:
1 4
Pr(B|A) = 6= Pr(B) =
4 10
e
1 2 4
Pr(A ∩ B) = 6= Pr(A) Pr(B) = ·
10 5 10
Se l’urna contenesse un numero elevatissimo di palline,
le estrazioni, anche se fatte senza reinserimento, si
possono considerare come se fossero con reinserimen-
to, poiché di fatto la composizione dell’urna rimane
inalterata. In questo caso, le singole estrazioni pos-
sono considerarsi come prove indipendenti.

24
ATTENZIONE: Incompatibili 6= Indipendenti!
Se A e B sono incompatibili (A ∩ B = ∅) sappiamo che il
verificarsi dell’uno esclude il verificarsi dell’altro evento:
⇒ max informazione reciproca.
Qual é l’unico caso in cui 2 eventi sono allo stesso tempo
incompatibili ed indipendenti?

Il concetto di indipendenza puó essere esteso direttamente


al caso di piú di due eventi: A, B e C sono indipendenti
se e solo se
Pr(A ∩ B) = Pr(A) Pr(B)
Pr(A ∩ C) = Pr(A) Pr(C)
Pr(B ∩ C) = Pr(B) Pr(C)
ed inoltre
Pr(A ∩ B ∩ C) = Pr(A) Pr(B) Pr(C)
Nel caso di n eventi generici A1, A2, . . . , An , perché siano
indipendenti si deve avere che, preso un qualunque sot-
toinsieme di essi di dimensione maggiore o quale a 2, la
probabilità congiunta sia pari al prodotto delle marginali.

Esempio 2: lancio di una moneta 3 volte. I tre lanci


possono considerarsi come prove indipendenti e quindi
 3
1
Pr({T CT }) = Pr({T }) Pr({C}) Pr({T }) =
2

25
LE VARIABILI CASUALI
Una variabile casuale (o aleatoria) è una funzione che
associa ad ogni evento elementare di Ω un numero reale:
X : Ω → IR
Una variabile casuale è una variabile il cui valore dipende
dal risultato di un esperimento casuale: indicheremo con
X la variabile e con x il valore da essa assunto.

Esempio 2: lancio di 3 monete, X = numero di teste


Ω = {T T T, T T C, T CT, T CC, CT T, CT C, CCT, CCC}
X(T T T ) = 3, X(T T C) = X(T CT ) = X(CT T ) = 2,
X(T CC) = X(CT C) = X(CCT ) = 1, X(CCC) = 0
X assume valori sull’insieme {0, 1, 2, 3}.

Esempio 3: lancio di 2 dadi, X = somma delle facce


Ω = {(1, 1), (1, 2), (1, 3), . . . , (6, 6)}
X((1, 1)) = 2, X((1, 2)) = 3, . . . , X((6, 6)) = 12
X assume i valori sull’insieme {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}.

Esempio 5: durata di una lampadina, Ω = [0, ∞)


X=durata della lampadina ⇒ X(ω) = ω e X ∈ [0, ∞).
X ′ = 1 se durata ≥ 1 anno, X ′ = 0 se durata < 1 anno.

La variabile casuale si definisce discreta se assume un


numero finito o una infinità numerabile di valori, con-
tinua se assume una infinità non numerabile di valori.
26
VARIABILI CASUALI DISCRETE
Non conoscendo l’esito dell’esperimento, a priori non siamo
in grado di prevedere con certezza quale valore sarà as-
sunto dalla variabile, ma possiamo associare a ciascuno
dei valori della variabile la probabilità che si verifichi.

Esempio 2: lancio di 3 monete, X = numero di teste


⇒ X ∈ {0, 1, 2, 3} dove
1
Pr(X = 0) = Pr(CCC) =
8
3
Pr(X = 1) = Pr(T CC ∪ CT C ∪ CCT ) =
8
3
Pr(X = 2) = Pr(T T C ∪ T CT ∪ CT T ) =
8
1
Pr(X = 3) = Pr(T T T ) =
8
Distribuzione di Probabilità: associa ad ogni pos-
sibile valore di X la probabilità che esso si verifichi:
Valori di X 0 1 2 3 Tot
Probabilità 1/8 3/8 3/8 1/8 1

Una variabile aleatoria discreta X è caratterizzata dal


suo supporto SX , che specifica l’insieme dei valori xi che
X può assumere, e dalle probabilità con cui tali valori
possono verificarsi p(xi) = Pr(X = xi)

Valori di X x1 x2 . . . xi . . . Tot
Probabilità p(x1) p(x2) . . . p(xi) . . . 1

P
dove naturalmente p(xi) ≥ 0 e xi ∈SX p(xi) = 1.

27
Esempio 3: lancio di 2 dadi, X = somma delle facce
⇒ SX = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12} dove
Pr(X = 2) = Pr(r(1, 1)) = 1/36
Pr(X = 3) = Pr((1, 2) ∪ (2, 1)) = 2/36
Pr(X = 4) = Pr((1, 3) ∪ (3, 1) ∪ (2, 2)) = 3/36
...
Pr(X = 11) = Pr((5, 6) ∪ (6, 5)) = 2/36
Pr(X = 12) = Pr((6, 6)) = 1 − Pr(X = 1) − Pr(X = 2)
− . . . − Pr(X = 11) = 1/36

X 2 3 4 5 6 7 8 9 10 11 12 Tot
p(x) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 1
0.16
0.14
0.12
0.10
p(x)

0.08
0.06
0.04

2 4 6 8 10 12

28
LA FUNZIONE DI RIPARTIZIONE
La funzione ripartizione FX (·) di una variabile casuale X
(sia continua che discreta) è definita da
FX (x) = Pr(X ≤ x) x ∈ IR

Analogia con la funzione di frequenze relative cumulate


(forniva la percentuale di unità statistiche che avevano
assunto una modalità minore o uguale a x)

Per una variabile casuale discreta X con distribuzione


X x1 x2 . . . xi . . . Tot
p(x) p(x1) p(x2) . . . p(xi) . . . 1

la funzione di ripartizione
X
FX (x) = p(xi)
xi ≤x

è una funzione a gradini con salti in corrispondenza dei


valori xi del supporto, dove si ha
FX (xj ) = Pr(X ≤ xj ) = p(x1) + . . . + p(xj )
Proprietà:
• FX (·) : IR → [0; 1] è non-decrescente;
• continua a destra;
• limx→−∞ FX (x) = 0 e limx→+∞ FX (x) = 1

29
Esempio 2 (pag. 27): lancio di 3 monete
X = numero di teste ⇒ SX = {0, 1, 2, 3}

1.0
0.8
0.6
F(x)

0.4
0.2
0.0

−1 0 1 2 3 4

F (0) = Pr(X ≤ 0) = Pr(X = 0) = 1/8


F (1) = Pr(X ≤ 1) = Pr(X = 0) + Pr(X = 1) = 4/8
F (2) = Pr(X ≤ 2) = Pr(X = 0) + Pr(X = 1) + Pr(X = 2) = 7/8
F (3) = Pr(X ≤ 3) = 1

Si noti che Pr(X < 1) = Pr(X = 0) = 1/8


Inoltre, dato che (X ≤ 2) = (X > 2)
Pr(X ≤ 2) = 1−Pr(X > 2) = 1−Pr(X = 3) = 1−1/8 = 7/8
Da (X ≥ 1) = (X < 1), segue che
Pr(X ≥ 1) = 1−Pr(X < 1) = 1−Pr(X = 0) = 1−1/8 = 7/8

30
VALORE ATTESO E VARIANZA PER
VARIABILI CASUALI DISCRETE
Sia X una v.c. discreta con distribuzione di probabilità

X x1 x2 . . . xi . . . Tot
p(x) p(x1) p(x2) . . . p(xi) . . . 1

Il valore atteso (o media) di X è la quantità


X
E(X) = xip(xi)
xi ∈SX

Analogia con il concetto di media in statistica descrittiva:


Xr
M (X) = xj fj
j=1

Il valore atteso è un indice di tendenza centrale della dis-


tribuzione di probabilità della variabile (non coincide nec-
essariamente con uno dei valori che X può assumere).

La varianza di X è la quantità
X
2
Var(X) =E(X − E(X)) = (xi − E(X))2p(xi)
xi ∈SX
X
2 2
=E(X ) − [E(X)] = x2i p(xi) − [E(X)]2
xi ∈SX

La varianza è un indice di dispersione: quantifica la ten-


denza della distribuzione di probabilità di X a concen-
trarsi attorno alla media. Si definisce scarto quadrati-
co medio (o deviazione standard) di X
p
sqm(X) = Var(X)
31
Esempio 2 (pag. 27): lancio di 3 monete. Calcolare
valore atteso e varianza del numero di teste X che escono
nei 3 lanci.
1 3 3 1 12 3
E(X) = 0 × + 1 × + 2 × + 3 × = =
8 8 8 8 8 2

Per calcolare la varianza, valutiamo innanzitutto il mo-


mento secondo
1 3 3 1 24
E(X 2) = 02 × + 12 × + 22 × + 32 × = =3
8 8 8 8 8
da cui  2
3 3
Var(X) = 3 − = .
2 4

Esempio 3 (pag. 28): lancio di due dadi. Si calcoli


valore atteso e deviazione standard della somma X delle
due facce.
1 2 3 4 5 7
E(X) = 2× +3× +4× +5× +6× +7× +
36 36 36 36 36 36
5 4 3 2 1 252
+8× +9× +10× +11× +12× = =7
36 36 36 36 36 35
Inoltre
1 1
E(X 2) = 22 × + . . . + 122 × = 54, 83
36 36
e quindi
Var(X) = 54, 83 − 72 = 5, 83 ⇒ sqm(X) = 2, 42

32
TRASFORMAZIONI DI VARIABILI
Se da X deriviamo Y attraverso la trasformazione lineare
Y = a + bX
allora
E(Y ) = E(a + bX) = a + bE(X)
Var(Y ) = Var(a + bX) = b2Var(X)

ATTENZIONE: in generale, se effettuo una trasfor-


mazione Y = g(X) di una v.c. discreta X
X
E(g(X)) = g(xi)p(xi)
xi ∈SX

Pertanto se g(·) non è lineare allora E(Y ) 6= g(E(X)).

LA STANDARDIZZAZIONE
Se alla variabile casuale X applichiamo la trasformazione
X − E(X)
Z= p
Var(X)
otteniamo una variabile casuale Z standardizzata, os-
sia tale che
E(Z) = 0 Var(Z) = 1

33
Esempio: in una lotteria vengono emessi
3 biglietti con vincita da 1000 euro
10 biglietti con vincita da 200 euro
100 biglietti con vincita da 5 euro
1000 biglietti con vincita da 0 euro
Se una persona acquista un solo biglietto,
• calcolare valore atteso e varianza della vincita X;
• calcolare il guadagno atteso nel caso in cui il biglietto
costi 5 euro.
Soluzione

X 0 5 200 1000 Tot


1000 100 10 3
p(x) 1113 1113 1113 1113 1

La vincita attesa è
1000 100 10 3
E(X) = 0× +5× +200× +1000× = 4, 94 euro
1113 1113 1113 1113
Inoltre
1000 100 10
E(X 2) = 02 × + 52 × + 2002 × +
1113 1113 1113
3
+10002 × = 3057, 053 euro2
1113
da cui
Var(X) = 3057, 053 − 4, 942 = 3032, 65 euro2

34
Indicando ora con G il guadagno in euro di un persona
che acquista un unico biglietto dal costo di 5 euro, allora
G = X − 5. Pertanto il guadagno atteso E(G) è dato da
E(G) = E(X − 5) = E(X) − 5 = 4, 94 − 5 = −0, 06
avremmo cioè una perdita attesa, ossia non conviene in
media comprare il biglietto della lotteria.

Altrimenti avremmo dovuto ricavare la distribuzione di


probabilita di G: da cui

G -5 0 195 995 Tot


1000 100 10 3
p(x) 1113 1113 1113 1113 1

1000 100 10 3
E(G) = (−5)· +0· +195· +995· = −0, 06
1113 1113 1113 1113

Se ora volessimo calcolare la vincita attesa e la varianza


della vincita espresse in lire, allora posto Y = vincita in
lire generata dall’acquisto di un solo biglietto
Y = 1936, 27 · X
Dalle proprietà della media e della varianza abbiamo che
E(Y ) = 1936, 27 · E(X) = 9565, 17 lire
e
Var(Y ) = 1936, 272 · Var(X) = 1936, 272 · 3032, 65 lire2

35
ESEMPI IMPORTANTI DI VARIABILI
CASUALI DISCRETE
Per conoscere una variabile aleatoria discreta X (e quindi
poterne calcolare le probabilità di eventi di interesse, il
valore atteso, la varianza, ecc...), dobbiamo disporre della
sua distribuzione di probabilità, che specifica il supporto
SX e le probabilità p(xi) per ogni xi ∈ SX .

Vi sono alcune variabili casuali (o, analogamente, alcune


distribuzioni di probabilità) di fondamentale importan-
za, in quanto rappresentano dei modelli matematici che
descrivono situazioni reali molto frequenti e di spiccato
interesse.

Nell’ambito delle variabili casuali discrete, approfondire-


mo nel seguito lo studio dei seguenti modelli:
• distribuzione uniforme discreta;
• distribuzione di Bernoulli;
• distribuzione binomiale;
• distribuzione di Poisson.

36
VARIABILE CASUALE UNIFORME
DISCRETA

La v.c. X si distribuisce secondo una uniforme discreta


se assume un numero finito di possibili valori x1, . . . , xn
ciascuno con uguale probabilità 1/n di verificarsi, ossia:

X x1 x2 . . . xn Tot
1 1 1
p(x) n n
... n
1

La distribuzione uniforme discreta rappresenta il model-


lo matematico di riferimento per l’equiprobabilità (tipica
nei giochi d’azzardo) e, dal punto di vista della notazione,
solitamente viene indicata con X ∼ U{x1 ,...,xn}.

Proprietà:
X 1 num. di xi ≤ x
F (x) = Pr(X ≤ x) = =
i:x ≤x
n n
i

n n
X 1 1X
E(X) = xi · = xi
i=1
n n i=1
n n
!2
1 X 1 X
Var(X) = E(X 2)−{E(X)}2 = x2i − xi
n i=1 n i=1

37
Esempio 6: lancio di un dado. Se X rappresenta la
faccia del dado, allora SX = {1, 2, 3, 4, 5, 6} e ciascuno
di essi ha probabilità 1/6 di verificarsi: X ∼ U{1,2,3,4,5,6}
1+ 2+ ... + 6
E(X) = = 3, 5
6
12 + 22 + . . . + 62
V (X) = − 3, 52 = 2, 92
6
3
Pr(X ≤ 3) = F (3) =
0.22
0.20
0.18
6
p(x)

0.16
0.14
0.12
0.10

1 2 3 4 5 6

x
1.0
0.8
0.6
F(x)

0.4
0.2
0.0

0 1 2 3 4 5 6 7

38
VARIABILE CASUALE DI BERNOULLI
Riguarda gli esperimenti in cui l’interesse è legato ad
esiti dicotomici, come Successo/Insuccesso, Vero/Falso,
Si/No, Presenza/Assenza, ecc...

Supponiamo di disporre dell’elenco degli iscritti alla Fa-


coltà di Economia, di cui è noto che la percentuale di
ragazzi è pari al 55%. Estraendo a caso un numero di
matricola, indichiamo con X la v.c. cosı̀ definita
(
1 se Maschio
X=
0 se Femmina
Allora la sua distribuzione di probabilità è
Pr(X = 1) = 0, 55
Pr(X = 0) = 1 − 0, 55 = 0, 45
o più sinteticamente
Pr(X = x) = 0, 55x · (1 − 0, 55)(1−x), x = 0, 1
Consideriamo ora un generico esperimento dove un even-
to di interesse A (“successo”) si verificherà con una certa
probabilità π, quindi con probabilità 1−π si verificherà il
suo complementare Ā (“insuccesso”). Definendo X cosı̀
(
1 se si verifica A
X=
0 se si verifica Ā
allora la v.c. X si distribuisce secondo una Bernoulli di
parametro π, X ∼ Be(π), ossia la sua distribuzione di
probabilità è data da
Pr(X = x) = π x(1 − π)(1−x) , x = 0, 1
39
Proprietà:
E(X) = 1 × π + 0 × (1 − π) = π
E(X 2) = 12 × π + 02 × (1 − π) = π
Var(X) = E(X 2) − [E(X)]2 = π − π 2 = π(1 − π)

Bernoulli, p=0.5 Bernoulli, p=0.1


0.9

0.9
0.7

0.7
p(x)

p(x)
0.5

0.5
0.3

0.3
0.1

0.1

0 1 0 1

x x

Bernoulli, p=0.9
0.9
0.7
p(x)

0.5
0.3
0.1

0 1

40
VARIABILE CASUALE BINOMIALE
Supponiamo di lanciare 3 volte una moneta truccata in
modo che l’esito testa abbia probabilità 0,6. Se indichi-
amo con Xi la v.c. che descrive l’esito dell’i-esimo lancio,
(
1 se nell’i-esimo lancio esce testa
Xi =
0 se nell’i-esimo lancio esce croce
e, come abbiamo visto, Xi ∼ Be(0, 6) per ogni i = 1, 2, 3.
Se anzichè esaminare l’esito di ogni singolo lancio siamo
interessati al numero complessivo di volte X in cui è
uscita testa nei 3 lanci, allora
3
X
X= Xi
i=1

dove ora la v.c. X assume come possibili esiti i valori 0,


1, 2 e 3. Proviamo a determinare
Pr(X = 2)
ossia la probabilità che in 3 lanci si osservino 2 teste. Per
esempio, la sequenza (X1 = 1, X2 = 1, X3 = 0) soddisfa
il requisito richiesto e
Pr(X1 = 1, X2 = 1, X3 = 0) = Pr(X1 = 1) Pr(X2 = 1) Pr(X3 = 0)
poiché tali eventi si riferiscono a 3 lanci tra loro indipen-
denti, risultando quindi essi stessi indipendenti. Allora,
Pr(X1 = 1, X2 = 1, X3 = 0) = (0, 6)2(1 − 0, 6)(3−2)
Tuttavia anche (X1 = 1, X2 = 0, X3 = 1) soddisfa la
condizione di avere esattamente 2 teste, cosı̀ come, in
41
generale, tutte le sequenze con due valori uguali ad 1 ed
un unico 0, ciascuna delle quali per l’indipendenza dei
lanci ha probabilità (0, 6)2(1 − 0, 6)(3−2). Per calcolare
Pr(X = 2) dobbiamo quindi determinare il numero di tali
sequenze, che coincide con il numero di modi di disporre
i due valori 1 nelle 3 posizioni della sequenza, ossia
 
3 3! 3!
= = = 3.
2 2!(3 − 2)! 2!1!
Pertanto
 
3
Pr(X = 2) = 0, 62(1−0, 6)(3−2) = 3·0, 36·0, 4 = 0, 432
2
Analogamente, se volessimo calcolare la probabilità di
osservare esattamente 1 testa in 3 lanci
 
3
Pr(X = 1) = 0, 61(1−0, 6)(3−1) = 3·0, 6·0, 16 = 0, 288
1
Più in generale, per ogni valore x ∈ SX = {0, 1, 2, 3}
 
3
Pr(X = x) = 0, 6x(1 − 0, 6)(3−x)
x
Generalizziamo ulteriormente il problema e consideriamo
il caso in cui lanciamo n volte la moneta. Indicando
con X il numero di teste negli n lanci, allora si ha che
SX = {0, 1, . . . , n} ed inoltre
 
n
Pr(X = x) = 0, 6x(1 − 0, 6)(n−x), x = 0, 1, . . . , n.
x

42
Consideriamo ora un generico esperimento di tipo Bernoul-
liano, ossia tale da generare un “successo” (si verifica un
evento A) con probabilità π o un “insuccesso” (Ā) con
probabilità 1 − π e supponiamo di ripeterlo n volte in
modo indipendente. Indicando con X la v.c. che conta il
numero di successi nelle n replicazioni, allora
n
X
X= Xi
i=1

dove ogni Xi rappresenta una v.c. di Bernoulli che de-


scrive il risultato dell’i-esima prova
(
1 se si verifica A
Xi = i = 1, 2 . . . , n.
0 se si verifica Ā
Pertanto X può assumere come valori i numeri interi
0, 1, . . . , n e la probabilità di osservare esattamente x
successi nelle n prove è
 
n x
Pr(X = x) = π (1 − π)(n−x), x = 0, 1, . . . , n.
x
Si dice che X si distribuisce come una binomiale di
parametri n e π, ossia X ∼ Bin(n; π).

Una v.c. binomiale X ∼ Bin(n; π) descrive il numero di


successi in n prove Bernoulliane tra loro indipendenti ed
a probabilità di successo π costante.

43
Proprieta:
• se X ∼ Bin(n; π), allora
E(X) = nπ V (X) = nπ(1 − π)

• per n = 1 la binomiale coincide con la Bernoulli, ossia


Bin(1; π) = Be(π) (viene eseguita un’unica prova).

Binomiale, n=20,p=0.5 Binomiale, n=20,p=0.2


0.20

0.20
simmetria

asimmetria a dx
0.15

0.15
p(x)

p(x)
0.10

0.10
0.05

0.05
0.00

0.00

0 5 10 15 20 0 5 10 15 20

x x

Binomiale, n=20,p=0.8
0.20
0.15

asimmetria a sx
p(x)

0.10
0.05
0.00

0 5 10 15 20

44
Esercizio 1. E’ noto che il 98% degli studenti che si
presentano allo scritto d’esame del corso di Statistica ha
con sè la calcolatrice, mentre il restante 2% ne è sprovvis-
to. Se ad uno scritto si presentano 10 studenti, calcolare
la probabilità che
1. nessuno abbia la calcolatrice;
2. l’abbiano portata in 2;
3. almeno uno ce l’abbia.
Soluzione
Indicando con C l’evento “lo studente ha la calcolatrice”,
Pr(C) = 0, 98. Sia X la v.a. che conta quanti dei 10
studenti considerati hanno la calcolatrice: ciascuno di es-
si o ha portato la calcolatrice (“successo”) o non l’ha
portata (“insuccesso”), è lecito assumere che i compor-
tamenti di studenti diversi siano tra loro indipendenti ed
inoltre la probabilità di portare la calcolatrice è costante
e pari a 0,98. Pertanto X ∼ Bin(10; 0, 98) e per ogni
x = 0, 1, . . . , 10
 
10
Pr(X = x) = 0, 98x(1 − 0, 98)(10−x)
x
 
10
Pr(X = 0) = 0, 980(1 − 0, 98)(10−0) = 0, 0210
0
 
10
Pr(X = 2) = 0, 982(1 − 0, 98)(10−2) = 45 · 0, 982 · 0, 028
2
Pr(X ≥ 1) =1 − Pr(X < 1) = 1 − Pr(X = 0) = 1 − 0, 0210

45
Esercizio 2. Una Banca ha concesso finanziamenti a
10 imprese. Sapendo che la probabilità che un’impresa
sia insolvente è pari a 0,2 ed assumendo che le imprese si
comportino in modo indipendente, determinare la prob-
abilità che al massimo due di esse siano insolventi.

Soluzione
Possiamo vedere i 10 finanziamenti come 10 prove in-
dipendenti, dato che le imprese si comportano in modo
indipendente le une dalle altre, ciascuna delle quali gen-
era insolvenza (“successo”) con probabilità 0,2. Se in-
dichiamo con X il numero di imprese insolventi tra le 10
finanziate, X ∼ Bin(10; 0, 2) e pertanto
Pr(X ≤ 2) = Pr(X = 0) + Pr(X = 1) + Pr(X = 2)
     
10 10 10
= 0, 20 · 0, 810 + 0, 21 · 0, 89 + 0, 22 · 0, 88
0 1 2
=0, 810 + 10 · 0, 2 · 0, 89 + 45 · 0, 22 · 0, 88 = 0, 302
N.B.: chiaramente avremmo ottenuto la stessa soluzione
se avessimo posto Y = numero di imprese solventi tra le
10 finanziate, dove però in questo caso Y ∼ Bin(10; 0, 8)
e la probabilità cercata è Pr(Y ≥ 8).

Esercizio 3. Una squadra ha probabilità di vittoria


2/3 ogni volta che gioca. Dovendo giocare 4 partite
determinare la probabilità che
1. vinca almeno due partite;
2. perda più della metà delle partite.

46
VARIABILE CASUALE DI POISSON

Riguarda gli esperimenti in cui l’interesse è legato al nu-


mero complessivo di eventi che si verificano in un certo
periodo di tempo (ad es.: il numero di clienti che si pre-
sentano ad uno sportello in una giorno, il numero di auto
che giungono ad un casello autostradale durante una mat-
tinata, il numero di visite ad una pagina web in un’ora).

Una v.c. discreta X si distribuisce secondo una Poisson


di parametro λ > 0, il che si indica con X ∼ P (λ), se la
sua distribuzione di probabilità è data da:
λx −λ
Pr(X = x) = e x = 0, 1, 2, . . .
x!
Si noti che:
• X può assumere tutti i valori interi non negativi (il
suo supporto è infinito);
• il parametro positivo λ da cui dipende rappresenta
la media della distribuzione:
E[X] = λ
ossia λ è il numero medio di eventi nell’unità di
tempo considerata;
• la varianza della distribuzione coincide con λ stesso:
V [X] = E[X] = λ

47
0.4
0.3
0.2
0.1
0.0

0 5 10 15

Figura 1: Distribuzione di probabilità di Poisson al variare di λ = 1 (nero),


3 (rosso), 5 (verde) e 8 (blu).

Poissoniana come legge degli eventi rari: sud-


dividendo l’intervallo di tempo considerato in tanti sot-
tointervalli, se
• la probabilità che si verifichi un solo evento è costante
tra i sottointervalli;
• la probabilità di osservare due o più eventi in ogni
sottointervallo tende a 0;
• eventi relativi a sottointervalli diversi sono tra loro
indipendenti;
allora il numero complessivo di eventi osservati X nel pe-
riodo di interesse si distribuisce secondo una Poissoniana.
48
Esempio: è noto che il numero di riparazioni che ciascu-
na abitazione necessita in un anno segue una distribuzione
di Poisson di media 2. Qual è la probabilità che in un
anno una casa abbia bisogno di
1. esattamente una riparazione?
2. al massimo una?
3. più di una?
Soluzione: Sia N il numero di riparazioni richieste in
un anno, con N ∼ P (2). Allora si ha
1. Pr(N = 1) = 2 · e−2 = 0, 271;
2. Pr(N = 0) + Pr(N = 1) = e−2 + 2 · e−2 = 0, 406;
3. Pr(N > 1) = 1 − Pr(N = 0) − Pr(N = 1) =
1 − 0, 406 = 0, 594.

Proprietà: se X1, . . . , Xn sono v.c. di Poisson, rispet-


tivamente di parametri λ1, . . . , λn, tra loro indipendenti
allora la v.c. somma S = X1 + . . . + Xn si distribuisce
secondo una Poisson di media λ1 + . . . + λn.

49