Sei sulla pagina 1di 120

Calcolo delle Probabilit

Paolo Baldi, Universit di Roma Tor Vergata

McGraw-Hill 2011
Prima parte: soluzioni pag. 3
Seconda parte: risultati degli esercizi proposti pag. 105

Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011

1
Soluzioni

1.1 Due modi possibili: possiamo innanzitutto considerare tutti i numeri di telefono come
equiprobabili. Essi sono dunque 9 107 (9 possibilit per la prima cifra, 10 per le altre 7). Tra
di essi quelli che non contengono lo 0 sono 9 97 (9 possibilit per ognuna delle 8 cifre). La
probabilit che un numero scelto a caso non contenga lo 0 dunque
 9 7
9 97
=
= 0.48 .
9 107
10
Alternativamente, indichiamo con Ai , i = 2, . . . , 8 levento la i-esima cifra del numero
da chiamare diversa da 0. La probabilit richiesta quella dellintersezione degli eventi
9
Ai , i = 2, . . . , 8. Ora P(Ai ) = 10
, i = 2, . . . , 8, poich ragionevole supporre che tutte le
cifre abbiano la stessa probabilit di apparire allo i-esimo posto. E se supponiamo che i valori
delle diverse cifre che appaiono in un numero siano indipendenti ritroviamo ancora
 9 7
.
P(A2 . . . A8 ) = P(A2 ) . . . P(A8 ) =
10
1.2 a) Linsieme dei possibili risultati costituito da tutti i numeri da 000000 a 999999 (che
sono 1 milione). Possiamo scegliere questo insieme come . Naturalmente su  considereremo
la distribuzione uniforme di probabilit, poich non c motivo di supporre che alcuni numeri
siano pi probabili di altri. Poich  ha cardinalit 1 milione, la probabilit che il biglietto di
Ole Kamp vinca 106 .
b) Levento A costituito da tutti i numeri le cui prime 4 cifre sono 0096, che sono 100.
#A
Dunque P(A) = #
= 104 . Se A allora P({} A) = P({}) = 106 e quindi
P({})
1
P({}|A) = P(A) = 102 = #A
. Se invece 6 A allora levento {} A vuoto e
P({}|A) = 0. In conclusione la probabilit che un numero sia estratto ora

1
P({} A)
= #A se A
P({}|A) =
0
se 6 A .
P(A)
Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011

Parte 1: soluzioni

In altre parole la probabilit condizionale dato A vale 0 se il numero non si trova in A, mentre
tutti i numeri che si trovano in A sono equiprobabili. La probabilit del biglietto di Ole Kamp
1
1
, cio 100
. Se invece A fosse levento costituito dai numeri che iniziano con 00967, la
ora #A
1
1
probabilit P( |A) varrebbe 10
(cio sempre #A
) per tutti i biglietti le cui cifre iniziano con
00967 e 0 per gli altri.

1.3 Risolveremo il problema con due modelli diversi.


1) Primo modello. Supponiamo di numerare le palline nellurna e di indicarle B1 , B2 , B3 , B4 ,
N1 , N2 , N3 . Consideriamo come spazio  linsieme di tutte le coppie del tipo = (1 , 2 ),
dove 1 e 2 possono prendere i valori B1 , B2 , B3 , B4 , N1 , N2 oppure N3 ; ovvero
 = {B1 , B2 , B3 , B4 , N1 , N2 , N3 }2 .
Poich siamo in una situazione di estrazioni con rimpiazzo naturale supporre che tutti gli
elementi di  siano equiprobabili. In questo caso sappiamo che per calcolare la probabilit
#A
. In
di un evento A basta contare quanti elementi esso contiene, perch poi si ha P(A) = #
particolare ogni  ha probabilit
P({}) =

1
1
1
= 2 =

#
7
49

a) Levento A di cui si richiede la probabilit quello formato dalle coppie (1 , 2 ) per le


quali 1 e 2 sono entrambi B oppure entrambi N. In altre parole
A = {B1 , B2 , B3 , B4 }2 {N1 , N2 , N3 }2
e dunque #A = 42 + 32 = 25 e

25

49
b) Ora si tratta di calcolare la probabilit dellevento D delle coppie (1 , 2 ) dove uno almeno
tra 1 e 2 diverso da B1 , B2 , B3 , B4 . Dunque il complementare di D levento
P(A) =

D c = {B1 , B2 , B3 , B4 }2
e poich #D c = 16 allora P(D) = 1 P(D c ) = 1
2) Secondo modello. Consideriamo gli eventi
Z1
Z2
W1
W2

16
49

33
49 .

= una pallina bianca viene estratta alla prima estrazione


= una pallina bianca viene estratta alla seconda estrazione
= una pallina nera viene estratta alla prima estrazione
= una pallina nera viene estratta alla seconda estrazione .

Senza preoccuparci per ora di definirlo esplicitamente, chiaro che, in uno spazio (, !, P)
adeguato a descrivere questa situazione, gli eventi Z1 e Z2 devono risultare indipendenti e cos

Esercizio 1.4

pure W1 e W2 (poich le palline vengono rimesse nellurna i risultati di estrazioni successive


devono essere indipendenti). Inoltre dovr essere
4
7
3
P(W1 ) = P(W2 ) =
7
P(Z1 ) = P(Z2 ) =

poich in ogni singola estrazione ragionevole considerare la distribuzione uniforme di probabilit.


a) Levento vengono estratte due palline dello stesso colore non altro che (Z1 Z2 )
(W1 W2 ). Poich i due eventi Z1 Z2 e W1 W2 sono disgiunti (se si estraggono palline
bianche non se ne possono estrarre di nere) e per le relazioni dindipendenza che abbiamo gi
segnalato, deve essere
P((Z1 Z2 ) (W1 W2 )) = P(Z1 Z2 ) + P(W1 W2 ) =
 4 2  3 2
25
= P(Z1 )P(Z2 ) + P(W1 )P(W2 ) =
+
=

7
7
49

b) Levento una almeno delle palline estratte nera con la formulazione appena introdotta
non altro che W1 W2 . Usando la formula della probabilit della unione di eventi (osservare
che W1 e W2 non sono disgiunti) abbiamo
P(W1 W2 ) = P(W1 ) + P(W2 ) P(W1 W2 ) =

33
3 3  3 2
+
=

7 7
7
49

Questo esercizio mostra che, in generale, lo spazio di probabilit adatto a descrivere un


problema non unico (pur portando allo stesso risultato). Inoltre qui vediamo luso dei due principali strumenti elementari nella costruzione dello spazio di probabilit, cio lequiprobabilit
e lindipendenza.
Da segnalare lidea di calcolare la probabilit di un evento spezzandolo nella unione di eventi
la cui probabilit facile da calcolare e luso della formula, (1.8), della probabilit della riunione
di due eventi non disgiunti.

1.4 Anche questo esercizio pu essere risolto in (almeno) due modi, uno usando la formula
delle probabilit totali (1.12), laltro costruendo esplicitamente lo spazio di probabilit e usando
i metodi del calcolo combinatorio (cio contando la cardinalit degli eventi).
Come abbiamo gi visto negli esempi il metodo della partizione dellevento certo consiste nel
cercare degli eventi A1 , . . . , Am disgiunti, tali che la loro unione abbia probabilit 1 e tali che
il calcolo delle probabilit condizionali P(C |Ai ) sia facile. In questo caso una buona scelta
costituita dagli eventi Ai =la prima pallina estratta la numero i, i = 1, . . . , 6. chiaro
che gli eventi A1 , . . . , A6 costituiscono una partizione dellevento certo (sono disgiunti e la loro
unione esaurisce tutte le possibilit). Inoltre P(Ai ) = 61 per ogni i = 1, . . . , 6. Se indichiamo
con C levento le due estrazioni danno luogo a due numeri consecutivi, allora si ha
P(C |A2 ) =

Parte 1: soluzioni

Infatti dopo la prima estrazione (della pallina con il numero 2) nellurna sono rimaste 5 palline
e levento C si verifica se vengono estratte le palline numero 1 oppure 3, con probabilit 25 ,
appunto. Per lo stesso motivo si ha anche
P(C |A3 ) = P(C |A4 ) = P(C |A5 ) =

Se invece la prima pallina estratta la numero 1, nellurna restano sempre 5 palline, ma ora
levento C si verifica solo se la seconda estratta la numero 2, con probabilit 51 . Lo stesso vale
se la prima pallina estratta la numero 6, perch anche in questo caso si ha lo stesso effetto
di bordo. Dunque
1
P(C |A1 ) = P(C |A6 ) =
5
Possiamo ora applicare la formula (1.12):
P(C) = P(C |A1 )P(A1 ) + . . . + P(C |A6 )P(A6 ) =

2 1
1 1
2 +4
=
6
5
5
3

Secondo modo: se poniamo E = {1, 2, 3, 4, 5, 6}, lestrazione delle due palline dallurna
equivale alla scelta a caso di un sottoinsieme di due elementi dellinsieme E. Linsieme dei
possibili risultati dellesperimento casuale dunque =insieme di tutti i sottoinsiemi di due
elementi di E.

Sappiamo dalle formule del calcolo combinatorio (Proposizione 1.24) che # = 26 = 15.
Levento C corrisponde in questo modello al sottoinsieme di  dei sottoinsiemi di E formati da
due elementi consecutivi. Poich la cardinalit di  piccola possiamo semplicemente passare
in rivista tutti i possibili sottoinsiemi di due elementi e trovare che C formato dai sottoinsiemi
5
{1, 2}, {2, 3}, {3, 4}, {4, 5}, {5, 6}. Dunque la cardinalit di C uguale a 5 e P(C) = 15
= 13 .
Osserviamo che gli elementi di  sono sottoinsiemi di cardinalit 2 e non coppie ordinate.
Sarebbe stato comunque possibile anche scegliere come spazio  linsieme delle coppie ordinate
di elementi di E (cio le disposizioni di elementi di E a due a due). La cardinalit di  sarebbe
6!
per ora pari a 4!
= 30 ed il calcolo della cardinalit dellevento corrispondente a C diventa
solo un po pi complicato.

1.5 a) Indichiamo con 1 , 2 le posizioni dei due amici nella coda. Linsieme {1 , 2 }
un sottoinsieme di {1, . . . , n} di cardinalit 2. Possiamo dunque considerare come modello di
questo problema linsieme  dei sottoinsiemi
di cardinalit 2 di {1, . . . , n} con la probabilit

(Proposizione 1.24) e levento di cui vogliamo
uniforme. La cardinalit di  n2 = n(n1)
2
calcolare la probabilit corrisponde al sottoinsieme A  formato dagli {1 , 2 } tali che
|1 2 | = k + 1.
Osserviamo che gli elementi di  sono sottoinsiemi e non coppie ordinate, cio {1, 2} e
{2, 1} rappresentano lo stesso elemento di . Per rappresentare un elemento di  in maniera
univoca indicheremo un sottoinsieme con la coppia (1 , 2 ) dove 1 il numero pi piccolo,
(cio 1 < 2 ). Per calcolare la probabilit di A abbastanza naturale usare la formula
delle probabilit totali (1.12) usando la partizione A1 , . . . , An , dove Ai = {1 = i} (cio Ai

Esercizio 1.6

corrisponde allevento quello dei due amici che nella coda ha il numero pi basso si trova allo
i-esimo posto). facile vedere che
n
(i, i + k + 1) se i + k + 1 n
A Ai =

altrimenti
ovvero A Ai contiene un solo elemento se i + k + 1 n ed vuoto altrimenti. Quindi
(
1
P(A Ai ) = # se i n k 1
0
altrimenti
e dunque
P(A) = P(A A1 ) + . . . + P(A An ) =

2(n k 1)
nk1
=

#
n(n 1)

b) Scegliere due palline dallurna senza rimpiazzo equivale a scegliere un sottoinsieme di


cardinalit 2 dallinsieme {1, . . . , n}. Sceglieremo dunque  costituito dai sottoinsiemi di
cardinalit 2 di {1, . . . , n} e levento di cui vogliamo calcolare la probabilit corrisponde al
sottoinsieme A  formato dai sottoinsiemi {1 , 2 } tali che |1 2 | = k. Il problema
dunque, anche se la sua formulazione diversa, si riconduce esattamente allo stesso modello
del punto a) (solamente con k al posto di k + 1). Dunque la probabilit richiesta vale
2(n k)
nk
=

#
n(n 1)
In particolare scegliendo k = 1 otteniamo che la probabilit di estrarre dallurna due
numeri consecutivi
2(n 1)
2
=
n(n 1)
n
Ci fornisce una nuova soluzione allesercizio precedente (dove si aveva n = 6).

1.6
Se indichiamo con A e B gli eventi corrispondenti rispettivamente alla presenza del
primo e del secondo difetto, allora P(A) = 0.03, P(B) = 0.07 ed inoltre gli eventi A e B
devono risultare indipendenti.
a) La probabilit che entrambi i difetti siano presenti
P(A B) = P(A)P(B) = 0.03 0.07 = 0.0021 .
b) La probabilit che uno almeno dei difetti sia presente
P(A B) = P(A) + P(B) P(A B) = 0.03 + 0.07 0.0021 = 0.0979 .
c) La probabilit che un pezzo abbia il primo difetto sapendo che difettoso
P(A|A B) =

P(A (A B))
P(A)
0.03
=
=
= 0.306 = 30.6%
P(A B)
P(A B)
0.0979

Parte 1: soluzioni

(infatti A A B e quindi A (A B) = A).


d) La probabilit che vi sia uno solo dei difetti sapendo che il pezzo difettoso uguale
a 1 meno la probabilit che entrambi i difetti siano presenti (sempre sapendo che il pezzo
difettoso). Dunque, poich A B A B, la probabilit richiesta
1 P(A B |A B) = 1

P(A B)
0.0021
=1
= 0.978 = 97.8 .%
P(A B)
0.0979

1.7 Indichiamo con A1 levento viene scelta la carta 1 (quella con i due lati neri) e con
A2 levento viene scelta la carta 2. Con B invece indichiamo levento viene scelto un lato
nero. chiaro che P(A1 ) = P(A2 ) = 21 , poich non vi motivo di supporre che le due carte
non siano equiprobabili. Inoltre P(B |A1 ) = 1, P(B |A2 ) = 21 , poich se viene scelta la carta 2,
allora vi sono due lati possibili, uno bianco e laltro nero, entrambi con probabilit 21 . Anche
il secondo lato nero se si scelta la carta 1. Dunque la probabilit richiesta non altro che
P(A1 |B) e basta dunque applicare la formula di Bayes:
P(A1 |B) =

P(B |A1 )P(A1 )

P(B)

Resta ora solo da calcolare P(B). Ma con il metodo della partizione dellevento certo, dato che
A1 , A2 una partizione,
P(B) = P(B A1 ) + P(B A2 ) = P(B |A1 )P(A1 ) + P(B |A2 )P(A2 ) =

3
1 1
+ =
2 4
4

Dunque P(A1 |B) = 23 .


1.8 a) Indichiamo con Ai , i = 1, 2, 3 levento lo i-esimo lancio ha dato 6; chiaro che
P(A1 ) = P(A2 ) = P(A3 ) = 61 . Ci viene richiesto di calcolare P(A1 A2 A3 ). Gli eventi
A1 , A2 , A3 non sono per disgiunti (ad esempio A1 A2 non altro che levento i primi due
lanci danno entrambi 6) e dunque la probabilit della unione non uguale alla somma delle
probabilit. Possiamo per sfruttare il fatto che gli eventi A1 , A2 , A3 sono indipendenti come
pure i loro complementari e usare la formula

P(A1 A2 A3 ) = 1 P (A1 A2 A3 )c = 1 P(Ac1 Ac2 Ac3 ) =
 5 3
= 1 P(Ac1 )P(Ac2 )P(Ac3 ) = 1
= 0.42
6
(abbiamo usato le formule di De Morgan, vedi in fondo a pag. 3 del libro).
b) Ripetendo questo ragionamento si vede che la probabilit che in n lanci si ottenga 6 almeno
una volta 1 ( 65 )n . Perch questa quantit sia pi grande di 0.9 occorrer che sia
1

 5 n
6

> 0.9

Esercizio 1.10

Cio, svolgendo la disuguaglianza, 0.1 > ( 65 )n , ovvero, prendendo i logaritmi e dividendo per
log 65 ,
n > log(0.1)
log 65
e cio
n > 12.62 .
Attenzione: quando si divide per log 56 occorre invertire il verso della disuguaglianza, perch si
tratta di una quantit negativa. Dunque deve essere n 13.
Da segnalare luso della formula P(A) = 1 P(Ac ). Talvolta il calcolo della probabilit
di Ac pi facile del calcolo diretto della probabilit di A.

1.9
Con la distribuzione ipergeometrica si trova che, se i voti si ripartissero a caso tra i
commissari, essi si distribuirebbero come avvenuto con probabilit
5 3 
5 0
8
5

1
= 1.78 .%
56

Il giudice pu probabilmente decidere che levento verificatosi effettivamente troppo improbabile per essere il frutto del caso. Se invece i 5 voti fossero stati dati da 4 donne e un uomo,
la probabilit sarebbe stata
5  3
15
4 1
= 26.78%
=
8
56
5

che un valore abbastanza alto perch levento possa non essere giudicato improbabile.

1.10 a) Possiamo considerare le 52 carte del mazzo divise in due gruppi, uno composto dai 4
assi e laltro dalle altre 48 carte. La probabilit di ottenere esattamente k assi, per k = 1, 2, 3, 4,
non altro che la probabilit di ottenere k elementi dal primo gruppo in una estrazione di 5
elementi senza rimpiazzo. La distribuzione ipergeometrica d

pk :=

4 48 
k 5k
52
5

4! 48! 5! 47!

k! (4 k)! (43 + k)! (5 k)! 52!

Se indichiamo levento si ricevono (esattamente) k assi con Ak , levento si ricevono almeno


2 assi non altro che la riunione A2 A3 A4 . Poich gli eventi Ak al variare di k = 1, 2, 3, 4
sono disgiunti, la probabilit richiesta p allora uguale a P(A2 )+P(A3 )+P(A4 ) = p2 +p3 +p4 .
Non ci resta che calcolare queste tre quantit, il che si fa con una calcolatrice dopo avere

10

Parte 1: soluzioni

semplificato al massimo i coefficienti binomiali e i fattoriali che ne risultano:


4 48
4! 48! 5! 47!
5! 47 46
=
= 0.04
p2 = 2 523 =
2! 2! 45! 3! 52!
52 51 50 49
5
4 48
4! 48! 5! 47!
2 5! 47
p3 = 3 522 =
=
= 0.0017
3! 46! 2! 52!
52 51 50 49
5
4 48
48! 5! 47!
5!
=
= 1.847 105
p4 = 4 521 =
47! 52!
52 51 50 49
5

e dunque p = p2 + p3 + p4 = 0.042. Da notare che p4 = 1.847 105 la probabilit di


ricevere poker dassi servito.
b) Cominciamo col fissare un colore, quadri ad esempio. La probabilit di ricevere cinque
carte di quadri (cio colore servito a quadri) si calcola considerando le carte del mazzo ancora
suddivise in due gruppi: le 13 carte di quadri e le altre 39. Le formule della distribuzione
ipergeometrica dicono che la probabilit di ricevere 5 carte del primo gruppo e 0 dal secondo
13 39
13! 5! 47!
13 12 11 10 9
11 3
0
5
=
=
=
= 4.95 104
52
5! 8! 52!
52 51 50 49 48
17 5 49 16
5

Se indichiamo con A levento si riceve colore a quadri servito e con A , A , A , gli


analoghi eventi per gli altri semi, allora ognuno di questi ha probabilit 4.95 104 , grazie al
calcolo appena fatto. Inoltre la probabilit richiesta non altro che la probabilit della unione
A A A A . Poich si tratta di eventi disgiunti, la probabilit di ricevere colore servito
4 4.95 104 = 0.00198 = 0.198%.
c) Abbiamo gi calcolato in a) la probabilit di ricevere un poker servito di assi. Naturalmente
questa la stessa che la probabilit di ricevere un poker servito di un altro numero. Poich i
numeri (comprese le figure) sono 13 e poich gli eventi si riceve poker servito di assi, . . . di
2, . . . di 3 etc. sono tra di loro disgiunti, la probabilit di ricevere un poker servito uguale
a 13 1.847 105 = 2.4 104 .
La risoluzione di questo esercizio usa, in modo ripetitivo, solo due idee: il fatto che gli
eventi considerati si possono ricondurre a un modello di prove ripetute senza rimpiazzo (che
permette di servirsi delle formule della distribuzione ipergeometrica) e il metodo della partizione
dellevento certo: in ognuno dei punti a), b) e c) abbiamo suddiviso levento che ci interessava
in sottoinsiemi disgiunti, per ciascuno dei quali era facile calcolare la probabilit.

1.11 facile calcolare la probabilit che le due palline numero 1 vengano estratte insieme:
basta considerare le 93 palline presenti nellurna come suddivise in due gruppi, il primo formato
dalle due palline n 1 ed il secondo dalle 91 rimanenti. Si tratta di calcolare la probabilit di
estrarre 2 palline dal primo gruppo e 3 dal secondo in cinque estrazioni senza rimpiazzo. La
probabilit richiesta si pu calcolare con le formule della distribuzione ipergeometrica e vale
2 91
p=

3
93
5

= 2.34 103 .

Esercizio 1.11

11

Se ora indichiamo con Ai , i = 1, 2, 3, levento le due palline numero i vengono estratte entrambe chiaro che i tre eventi hanno la stessa probabilit e dunque P(A1 ) = P(A2 ) =
P(A3 ) = p. Inoltre la probabilit richiesta non altro che la probabilit della riunione
degli eventi A1 , A2 , A3 . Questi non sono per disgiunti, poich, ad esempio, la cinquina
(1, 1, 2, 2, 37) si trova sia in A1 che in A2 (ovvero possibile che simultaneamente vengano
estratte le due palline n 1 e le due n 2). Possiamo per ricorrere alla formula della probabilit
della unione di tre eventi non disgiunti (formula (1.9) a pag. 8 del libro).
Chiaramente levento A1 A2 A3 ha probabilit 0 (non possibile estrarre insieme le due
palline 1, le due 2 e le due 3, visto che ne vengono estratte 5 in totale). Il problema quindi
risolto se sappiamo calcolare P(A1 A2 ) (le probabilit delle altre intersezioni la stessa per
simmetria). Ancora usando la distribuzione ipergeometrica (probabilit di estrarre 4 elementi
dal gruppo {1, 1, 2, 2} ed 1 dal gruppo formato dalle altre 89 palline) si ha
P(A1 A2 ) = q =
per cui in definitiva la probabilit richiesta

4 89
4 1
93
5

= 1.71 106

3p 3q = 0.007 = 0.7% .
b) Cominciamo col calcolare la probabilit di fare terno in unestrazione normale: ci possiamo
ancora ricondurre alla distribuzione ipergeometrica (probabilit di estrarre 3 palline dal gruppo
composto dalle palline numero 1, 2, 3 e 2 da quello composto da tutte le altre):
3 87
3 2
90
5

= 8.51 105 .

Il calcolo della probabilit di fare terno con lurna manomessa un po pi complicato. Basta

per dare unocchiata alla parte finale dellEsempio 1.28: il numero totale di cinquine 93
5 ,
mentre il numero di cinquine che contengono esattamente una pallina col numero 1, una col
numero 2 e una col numero 3
    
2 2 2 87
.
2
1 1 1
La probabilit di fare terno con lurna manomessa dunque
2 2 2 87
1 1 1 2
93
5

= 5.76 104 .

Nella soluzione di questo esercizio abbiamo usato due idee utili anche in altre situazioni: la
prima consiste nel calcolare la probabilit di un evento scrivendolo come riunione di altri eventi
e poi usando la formula sulla probabilit della unione di eventi non (necessariamente) disgiunti.
La seconda consiste nel ricondursi, se possibile, ad un modello gi studiato e universale (cio
che pu applicarsi a molte situazioni diverse) come quello delle prove ripetute senza rimpiazzo,
che d luogo alla distribuzione ipergeometrica.

12

Parte 1: soluzioni

1.12
a) Indichiamo con Ei , i = 1, . . . , n, levento la i-esima pallina non viene messa
nellurna 1. Per come il problema stato posto gli eventi Ei si possono supporre indipendenti;
inoltre, poich ogni volta ognuna delle tre urne ha la stessa probabilit di essere scelta, la
probabilit dellevento Ei 23 . Levento lurna 1 rimane vuota non altro che lintersezione
E1 . . . En . Quindi
P(E1 . . . En ) = P(E1 ) . . . P(En ) =

 2 n
3

Alternativamente avremmo potuto osservare che siamo in presenza di uno schema di Bernoulli
(Esempio 1.20), cio di una sequenza di prove ripetute e indipendenti ciascuna delle quali
ha due possibili risultati: successo (corrispondente in questo caso allevento lurna 1 viene
prescelta) con probabilit p (= 31 nel nostro caso) e insuccesso con probabilit 1p. Abbiamo
visto nellEsempio 1.20 che in questa situazione la probabilit che non si verifichi nessun
successo appunto (1 p)n . Il nostro calcolo non altro che una ridimostrazione di questo
fatto.
b) La probabilit che una singola pallina non finisca n nellurna 1 n nella 2 (ovvero che
finisca nellurna 3) vale 13 . Siamo quindi nella situazione di uno schema successo-insuccesso
come lo abbiamo appena descritto con p = 23 . La probabilit richiesta dunque ( 31 )n .
c) Consideriamo gli eventi
A1 = lurna 1 rimasta vuota
A2 = lurna 2 rimasta vuota
A3 = lurna 3 rimasta vuota .
Levento di cui dobbiamo calcolare la probabilit lunione A1 A2 A3 e possiamo usare la
formula (1.9) sulla probabilit della unione di tre eventi non disgiunti: levento A1 A2 A3
ha chiaramente probabilit 0 (non possibile che tutte e tre le urne restino vuote). Inoltre
abbiamo gi calcolato le altre probabilit che figurano nella formula: gli eventi A1 , A2 , A3
hanno chiaramente la stessa probabilit, per motivi di simmetria, che vale ( 23 )n per il punto a);
cos pure le probabilit delle intersezioni a due a due valgono ( 31 )n per il punto b). In conclusione
la probabilit richiesta vale
 1 n
 2 n
3
.
3
3
3
In questo esercizio ritroviamo alcune idee gi viste:
a) luso di modelli standard (in questo caso lo schema successo-insuccesso, o di Bernoulli) a
cui ci si riconduce per sfruttare formule stabilite una volta per tutte;
b) il calcolo della probabilit di un evento ottenuta scrivendolo come riunione di altri, la cui
probabilit facile da calcolare, per poi usare la formula della unione di eventi non disgiunti.
Osserviamo infine che in questa risoluzione non abbiamo precisato quale sia lo spazio di
probabilit. Abbiamo semplicemente supposto che ne esistesse uno contenente degli eventi
E1 , . . . , En , A1 , A2 , A3 aventi certe propriet. In realt sarebbe stato possibile costruire uno
spazio (, !, P) adatto, ma ci avrebbe appesantito lo svolgimento senza renderlo n pi chiaro

Esercizio 1.13

13

n pi rigoroso. La costruzione completa dello spazio di probabilit verr spesso sottintesa negli
altri esercizi.

1.13 a) Indichiamo con Ai levento viene scelta lurna i-esima e con B levento vengono
estratte due palline di colori diversi; poich si tratta di estrazioni senza rimpiazzo la probabilit
di estrarre una pallina bianca e una rossa data dalla distribuzione ipergeometrica. Poich
nellurna i-esima vi sono 4 palline R e i palline B, deve essere
i  4
8i
1 1
(1.1)
P(B |Ai ) = 4+i  =
:= qi .
(4 + i)(3 + i)
2

Inoltre P(Ai ) =

1
10 ;

dunque, con la formula delle probabilit totali (1.12) e una calcolatrice,

P(B) =

10
X
i=1

10

P(B |Ai )P(Ai ) =

1 X
8i
= 0.506 .
10
(4 + i)(3 + i)
i=1

b) Possiamo applicare la formula di Bayes


P(Ai |B) =

qi
P(B |Ai ) P(Ai )
=
.
P(B)
10 P(B)

Determinare lurna pi probabile significa trovare il valore di i per cui qi massima. Ci si


pu fare (oltre che con un calcolo numerico con un PC o una calcolatrice) studiando per quali
valori di i si ha qi+1
qi 1. Si trova
qi+1
(4 + i)(3 + i)
8(i + 1)
i 2 + 4i + 3
=
=

qi
(5 + i)(4 + i)
8i
i 2 + 5i
La disuguaglianza
x 2 + 4x + 3
>1
x 2 + 5x
soddisfatta per 0 < x < 3; inoltre la frazione = 1 per x = 3 ed < 1 per x > 3. Dunque
i = 1, 2
i=3
i = 4, . . . , 10 .

qi+1 > qi
qi+1 = qi
qi+1 < qi

Il massimo di i qi quindi raggiunto per i = 3 e i = 4: e urne 3 e 4 sono le pi probabili.

Figura 1.1 Andamento del valore di P(Ai |B) =

10

qi
10 P(B)

per i = 1, . . . , 10.

14

Parte 1: soluzioni

c) Basta ripetere gli argomenti dei punti precedenti, solo che ora P(Ai ) =
2
e P(A10 ) = 11
. Dunque

1
11

per i = 1, . . . , 9

P(B) =

2
1 X
qi +
q = 0.500 .
11
11 10
i=1

10

Figura 1.2 Andamento del valore di P(Ai |B) quando le urne sono 11.

Applicando ancora la formula di Bayes si trova


P(Ai |B) = P(B|Ai )

P(Ai )

P(B)

1
qi per i = 1, . . . , 9 (valore massimo raggiunto ancora per i = 3, 4),
Ora per P(Ai |B) = 11 P(B)
2
mentre P(A10 |B) = 11 P(B) q10 . Un confronto numerico mostra che ora il valore i = 10 il
pi probabile, poich P(A3 |B) = P(A4 |B) = 0.103 mentre P(A10 |B) = 0.158.
Gli aspetti importanti di questo esercizio sono luso della nozione di probabilit condizionale e della formula di Bayes.

1.14 Vari modi sono possibili (il secondo in realt il pi semplice).


Primo modo: indichiamo con Ai , i = 1, . . . , k levento nelle prime i assegnazioni non si
sono avuti conflitti. chiaro che A1 A2 . . . Ak ed inoltre la probabilit richiesta
proprio P(Ack ). Calcoliamo P(Ai |Ai1 ). Se levento Ai1 verificato ci vuol dire che alle
prime i 1 variabili sono state assegnate i 1 celle di memoria diverse. Ne restano dunque
libere n i + 1 e la probabilit di non avere conflitti alla i-esima assegnazione
P(Ai |Ai1 ) =

ni+1

Quindi la probabilit che non vi siano conflitti


P(Ak ) = P(Ak |Ak1 )P(Ak1 ) = P(Ak |Ak1 )P(Ak1 |Ak2 )P(Ak2 ) =
= ... =
= P(Ak |Ak1 )P(Ak1 |Ak2 ) . . . P(A2 |A1 ) P(A1 ) =
| {z }
=1

n1
n!
nk+1 nk+2
...
= k
=
n
n
n
n (n k)!

Esercizio 1.15

15

n!
.
e quindi la probabilit che vi sia almeno un conflitto 1 P(Ak ) = 1 nk (nk)!
Secondo modo: Scegliere a caso unassegnazione di variabili alle celle di memoria significa
scegliere a caso unapplicazione da {1, . . . , k} (linsieme delle variabili) a valori in {1, . . . , n}
(linsieme delle celle di memoria). Indichiamo con  linsieme di queste applicazioni. Si pu
vedere  come linsieme delle k-uple (i1 , . . . , ik ) dove i1 , . . . , ik sono numeri interi compresi
da 1 a n (non necessariamente distinti); dunque # = nk .
Linsieme B delle assegnazioni che non danno luogo a conflitto non altro che linsieme delle
applicazioni iniettive da {1, . . . , k} in {1, . . . , n}, ovvero linsieme delle k-uple (i1 , . . . , ik ) dove
numeri i1 , . . . , ik sono distinti. In altre parole B linsieme delle disposizioni di n elementi a k
n!
a k ed ha dunque cardinalit (nk)!
(Proposizione 1.23). Inoltre, poich si pu supporre che tutte
le possibili assegnazioni siano equiprobabili, considereremo su  la distribuzione uniforme di
probabilit e dunque la probabilit che non vi siano conflitti

P(B) =

#B
n!
= k

#
n (n k)!

Per n = 1000, k = 25, facendo attenzione a semplificare al massimo numeratore e denominatore


per evitare errori di arrotondamento, la probabilit di avere almeno un conflitto
1

999 998
976
...
= 0.261 = 26.1%
1000 1000
1000

che una probabilit inaspettatamente elevata per cos tante celle di memoria rispetto alle
variabili.
Un esempio classico quando si parla di calcolo combinatorio quello dei compleanni
dellEsempio 1.26: qual la probabilit che in un gruppo di k persone ve ne siano almeno due
che sono nate nello stesso giorno dellanno? abbastanza utile rendersi conto che lesempio dei
compleanni lo stesso di questo appena svolto, nel senso che entrambi si riconducono allo
stesso modello. In entrambi, infatti, si considera come spazio di probabilit lo stesso insieme
 delle k-uple di numeri {i1 , . . . , ik } scelti in {1, . . . , n} (n = 365 nel caso dei compleanni)
e si deve poi calcolare la cardinalit dello stesso insieme A delle k-uple formate da numeri
diversi tra loro. La morale che problemi che nascono in situazioni applicative diverse possono
ricondursi allo stesso modello (e quindi risolversi con gli stessi calcoli).

1.15 a) A vince se lultima pallina rimasta nellurna rossa, ovvero se tra le prime 5 palline estratte ve ne sono una rossa e quattro nere. Usando la distribuzione ipergeometrica la probabilit
che ci accada
2  4
1
2 5!
1 4
=
=
6
6!
3
5

Pi semplicemente si sarebbe anche potuto osservare che in uno schema di estrazioni senza
rimpiazzo la probabilit di avere un determinato risultato alla prima, alla seconda, . . . , alla
k-esima estrazione sempre la stessa (vedi lEsempio 1.30). La probabilit di avere una pallina
rossa alla sesta (e ultima) estrazione dunque la stessa che alla prima e cio 31 .

16

Parte 1: soluzioni

b) Se la prima estrazione d una pallina rossa, nellurna ne rimangono 4 nere e 1 rossa. A


dunque vince se dalle successive 4 estrazioni risultano tutte palline nere. Ancora la distribuzione
ipergeometrica d come probabilit
1 4 
4!
1
1 4
=
=
5
5!
5
4

c) Se indichiamo con D levento il giocatore A vince e con E levento la prima pallina


estratta rossa, allora dobbiamo calcolare P(D E). Ora P(D E) = P(D|E)P(E).
Ma P(E) = 26 = 31 mentre abbiamo calcolato nel punto b) che P(D|E) = 15 . Dunque
1
P(D E) = 15
.

1.16 Il risultato dellesperimento casuale una 5-upla {k1 , . . . , k5 } di numeri compresi tra
1 e 100. Poich le palline sono estratte a caso e con rimpiazzo possiamo considerare tutte le
5-uple equiprobabili. Uno spazio di probabilit ragionevole per descrivere questo problema
dunque lo spazio  formato da queste 5-uple (ovvero il prodotto cartesiano di {1, . . . , 100}
moltiplicato per se stesso 5 volte) e munito della distribuzione uniforme di probabilit. La
cardinalit di  naturalmente 1005 ; levento di cui vogliamo calcolare la probabilit invece
rappresentato dallinsieme A  delle 5-uple (k1 , . . . , k5 ) tali che tra i numeri k1 , . . . , k5 ve
ne siano almeno due uguali. Il problema quindi ridotto al calcolo della cardinalit di A. Il
calcolo diretto non semplice; ma un attimo di riflessione mostra che il suo complementare
Ac non altro che linsieme delle 5-uple (k1 , . . . , k5 ) tali che i numeri k1 , . . . , k5 siano tutti
diversi tra loro, ovvero linsieme delle disposizioni di 100 elementi a 5 a 5; dunque #Ac = 100!
95! .
Quindi
#Ac
=
#
99 98 97 96
100!
=1
=1
= 0.096 = 9.6% .
100 100 100 100
1005 95!
P(A) = 1 P(Ac ) = 1

Qui vale la stessa osservazione che abbiamo fatto alla fine dellEsercizio 1.14: il problema
dei compleanni, quello dellassegnazione delle variabili e questo sono lo stesso problema,
nel senso che si riconducono al calcolo della probabilit dello stesso evento nello stesso modello.

1.17 a) Indichiamo con FA levento il primo genitore fornisce un allele di tipo A e con
A1 , A2 , A3 rispettivamente gli eventi il primo genitore di tipo AA, Aa, aa rispettivamente.
Per come il problema stato posto sar
P(FA |A1 ) = 1,

P(FA |A2 ) =

1
,
2

P(FA |A3 ) = 0

e dunque
P(FA ) = P(FA |A1 )P(A1 ) + P(FA |A2 )P(A2 ) + P(FA |A3 )P(A3 ) = p +

1
q.
2

Esercizio 1.18

17

La probabilit che anche il secondo genitore trasmetta un allele di tipo A sar la stessa e, supponendo che i geni trasmessi dai due genitori siano indipendenti, otteniamo che un discendente
sar di tipo AA con probabilit p1 = (p + 21 q)2 . Analogamente esso sar di tipo aa con
probabilit r1 = (r + 21 q)2 e di tipo Aa con probabilit
q 1 = 1 p 1 r1 = 1 p +

1
2

2

r+

1
2

2

=2 p+

1
2


q r+

1
2


q .

b) Alla generazione successiva, la probabilit di osservare dei discendenti di dato tipo genetico
si otterr dalle formule precedenti, sostituendo a p, q, r i valori p1 , q1 , r1 appena calcolati.
Otteniamo
2
p2 = (p1 + 21 q1 )2 = (p + 21 q)2 + (p + 21 q)(r + 21 q) =
 2
= (p + 21 q)2 = p1 .
= (p + 21 q) p + 21 q + r + 21 q
{z
}
|
=1

Con calcoli simili si vede che anche q2 = q1 , r2 = r1 . Quindi le proporzioni dei tre genotipi
restano costanti in tutte le generazioni successive. In altre parole, nel modello di HardyWeinberg la popolazione raggiunge lequilibrio genetico dopo la prima generazione.

1.18
Tra Est e Ovest vanno ripartite 26 carte di cui 5 atout. Se indichiamo con Ai , i =
0, . . . , 5 levento Ovest ha i atout, allora usando la distribuzione ipergeometrica
P(Ai ) =
e per i = 2
P(A2 ) =

5 21
2 11
26
13

5 21 
i 13i
26
13

13 3
= 0.339
23 5

che la probabilit richiesta.


b) Se in Ovest vi sono 2 atout, allora la Q cadr con due giri di atout solo se in Ovest si trova
anche la Q (altrimenti essa sarebbe terza in Est). Dunque se indichiamo con C levento la Q
cade con due giri di atout, la quantit P(C |A2 ) non altro che la probabilit che la Q si trovi
in Ovest sapendo che Ovest ha due carte di atout. Quindi P(C |A2 ) = 25 .
c) Usando il metodo della partizione dellevento certo:
P(C) =

5
X
i=0

P(C Ai ) =

5
X
i=0

P(C |Ai )P(Ai )

(dove gli eventi Ai sono quelli definiti in a)). In questultima somma vi sono molti termini di
cui gi conosciamo il valore: sono note infatti le probabilit P(Ai ), le probabilit condizionali
P(C |Ai ) per i = 2 (calcolata in b)) e per i = 0, 5 (uguali a 0 perch se Ovest possiede 5 atout
oppure nessuno, la Q quinta e non pu cadere con solo due giri). Inoltre per i = 1, ripetendo
Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011

18

Parte 1: soluzioni

il ragionamento del punto b), P(C |A1 ) = 15 , poich, se in O vi un solo atout, la Q cadr solo
se questo proprio la Q e ci si verifica appunto con probabilit 15 . In modo simile si possono
calcolare le probabilit condizionali per i = 3, 4, ma pi semplice osservare che
P(C A2 ) = P(C A3 ),

P(C A1 ) = P(C A4 )

per motivi di simmetria: se Ovest ha 2 atout allora Est ne ha 3 e viceversa e la situazione tra
Est e Ovest chiaramente simmetrica. Lo stesso vale per i = 1, 4. Basta ora sostituire i valori
numerici:
P(A2 ) = P(A3 ) =

13 3
= 0.339
23 5

13
= 0.141
4 23
P(C) = 2 (0.2 0.141 + 0.4 0.339) = 0.328 .
P(A1 ) =

d) Si tratta di ripetere gli stessi ragionamenti dei punti precedenti, solo che ora Est e Ovest
hanno insieme 3 atout. Se indichiamo ancora con Ai , i = 0, 1, 2, 3 gli eventi Ovest ha i
atout, allora P(C A0 ) = 0 perch se Ovest ha 0 atout, ci vuole dire che la Q si trova in
Est insieme ad altri due atout e non cadr al giro successivo. Per lo stesso motivo, scambiando
i ruoli di Est e Ovest, P(C A3 ) = 0. Dunque
P(C) = P(C A1 ) + P(C A2 ) = 2P(C A1 ) = 2P(C |A1 )P(A1 ) .
Ora P(C |A1 ) =

1
3

perch se Ovest ha un atout la Q cadr solo se essa uno di questi. Inoltre


P(A1 ) =

Quindi P(C) =

6
23

3 21
1 11
24
12

9
= 0.391 .
23

= 0.260. La probabilit un po diminuita.

2.1
Supponiamo che il comportamento di ogni singolo passeggero sia indipendente da
quello degli altri e poniamo Zi = 1 se lo i-esimo passeggero si presenta alla partenza e Zi = 0
altrimenti. Il numero di passeggeri che si presenta alla partenza dunque lo stesso che il numero
di successi in uno schema di Bernoulli e dunque (Esempio 2.4) segue una legge binomiale.
Il numero di passeggeri che si presenta su un volo in cui si accettato il massimo di prenotazioni
quindi una v.a. X1 di legge B(22, 0.9) per il primo tipo di aereo ed una v.a. X2 di legge
B(11, 0.9) per il secondo. La probabilit di lasciare a terra almeno un passeggero nel volo da
20 posti vale
 
 
22
22
0.922 = 0.339
0.921 0.1 +
P(X1 21) =
22
21
mentre vale

 
11
0.911 = 0.314
P(X2 = 11) =
11

Esercizio 2.4

19

per laltro tipo di aereo. Il rischio maggiore per il volo da 20 passeggeri.


Il punto chiave della soluzione di questo esercizio consiste nel riconoscere che il problema
si pu ricondurre a un modello generale. In questo caso lo schema di Bernoulli.
2.2
Se X indica il numero di volte in cui si ottiene il 6 in n lanci, allora X B(n, 61 ).
Dunque

5
a) la probabilit che in tre lanci il 6 sia uscito due volte 23 612 56 = 72
= 0.07.
b) La probabilit che in n lanci il 6 sia uscito 2 volte
   
n(n 1)  5 n2
n 1 5 n2
=
.
pn =
2
72
6
2 6 6
Calcolando numericamente si vede che il massimo raggiunto per n = 11 e n = 12. Pi
rigorosamente si sarebbe potuto fare uno studio della funzione t t (t 1)( 56 )t2 , che
crescente fino a t = 11.49 e poi decrescente; ci implica che il massimo di pn pu essere
raggiunto o per n = 11 o per n = 12 e un controllo diretto mostra che entrambi questi valori
realizzano il massimo. Per questi due valori la probabilit vale 0.296.

2.3 Supponiamo che i 24 operatori siano indipendenti. Ognuno di essi ad un dato istante
si trover in uno stato di collegamento (che indicheremo convenzionalmente con 1) oppure no
(0). Quindi se Xi indica lo stato dello i-esimo operatore, si modellizza il problema con delle
v.a. X1 , . . . , X24 indipendenti e di Bernoulli B(1, p) con p = 0.6. Sappiamo che la somma di
n v.a. di Bernoulli indipendenti B(1, p) segue una legge binomiale B(n, p). Quindi il numero
totale di utenti collegati X = X1 + . . . + X24 ha legge B(24, 0.6) ed il problema proposto non
altro che il calcolo della probabilit
P(X 20) =

24  
X
24
0.6k 0.424k = 0.0135 = 1.35% .
k

k=20

2.4 a) Il calcolo di p si riconduce alla distribuzione ipergeometrica: probabilit di estrarre


1 pallina dal gruppo formato dal solo elemento 67 e 4 dal gruppo degli altri 89 numeri in 5
estrazioni senza rimpiazzo:
1 89
5
1
p = 1 904 =
=
= 0.0556 = 5.56 .%
90
18
5

Poich ragionevole supporre che le estrazioni di settimane diverse siano indipendenti tra loro,
sappiamo che il numero T di settimane che trascorrono fino alla prima estrazione del 67 segue
1
. Dunque, ricordando il valore
una distribuzione geometrica modificata di parametro p = 18
della speranza matematica di una v.a. geometrica modificata (Esempi 2.38 e)), il numero medio
di settimane prima della prima estrazione
E(T ) =

1
= 18 .
p

20

Parte 1: soluzioni

b) In due modi: poich le estrazioni di settimane diverse sono indipendenti, il numero di volte
in cui il 67 viene estratto in 30 settimane si modellizza come il numero di successi in 30 prove
1
di successo in ogni singola prova. Il numero di estrazioni
indipendenti con probabilit p = 18
che contengono il 67 tra i numeri estratti dunque una v.a. di legge binomiale B(30, p). La
probabilit di avere 0 successi dunque
 
30
(1 p)30 = 0.18 = 18% .
0
Alternativamente si pu osservare che, poich il primo istante T di successo in uno schema
successo-insuccesso ha una distribuzione geometrica modificata, ricordando le regole di somma
delle serie geometriche (vedi il riquadro pag. 39),
P(T > 30) =

k=31

p(1 p)k1 =

p(1 p)30
= (1 p)30 .
1 (1 p)

c) Ancora in due modi: indichiamo con A levento il 67 non uscito nelle prime 100
estrazioni e con B e C rispettivamente gli eventi il 67 esce entro la 101-esima estrazione
e il 67 esce solo dopo la 130-esima estrazione. Per ottenere P(B |A) calcoleremo prima
P(B c |A) (qualche volta pi facile calcolare la probabilit del complementare di un evento. . . ).
In effetti
P(B c A)
P(B |A) = 1 P(B c |A) = 1

P(A)
Levento B c A levento il 67 non esce nelle prime 101 estrazioni ed ha probabilit
(1 p)101 (probabilit di ottenere 0 successi in 101 prove), mentre, per lo stesso motivo
P(A) = (1 p)100 . Quindi
P(B |A) = 1 P(B c |A) = 1

(1 p)101
= 1 (1 p) = p
(1 p)100

cio la probabilit la stessa che se le prime 100 estrazioni non avessero avuto luogo, un
fatto abbastanza intuitivo dato che le estrazioni sono indipendenti. Allo stesso modo si risolve
lultima parte del punto c):
P(C |A) =

P(C A)
(1 p)130
=
= (1 p)30 .
P(A)
(1 p)100

Alternativamente se T , come prima, indica il numero di settimane fino alla prima estrazione del
67, allora gli eventi A, B, C appena definiti si possono scrivere
A = {T > 100},

B = {T 10},

C = {T > 130} .

Per la propriet di mancanza di memoria della legge geometrica


P(B c |A) = P(T > 101|T > 100) = P(T > 1) = 1 p

P(C |A) = P(T > 130|T > 100) = P(T > 30) = (1 p)30 .

Esercizio 2.5

21

d) Il numero di volte in cui il 67 viene estratto in 50 settimane segue una legge binomiale
1
B(50, p) con p = 18
. Dunque la probabilit che il 67 sia presente almeno 6 volte in 50
settimane vale
50  
X
50 k
p (1 p)50k .
k
k=6

Si tratta di una somma di 45 termini che occorre calcolare numericamente. utile osservare
che la relazione
50  
5  
X
X
50 k
50 k
50k
p (1 p)
=1
p (1 p)50k = 1 0.94 = 0.06
k
k
k=6

k=0

permette di ricondurre il calcolo alla somma di 6 termini solamente.

2.5 Indichiamo con A levento viene scelto uno dei dadi truccati e con B viene scelto
uno dei dadi che non sono truccati. Naturalmente P(A) = P(B) = 21 .
a) Con la formula delle probabilit totali (1.12) (A e B formano una partizione dellevento
certo)
P(X = 3) = P(X = 3|A)P(A) + P(X = 3|B)P(B) =

1 1 1 1
2
+
=

10 2 6 2
15

La speranza matematica di X data da


E(X) =

6
X
k=1

kP(X = k) .

Conosciamo gi la probabilit di avere 3, ed anche quella di ottenere ognuno dei risultati


2, 4, 5, 6, che sar uguale a quella di avere 3. Daltra parte la probabilit di avere 1 sar
P(X = 1) = 1 P(X = 2) P(X = 3) . . . P(X = 6) = 1 5

2
1
=
15
3

Dunque
2
1
+ (2 + . . . + 6) = 3 .
3 15
b) Se X e Y indicano i risultati del primo e del secondo lancio rispettivamente allora
E(X) =

P(X = 2, Y = 3) = P(X = 2, Y = 3|A)P(A) + P(X = 2, Y = 3|B)P(B) =


1 1
1
17
=
+

=
2 100 36
900

Viceversa se poniamo C = {X = 2, Y = 3}, la probabilit che si tratti di uno dei dadi truccati
sapendo che i due lanci hanno dato 2 e 3 non altro che P(A|C). Per la formula di Bayes
P(A|C) =

P(C |A)P(A)

P(C)

22

Parte 1: soluzioni

1
17
e sappiamo che P(A) = 21 . Inoltre P(C |A) = 100
,
Abbiamo appena calcolato P(C) = 900
1
perch ognuno dei due risultati 2 e 3 ha probabilit 10 di essere ottenuto da un dado truccato.
In conclusione
9
900 1
=
= 0.26 .
P(A|C) =
17 200
34

c) No. Per mostrarlo basta trovare dei valori i, j tali che P(X = i, Y = j ) 6= P(X = i)P(Y =
j ). Ad esempio
2 2
4
16
P(X = 2)P(Y = 3) =
=
=
15 15
225
900
che diverso dal valore di P(X = 2, Y = 3) calcolato in b).
Lintuizione potrebbe spingere a rispondere immediatamente alla domanda c) che le variabili sono indipendenti. Ma abbiamo gi visto (vedi il riquadro pag. 13) che in probabilit
lintuizione, se non adeguatamente addestrata, pu portare a conclusioni errate. In questo caso
lerrore consiste nellaver trascurato il fatto che il risultato del primo lancio d informazioni su
quale delle due urne sia stata scelta.

2.6 Primo modo: consideriamo la v.a. T =numero di tentativi necessari. La domanda


posta in questo esercizio non altro che il calcolo della legge di T . Per determinarla conviene
prima calcolare la quantit P(T > k) = 1 FT (k), dove FT la f.r. di T , per poi ricavare la
densit di T con la formula
P(T = k) = P(T > k 1) P(T > k) .

(1.2)

Ora la probabilit che la chiave giusta non si trovi tra le prime k la stessa che la probabilit di
ottenere 0 successi in k estrazioni (senza rimpiazzo) su n oggetti, dei quali uno solo corrisponde
a successo. Possiamo applicare la distribuzione ipergeometrica e si ha
P(T > k) =
e usando la (1.2)

1 n1
0 k
n
k

P(T = k) =

(n 1)!
k!(n k)!
nk
=
k!(n k 1)!
n!
n
nk+1 nk
1

=
n
n
n

ovvero la probabilit di trovare la chiave giusta al k-esimo tentativo la stessa per ogni k e vale
1
n.
Secondo modo: consideriamo unurna contenente n 1 palline bianche e una rossa e di
effettuare delle estrazioni senza rimpiazzo. La probabilit richiesta chiaramente la stessa che
quella di estrarre la pallina rossa al k-esimo tentativo. Abbiamo gi visto (Esempio 1.30) che
questa probabilit non dipende da k e che vale n1 .
I due modi in cui abbiamo risolto questo esercizio sono abbastanza diversi. Mentre il
secondo usa una tecnica tipica del calcolo combinatorio, il primo fa ricorso alla nozione di
funzione di ripartizione di una v.a. con un metodo di calcolo che useremo spesso nel seguito
(per calcolare la legge di una v.a. si determina prima la f.r., per poi usare la (1.2) o formule

Esercizio 2.7

23

simili). Il primo metodo certo pi semplice ed tipico soprattutto (ma non solo) per v.a. che,
come in questo caso, rappresentano tempi dattesa.

2.7 a) Indichiamo con A, B e C rispettivamente gli eventi il pezzo proviene dalla linea
A, proviene dalla linea B e il pezzo difettoso. I dati del problema ci permettono di
affermare che
P(A) = 0.3,

P(B) = 0.7,

P(C |A) = 0.1,

P(C |B) = 0.17 .

Inoltre gli eventi A e B costituiscono una partizione dellevento certo (sono disgiunti e la somma
delle loro probabilit vale 1). Dunque per la formula delle probabilit totali (1.12),
P(C) = P(C |A)P(A) + P(C |B)P(B) = 0.1 0.3 + 0.17 0.7 = 0.15 .
b) Se consideriamo una scatola contenente 10 pezzi provenienti dalla linea A, allora ciascuno
di essi pu essere difettoso con probabilit 0.1. Possiamo inoltre supporre che ogni pezzo sia
difettoso oppure no indipendentemente dagli altri. Dunque il numero di pezzi difettosi in una
scatola di 10 proveniente dalla linea A si modellizza con una v.a. di legge binomiale B(10, 0.1).
Analogamente se la scatola proviene dalla linea B il numero di pezzi difettosi seguir una legge
B(10, 0.17). Se ora indichiamo con C1 levento nella scatola vi (esattamente) un pezzo
difettoso, allora avremo
 
10
0.1 0.99 = 10 0.1 0.99 = 0.39
P(C1 |A) =
1
 
10
0.17 0.839 = 10 0.17 0.839 = 0.32 .
P(C1 |B) =
1
La probabilit che un pezzo difettoso provenga dalla linea A non altro che la probabilit
condizionale P(A|C1 ). Per calcolarla si usa la formula di Bayes:
P(A|C1 ) =

P(C1 |A)P(A)

P(C1 )

Nella frazione a destra nella formula precedente conosciamo tutte le quantit che intervengono
tranne P(C1 ). Il calcolo di questa probabilit per facile, sempre usando la formula delle
probabilit totali (1.12):
P(C1 ) = P(C1 |A)P(A) + P(C1 |B)P(B) = 0.39 0.3 + 0.32 0.7 = 0.341 .
Dunque
P(A|C1 ) =

0.39 0.3
= 0.343 .
0.34

Allo stesso modo


P(B |C1 ) =

P(C1 |B)P(B)
0.32 0.7
=
= 0.657 .
P(C1 )
0.34

24

Parte 1: soluzioni

quindi pi probabile che la scatola provenga dalla linea B.


4
2.8 a) La probabilit vale 52
( un caso particolare dellEsempio 1.30: come se facessimo
delle estrazioni senza rimpiazzo da unurna con 4 palline rosse e 48 nere, la probabilit di
estrarre una pallina rossa alla k-esima estrazione la stessa che alla prima estrazione).
b) Indichiamo con T il numero di carte necessario per ottenere il primo asso: dobbiamo
calcolare la legge di T . Come abbiamo visto uno dei metodi possibili consiste nel calcolo
preliminare della f.r. oppure della funzione di sopravvivenza k P(T > k). questo
spesso il caso quando, come ora, si ha a che fare con v.a. che rappresentano tempi di attesa. Ora
levento {T > k} corrisponde al fatto che siano state girate k carte ottenendone 0 dal gruppo dei
4 assi e k dal gruppo delle altre 48. Possiamo quindi applicare la distribuzione ipergeometrica
che d
4 48

P(T > k) =

e sviluppando i coefficienti binomiali

k
52
k

pk = P(T = k) = P(T > k 1) P(T > k) =



48! (52 k + 1)! (52 k)!  48!  (52 k + 1)! (52 k)!(48 k + 1) 

=
=
=
52! (48 k + 1)! (48 k)!
52!
(48 k + 1)!
48!  (52 k)![(52 k + 1) (48 k + 1)] 
48! (52 k)!
=

=4
52!
(48 k + 1)!
52! (48 k + 1)!
Per vedere per quali valori di k pk massima basta osservare che per ogni valore di k si ha
52 k
pk
=
1
pk+1
49 k
e dunque la probabilit massima per k = 1.
2.9 Un attimo di riflessione mostra che la probabilit che tra le 24 figurine acquistate ve ne
siano esattamente k di quelle gi possedute la stessa che la probabilit che in unestrazione
senza rimpiazzo da unurna contenente 60 palline di un tipo (corrispondenti alle figurine gi
possedute) e 40 di un altro, su 24 palline estratte ve ne siano k del primo tipo. La probabilit di
questo evento data dalla distribuzione ipergeometrica e vale

Dunque la probabilit richiesta

60 40 
k 24k
100
24

60 40 
k 24k
100
24
k=20
24
X

Esercizio 2.10

25

e con un calcolo numerico si ottiene il valore 0.00594 = 0.594%. Il numero medio di nuove
figurine non altro che la speranza matematica E(X) della v.a. X =numero di nuove figurine.
La speranza matematica di una v.a. di legge ipergeometrica calcolata nellEsempio 2.39 ed
uguale al numero di tentativi (qui sono 24) per la probabilit di successo in un singolo
40
tentativo (= 100
= 25 ) ovvero
48
E(X) =
= 9.6 .
5

2.10 a) Supponiamo per semplicit i = 1 (per valori di i diversi da 1 procedimento e risultato


sono identici). Si tratta di calcolare
P(X1 = 1|Sn = r) =

P(X1 = 1, Sn = r)

P(Sn = r)

Se r = 0 si vede subito che la probabilit condizionale vale 0, perch Sn X1 e quindi gli eventi
{X1 = 1} e {Sn = 0} hanno intersezione vuota. Altrimenti sappiamo gi che il denominatore
vale nr pr (1 p)nr , poich Sn binomiale B(n, p). Per il numeratore invece
P(X1 = 1, Sn = r) = P(X1 = 1, X1 + . . . + Xn = r) =
= P(X1 = 1, X2 + . . . + Xn = r 1) = P(X1 = 1)P(X2 + . . . + Xn = r 1) =




n1 r
n 1 r1
p (1 p)nr
p (1 p)nr =
=p
r 1
r 1

e dunque
P(X1 = 1|Sn = r) =

n1
r1
n
r

La legge condizionale di X1 dato Sn = r di Bernoulli B(1, nr ) (e non dipende da p!).


b) Sfruttiamo la stessa idea del punto a). Se r k abbiamo
P(Sm = k, Sn = r) = P(Sm = k, Sm + Xm+1 + . . . + Xn = r) =
= P(Sm = k, Xm+1 + . . . + Xn = r k) = P(Sm = k)P(Xm+1 + . . . + Xn = r k) =
 


 

m k
m nm r
n m rk
p (1 p)mk
=
p (1 p)nr .
p (1 p)nmr+k =
k
r k
k
r k
Quindi P(Sm = k |Sn = r) = 0 se k > r mentre se k r
P(Sm = k, Sn = r)
P(Sm = k |Sn = r) =
=
P(Sn = r)

m nm
k rk
n
r

Riconosciamo una distribuzione ipergeometrica: P(Sm = k |Sn = r) uguale alla probabilit


di estrarre k palline di tipo 1 da unurna contenente m palline di tipo 1 e n m di tipo 2 in r
estrazioni senza rimpiazzo. Osserviamo ancora che la legge condizionale ottenuta non dipende

26

Parte 1: soluzioni

da p. Ricordando il valore della media delle v.a. ipergeometriche si ha immediatamente che la


media della legge condizionale di Sm sapendo che Sn = r vale rm
n .
2.11
a) Il numero totale di telefonate ricevute dai due centralini X + Y ed ha legge di
Poisson di parametro + = 6, per la regola della somma di v.a. indipendenti di Poisson
(Esempio 2.28). Dunque la probabilit richiesta

62
63 
P(X + Y 3) = e6 1 + 6 +
+
= 0.15 .
2
6

b) Se indichiamo con p X|X+Y (|n) la probabilit condizionale di X dato X + Y = n, allora,


se 0 k n,
P(X = k, Y = n k)
P(X = k, X + Y = n)
=
=
P(X + Y = n)
P(X + Y = n)
k
 
nk
e k! e (nk)!
P(X = k)P(Y = n k)
k  nk
n
=
.
=
=
n
P(X + Y = n)
+
k +
e(+) (+)
n!
p X|X+Y (k |n) =

). La sua media uguale a


La legge condizionale dunque binomiale B(n, +
c) Per il punto precedente la probabilit richiesta vale
    
8 1 k 2 8k
pk :=
.
k 3
3

n
+ .

Per determinare il valore di k per cui questa quantit massima studiamo per quali valori di k
si ha
pk+1
1.
pk
Poich

pk+1
18k
=
1
pk
2k+1

dallo studio della disuguaglianza si ha che


( > 1 per k = 0, 1
pk+1
= 1 per k = 2

pk
< 1 per k = 3, 4, . . .
Se ne deduce che il massimo valore di pk si raggiunge per k = 2 oppure k = 3.
d) La retta di regressione di X rispetto a X + Y x = az + b dove
a=

Cov(X, X + Y )
,
Var(X + Y )

b = E(X) aE(Y ) .

Ora
Cov(X, X + Y ) = Cov(X, X) + Cov(X, Y ) = Cov(X, X) = Var(X) =
| {z }
=0

Esercizio 2.12

27

mentre Var(X + Y ) = + . Dunque


a=

b =

( + ) = 0
+

z.
La retta dunque x = +
Se X e Y sono v.a. indipendenti e a valori discreti, la legge congiunta di X e X + Y si
calcola sempre con facilit, come in questo esercizio, usando la relazione

P(X = k, X + Y = n) = P(X = k, Y = n k) = P(X = k)P(Y = n k) .


2.12
a) Se indichiamo con X il numero di palline rosse estratte dalla prima urna, allora
naturalmente X B(n, p). Daltra parte, se indichiamo con A levento la pallina estratta
(dalla seconda urna) rossa allora naturalmente
P(A|X = k) =

k
n

perch se X = k, ci vuol dire che nella seconda urna vi sono k palline rosse su un totale di n.
Possiamo ora usare la formula delle probabilit totali:
 
n
X
k n k
P(A|X = k)P(X = k) =
P(A) =
p (1 p)nk =
n k
k=0
k=0
 
n
X
1
n k
=
p (1 p)nk = p ,
k
k
n
n
X

k=0

dove abbiamo riconosciuto nella somma la speranza matematica di una v.a. B(n, p).
b) Si tratta di calcolare
P(X = k |A) =

P(A|X = k)P(X = k)

P(A)

Vediamo subito che la probabilit condizionale vale 0 per k = 0 mentre se k = 1, . . . , n




 
1 k n k
n 1 k1
nk
P(X = k |A) =
p (1 p)nk .
p (1 p)
=
k1
p n k
La media della legge condizionale di X sapendo che A si verificato


n
X
n 1 k1
p (1 p)nk .
k
E(X|A) =
k1
k=1

28

Parte 1: soluzioni

Per calcolare questa somma conviene cercare di ricondursi alla somma che d la speranza
matematica delle leggi binomiali; sostituendo i = k 1 si ha


n1
X
n1 i
p (1 p)n1i =
(i + 1)
E(X|A) =
i
i=0

n1
X




n1 
X
n1 i
n1 i
n1i
p (1 p)
i
=
+
p (1 p)n1i = (n 1)p + 1 .
i
i
i=0
i=0
|
{z
} |
{z
}
=1

=media di una B(n1,p)=(n1)p

2.13
a) X non altro che listante di primo successo in uno schema di prove ripetute
indipendenti, nelle quali ad ogni prova si ha successo con probabilit 61 . Sappiamo quindi che
X una v.a. geometrica modificata di parametro p = 61 , ovvero
1  5 k1
k = 1, 2, . . .
P(X = k) =
6 6
Per lo stesso motivo Y una v.a. geometrica modificata di parametro 26 = 31 . Sappiamo che una
v.a. geometrica modificata di parametro p ha speranza matematica p1 (Esempi 2.38); dunque
E(X) = 6,

E(Y ) = 3 .

b) Per calcolare la densit discreta di Z conviene calcolarne prima la f.r. Poniamo per semplicit p = 16 e q = 31 . Allora, poich X e Y sono indipendenti,
P(Z k) = P(max(X, Y ) k) = P(X k, Y k) =
= P(X k)P(Y k) =

k
X
i=1

p(1 p)i1

k
X
i=1

q(1 q)i1 =

1 (1 p)k 1 (1 q)k
q
= (1 (1 p)k )(1 (1 q)k ) .
=p
1 (1 p)
1 (1 q)
per k = 1, 2, . . . Dunque la densit di Z, sempre per k = 1, 2, . . . , data da
P(Z = k) = P(Z k) P(Z k 1) =
= (1 (1 p)k )(1 (1 q)k ) (1 (1 p)k1 )(1 (1 q)k1 ) =
= 1 (1 p)k (1 q)k + [(1 p)(1 q)]k +
1 + (1 p)k1 + (1 q)k1 [(1 p)(1 q)]k1 =
= p(1 p)k1 + q(1 q)k1 (p + q pq)[(1 p)(1 q)]k1 .
|
{z
}
=1pq+pq

Infine

E(Z) =
=

X
k=1

kp(1 p)k1 +

X
k=1

X
k=1

kP(Z = k) =

kq(1 q)k1

X
k=1

k(p + q pq)(1 p q + pq)k1 .

Esercizio 2.14

29

1
p = 6. Per lo stesso
1
9
p+qpq = 4 . Dunque

Riconosciamo per nella prima serie la speranza matematica di X, cio


motivo la somma della seconda serie vale

1
q

= 3 e quella della terza

E(Z) = 6 + 3

27
9
=

4
4

c) Usiamo il metodo della partizione dellevento certo: gli eventi {Y = i}, al variare di
i = 1, 2, . . . , sono disgiunti e la loro unione ha probabilit 1, dunque
P(X Y ) =

X
i=1

P(X Y, Y = i) =

X
i=1

P(X i, Y = i) =

X
i=1

P(X i)P(Y = i) .

Daltra parte
P(X i) =
e quindi
P(X Y ) =

X
i=1

X
k=i

p(1 p)k1 = (1 p)i1

(1 p)i1 q(1 q)i1 = q

X
i=1

[(1 p)(1 q)]i1 =

q
q
=
=
1 (1 p)(1 q)
p + q pq

e sostituendo i valori p = 16 , q =

1
3

si ottiene P(X Y ) = 43 .

2.14 a) Fissiamo una lettera i e consideriamo levento Ai =la lettera i viene usata. La
1
probabilit che la lettera i non venga usata come prima lettera della parola n1
n = 1 n.
Poich le apparizioni di una lettera nelle posizioni successive della parola sono indipendenti, la
probabilit che la lettera non venga mai usata sar (1 n1 )k . Dunque
P(Ai ) = 1 (1 n1 )k .
Se k = n allora

P(Ai ) = 1 (1 n1 )n

b) Poniamo

1 e1 .

1 se la lettera i-esima viene utilizzata


0 altrimenti .
Il numero X di lettere utilizzate dunque X = X1 + . . . + Xn e il numero medio richiesto
Xi =

E(X) = E(X1 ) + . . . + E(Xn ) .


Daltra parte le v.a. X1 , . . . , Xn sono di Bernoulli e {Xi = 1} = Ai , dove gli eventi Ai
sono quelli definiti nel punto a). Sono dunque B(1, p) con p = P(Ai ) = (1 n1 )k . Dunque
E(Xi ) = 1 (1 n1 )k e

E(X) = n 1 (1 n1 )k .

30

Parte 1: soluzioni

Per n = 21, k = 100 si ha E(X) = 20.84; per n = 21, k = 50 si ha E(X) = 19.17.


Se la probabilit di apparizione della lettera i pi , allora la probabilit che la lettera i-esima
venga utilizzata diviene
P(Ai ) = 1 (1 pi )k
e dunque anche E(Xi ) = 1 (1 pi )k , per cui
E(X) =

n
X
i=1

(1 (1 pi )k ) .

Con i dati numerici assegnati la somma vale


7 1 (1
2.15

3 100
28 )

+ 7 1 (1

3 100
112 )

+ 7 1 (1

1 100
112 )

= 17.68 .

a) Poniamo
Zi =

1
0

se lo i-esimo assicurato deve essere indennizzato


altrimenti .

Allora il numero totale di indennizzi nel corso del primo anno si modellizza con la v.a. X =
Z1 + . . . + ZN . Poich le v.a. Zi sono indipendenti si ha X B(N, p). Ma se N grande e
p piccolo, la legge di X si pu approssimare con una legge di Poisson di parametro = Np.
Ripetendo lo stesso ragionamento si vede che anche Y di Poisson di parametro . Poich si
suppone Y indipendente da X, allora Z = X + Y di Poisson di parametro 2. Calcoliamo la
legge congiunta di X e Z: se 0 k m
P(X = k, Z = m) = P(X = k, Y = m k) = P(X = k)P(Y = m k) =
k
mk
m
= e e
= e2
k!
(m k)!
k!(m k)!
mentre naturalmente P(X = k, Z = m) = 0 se m < k oppure k < 0.
b) La compagnia incassa ogni anno un ammontare pari a 45 pNI e paga in indennizzi X I .
Quindi in media il beneficio
5
5
1
pNI I E(X) = pNI pNI = pNI
4
4
4
c) La probabilit richiesta si esprime, in termini delle v.a. X e Z come
P({X > 2} {Z > 3}) = 1 P(X 2, Z 3) =
= 1 P(X = 0, Z = 0) P(X = 0, Z = 1) P(X = 1, Z = 1) P(X = 0, Z = 2)+
P(X = 1, Z = 2) P(X = 2, Z = 2) P(X = 0, Z = 3)+
P(X = 1, Z = 3) P(X = 2, Z = 3) =



= 1 e2 1 + (1 + 1) + 2 21 + 1 + 21 + 3 16 + 21 + 21

Esercizio 2.16

31

Sostituendo il valore = Np = 1 si ottiene che la probabilit richiesta vale 0.165.


2.16
a) Dire che il programma deve accedere allunit 1 significa dire che tra le 40 registrazioni che gli sono necessarie ce n almeno una che si trova nel disco 1. Se indichiamo
con Z1 il numero di file necessari allesecuzione del programma che si trovano nellunit 1, si
riconosce facilmente che Z1 segue una distribuzione ipergeometrica e in particolare, osservando
che i file in totale sono 3000 di cui 100 nellunit 1, che
100 2900 
P(Z1 = i) =

40i
3000
40

i = 0, . . . , 40 .

La probabilit che lunit 1 sia necessaria allesecuzione del programma vale quindi

(1.3)

p = P(Z1 > 0) = 1 P(Z1 = 0) = 1


=1

100 2900
40
0
3000
40

2900 2899 . . . 2861


= 0.745 .
3000 2999 . . . 2961

b) Se Z indica il numero di file necessari che si trovano nellunit 1 oppure nellunit 2,


ripetendo il ragionamento del punto a), Z segue anchessa una distribuzione ipergeometrica,
solo che ora considereremo i 3000 file suddivisi nelle due classi formate dalle 200 registrazioni
che si trovano in una delle prime due unit disco e dalle altre 2800. Dunque
P(Z = i) =

200 2800 
40i
i
3000
40

i = 0, . . . , 40

e la probabilit che una delle prime due unit sia necessaria vale ora

(1.4)

w = P(Z > 0) = 1 P(Z = 0) = 1


=1

200 2800
40
0
3000
40

2800 2799 . . . 2761


= 0.938 .
3000 2999 . . . 2961

Se indichiamo con A1 levento lunit 1 necessaria e con A2 lanalogo evento per lunit
2, abbiamo appena calcolato P(A1 A2 ), mentre la probabilit che entrambe le unit siano
necessarie P(A1 A2 ); ma dalla formula della probabilit della unione di due eventi otteniamo
P(A1 A2 ) = P(A1 ) + P(A2 ) P(A1 A2 ) = 0.745 + 0.745 0.938 = 0.552 .
c) Le v.a. Yi sono di Bernoulli (prendono solo i valori 0 e 1) di parametro p = P(Yi = 1) =
0.745, calcolato in a). Lintuizione vorrebbe che le v.a. Yi non siano indipendenti, perch se, ad
esempio, fosse Y1 = 1 ci vorrebbe dire che almeno una delle registrazioni si trova nellunit
1 e ci rende minore la probabilit che siano necessarie le altre unit. Per rendere rigorosa
questa intuizione calcoliamo il coefficiente di correlazione: se esso risulter diverso da 0 ci

32

Parte 1: soluzioni

implicher che le v.a. Yi , i = 1, . . . , 40 sono correlate e quindi non sono indipendenti e neanche
indipendenti a due a due. Il coefficiente di correlazione di Y1 e Y2 per definizione
Y1 ,Y2 = p

Cov(Y1 , Y2 )
Var(Y1 ) Var(Y2 )

E(Y1 Y2 ) E(Y1 )E(Y2 )

p
Var(Y1 ) Var(Y2 )

Sappiamo gi che Var(Y1 ) = Var(Y2 ) = p(1 p) ed inoltre che E(Y1 )E(Y2 ) = p2 , poich
Y1 e Y2 sono entrambe B(1, p). Resta da calcolare E(Y1 Y2 ). Ma anche la v.a. Y1 Y2 di
Bernoulli, poich anchessa pu prendere solo i valori 0 oppure 1. Resta dunque da calcolare
P(Y1 Y2 = 1) = P(Y1 = 1, Y2 = 1). Ma questultima non altro che la probabilit che sia
lunit 1 che la 2 siano necessarie per lesecuzione del programma e dunque vale 0.552 per il
punto b). In conclusione
0.552 0.7452
= 0.016
0.745 0.255
che conferma lintuizione iniziale di una correlazione negativa tra le variabili. Inoltre il valore
del coefficiente di correlazione, vicino a 0, indica che la dipendenza tra le variabili abbastanza
piccola.
d) Il calcolo della media di X secondo la definizione di speranza matematica richiederebbe
preliminarmente il calcolo della legge di X, che abbastanza complicato. Si pu per osservare
che X = Y1 + . . . + Y30 e dunque E(X) = E(Y1 ) + . . . + E(Y30 ) (la speranza matematica di
una somma di v.a. sempre uguale alla somma delle speranze matematiche, anche se le v.a.
non sono indipendenti). Inoltre, poich le Yi sono tutte di Bernoulli B(1, p) con p = 0.745,
Y1 ,Y2 =

E(X) = 30 p = 22.35 .
Questo esercizio usa alcune idee di cui ci serviamo ripetutamente. Ci limitiamo a segnalare
il modo di calcolare la speranza matematica di una v.a. X scrivendo che essa uguale alla somma
X1 + . . . + Xn , dove X1 , . . . , Xn sono v.a. di cui facile calcolare la speranza matematica.
Talvolta questa idea fondamentale: il calcolo della legge di X, necessario per applicare la
definizione di speranza matematica, pu risultare molto complicato.

2.17 a) Converr fare i calcoli scrivendo n al posto di 90. La probabilit che alla k-esima
estrazione si ottenga la pallina i-esima naturalmente uguale a n1 (Esempio 1.30). In particolare,
scegliendo k = i si ha P(Ai ) = n1 .
Per studiare lindipendenza degli eventi Ai , i = 1, . . . , n, conviene costruire esplicitamente
uno spazio di probabilit. Una scelta naturale pu essere quella di porre  =insieme delle
permutazioni di n elementi. Con questo modello si ha Ai = {, i = i}, cio Ai corrisponde
allinsieme delle permutazioni che lasciano i allo i-esimo posto. Ora
A1 A2 = {, 1 = 1, 2 = 2}
e dunque A1 A2 ha cardinalit (n 2)! (la cardinalit delle permutazioni che lasciano fissi 1
e 2 la stessa che la cardinalit delle permutazioni di {3, . . . , n}). Dunque
P(A1 A2 ) =

(n 2)!
1
,
=
n!
n(n 1)

Esercizio 2.17

33

mentre sappiamo che P(A1 )P(A2 ) = n12 . Dunque gli eventi Ai , i = 1, . . . , n non sono a due a
due indipendenti e quindi neppure indipendenti.
b) Poniamo
n
1 se si ha coincidenza alla i-esima estrazione
Xi =
0 altrimenti .
Allora X = X1 + . . . + Xn ed inoltre le v.a. Xi sono di Bernoulli di parametro p = P(Xi =
1) = P(Ai ) = n1 . Per la propriet di additivit della speranza matematica
E(X) = E(X1 ) + . . . + E(Xn ) = n

1
=1.
n

Dunque il numero medio di coincidenze 1 qualunque sia il numero di palline nellurna.


c) Sempre con le notazioni del punto b), per la formula della varianza della somma di v.a.
abbiamo
Var(X) =

(1.5)

n
X
i=1

Var(Xi ) +

n
X

Cov(Xi , Xj ) .

i,j =1
i6=j

Sappiamo gi che Var(Xi ) = n1 (1 n1 ), perch le v.a. Xi sono di Bernoulli di parametro


p = n1 ; resta da calcolare Cov(Xi , Xj ) = E(Xi Xj ) E(Xi )E(Xj ). Quanto vale E(Xi Xj )? La
v.a. Xi Xj di Bernoulli di parametro p = P(Xi Xj = 1) = P(Xi = 1, Xj = 1); ma
{Xi = 1, Xj = 1} = Ai Aj
dove gli eventi Ai , i = 1, . . . , n sono definiti in a). Per motivi di simmetria la probabilit
di questi eventi non dipende da i, j (purch i 6= j ) e sappiamo, dal punto a), che scegliendo
i = 1, j = 2,
1
P(X1 = 1, X2 = 1) = P(A1 A2 ) =
n(n 1)
per cui
Cov(Xi , Xj ) = Cov(X1 , X2 ) =

1
1

n(n 1) n2

Infine osserviamo che nella prima somma della (1.5) vi sono n termini, mentre nella seconda
n(n 1). Dunque
Var(X) = n


1
1
1
1
2 =1.
1
+ n(n 1)
n
n
n(n 1) n

Anche la varianza del numero di coincidenze uguale a 1 e non dipende dal numero di palline.
Anche qui lidea di scrivere X come somma delle Xi per calcolare la speranza matematica
fondamentale. Il calcolo della legge del numero di coincidenze X, che abbastanza importante
in combinatoria, in effetti possibile ma non facile.

Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011

34

Parte 1: soluzioni

2.18

a) Definiamo i seguenti eventi:


A = {viene scelta lurna A}
B = {viene scelta lurna B}
Ri = {alla i-esima estrazione si ottiene una pallina rossa}
Ni = {alla i-esima estrazione si ottiene una pallina nera} .

Osserviamo che gli eventi A e B costituiscono una partizione dellevento certo. Dunque la
probabilit richiesta vale
P(R1 ) = P(R1 A) + P(R1 B) = P(R1 |A)P(A) + P(R1 |B)P(B) .
Per come il problema stato posto chiaro che deve essere
P(R1 |A) = 1,

P(R1 |B) = nr ,

P(A) = P(B) =

e dunque
P(R1 ) =

1
2

1 r
2 n

1
2

1+

r
n

1
2

b) Indichiamo con C levento le prime due estrazioni danno palline di colori diversi.
La probabilit che in due estrazioni dallurna A si ottengano una pallina rossa e una nera
chiaramente 0. Invece il numero di palline rosse estratte dallurna B in due estrazioni segue
una legge binomiale B(2, nr ). Dunque
P(C |A) = 0
  
2 r
r
r(n r)
P(C |B) =
1
=2
1 n
n
n2
P(C) = P(C |A)P(A) + P(C |B)P(B) =

r(n r)

n2

c) Indichiamo con T la v.a. tempo dattesa della prima estrazione di una pallina rossa.
Dobbiamo calcolare la speranza matematica di T e per farlo calcoliamone prima la legge. Ora,
sempre con la formula delle probabilit totali (1.12),
P(T = k) = P(T = k |A)P(A) + P(T = k |B)P(B) .
Ma, poich lurna A contiene solo palline rosse,
P(T = k |A) =
mentre
P(T = k |B) =

1
0

se k = 1
altrimenti

p(1 p)k1
0

se k = 1, 2, . . .
altrimenti

Esercizio 2.19

dove abbiamo posto p =


E(T ) =

X
k=1

r
n

35

e dunque

kP(T = k) =

X
k=1


k P(T = k |A)P(A) + P(T = k |B)P(B) =

1 1X
1
1  1
n
= +
kp(1 p)k1 =
1+
=
1+
2 2
2
p
2
r
k=1

dove abbiamo riconosciuto nellultima serie la speranza matematica di una legge geometrica
modificata, che vale appunto p1 .
d) Poniamo Ek = R1 . . . Rk . Ek levento le prime k estrazioni hanno dato tutte palline
rosse. La probabilit richiesta non altro che P(A|Ek ). Per la formula di Bayes
P(A|Ek ) =
Ora P(Ek |A) = 1 mentre P(A) =
probabilit totali (1.12) d

1
2.

P(Ek |A)P(A)

P(Ek )

Resta da calcolare P(Ek ). Ancora la formula delle

P(Ek ) = P(Ek |A) P(A) + P(Ek |B)P(B) .


| {z }
=1

Ma se lurna prescelta la B il numero di palline rosse estratte segue una legge binomiale
B(k, nr ). Dunque
P(Ek |B) = P(R1 |B) . . . P(Rk |B) = ( nr )k
e in conclusione P(Ek ) = 21 (1 + ( nr )k ) e
P(A|Ek ) =
Per n = 12, r = 4

1 + ( nr )k

1
1 + 3k
e dopo qualche manipolazione algebrica si vede che perch sia
P(A|Ek ) =

1
0.99
1 + 3k
deve essere 3k 99 e cio k 5.
2.19

a) Poniamo
Xi =

1
0

se la i-esima pallina finisce nella scatola 1


altrimenti .

36

Parte 1: soluzioni

La probabilit che una singola pallina finisca nella scatola 1 vale 1r poich, per come il problema
posto, possiamo supporre che tutte le scatole abbiano la stessa probabilit di essere scelte.
Dunque P(Xi = 1) = 1r e cio Xi B(1, 1r ). Inoltre le v.a. X1 , . . . , Xn si possono supporre
indipendenti.
Il numero di palline finite nella scatola 1 dunque Y1 = X1 + . . . + Xn ; se ne ricava che Y1
binomiale B(n, 1r ) per cui la probabilit richiesta vale
P(Y1 = i) =

   
1 ni
n 1 i
.
1
r
r
i

b) Indichiamo con Y1 , Y2 , Y3 il numero di palline che finiscono rispettivamente nella scatola


1, nella 2 e in una qualunque delle scatole dalla 3 alla r. Allora la loro legge congiunta
multinomiale di parametri 1r , 1r , 1 2r rispettivamente. Quindi
P(Y1 = i, Y2 = j ) =

 1 i  1 j 
n!
2 nij
.
1
i!j !(n i j )! r
r
r

2.20 a) Indichiamo con A levento il messaggio proviene dalla sorgente A e naturalmente


con B levento il messaggio proviene dalla sorgente B. Indichiamo con C levento un
messaggio di lunghezza 10 contiene 4 bit uguali a 1. Si richiede di calcolare P(A|C). Per la
formula di Bayes
P(A|C) =

(1.6)

P(C |A)P(A)

P(C)

Se il messaggio proviene dalla sorgente A, allora il numero di bit uguali a 1 segue una legge
binomiale B(n, 21 ). Dunque
 
10 1
P(C |A) =

4 210
Invece se esso proviene dalla sorgente B il numero di bit uguali a 1 seguir una legge B(n, 41 ).
Dunque
    
10 1 4 3 6
P(C |B) =
.
4
4
4
Per il calcolo di P(C) useremo la formula delle probabilit totali:

P(C) = P(C |A)P(A) + P(C |B)P(B) =


 
 
 
1 10 1
1 10  1 4  3 6
1 10 1 
36 
=
+
=
1
+
2 4 210
2 4
4
4
2 4 210
210
e dunque, riprendendo la (1.6),
P(A|C) =

1
1+

36
210

= 0.584 .

Esercizio 2.21

37

Poich P(B |C) = 1 P(A|C) = 0.416, la sorgente A la pi probabile. Se fosse n = 100, la


(1.6) resta valida, ma ora


1
100
P(C |A) =
100
40 2


100  1 40  3 60
P(C |B) =
4
4
40
per cui

P(C) = P(C |A)P(A) + P(C |B)P(B) =








1 100
1
1 
1 100  1 40  3 60
1 100
360 
=
+
=
1
+
2 40 2100
2 40
4
4
2 40 2100
2100
e quindi
P(A|C) =

1
1+

360
2100

= 0.968

e la sorgente A di gran lunga la pi probabile.


b) Basta ripetere i calcoli del punto a) sostituendo P(A) = 0.3, P(B) = 0.7. Quindi
    
 
10 1 4 3 6
10 1
+ 0.7
.
P(C) = P(C |A)P(A) + P(C |B)P(B) = 0.3
4
4
4
4 210
Sostituendo nella (1.6) e semplificando
P(A|C) =

P(C |A)P(A)
0.3
= 0.376
=
6
P(C)
0.3 + 0.7 2310

mentre per n = 100


P(A|C) =

P(C |A)P(A)
0.3
= 0.928 .
=
60
P(C)
0.3 + 0.7 23100

Quindi per n = 100 la sorgente A resta la pi probabile, mentre per n = 10 prevale il fatto che
a priori la pi probabile fosse B.

2.21

a) La legge delle v.a. Xi data da


p0 = P(Xi = 0) =

1
4

p1 = P(Xi = 1) =

1
2

p2 = P(Xi = 2) =

1
4

mentre pk = P(Xi = k) = 0 per gli altri valori di k. La funzione generatrice delle probabilit
di Xi vale dunque
1
1
t
t2
t 2
(t) = + +
=
+
.
4 2
4
2 2

38

Parte 1: soluzioni

b) Per il calcolo della legge della somma di v.a. indipendenti tra i metodi possibili c luso
delle funzioni generatrici delle probabilit, che in questo caso sembra praticabile, visto che
la f.g.p. calcolata nel punto precedente ha unespressione semplice. Poich si tratta di v.a.
indipendenti, la f.g.p. n di X1 + . . . + Xn vale
n (t) = (t)n =

1
2

t 2n
.
2

Per calcolare la densit di X1 + . . . + Xn non resta che sviluppare la funzione n (t) con la
regola del binomio
n (t) =

2n     
X
2n t k 1 2nk

k=0

2n  
X
2n 1 k
=
t
k 22n
k=0

2n

per cui P(X1 + . . . + Xn = k) = k 212n .


Losservatore acuto avrebbe anche potuto riconoscere che la funzione generatrice delle probabilit di Xi quella di una v.a. binomiale B(2, 21 ). Dunque Xi B(2, 21 ) e X1 + . . . + Xn
B(2n, 21 ).
2.22

a) Consideriamo le v.a.
Xi =

1
0

se lo i-esimo lancio d testa


se d croce.

Le Xi hanno tutte legge di Bernoulli B(1, p) e le v.a. N, X1 , X2 , . . . possono essere considerate


indipendenti. Il numero di teste ottenute si modellizza quindi mediante la somma aleatoria
X = X1 + . . . + XN , con lintesa che X = 0 se N = 0. Per calcolare la legge di X possiamo
prima calcolarne la funzione generatrice delle probabilit . Questultima data dalla formula
(t) = N (Xi (t))
(vedi la Proposizione 2.62) dove N e Xi indicano le funzioni generatrici di N e di Xi
rispettivamente. Ricordando lespressione delle funzioni generatrici delle probabilit delle
leggi di Poisson e di Bernoulli si ha N (z) = e(z1) e Xi (t) = 1 p + pt. Dunque
(t) = e(pt+1p1) = ep(t1) .
Riconosciamo qui la funzione generatrice delle probabilit di una legge di Poisson di parametro
p, che quindi la legge cercata. Per lo stesso motivo Y di Poisson di parametro (1 p).
In realt il calcolo appena fatto era gi stato sviluppato nellEsempio 2.63. Lo stesso
risultato si pu ottenere senza luso delle f.g., come nellEsempio 2.32.
b) Come al solito la prova dellindipendenza di X e Y si riconduce al calcolo delle loro leggi
congiunte. Poich X + Y = N, si ha {X = k, Y = m} = {X = k, N = m + k} e
P(X = k, Y = m} = P(X = k, N = m + k) = P(X1 + . . . + Xm+k = k, N = m + k) .

Esercizio 2.23

39

Ma le v.a. N, X1 , X2 , . . . sono indipendenti e X1 + . . . + Xm+k B(m + k, p), quindi


P(X = k, Y = m) = P(X1 + . . . + Xm+k = k)P(N = m + k) =


(p)k (1p) ((1 p))m
m+k k
m+k
= ep
e
=
p (1 p)m e
=
(m + k)!
k!
m!
k
= P(X = k)P(Y = m)
e quindi X e Y sono indipendenti. In realt volendo essere precisi il calcolo precedente vale
solo quando uno almeno tra i numeri k e m > 0. Se entrambi sono nulli il calcolo comunque
immediato, tenendo conto del punto a):
P(X = 0, Y = 0) = P(N = 0) = e

P(X = 0)P(Y = 0) = ep e(1p) = e .


2.23
(1.7)

a) Consideriamo, per cominciare, il caso k = 1 e poniamo


Zi =

1
0

se lo i-esimo errore non viene individuato


altrimenti

per i = 1, . . . , N. chiaro che il numero di errori rimasti dopo il passaggio del primo revisore
X1 = Z1 +. . .+ZN . Poich, per la natura del problema, si possono supporre le v.a. Z1 , . . . , ZN
indipendenti ed inoltre P(Zi = 1) = 1 p, si vede subito che X1 B(N, 1 p).
Per studiare la legge di X2 , si pu osservare che X2 ancora una somma di v.a. Zi come
nella (1.7), solo che ora lindice i varia tra 1 e X1 (numero di errori rimasti). Ovvero X2 =
Z1 +. . .+ZX1 . Poich possiamo supporre le v.a. Zi e X1 indipendenti, sappiamo (Proposizione
2.62) che la funzione generatrice delle probabilit X2 data da
X2 (t) = X1 (Z1 (t)) = (p + (1 p) (p + (1 p)t))N =
{z
}
|
f.g.p. di Z1

= (p(2 p) + (1 p) t) = 1 (1 p)2 + (1 p)2 t

N

Si riconosce quindi che X2 binomiale B(N, (1 p)2 ). Ci suggerisce che la v.a. Xk abbia
legge B(N, (1 p)k ). La verifica rigorosa di questo fatto si pu fare per ricorrenza: se
Xk B(N, (1 p)k ), allora Xk+1 = Z1 + . . . + ZXk e dunque
Xk+1 (t) = Xk (Z1 (t)) = (1 (1 p)k + (1 p)k (p + (1 p)t))N =
= (1 (1 p)k+1 + (1 p)k+1 t)N

che appunto la funzione generatrice delle probabilit di una v.a. B(N, (1 p)k+1 ).
La probabilit che dopo il lavoro di k revisori restino ancora degli errori
P(Xk > 0) = 1 P(Xk = 0) = 1 (1 (1 p)k )N .

40

Parte 1: soluzioni

b) Se supponiamo che il numero N di errori sia a sua volta aleatorio il ragionamento simile
a quello appena visto: il numero di errori rimasti dopo il lavoro del primo revisore
X1 = Z1 + . . . + ZN .
Poich la funzione generatrice delle probabilit di N (z) = e(z1) , quella di X1
X1 (t) = N (Z1 (t)) = e((p+(1p)t)1) = e(1p)(t1)
e quindi X1 di Poisson di parametro (1 p). Analogamente la funzione generatrice delle
probabilit di X2 = Z1 + . . . + ZX1 sar
X2 (t) = X1 (Z1 (t)) = e(1p)((p+(1p)t)1) = e(1p)

2 (t1)

per cui X2 di Poisson di parametro (1 p)2 . Per ricorrenza, come nel punto a) si vede che
Xk di Poisson di parametro (1 p)k .
Con i valori numerici assegnati X3 segue una legge di Poisson di parametro (1 p)3 =
300 103 = 0.3. Dunque la probabilit che restino degli errori
P(X3 > 0) = 1 P(X3 = 0) = 1 e0.3 = 0.259 = 25.9% .
Il numero medio di errori rimasti
E(X3 ) = (1 p)3 = 0.3 .
2.24 Perch una funzione g sia la funzione generatrice di qualche v.a. X occorre che siano
soddisfatte alcune propriet: essa deve intanto essere sviluppabile in serie di potenze con un
intervallo di convergenza che deve contenere [1, 1]. Inoltre tutti i coefficienti pk dello sviluppo
devono P
essere 0, poich deve essere pk = P(X = k); infine deve essere g(1) = 1, perch
g(1) =
k=0 pk = 1.
Da questultima condizione si vede che c, se esiste, deve essere uguale a (log 21 )1 =
(log 2)1 . Per questo valore di c si ha, ricordando lo sviluppo in serie di potenze della
funzione z log(1 z),

X
1
g(z) =
zn
n2n log 2
n=1

e g dunque realmente una funzione generatrice (tutti i coefficienti dello sviluppo sono 0).
Se X una v.a. avente funzione generatrice g, allora
P(X = n) =

n2n log 2

La media di X si calcola facilmente osservando che g derivabile in z = 1 e


E(X) = g (1) =


1
1

=

(2 z) log 2 z=1
log 2

Esercizio 3.2

41

3.1
a) La v.a. X prende i suoi valori, con probabilit 1, nellintervallo [0, 10]: infatti
P(0 X 10) = F (10) F (0) = 1.
b) La f.r. F derivabile a tratti con derivata continua. Dunque X ha densit che si ottiene
derivando la f.r. La densit dunque data da

1
25
t
se 0 t 5
f (t) = 1 t + 2 se 5 t 10
5
25
0
altrimenti .

La densit f lineare a tratti ed il suo grafico dato dalla Figura 1.3.


0.2

......................
........
........
........
........
........
........
.
.
.
.
.
.
.
........
.
........
........
........
........
.
.
.
.
.
.
........
.
.....
.
.
........
.
.
.
.
.
........
.....
.
.
.
.
.
.
........
.
.....
.
........
.
.
.
.
.
.
........
.....
.
.
.
.
.
........
.
.
.....
.
........
.
.
.
.
.
.
........
.....
.
.
.
.
........
.
.
.
.....
........
.
.
.
.
.
.
.
........
.....
.
.
.
.
........
.
.
.
........
.....
.
.
.
.
.
.
.
........
.....
.
.
.
........
.
.
.
.
........
....
.
........

10

Figura 1.3

c) La simmetria del grafico della densit di X suggerisce immediatamente il valore di E(X).


Ad ogni modo il calcolo d
E(X) =

Z 10 
2
1
1 2
t dt +
t dt =
t2 +
25
5
5

0 25
125
1000
125
100 25
=

+
+

=5.
3 25 3 25 3 25
5
5
+

tf (t) dt =

3.2 a) Calcoliamo la f.r. di Z = X 2 ; poich la densit di X > 0 solo per t > 0, si ha


FZ (t) = 0 per t 0, mentre per t > 0 essa vale

P(X t) = P(X t) =
2


2x x 2 /
2 t
e
dx = ex / = 1 et/ .
0

Riconosciamo la f.r. di una legge esponenziale di parametro 1 .


b) Calcoliamo la f.r. di W ; sfrutteremo il fatto che conosciamo gi la f.r. di X 2 . Intanto
osserviamo che, poich X 2 a valori positivi, W prender valori tra 0 e 1. Se 0 < t < 1
P(eX

2 /

t) = P(X 2 log t) = e( log t)/ = t .

Dunque W uniforme su [0, 1].


Da notare, in questo esercizio, il calcolo della densit di una v.a. eseguito passando prima
per il calcolo della f.r.: un metodo semplice e che possibile applicare in molti casi.

42

3.3

Parte 1: soluzioni

a) Si ha
Z

f (x) dx = c

x (+1) dx =

c
r

e dunque, poich lintegrale deve valere 1, c = r .


b) Calcoliamo la f.r. di Y : se t > 0

P(Y t) = P log Xr t = P(X ret ) = r
=

ret

x (+1) dx =


1 t
(e r) r r = 1 et .

Y dunque esponenziale di parametro .


Un calcolo tipico che viene richiesto durante la soluzione di molti esercizi il seguente:
viene data una funzione nella forma k g(x) e si richiede di determinare k in modo che x
k g(x) sia una densit di probabilit. La costante k sempre determinata dal fatto che lintegrale
della densit deve valere 1 e dunque
1
Z
.
g(x) dx
k=
3.4 Poich la funzione tangente monotona crescente nellintervallo ]
della f.r. di Y immediato:

FY (y) = P(tan X y) = P(X arctan y) = P X ] 2 , arctan y] =

e derivando

fY (y) =


2 , 2 [,

il calcolo

arctan y +

(1 + y 2 )

3.5 a) Se indichiamo con T1 , T2 , T3 i tempi di vita dei singoli elementi, chiaro che T =
min(T1 , T2 , T3 ). Il punto a) si riduce quindi al calcolo delle legge del minimo di tre v.a.
indipendenti di cui si conosce la legge. Questo problema si pu risolvere passando per il
calcolo della f.r. FT di T , oppure, che lo stesso, di 1 FT . Ricordando che la f.r. di una v.a.
esponenziale di parametro vale, se t > 0,
F (t) =

t
0

es ds = 1 et

si ha facilmente, per t > 0,


1 FT (t) = P(min(T1 , T2 , T3 ) > t) = P(T1 > t, T2 > t, T3 > t) =
= P(T1 > t)P(T2 > t)P(T3 > t) = et et e t = e(++ )t .

Esercizio 3.5

43

La v.a. T ha quindi la stessa f.r. di una v.a. esponenziale di parametro + + . quindi


anchessa esponenziale con questo parametro e
E(T ) =

1
= 1.67 .
++

b) Se T e W sono i tempi di vita di ognuno dei due componenti in parallelo, il tempo di vita
del complesso formato dai due componenti non altro che X = max(T , W ). Calcoliamo la f.r.
GX di questa v.a. Se t > 0
GX (t) = P(max(T , W ) t) = P(T t, W t) = P(T t)P(W t) = (1 e(++ )t )2
mentre GX (t) = 0 per t 0. Da questespressione si ricava per derivazione la densit g di X:
gX (t) = GX (t) = 2( + + )e(++ )t (1 e(++ )t )
se t > 0, mentre naturalmente gX (t) = 0 se t 0. Infine
E(X) =

+
0

Z
t gX (t) dt = 2( + + )

te

(++ )t

dt

+
0


te2(++ )t dt =


1
1
1
2
= 2( + + )

= 2.49 .
=
2
2
( + + )
(2( + + ))
+ + 2( + + )
c) Possiamo ancora dire che il tempo T di vita del complesso della Figura 3.20 uguale
a min(T1 , T2 , T3 ), dove per ora T1 il tempo di vita del componente formato dai primi tre
elementi in parallelo, T2 quello formato dal secondo elemento, T3 quello formato dagli ultimi
due in parallelo. Ripetendo i ragionamenti del punto b) per calcolare la legge del max di variabili
aleatorie, si ricava facilmente
P(T1 t) = (1 et )3 ,

P(T2 t) = 1 et ,

P(T3 t) = (1 e t )2 .

Ripercorrendo i metodi del punto a) per calcolare la legge del min di v.a. abbiamo
P(T > t) = P(T1 > t) P(T2 > t) P(T3 > t) = (1 (1 et )3 ) et (1 (1 e t )2 ) .
Dunque, sviluppando con un po di pazienza il quadrato e il cubo si ottiene che la funzione di
ripartizione G di T data da
1 G(t) = P(T > t) = (3et 3e2t + e3t ) et (2e t e2 t ) =
= 6e(++ )t 6e(2++ )t +2e(3++ )t 3e(++2 )t +3e(2++2 )t e(3++2 )t
e dunque la densit
g(t) = G (t) = 6( + + ) e(++ )t 6(2 + + ) e(2++ )t +
+2(3 + + ) e(3++ )t 3( + + 2 ) e(++2 )t +
+3(2 + + 2 ) e(2++2 )t (3 + + 2 ) e(3++2 )t

44

Parte 1: soluzioni

da cui, ricordando lespressione della speranza matematica di una legge esponenziale,


Z +
E(T ) =
g(t) dt =
0

6
6
2
3
3
1
=

+ + 2 + + 3 + + + + 2 2 + + 2 3 + + 2
Il calcolo numerico d il risultato E(T ) = 3.26, sensibilmente migliore che nel caso b).
Da segnalare in questo esercizio il calcolo della legge del massimo di due v.a. indipendenti
effettuato determinandone prima la f.r. Per calcolare la densit del minimo invece si opera in
maniera del tutto analoga usando piuttosto la funzione di sopravvivenza 1 F .
3.6

a)
E(X) =

+
0

Z +

2x x 2 /
2 +
2
+
e
dx = xex /
ex / dx .

0
{z 0 }
|
=0

Lultimo integrale si calcola con il cambio di variabile


di

y
2

2
ex /2 :

+
0

x 2 /

in modo da ricondurlo a quello

Z +

Z +

y 2 /2
y 2 /2
e
dy =
e
dy = 2 =
dx =

2
2 0
2 2
2 2

Per ottenere la varianza calcoliamo prima il momento del secondordine


Z
2 + 3 x 2 /
x e
dx .
E(X 2 ) =
0
Lintegrale si pu fare per parti oppure con il cambio di variabile x 2 = y riconducendolo a
quello di una densit (2, 1 ):
E(X 2 ) =

yey/ dy =

1 2
(2) =

e quindi
Var(X) = E(X 2 ) E(X)2 = 1
b) Una v.a. Y di Cauchy se ha densit
fY (y) =

(1 + y 2 )

Perch Y abbia speranza matematica finita deve essere assolutamente convergente lintegrale
Z +
y
dy .
2
(1 + y )

Esercizio 3.8

45

Lintegrando per per |y| tende a zero in modulo come |y|1 e lintegrale non dunque
assolutamente convergente. Y quindi non ha speranza matematica finita.
c) La speranza matematica finita se e solo se convergente lintegrale
Z +
Z +
x x (+1) dx =
x dx
r

e cio se > 1. Se > 1 si trova immediatamente


Z +
r +1 +
r

E(X) = r
x dx =
x

=

r

1
r

Perch la varianza sia finita occorre invece che sia convergente anche lintegrale
Z +
Z +
2
(+1)
x x
dx =
x +1 dx
r

e cio che sia > 2. In questo caso si ha


Z +
r 2
r +2 +
2

=
E(X ) = r
x +1 dx =

r
2
2
r

e dunque la varianza vale

Var(X) = E(X 2 ) E(X)2 =

r 2
2 r 2
r 2 ( 1)2 2 r 2 ( 2)

=
=
2 ( 1)2
( 2)( 1)2
r 2

=
( 2)( 1)2

Per + la media tende a r, mentre la varianza converge a 0.


3.7
1 (X
2

Basta osservare che la v.a. X Y = X + (Y ) segue una legge N(0, 2) e dunque


Y ) N(0, 1). Dunque
P(X > Y ) = P(X Y > 0) = P

mentre allo stesso modo


Y ) > 0 = 1 8(0) =


= P X Y > 21 = P 1 (X Y ) >
2

1

= 1 8(0.35) = 0.36 .
=18

P X>Y +

1
2

1 (X
2

2 2

2 2

1
2

3.8 Se il modello normale valido, la probabilit che uno studente ottenga un voto superiore
al 24 pari a P(X 24), dove X N(21, 9). Ma sappiamo che si pu scrivere X = 3Z + 21,
dove Z N(0, 1). Dunque

= P(Z 1) = 1 8(1)
P(X 24) = P(3Z + 21 24) = P Z 2421
3

46

Parte 1: soluzioni

dove 8 indica la f.r. di una legge N(0, 1). Uno sguardo alle tavole d il valore 8(1) = 0.84.
Dunque la probabilit richiesta 1 8(1) = 0.16.
Allo stesso modo la probabilit che uno studente ottenga un voto 17

= P(Z 1.33) = 8(1.33) =
P(X 17) = P(3Z + 21 17) = P Z 1721
3
= 1 8(1.33) = 1 0.908 = 0.092 .
La probabilit che uno studente non ottenga la sufficienza alla prova scritta del 9.2%.
Largomento chiave di questo esercizio il fatto che se X N(, 2 ), allora si pu scrivere
X = Z + , dove Z N(0, 1). Questo metodo, che consiste nel ridursi sempre al caso di
una legge N(0, 1), quello che conviene usare sempre per calcolare quantit legate alle leggi
normali.

3.9 La probabilit che un individuo abbia unaltezza superiore ai 190 cm P(X > 190)
dove X N(175, 81). Ma sappiamo che si pu scrivere X = 9Z + 175, dove Z N(0, 1).
Dunque

P(X > 190) = P Z > 190175
= P(Z > 53 ) = 1 8(1.67)
9

dove 8 la f.r. di una v.a. N(0, 1). Uno sguardo alle tavole d 8(1.67) = 0.95 e dunque
1 8(1.67) = 0.05. La percentuale ditaliani di statura > 190 cm sarebbe del 5%.
Allo stesso modo la probabilit che un italiano sia riformato alla visita di leva sarebbe


P(X 153) = P Z 153175
= P Z 22
9
9 = 8(2.44) = 0.008 .
Dunque la percentuale di reclute scartate sarebbe dello 0.8%.

3.10
La probabilit che una bottiglia risulti insufficientemente riempita P(X < 730).
Osserviamo di nuovo che si pu scrivere X = Z + con Z N(0, 1). Dunque

P(X < 730) = P( Z + < 730) = P Z < 730
.

Uno sguardo alle tavole ci informa che, perch questa probabilit sia inferiore a 0.002, occorre
2.88, ovvero 730 + 2.88 = 802. Se invece la varianza fosse
che sia 730

2 = 400 si otterrebbe 787.6.

3.11 a) k deve essere scelto in modo che lintegrale di f valga 1, cio deve essere uguale
allinverso di
Z
+

x 3 ex/2 dx .

In questo caso per basta riconoscere che f una densit (4, 21 ) e dunque k =

1
24 (4)

1
.
24 3!

b) X + Y ha legge (8, 21 ), per la regola della somma di due v.a. Gamma indipendenti.
Sappiamo inoltre che in generale la v.a. aX ha densit
faX (x) =

1
f
|a|

x
a

Esercizio 3.12

47

Dunque nel nostro caso


f2X (x) =

1
f
2 X

x
2

ovvero 2X (4, 41 ).
3.12

=k

x 3 x/4
e
24

a) La f.r. si calcola con il cambio di variabile s = u, s 1 ds = du: se t > 0


F (t) =

s
0

1 s

ds =

t
0

eu du = 1 et .

Per mostrare che f una densit occorre calcolarne lintegrale e mostrare che esso vale 1. Ma,
poich gi abbiamo calcolato la f.r., basta osservare che
Z t
Z +
f (s) ds = lim F (t) = 1 .
f (s) ds = lim

t+

t+

b) Se X esponenziale di parametro , ricordando i valori delle costanti per le leggi Gamma,


si ha
Z +
( + 1)
( + 1)
E(X ) =
t et dt =
=

+1

Per calcolare la legge di X usiamo il solito metodo della funzione di ripartizione: se G la


f.r. di X allora, per t > 0,
G(t) = P(X t) = P(X t 1/ ) = 1 et

1/

da cui si vede che X di Weibull di parametri e = 1 (ha la stessa f.r.). Dunque una v.a. Y
di Weibull di parametri e della forma X 1/ , dove X esponenziale di parametro ; essa
ha dunque media
(1 + 1 )

E(Y ) = E(X 1/ ) =
1/
Per la varianza, evidentemente
E(Y 2 ) = E(X 2/ ) =
e
Var(Y ) = E(Y 2 ) E(Y )2 =

(1 + 2 )
2/

(1 + 2 ) (1 + 1 )2
2/

c) Basta osservare che (1 + 2t) (1 + t)2 la varianza di una v.a. di Weibull di parametri
= 1 e = 1t e quindi si tratta di una quantit positiva.
d) Per simulare una v.a. di Weibull di parametri , basta dunque simulare una v.a. esponenziale Y di parametro e poi porre X = Y 1/ . In maniera equivalente si pu anche ricordare
da a) (o dallEsempio 3.48) che la funzione di ripartizione di una v.a. di Weibull

F (t) = 1 e t ,

t > 0,

48

Parte 1: soluzioni

facile ora vedere che, per y > 0, si ha


 1
1/
F 1 (y) = log(1 y)

La funzione di ripartizione in questo caso quindi invertibile e quindi, come indicato a pag.142,
basta porre X = F 1 (Z), dove Z uniforme su [0, 1].
3.13 a) Sappiamo che se X N(, 2 ) allora Z = X N(0, 2 ). Sappiamo per
che i momenti di ordine dispari delle leggi normali centrate sono tutti nulli, quindi
E((X )3 ) = E(Z 3 ) = 0
e dunque = 0. In effetti in questo calcolo abbiamo utilizzato unicamente il fatto che le
v.a. normali hanno una legge che simmetrica rispetto alla media, cio sono tali che X e
(X ) hanno la stessa legge. Per tutte le v.a. con questa propriet si ha
E[(X )3 ] = E[(X )3 ] = E[(X )3 ]
per cui E((X )3 ) = 0 e = 0. Tutte le v.a. simmetriche intorno alla media (cio tali che
X e (X ) hanno la stessa legge) hanno dunque indice di skewness = 0.
b) Ricordiamo che per una v.a. X (, ) il momento di ordine k vale
E(X k ) =

( + k 1)( + k 2) . . .
( + k)
=
k ()
k

ovvero per i primi tre momenti:


E(X) =

E(X 2 ) =

( + 1)
,
2

E(X 3 ) =

( + 1)( + 2)

Sviluppando il binomio di terzo grado (qui = )


E((X )3 ) = E(X 3 ) 3E(X 2 ) + 3E(X)2 3 =

1
= 3 ( + 1)( + 2) 3 2 ( + 1) + 3 3 3 =

= 3 2 + 3 + 2 3 2 3 + 2 2 =

2
= 3

Daltra parte la varianza vale 2 =

per cui

2
3
3/2
3

= 2 1/2 .

Esercizio 3.13

49

In particolare lindice di skewness non dipende da e quello di una legge esponenziale (1, )
sempre uguale a 2. Osserviamo anche che la skewness di una legge sempre positiva, il che
in accordo con lintuizione (il grafico delle densit sempre come nella Figura 3.21, almeno
per > 1).
c) Useremo sempre lo sviluppo del binomio di terzo grado, ma occorre ora calcolare il momento del terzordine di una legge di Poisson. In effetti gi conosciamo i momenti di ordine
uno: E(X) = e di ordine due: E(X 2 ) = Var(X) + E(X)2 = + 2 . Il momento di ordine
tre pu essere ottenuto in modi diversi: intanto direttamente con la definizione:
E(X 3 ) = e
= e

X
k=0

X
i=0

k3

k=1

i=0

X
X
k
i+1
k
k2
(i + 1)2
= e
= e
=
k!
(k 1)!
i!

(i 2 + 2i + 1)

i!

= (2 + + 2 + 1) = 3 + 32 +

Oppure anche derivando, a scelta, la funzione caratteristica oppure la funzione generatrice dei
momenti. Ricordiamo che, per questultima, si ha (vedi la (3.68))
d3
m (0) = E(X 3 ) .
d 3 X

(1.8)

La funzione generatrice dei momenti di una v.a. di Poisson di parametro (Esempio 3.71 b))
mX ( ) = e(e

1)

Derivando pazientemente
d

mX ( ) = e e(e 1)
d
d2

mX ( ) = (e + 2 e2 )e(e 1)
2
d
d3

m ( ) = (e + 32 e2 + 3 e3 )e(e 1)
d 3 X
da cui, ponendo = 0,
E(X 3 ) =

d3
m (0) = + 32 + 3 .
d 3 X

Finalmente
E((X )3 ) = E(X 3 ) 3E(X 2 ) + 3E(X)2 3 =
= + 32 + 3 3( + 2 ) + 33 3 =
e quindi
=
Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2007

= 1/2 .
3/2

50

Parte 1: soluzioni

3.14

a) Se X N(0, 1), ripetendo i calcoli dellEsempio 3.72,


1
E(esX ) =
2
1
=
2

e 2 (xs) dx es

2 /2

esx ex

y=xs

es

2 /2

2 /2

dx =
Z

ey

2 /2

dy = es

2 /2

b1) Se Y lognormale di parametri e 2 , allora Y = eX , dove X N(, 2 ); daltra


parte sappiamo che si pu rappresentare X = Z + , dove Z N(0, 1). Dunque, per il
calcolo precedente
2
E(Y ) = E(eX ) = E(e Z+ ) = e e /2 .
Per la varianza invece calcoliamo prima
E[(eX )2 ] = E[e2X ] = E[e2( Z+) ] = e2 e2

e dunque
2

Var(eX ) = e2 e2 e e
0.9
.
...

2 /2

2


2
2
= e2 e e 1 .

....... .......
.......
......
.

....
...
.
.....
...
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.........
.....
.....
.
.
.
.
.
.
.
.
.
.
.
..
.
.. .............
...
.
.....
........
..
..
.
.
.
.
.
........
......
..
........
..
.
.
........
2 = 41
..
.
.
.
.........
......
.
.........
...
....
..........
.
.
.
.
.
.
...
...........
.
..
...........
.......
..
..
............
..
...
..............
..
................ ..... .....
..
..................... ..
..
..
.......................

...
...............................
.
.
2
.
.
....... .. ..................................
=1
..
..........
..... .......
...
..
....... ....... .........................
.
.
.
.
.. .......
...
..
.
.
.
...... .......

Figura 1.4 Grafico della densit lognormale per diversi valori di 2 e = 0. Da notare che al crescere
di 2 la media cresce, come si visto nellesercizio, mentre la moda (cio il punto di massimo della
densit) diventa pi piccolo. Sempre per = 0, la mediana vale 1 per ogni valore di 2 .

b2) Se Y lognormale di parametri e 2 e Z N(0, 1), allora


P(Y z) = P(e Z+ z) = P Z


(log z )

Poich P(Z x) = 21 se e solo se x = 0, si ha P(Y z) = 21 se e solo se z = e , che dunque


il valore cercato della mediana. La mediana dunque non dipende da 2 e, se si tiene fisso
il valore di e si fa variare 2 , la media cresce al crescere di 2 , mentre la mediana rimane
costante (vedi anche la Figura 1.4).

Esercizio 3.17

51

3.15 Nella risoluzione di questo esercizio supporremo che il lettore sappia come simulare
le v.a. N(0, 1) e le esponenziali, come indicato nel paragrafo 3.10.
2 (n) la legge della somma dei quadrati di n v.a. N(0, 1). Baster quindi simulare n v.a.
N(0, 1) indipendenti X1 , . . . , Xn , dopo di che X12 + . . . + Xn2 avr legge 2 (n).
(n, ) la legge della somma di n v.a. indipendenti ed esponenziali di parametro . Queste
si ottengono considerando che, se X uniforme su [0, 1], allora Y = 1 log X appunto
esponenziale di parametro .
Allo stesso modo per ottenere una v.a. ( n2 , ) si possono sommare n v.a. indipendenti
ciascuna di legge ( 21 , ). Per ottenere ciascuna di queste basta osservare che ( 21 , ) la
legge del quadrato di una v.a. N(0, 1 ) (Esempio 3.42).
2

3.16 a) La v.a. Y a valori discreti (interi 0). Inoltre chiaro che Y = k se e solo se
k X < k + 1. Dunque
Z k+1
P(Y = k} = P(k X < k + 1) =
et dt = ek e(k+1) = ek (1 e ) .
k

Si pu riconoscere che Y ha legge geometrica di parametro p = 1 e e quindi media

1 e
b) Simulare una v.a. esponenziale facile, poich esponenziale di parametro la v.a.
X = 1 log U , dove U uniforme su [0, 1]. Abbiamo ora visto che geometrica la v.a. X,
che si calcola facilmente a partire da X. Occorre solo scegliere in modo che sia p = 1 e ,
cio = log(1 p). Dunque la procedura di simulazione la seguente:
1) Si simula una v.a. U uniforme su [0, 1].
2) Si pone

 1
log U
X = log(1p)
che allora geometrica di parametro p.

3.17 a) Il calcolo delle leggi del massimo o del minimo di v.a. indipendenti stato visto
varie volte nei Capitoli 2 e 3. Ricordando che la f.r. di una v.a. esponenziale di parametro
F (t) = 1 et per t > 0, mentre F (t) = 0 per t < 0, la f.r. di X(3) data, sempre per t > 0,
da
G(t) = P(X(3) t) = P(X1 t, X2 t, X3 t) =
= P(X1 t)P(X2 t)P(X3 t) = (1 et )3

da cui derivando si ottiene la densit di X(3) : se t > 0, g(t) = G (t) = 3et (1 et )2 (per
t 0 naturalmente g(t) = 0). La speranza matematica di X(3) vale dunque
Z +
E(X(3) ) = 3
t et (1 et )2 dt =
0
Z +

3
1 1  11
= 3
t et 2e2t + e3t dt =

1 +
=

2 9
6
0

52

Parte 1: soluzioni

Per il calcolo della legge di X(1) invece, se H ne indica la f.r. e t > 0,


H (t) = 1 P(X(1) > t) = 1 P(X1 > t, X2 > t, X3 > t) =
= 1 P(X1 > t) P(X2 > t) P(X3 > t) = 1 e3t .

Quindi X(1) esponenziale di parametro 3 ed ha media


b) Per t fissato poniamo, per i = 1, 2, 3,
Yi =

1
0

1
3 .

se Xi t
altrimenti

allora le v.a. Yi sono indipendenti e di Bernoulli di parametro p = P(Xi t) = 1 et .


Poich Zt = Y1 + Y2 + Y3 , allora Zt B(3, 1 et ).
c) Lidea per il calcolo della f.r. K di X(2) consiste nel collegare la f.r. di X(2) con la legge
di Zt , dato che gli eventi {X(2) t} e {Zt 2} sono uguali. Quindi, per t > 0,
K(t) = P(X(2) t) = P(Zt 2) = P(Zt = 2) + P(Zt = 3) =
= 3(1 et )2 et + (1 et )3 .

Derivando
k(t) = K (t) = 6e2t (1 et )
per cui la speranza matematica di X(2) vale
E(X(2) ) = 6

+
0

t e2t (1 et ) dt =

Poich E(X2 ) = 1 , E(X2 ) > E(X(2) ).


d) Se indichiamo con X1 , X2 i tempi di vita dei due elementi, il tempo di vita del componente
formato dai due elementi in serie dato da min(X1 , X2 ) ed il tempo medio la speranza
matematica di questa v.a.; ripetendo il calcolo fatto in a) per determinare la legge di X(1) si vede
facilmente che la legge di min(X1 , X2 ) ancora esponenziale ma di parametro 2, per cui la
1
sua media vale 2
.
e) Se indichiamo con X1 , X2 , X3 il tempo di vita di ciascuno degli elementi, allora chiaramente il tempo di vita del componente dato da X(2) e sappiamo dal punto c) che
E(X(2) ) =
3.18

a) Calcoliamo la f.r. di Z: passando in coordinate polari si ha, per z 0,



FZ (z) = P(Z z) = P (X, Y ) si trova nella palla di centro 0 e raggio z =
Z
Z 2
Z z
1
1
2
2
21 (x 2 +y 2 )
e
dx dy =
d
=
e /2 d = 1 ez /2
2 {x 2 +y 2 z2 }
2 0
0

Esercizio 3.19

53

da cui derivando si ottiene la densit di Z: fZ (z) = zez /2 se z > 0, mentre f (z) = 0 per
z 0. Uno sguardo al paragrafo 3.8 mostra che si tratta di una densit di Weibull.
b) Abbiamo appena calcolato la f.r. di Z. Dunque la quantit richiesta
P(Z > 1) = 1 FZ (1) = e1/2 .
3.19 La prima probabilit richiesta si pu scrivere P((X, Y ) A) dove A la regione del
piano formata dai punti (x, y) tali che xy > 21 . Limitandoci ai punti che hanno entrambe le
coordinate positive, si vede facilmente che si tratta della regione al di sopra delliperbole della
Figura 1.5.
...
...
...............................
...........................................
........................................
.....................................
........................
................................
..............................
.................
....................
...........
..........
.......
.........
....

xy =

1
2

Figura 1.5

La probabilit richiesta dunque larea della porzione di quadrato che si trova in A, cio il
valore dellintegrale
Z 1
Z 1
Z 1
1
1 
dx = (1 log 2) .
dx
dy =
1
1
1
1
2x
2
2
2x
2
Inoltre

P XY < 41 |X >

1
2

P(XY < 41 , X > 21 )


P X > 21

1
, x > 21 } che contenuta nel quadrato quella ombreggiata
La porzione della regione {y < 4x
nella Figura 1.6. La probabilit condizionale P(XY < 41 |X > 21 ) dunque uguale allarea
della superficie ombreggiata divisa per P(X > 21 ) = 21 , cio
Z 1
Z 1
Z 1
4x
1
1
dx = log 2 .
2
dy = 2
dx
1
1 4x
2
0
2
2
...
...
...
...
...
...
...
...
...
...
...
.....
.....
..
.......................
...................................
.............................................................
. . . . . . . . . . . . . . .............
.........................................................................
..........................................................
..........................................................

1
2

Figura 1.6

xy =

1
4

54

Parte 1: soluzioni

Allo stesso modo si calcola lultima probabilit condizionale richiesta


 P(XY > 41 , X
Y > 2)

P XY > 41 | X
Y >2 =
X
P( Y > 2)

La probabilit al denominatore pari allarea della porzione di quadrato che si trova sotto la
retta y = x2 (ed quindi 41 ), mentre il numeratore uguale allarea della superficie ombreggiata
nella Figura 1.7. Questultima vale
Z 1
Z x
Z 1
2
x
1 
1
dx
dy
=

dx = (1 log 2)

2
2 2
1
4x
8
2
4x
2
e quindi
 1
P XY > 41 | X
Y > 2 = 2 (1 log 2) .
...
...
...
...
..
..
..
..
..
..
..
...
...
...
....
.......
.......
...
.......
.....
.......
.....
.......
.
.
.
.....
.
.
.
..... ....
......
.........................................
................. ........
....... .. .............................
.............
.......
.
.
.
.
.
.
...
......
..
.......
.......
.......
.
.
.
.
.
.
.
.
.
....

y=

x
2

xy =

1
4

2
2

Figura 1.7

I due esercizi precedenti illustrano come il calcolo della probabilit di eventi legati a pi
v.a. si riconduca spesso a quello dellintegrale della densit congiunta su opportune regioni del
piano, ovvero, nel caso di densit uniformi, al calcolo di aree.

3.20

a) Dobbiamo calcolare la probabilit



P X2 min(X1 , X3 ) .

Ci si pu fare calcolando prima la densit f di min(X1 , X3 ). Una volta effettuato questo


calcolo, indicando con f2 la densit di X2 potremo scrivere
Z
(1.9)
P(X2 min(X1 , X3 )) =
f2 (x) f (y) dx dy
A

R2

dove A = {(x, y); x y}


linsieme dei punti del piano che hanno lascissa pi piccola
dellordinata. Tutto quindi si riconduce al calcolo di f e dellintegrale della (1.9). Se 0 t 1
e F indica la f.r. di min(X1 , X3 ), allora
1 F (t) = P(min(X1 , X3 ) > t) = P(X1 > t)P(X3 > t) .

Esercizio 3.21

Poich
P(X1 > t) = P(X2 > t) =

55

1
t

ds = 1 t

si ha 1 F (t) = (1 t)2 . Quindi F (t) = 1 (1 t)2 , per 0 t 1, mentre, naturalmente,


F (t) = 0 se t < 0 e F (t) = 1 se t > 1. La densit di min(X1 , X3 ) si ottiene per derivazione:
n
2(1 t) se 0 t 1
f (t) = F (t) =
0
altrimenti .
Riprendendo la (1.9) e ricordando che la densit f2 di X2 vale 1 su [0, 1] e 0 fuori di [0, 1], si
ha infine
Z
Z 1
Z y
P(X2 min(X1 , X3 )) =
f2 (x) f (y) dx dy = 2
(1 y) dy
dx =
=2

A
1

1
2
y(1 y) dy = 1 =
3
3

b) Se si suddividono i 30 numeri in terzine si vede che in tutte il numero di mezzo pi


piccolo sia del primo che del terzo. Se il generatore fornisse numeri aleatori uniformi su [0, 1] e
indipendenti, la probabilit che in una singola terzina il numero in mezzo sia minore degli altri
due sarebbe 13 . La probabilit che ci succeda per dieci terzine quindi 310 = 1.7 105 . Un
valore cos piccolo fa almeno sospettare che i numeri aleatori successivi non siano indipendenti.
Il generatore aleatorio quindi meriterebbe qualche controllo.

3.21 a) Se indichiamo con X1 , X2 , . . . gli intervalli di tempo tra le telefonate successive,


allora il tempo di arrivo della seconda telefonata Y = X1 + X2 . Y ha dunque una legge
(2, ), e la sua f.r. (vedi la (3.52))

t
FY (t) = 1 e (1 + t) se t > 0
0
altrimenti .
La probabilit richiesta dunque 1 e2 (1 + 2) = 0.59.
b) Occorre determinare la legge condizionale di X1 dato Y = T . Per fare ci useremo il
solito metodo di calcolare prima la densit congiunta di X1 e Y , che sar ottenuta con il teorema
di cambio di variabile. La v.a. (X1 , Y ) si ottiene infatti da (X1 , X2 ) mediante la trasformazione
lineare associata alla matrice


1 0
A=
1 1
la cui inversa
A1 =

1
1

0
1

La densit congiunta di (X1 , X2 )


f (x, y) =

2 e(x+y)
0

se x > 0, y > 0
altrimenti .

56

Parte 1: soluzioni

Poich det A = 1 la densit di (X1 , Y ) = (X1 , X1 + X2 ) quindi


g(x, y) = f (A1

x
y )

= f (x, y x) .

g(x, y) dunque = 0 se x 0 oppure y x, mentre vale 2 ey per 0 < x < y. La densit


condizionale di X1 dato Y vale
g X1 |Y (x|y) =

g(x, y)

fY (y)

Essa nulla se x non si trova nellintervallo ]0, y[ mentre in questo intervallo vale
g X1 |Y (x|y) =

2 ey
1
=
2
y
ye
y

Dunque la distribuzione condizionale di X1 dato Y = y semplicemente la distribuzione


uniforme su ]0, y[. La probabilit che la prima telefonata sia giunta dopo il tempo T2 sapendo
che la seconda giunta al tempo T uguale a 21 .
3.22

a) Perch f sia una densit occorre che sia


Z

f (u, v) du dv = c

du

u
0

2u u2 /
c
e
v dv =

u3 eu

2 /

du = 1 .

Lultimo integrale dellespressione precedente si calcola per parti (vedi comunque il punto a)
2
dellEsercizio 3.2). Esso vale dunque 2 , per cui deve essere
c=

b) Un modo per investigare lindipendenza delle v.a. U e U


V consiste nel calcolo della loro
densit congiunta, per poi verificare che questa si pu scrivere come prodotto di due funzioni
ciascuna delle quali dipende solo da una delle variabili. Il calcolo della legge congiunta di U e
U
V si pu fare osservando che

U, U
V = (U, V )

dove la funzione (u, v) = (u, uv ); questa funzione certo infinite volte derivabile per
u > 0, v > 0: se essa fosse anche invertibile e la sua inversa derivabile potremmo calcolare
la densit congiunta g di U e U
V con il teorema di cambio di variabile negli integrali multipli,
grazie al quale si ha che
(1.10)

g(x, y) = f ( 1 (x, y))| det D 1 (x, y)| .

Le tappe successive per mostrare che U e U


V sono indipendenti sono dunque le seguenti: prima
occorre mostrare che invertibile e calcolarne linversa (ovvero calcolarne linversa, il che

Esercizio 3.23

57

prover che invertibile). Poi bisogna calcolare il differenziale D 1 (che in questo caso
una matrice 2 2) e il suo determinante. A questo punto avremo la densit congiunta g tramite
la (1.10) e vedremo che essa il prodotto di una funzione della sola variabile x moltiplicata
per una funzione della sola variabile y. Come si vede si tratta di un programma abbastanza
complesso, ma nel quale ogni singola parte non presenta grosse difficolt.
Per calcolare linversa di , fissati dei valori x e y dobbiamo determinare dei numeri u e v
tali che (u, v) = (x, y). In altre parole dobbiamo risolvere rispetto a u e v il sistema

u=x
u
v =y
che d facilmente u = x, v = xy . Dunque 1 (x, y) = (x, xy ). immediato ora il calcolo del
differenziale di 1 :


1
0
D 1 (x, y) = 1
x
y2
y

per cui det D 1 (x, y) = yx2 . Abbiamo quindi calcolato tutte le quantit che compaiono nella
(1.10). Sostituendo i valori trovati dobbiamo per ricordare che f (u, v) = 0 a meno che non
sia 0 < v < u. Dunque otteniamo f ( 1 (x, y)) = f (x, xy ) = 0 a meno che non sia y > 1 e
x > 0. In conclusione
g(x, y) =

2 2x x 2 /
x
e
1{x>0} (x)1{y>1} (y)

y
{z
}
|
=f ( 1 (x,y))

x
y2
|{z}

=| det D 1 (x,y)|

1
4 3 x 2 /
x e
1{x>0} (x)
1
(y)
2
y 3 {y>1}
|
{z
} |
{z
}
funzione della sola x

funzione della sola y

e dunque U e U
V sono indipendenti.
Il metodo di calcolo della densit congiunta (a cui si talvolta condotti per provare
lindipendenza di due v.a.) con luso il teorema di cambio di variabile negli integrali multipli, illustrato in questo esercizio, un tecnica che risulta utile in molte situazioni. Si tratta
di un calcolo piuttosto complesso ed al quale conviene ricorrere solo quando non ci sono altre
possibilit. Uno sguardo pi da vicino mostra per che le diverse tappe del calcolo sono relativamente semplici: calcolo dellinversa 1 (spesso loperazione pi difficile), calcolo del suo
differenziale e del determinante di questultimo, sostituzione dei valori nella (1.10).
3.23 Ricordiamo che la media di una v.a. esponenziale di parametro 1 .
1
, = 61 . Indichiamo con S1 e S2 i tempi di vita di ciascuno dei due
a) Poniamo = 10
elementi che compongono il secondo componente. Se T2 il tempo di vita di questultimo,
allora T2 = max(S1 , S2 ). Se supponiamo che S1 e S2 siano indipendenti allora abbiamo gi]a
visto altre volte come si fa il calcolo della f.r. di T2 :
P(T2 t) = P(max(S1 , S2 ) t) = P(S1 t, S2 t) =
= P(S1 t) P(S2 t) = (1 et )2 .

58

Parte 1: soluzioni

Derivando otteniamo la densit di T2 : f2 (t) = 2et (1 et ) per t > 0, f2 (t) = 0 per


t 0; possiamo quindi calcolare la media
E(T2 ) =

tf2 (t) dt = 2

+
0

t (et e2t ) dt =

1
3
2

=
=9.
2
2

Il secondo componente dura in media meno del primo.


b) Indichiamo con T1 il tempo di vita del primo componente e con f1 la sua densit. Se
A = {(x, y), x > y} allora dire che T1 > T2 lo stesso che dire che (T1 , T2 ) A. Dunque, se
come appare ragionevole supponiamo che T1 e T2 siano indipendenti,
Z
P(T1 > T2 ) = P((T1 , T2 ) A) =
f1 (x)f2 (y) dx dy =
A
Z +
Z +
Z +
2ey (1 ey ) dy
ex dx =
2e(+)y (1 ey ) dy =
y

= 2

e(+)y dy 2

e(+2)y dy =

2
2
25

=
= 0.48
+ + 2
52

Quindi, nonostante in media duri pi, la probabilit che il primo componente resti funzionante
pi a lungo del secondo minore di 21 . Naturalmente lintegrale doppio precedente si sarebbe
anche potuto calcolare integrando prima in y e poi in x, cio
P(T1 > T2 ) =

f1 (x)f2 (y) dx dy =

ex dx

2ey (1 ey ) dy .

Il risultato naturalmente resta lo stesso, ma i conti sono un po pi complicati.


Da segnalare in questo esercizio il calcolo della probabilit di eventi della forma {T1 > T2 }
effettuato usando la densit congiunta, che un metodo di uso frequente.

3.24 a) I dati del problema permettono di affermare che la densit condizionale di Y dato
X = x deve essere fY |X (y |x) = xexy per y > 0 e fY |X (y |x) = 0 altrimenti. Poich
conosciamo anche la legge di X, possiamo calcolare la legge congiunta di (X, Y ), da cui
potremo ricavare la legge di Y , che ne una marginale, e poi la legge condizionale di X dato
Y = y. La legge congiunta di (X, Y )
f (x, y) = fX (x)fY |X (y |x) =

(+y)x
() x e

se x > 0, y > 0
altrimenti .

Calcoliamo la densit di Y come marginale di f . Per y 0 fY (y) = 0, mentre per y > 0


fY (y) =

f (x, y) dx =

()
=

+
0

x e(+y)x dx =

( + y)+1

( + 1)
=
() ( + y)+1

Esercizio 3.25

59

Il valore dellintegrale stato ottenuto immediatamente riconoscendo che lintegrando , a meno


della costante, una densit ( + 1, + y).
b) Y ha speranza matematica finita se e solo se convergente lintegrale
Z +
y
dy .
( + y)+1
0
Lintegrando tende a 0 per y + come y ed quindi convergente se e solo se > 1.
Quindi Y non ha speranza matematica finita se 1. Se invece > 1, integrando per parti si
ha
Z +
Z +
y
y +

E(Y ) =
dy
=

dy =
+

+1

( + y)
( + y) 0
( + y)
0
0
|
{z
}
=0

+
1

=
=

1 ( + y)1 0
1

c) La legge condizionale di X dato Y = y, y > 0, si ottiene facendo il quoziente tra la densit


congiunta e quella di Y , cio
( + y)+1 (+y)x
fX|Y (x |y) =
x e
()
per x > 0, mentre uguale a 0 per x 0. Riconosciamo che la legge condizionale una
( + 1, + y). Quindi la sua media vale +1
+y .
Due sono gli aspetti interessanti di questo esercizio: in primo luogo come si usano i dati
del problema per indicare le leggi marginali e/o condizionali delle v.a. che si considerano e
come da queste si ottiene la densit congiunta; poi come dalla densit congiunta si riesce a
calcolare tutto il resto.

3.25

a) La v.a. X Y si pu scrivere
X Y = X + (Y ) .

Le v.a. X e Y sono ancora indipendenti ed inoltre Y ha legge N(0, 1). Per la regola della
somma di v.a. normali indipendenti,
X Y ha legge N(0, 2).

b) Per calcolare la legge di (X, 2Y ) basta osservare che X e 2 Y sono ancora v.a. indipendenti. La prima N(0, 1) mentre la seconda N(0, 2). Dunque la densit congiunta

1
2
2
g(x, y) = ex /2 ey /4 .
2 2

Avremmo anche potuto osservare che il vettore aleatorio (X, 2 Y ) segue una legge normale
multivariata, essendo una funzione lineare del vettore (X, Y ). La sua legge risulta determinata
dal fatto che la matrice di covarianza


1 0
K=
0 2

60

Parte 1: soluzioni

come risulta dal calcolo delle varianze di X e 2 Y e dal fatto che X e 2 Y sono indipendenti
e quindi non correlate.
Per il calcolo della legge di (X, X Y ) osserviamo che si tratta di una v.a congiuntamente
gaussiana, essendo una funzione lineare delle v.a. X, Y che sono esse stesse gaussiane.
La legge di (X, X Y ) resta dunque determinata una volta che se ne conoscano media e
matrice di covarianza. chiaro che E(X) = E(X Y ) = 0 e dunque anche (X, X Y )
centrata. Per la matrice di covarianza C basta osservare che
Var(X) = 1
Var(X Y ) = Var(X) + Var(Y ) = 2
Cov(X, X Y ) = Cov(X, X) Cov(X, Y ) = 1 .
| {z } | {z }
=0

=Var(X)=1

Dunque

C=

1
1

1
2

Avremmo anche potuto ricavare la matrice di covarianza C mediante la formula



 


1 1
1
1
1
0
=
C = AI A =
1 2
0 1
1 1
(I indica sempre la matrice identit
I=

1
0

0
1

che la matrice di covarianza del vettore (X, Y )).


In conclusione (X, X Y ) ha legge N(0, C).

Il calcolo delle marginali si fa immediatamente, poich sappiamo che X


N(0, 1), 2 Y
N(0, 2), X Y N(0, 2). In particolare le due v.a. (X, X Y ) e (X, 2 Y ) hanno le stesse
distribuzioni marginali ma leggi congiunte diverse.
Per calcolare la legge condizionale di X dato X Y = z si pu usare la definizione, secondo
la quale
g(x, z)
g X|XY (x |z) =
gXY (z)
dove g indica la densit congiunta di X e X Y , appena calcolata. Dunque
(1.11)

1
1 2
1
1
2
2
2
2
g X|XY (x |z) = e 2 (2x 2xz+z ) ez /4 = e(x xz 4 z ) .

In generale per conviene ricordare che per le leggi condizionali di variabili congiuntamente
normali valgono le (3.89) e (3.90), cio se U e Z hanno legge congiunta normale, allora la legge
condizionale di U dato Z = z ancora normale di varianza
2 = Var(U )

Cov(U, Z)2
Var(Z)

Esercizio 3.26

e media
= E(U ) +

61

Cov(U, Z)
(z E(Z)) .
Var(Z)

Nel nostro caso, in cui U = X e Z = X Y , la densit condizionale x g X|XY (x |z)


dunque normale di media = 2z e varianza 2 = 21 . Un calcolo diretto mostrerebbe che
lespressione di questa densit data proprio dalla (1.11). Questo secondo modo di derivare la
densit condizionale, che vale solo per le v.a. congiuntamente normali, molto pi pratico, ad
esempio perch fornisce immediatamente il valore della media condizionale, 2z , che altrimenti
avrebbe richiesto il calcolo diretto della media della densit data dalla (1.11).
c) Per mostrare che X Y e X + Y sono indipendenti si pu calcolare, con il teorema di
cambio di variabile, la legge congiunta di X Y e X + Y e vedere che la si pu spezzare nel
prodotto di due funzioni che dipendono ciascuna da una sola delle variabili. Ma in questo caso
sappiamo che le v.a. X Y e X + Y sono congiuntamente normali, essendo funzioni lineari
delle v.a. X, Y che sono congiuntamente normali.
Sappiamo inoltre che v.a. congiuntamente normali e non correlate sono indipendenti. Ora
Cov(X Y, X + Y ) = Cov(X, X) + Cov(X, Y ) + Cov(Y, X) + Cov(Y, Y ) = 0 .
| {z } | {z } |
{z
} |
{z
}
=Var(X)=1

=0

=0

= Var(Y )=1

e dunque X Y e X + Y sono non correlate e indipendenti. Il fatto che X Y e X + Y siano


non correlate si pu vedere anche calcolandone matrice di covarianza C con la formula


 

1 1
2 0
1 1
C = AI A =
=
0 2
1 1
1
1
Poich C diagonale le due v.a. sono non correlate.
Questo esercizio mette bene in evidenza alcuni fatti che rendono semplici i calcoli con le
leggi normali:
a) La propriet che la somma di v.a. (reali) normali indipendenti ancora normale con media
pari alla somma delle medie e varianza uguale alla somma delle varianze.
b) La propriet che trasformazioni lineari trasformano leggi normali in leggi normali. Questo
fatto particolarmente utile perch la legge cercata rimane determinata non appena si sappiano
calcolare matrice di covarianza e media (che in questo esercizio era sempre uguale a 0). Il calcolo
della matrice di covarianza si fa facilmente o calcolando una per una varianze e covarianze oppure
usando la formula che dice che se la v.a. m-dimensionale Z ha matrice di covarianza CZ e A
una matrice n m, allora la v.a. W = AZ ha matrice di covarianza CW = ACZ A (A la
trasposta), il che riduce il calcolo della matrice di covarianza a quello di un prodotto di matrici.
c) Per ultimo ricordiamo che esistono formule molto semplici che danno, per v.a. congiuntamente normali, le leggi condizionali (vedi le (3.89) e (3.90)). Esse in particolare danno
immediatamente il valore della media condizionale (che non altro che la media della legge
condizionale e che quindi data dalla (3.90)).

3.26
a) Calcoliamo la f.r. di T . Indichiamo con A levento il pezzo prescelto stato
prodotto dalla prima linea e con B levento il pezzo prescelto stato prodotto dalla seconda

62

Parte 1: soluzioni

linea. A e B hanno probabilit p e q rispettivamente, mentre, condizionalmente a A e B, T ha


legge esponenziale di parametri e rispettivamente. Dunque, ricordando lespressione della
f.r. delle leggi esponenziali si ha, per t 0
P(T t) = P(T t |A)P(A) + P(T t |B)P(B) =
= p(1 et ) + q(1 et ) = 1 pet qet .
Naturalmente la f.r. nulla per t 0. Derivando si ottiene la densit di T , che vale

t + qet se t > 0
f (t) = pe
0
altrimenti
e quindi

p
q
+

0
b) Si tratta di calcolare P(A|T > s). Con la formula di Bayes si trova
E(T ) =

P(A|T > s) =

t (pet + qet ) dt =

P(T > s |A)P(A)


pes
p

= s
=
s
P(T > s)
pe
+ qe
p + qe()s

Per s che tende allinfinito, ricordando che supponiamo > , questa probabilit tende a 1 e
dunque pi s grande e pi probabile che il componente provenga dalla linea A.
Questo in accordo con lintuizione: infatti la condizione > implica che i pezzi della
prima linea di produzione hanno in media vita pi lunga. Dunque era ragionevole aspettarsi
che pi il pezzo risulta longevo, pi probabile che provenga dalla prima linea.

3.27 a) Se Z e W sono i tempi desecuzione della prima e della seconda fase rispettivamente,
il tempo di esecuzione totale T = Z + W ; basta ora ricordare che la speranza matematica di
una v.a. esponenziale di parametro vale 1 , per cui
E(T ) = E(Z) + E(W ) =

1
1
+

b) Se = possiamo usare la propriet di somma delle leggi gamma: T dunque (2, )


e, per x > 0, ha densit
f (x) = 2 xex .
Se invece 6= calcoliamo la densit di T con la formula
Z +
f (x) =
f1 (t)f2 (x t) dt

dove f1 e f2 sono densit esponenziali di parametri e rispettivamente. Ricordando che le


densit esponenziali sono uguali a 0 per valori negativi della variabile, si ha
Z x
Z x
f (x) =
et e(xt) dt = ex
e()t dt =
0

=
e
(1 e()x ) =
(ex ex ) .

Esercizio 3.27

63

c) La probabilit che il programma non sia terminato ancora al tempo t + s sapendo che esso
non era terminato al tempo s
P(T > t + s |T > s) =

P(T > t + s)
1 F (t + s)
P(T > t + s, T > s)
=
=
P(T > s)
P(T > s)
1 F (s)

dove F la f.r. di T . Calcoliamola:


Z t

(ex ex ) dx =
(1 et )
(1 et ) =
F (t) =

0
et et
=1

dunque
P(T > t + s |T > s) =

e(t+s) e(t+s)
.
es es

Sostituendo i valori numerici si hanno i valori 0.42 per s = 1, 0.38 per s = 2.


d) La probabilit che la prima fase non sia ancora terminata, sapendo che il programma stesso
ancora in corso al tempo s, la probabilit condizionale P(Z > s | Z + W > s). Ora levento
{Z > s} contenuto nellevento {Z + W > s}, perch W comunque una quantit > 0.
Dunque, se 6= ,
P(Z > s, Z + W > s)
P(Z > s)
=
=
P(Z + W > s)
P(Z + W > s)
es
1 FZ (s)
= s
( )
=
1 F (s)
e
es

P(Z > s |Z + W > s) =

dove abbiamo utilizzato il fatto che Z esponenziale di parametro (la f.r. F di T = Z + W


stata calcolata in c)). Dunque
P(Z > s |Z + W > s) =

e()s

Possiamo ora analizzare il comportamento di questa probabilit condizionale per s grande.


Abbiamo due casi:
i) Se > (cio se in media lesecuzione della prima fase pi rapida della seconda) allora
e()s + e dunque P(Z > s |Z + W > s) 0 per s +.
ii) Se < allora e()s 0 e quindi P(Z > s |Z +W > s) 1 . Con i dati numerici
indicati la probabilit che la prima fase non sia ancora terminata tende a 23 per s +.
Se invece fosse = , lo svolgimento dellesercizio lo stesso, solo che ora la f.r. di Z
F (s) = 1 es (1 + s)
come afferma la formula (3.52) del libro. Dunque
P(Z > s |Z + W > s) =

es
1
1 FZ (s)
= s
=
1 F (s)
e (1 + s)
1 + s

64

Parte 1: soluzioni

che una quantit che tende a 0 per s .


3.28 La quantit P(X + Y t) che d la f.r. di X + Y pari allarea ombreggiata nella
Figura 1.8. Dunque
( 2
t
se 0 t 1
F (t) = 2 1
1 2 (2 t)2 se 1 t 2
.....
.....
.....
.....
.....
.....
.....
.....
.....
. . . . . . . . . ............
. . . . . . . . . . . . .........
. . . . . . . . . . . . . . .........
. . . . . . . . . . . . . . . . .........
. . . . . . . . . . . . . . . . . . .........
. . . . . . . . . . . . . . . . . . . . ..........
. . . . . . . . . . . . . . . . . . . . . . .........
. . . . . . . . . . . . . . . . . . . . . . . . .........
. . . . . . . . . . . . . ......
. .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .............
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .........
...
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .........
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .......
.....
.................................
.....
.................................
.....
.....
. . . . . . . . . . . . . . . . .
.....
....

x+y =t

(1, t 1)

Figura 1.8

e F (t) = 0 altrove. Derivando si ottiene la densit


f (t) =

se 0 t 1
se 1 t 2

t
2t

e f (t) = 0 per t al di fuori dellintervallo [0, 2]; f ha il caratteristico grafico a casetta della
Figura 1.9.
1

...
..... .....
..... .........
.....
.....
....
.....
.
.
.
.
.
.....
.....
.....
.....
.....
.
.
.
.....
...
.
.
.
.....
.
...
.
.....
.
.
.
.....
....
.
.
.
.....
...
.
.
.....
.
.
...
.....
.
.
.
.
.....
....
.
.
.....
.
...
.....
.
.
.
.
.....
...
.
.
.
.....
.
....
.....
.
.
.
.....
....
.
.
.
.....
.
.....

Figura 1.9

Naturalmente sarebbe stato possibile anche usare la Proposizione 3.23: la densit f di X + Y


data da
Z
(1.12)
f (t) = g(t s)g(s) ds
dove
g(t) =

1
0

se 0 t 1
altrimenti .

Esercizio 3.30

65

Per il calcolo esplicito dellintegrale della (1.12) abbastanza antipatico: la determinazione,


al variare di t, dei valori di s per i quali lintegrando vale 1 (esso pu valere solo 0 oppure 1)
poco agevole.

3.29
a) X e Y hanno distribuzione congiunta uniforme sul quadrato [0, 1] [0, 1]. La
probabilit richiesta P((X, Y ) A) dove A R2 la regione dei punti (x, y) tali che
|x y| > 21 . Cio larea della regione ombreggiata nella Figura 1.10, che vale 41 .
...
.....
.....
........................................
........................
.
. . . . . . . . ..
................................
..................
................
. . . . . ..
...................
...........
. ..
........
.....
....
.
.
.
.
...
.
1
.
.
.
..
.....
2
....

....
....
.....
.....
.....
.
.
.
.....
.......
.........
...........
..................
.
.
.
................
..................
....................
......................
.................................
.
.
.
.
...........................
.....
.....
.....

Figura 1.10

b) Calcoliamo la f.r. di Z. Se 0 t 1, allora P(Z > t) = P(|X Y | > t) non altro che
la probabilit che il punto (X, Y ) si trovi in una regione simile a quella della Figura 1.10 (solo
con il valore t al posto di 21 ). Dunque, sempre per 0 t 1,
P(Z > t) = (1 t)2 .
La f.r. di Z dunque
FZ (t) =

1 (1 t)2
0

se 0 t 1
altrimenti

per cui la densit fZ (t) = 2(1 t) per 0 t 1, fZ (t) = 0 altrimenti. La distanza media
tra X e Y quindi
Z 1
1
E(Z) = 2
t (1 t) dt =
3
0
3.30 Indichiamo con Y la v.a. che rappresenta il valore assunto da . La legge congiunta di
X, Y dunque data dalla densit mista
g(, k) = e e

k
,
k!

> 0, k = 0, 1, . . .

La legge di X la seconda marginale, cio


pX (k) =

Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011

g(, k) d =

k!

e e k d =

k!

e(+1) k d

66

Parte 1: soluzioni

dove k = 0, 1, . . . Dunque, a meno della costante, lintegrando una densit (k + 1, + 1).


Lintegrale vale dunque
(k + 1)
k!
=
( + 1)k+1
( + 1)k+1

da cui

pX (k) =

,
( + 1)k+1

k = 0, 1, . . .

Con un po dimmaginazione si riconosce una legge geometrica di parametro p = +1


. Ricor1p
1
dando che la media di una v.a. geometrica di parametro p p otteniamo E(X) = .
b) La legge condizionale di Y dato X = k si ottiene facendo il quoziente tra la densit
congiunta e la marginale di X: se > 0
k

e(+1) k!
g(, k)
( + 1)k+1 k (+1)
p Y |X ( |k) =
=
=
e
.

pX (k)
k!
k+1
(+1)

Cio la legge condizionale di Y dato X = k (k + 1, + 1). Quindi la media condizionale


k+1
vale +1
.
3.31 a) Naturalmente Y ha legge N(0, 1 + 2 ), per la regola sulla somma di v.a. normali
indipendenti. La legge congiunta di X e Y si pu calcolare osservando che (X, Y ) una funzione
lineare di (X, W ). Dunque anche (X, Y ) ha legge normale multivariata; per determinarla basta
calcolarne media e matrice di covarianza. Entrambe le componenti hanno media nulla
E(X) = 0,

E(Y ) = E(X + W ) = 0

mentre Var(X) = 1, Var(Y ) = 1 + 2 e


Cov(X, Y ) = Cov(X, X + W ) = Cov(X, X) + Cov(X, W ) = 1 .
| {z } | {z }
=0

=Var(X)

Quindi (X, Y ) ha matrice di covarianza

C=

1
1

1
1 + 2

La legge di Y risulta quindi individuata: N(0, C). Volendo, ci permette di calcolare la densit
congiunta (cosa che per non esplicitamente richiesta dallenunciato). Indicando z = (x, y)
essa infatti
1
1
1
e 2 hC z,zi .
f (z) =

2 det C
Ora det C = 2 mentre

1
= 2

1 + 2
1

1
1

Esercizio 3.32

67

e quindi
h 1
i
1
exp 2 ((1 + 2 )x 2 2xy + y 2 ) .
2
2
b) Sappiamo, vedi le (3.89) e (3.90), che la legge condizionale di X dato Y normale di
varianza
Cov(X, Y )2
1
2
Var(X)
=1
=
Var(Y )
1 + 2
1 + 2
e media
y
Cov(X, Y )
(y E[Y ]) =
E(X) +
Var(Y )
1 + 2
che quindi la speranza condizionale richiesta.
11
e per
c) Abbiamo visto nel punto precedente che la legge condizionale di X dato Y = y = 20
f (x, y) =

y
2
1 1
1
= 21 e varianza 1+
2 = 11 , ovvero che N( 2 , 11 ). Dunque
1+ 2
11
probabilit che X si trovi in [ 41 , 43 ] sapendo che Y = 20
pari alla probabilit che una v.a.
1 1
1 3
1 1
N( 2 , 11 ) si trovi in [ 4 , 4 ]. Ma se Z N( 2 , 11 ) allora Z della forma Z = 1 W + 21
11

2 = 0.1 normale di media

la
Z
dove W N(0, 1) e quindi

P 41 Z 43 = P

11
4


11
4

= P(0.82 Z 0.82) =
= 8(0.82) 8(0.82) = 0.58 .

3.32 a) Le v.a. X1 , X2 , X3 sono congiuntamente normali, dunque anche le v.a. U, V , W lo


sono, come funzioni lineari di v.a. congiuntamente normali. In particolare ciascuna delle tre
ha legge normale e per determinarla basta calcolarne media e varianza. Le tre v.a. hanno tutte
media nulla, mentre
Var(U ) = Var(2X1 X2 X3 ) = 4 Var(X1 ) + Var(X2 ) + Var(X3 ) = 6
Var(V ) = Var(X1 + X2 + X3 ) = Var(X1 ) + Var(X2 ) + Var(X3 ) = 3
Var(W ) = Var(X1 3X2 + 2X3 ) = Var(X1 ) + 9 Var(X2 ) + 4 Var(X3 ) = 14 .
b) Poich, come abbiamo osservato, U, V e W sono congiuntamente normali, le coppie sono
indipendenti se e solo se sono non correlate. Ora sappiamo che Cov(X1 , X2 ) = Cov(X1 , X3 ) =
Cov(X2 , X3 ) = 0, mentre Cov(Xi , Xi ) = Var(Xi ) = 1, i = 1, 2, 3. Dunque
Cov(U, V ) = Cov(2X1 X2 X3 , X1 + X2 + X3 ) =
= 2 Cov(X1 , X1 ) +2 Cov(X1 , X2 ) +2 Cov(X1 , X3 ) Cov(X2 , X1 )
|
|
|
{z
}
{z
}
{z
} |
{z
}
=1

=0

=0

=0

Cov(X2 , X2 ) Cov(X2 , X3 ) Cov(X3 , X1 ) Cov(X3 , X2 ) Cov(X3 , X3 ) =


{z
} |
{z
} |
{z
} |
{z
} |
{z
}
|
=1

=0

=0

=211=0

=0

=1

e quindi U e V sono indipendenti. Analogamente


Cov(U, W ) = Cov(2X1 X2 X3 , X1 3X2 + 2X3 ) = 2 + 3 2 = 3 6= 0
Cov(V , W ) = Cov(X1 + X2 + X3 , X1 3X2 + 2X3 ) = 1 3 + 2 = 0

68

Parte 1: soluzioni

per cui V e W sono indipendenti, mentre U e W non lo sono.


Alternativamente si sarebbe potuto ragionare nel modo seguente: (U, V , W ) si ottiene da
(X1 , X2 , X3 ) mediante la trasformazione lineare associata alla matrice
2 1 1
1
1
1
1 3
2

A=
cio

2 1 1
1
1
1
1 3
2

X1
X2
X3

U
V
W

Dunque il vettore (U, V , W ) ha legge congiunta normale e tutte le sue componenti sono centrate.
Poich la matrice di covarianza di (X1 , X2 , X3 ) la matrice identit, (U, V , W ) ha matrice di
covarianza
!
!
!
6 0
3
2 1
1
2 1 1

C = AA = 1
1 1 3 = 0 3 0
1
1
3 0 14
1 1
2
1 3
2
da cui si pu rispondere insieme alle questioni dei punti a) e b): U N(0, 6), V N(0, 3),
W N(0, 14) (gli elementi sulla diagonale di C sono le varianze di U , V e W ); inoltre U, V
e V , W sono coppie di v.a. indipendenti, mentre U e W non sono indipendenti (le covarianze
delle variabili si trovano, nella matrice di covarianza, fuori della diagonale).

3.33 a) Poich S = T +W , si tratta di calcolare la legge della somma di due v.a. esponenziali
indipendenti di parametri rispettivamente e . Se indichiamo con fT , fW le densit di T e W
rispettivamente, la densit fS di S si pu calcolare come indicato dalla Proposizione 3.23, cio
fS (x) =

fT (t)fW (x t) dt .

Il calcolo di questo integrale gi stato effettuato nel punto b) dellEsercizio 3.27 e d come
risultato

fS (s) =
(es es ) .

Il calcolo della legge congiunta di S e T si pu fare osservando che (T , S) = (T , T + W ).


Poich T e W sono indipendenti, la loro densit congiunta

z w se z 0, w 0
g(z, w) = e e
0
altrimenti .
La v.a. (T , S) quindi una trasformazione di (T , W ) tramite lapplicazione lineare associata
alla matrice


1 0
A=
1 1

Esercizio 3.33

69

e per il teorema di cambio di variabile negli integrali multipli la densit f di (T , S) data da


f (t, s) =
Ma det A = 1 e


1
g A1 st .
| det A|

A1 =

1
1

0
1


t 
e f (t, s) = g(t, s t). Quindi intanto f (t, s) = 0 a meno che non sia
per cui A1 st = st
0 t s (se fosse t > s allora sarebbe s t < 0 e dunque g(t, s t) = 0). Sostituendo
nellespressione di g a z e w i valori t e s t rispettivamente, otteniamo

t (st) se 0 t s
f (s, t) = e e
0
altrimenti .
b) La densit condizionale di T dato S = s , per definizione,
fT |S (t |s) =

f (t, s)

fS (s)

Sostituendo le espressioni per f e per fS calcolate in a) otteniamo per s > 0


fT |S (t |s) =

( )es ()t
e
es es
0

se 0 t s

altrimenti .

La speranza condizionale di T dato S = s dunque uguale a


s
|S = s) = ( )e
E(T
es es

t e()t dt .

Integrando per parti e semplificando



s  s
1
()s
()s
|S = s) = ( )e
E(T
e
+
(1

e
)
=
es es
( )2
1
s

=
()s

1e
Sostituendo i valori si ottiene

per s = 1.5
per s = 0.1

1.3889
0.0574

c) La retta di regressione di T rispetto a S y = ax + b, dove i valori di a e b sono dati dalle


(2.52) e (2.53). Dunque, poich Cov(T , S) = Cov(T , T ) + Cov(T , S) = Cov(T , T ) = Var(T )
a=

Cov(T , S)
Var(T )
=
=
Var(S)
Var(S)

1
2
1
2

1
2

2
2 + 2

70

Parte 1: soluzioni

mentre, con un po di semplificazioni,


b = E(T ) aE(S) =

2  1
1

1
2
+

= 2
2
+
+ 2

Calcolando il valore di y in corrispondenza di s = 1.5 e di s = 0.1, si trova


per s = 1.5
per s = 0.1

1.3960 (1.3889)
0.0099 (0.0574)

|S = s)
Si vede che per valori molto piccoli di s la retta di regressione e la funzione s E(T
sono abbastanza diverse.

3.34

a) Si vede subito che f una densit: poich si tratta di una funzione pari
Z

1
f (x) dx =
2

|x|

dx =

+
0

ex dx = 1 .

Si tratta del resto della densit di Laplace di parametro = 1, che sincontra anche negli Esercizi
3.40, 3.46, 3.55, 3.56, 3.58 e 3.63. Il grafico di questa densit si pu vedere nella Figura 1.11.
....
2 ..... ......

...
...
...
...
...
...
...
....
....
....
.....
.....
....
.....
......
.......
........
..........
..............
...........................
.............................................................
.........................................................................................

...
...
...
..
.
.
...
...
....
....
.
.
.
....
....
....
.....
.....
.
.
.
.
.
......
.........
...........
..................
.................................
.......................................................................................................................................

Figura 1.11

Calcoliamo la sua funzione caratteristica. Dato che x sin x una funzione dispari, mentre
x cos x pari,
X ( ) =

1
2

e|x| eix dx =

1
2

e|x| cos x dx =

ex cos x dx

e integrando due volte per parti


Z

Z
+

cos x

cos x dx = e
ex sin x dx =
0
0
0
Z +
Z +
+

x
2
x
2
1 + e sin x

e cos x dx = 1 +
ex cos x dx
e

da cui si ricava

X ( ) =

1 + 2

Esercizio 4.1

71

1
b1) 1+
2 una funzione integrabile su R; dunque, per il Teorema 3.82 dinversione
delle funzioni caratteristiche,
Z +
Z + ix
1
e
1
1
f (x) = e|x| =
eix X ( ) d =
d .
2
2
2 1 + 2

Scambiando x con si ricava


1

eix
dx = e||
1 + x2

dunque Y ( ) = e|| .
b2) Calcoliamo la funzione caratteristica di Z = 21 (Y1 +Y2 ): per i punti 1) e 3) del paragrafo
3.13,
Z ( ) = Y1 ( 2 ) Y2 ( 2 ) = e||/2 e||/2 = e|| .
Dunque 21 (Y1 + Y2 ) ha ancora legge di Cauchy.
Osserviamo che Y non derivabile in 0; daltra parte abbiamo visto nellEsercizio 3.4
che Y non ha speranza matematica finita. Si tratta quindi di un esempio di v.a. che non ha
speranza matematica finita e non ha funzione caratteristica derivabile.

4.1 Primo metodo. Calcoliamo media e varianza delle v.a.


2 (n) ha media n e varianza 2n (vedi la (3.49)),
 1
Xn = n = 1
n

1
2
Var n1 Xn = 2 2n =
n
n
E

1

1
n Xn :

ricordando che una v.a.

0.

Le v.a. n1 Xn , n = 1, 2, . . . hanno tutte la stessa media = 1 e varianza che tende a 0 per


n . Per la disuguaglianza di Chebyshev dunque per ogni > 0

1

 Var n1 Xn


=0
P n Xn 1 >
n
2

e ci, per definizione, implica che ( n1 Xn )n converge in probabilit alla costante 1. La convergenza ha luogo anche in legge (la convergenza in probabilit implica sempre quella in legge,
vedi lOsservazione 4.10).
Secondo metodo. Se (Zn )n una successione di v.a. indipendenti tutte di legge ( 21 , 21 ),
allora, per ogni n, Z1 + . . . + Zn ha legge 2 (n), cio la stessa di Xn ; dunque le due v.a.
(1.13)

1
n

Xn

1
n

(Z1 + . . . + Zn )

hanno la stessa legge. Ma di queste la seconda converge in probabilit alla media E(Z1 ) = 1
per la Legge dei Grandi Numeri. Dunque, per ogni > 0,






0
P n1 Xn 1 > = P n1 (Z1 + . . . + Zn ) 1 >
n

72

Parte 1: soluzioni

che, ancora, permette di affermare la convergenza in legge della successione ( n1 Xn )n alla


costante 1.
Il primo dei due metodi che abbiamo visto fornisce un criterio semplice per provare la
convergenza in probabilit verso una costante di una successione di v.a.: si calcola, per
ciascun termine media e varianza (cosa che spesso facile); se la media costante = e
la varianza tende a zero allora la disuguaglianza di Chebyshev permette di concludere che la
successione converge in probabilit alla costante .

4.2 a) Per la disuguaglianza di Chebyshev e ricordando che la varianza di una v.a. di Poisson
di parametro vale appunto ,
P(|X n | )

Var(X n )
= 2
2

b) Basta usare lapprossimazione normale nella forma (4.8):


 n 

.
P(|Xn | ) 28

c) La disuguaglianza di Chebyshev afferma che la probabilit in (4.17) maggiorata da

=1
n2
che non una stima particolarmente utile (che una probabilit sia pi piccola di 1 lo sapevamo
gi da prima. . . ). Con lapprossimazione normale invece
 n 

P(|Xn | ) 28
= 28(1) = 0.3173 .

Il risultato esatto (ottenuto, ad esempio, con uno dei software menzionati a pag. 45) 0.3173;
dunque in questo caso lapprossimazione normale d un valore preciso fino alle prime 4 cifre
decimali.
Non male per ricordare che la Disuguaglianza di Chebyshev ha applicazioni comunque
importanti (la Legge dei Grandi Numeri ne un esempio) ed vera per ogni valore di n,
mentre lapprossimazione normale , appunto, unapprossimazione e vale solo se n abbastanza
grande.

4.3 a) Poich X1 una v.a. (1, ) (cio esponenziale di parametro ), se indichiamo con
F1 la sua f.r.,
1

P X1 > 1 = 1 F1 ( 1 ) = e = e1 = 0.37 .
Per X3 sappiamo che la f.r. di una v.a. (3, ) data da


(t)2 
F3 (t) = 1 et 1 + t +
2

Esercizio 4.5

e quindi

73



P(X3 > 3 ) = e3 1 + 3 + 29 = 0.42 .

b) Usiamo il Teorema Limite Centrale: siano Z1 , Z2 , . . . delle v.a. indipendenti e tutte di


legge (1, ). Allora
Z1 + . . . + Zn (n, ) .
Osservando che
P

1
n Xn

>

proprio il valore della media di Xn e che Var(Xn ) =




n
,
2



= P Xn > n = P Xn n > 0 = P Z1 + . . . + Zn
Z + . . . + Z n

1
1
n

=P
>0
1 8(0) =
p
n
2
2
n/


>0 =

4.4 Se indichiamo con Xi la v.a. che rappresenta il risultato dello i-esimo lancio, cio la v.a.
che vale 1 se allo i-esimo lancio Marco vince e 0 altrimenti, allora il numero di volte che Marco
vince in 100 prove si modellizza con la v.a. X = X1 + . . . + X100 . Se la moneta equilibrata
le v.a. Xi hanno ciascuna legge di Bernoulli B(1, 21 ) e dunque media 21 e varianza 41 . Usando
lapprossimazione normale (4.7), la probabilit che Marco vinca meno () di 36 volte
P(X1 + . . . + X100 36) 8

 36.5 50 
5

= 8(2.7) = 0.0035 = 0.35% .

Una probabilit un po troppo piccola perch si possa pensare a semplice sfortuna. . .


In questo esercizio essenzialmente lapprossimazione normale si usa per stimare la f.r.
di una legge binomiale B(n, p) con n grande. La stessa idea pu servire per avere dei valori
approssimati di altre leggi di probabilit per le quali non ci sono formule semplici della f.r.
(Poisson, Gamma,. . . ).
4.5 Indichiamo con X una v.a. N(0, 1) (e quindi tale che X N(0, 2 )). Per il Teorema
Limite Centrale si ha
 (X + . . . + X )2

1
n
t =
n

 t


X1 + . . . + Xn
t

8 t 8 t

=P

n
P(Zn t) = P

Dunque le f.r. delle v.a. Zn convergono. Occorre ora verificare che il limite sia la f.r. di una
v.a. e individuarla. Ma

 t



t
X
= P( t X t ) = P(( X)2 t) .
8 t 8 t = P

Dunque Zn converge in legge verso la v.a. ( X)2 , che una v.a. ( 21 , 21 2 ) (Esempio 3.42).

74

4.6

Parte 1: soluzioni

a) Si ha

Z 2a
1
E(Xi ) =
x dx = a
2a 0
Z 2a
4
1
x 2 dx = a 2
E(Xi2 ) =
2a 0
3
a2
Var(Xi ) = E(X 2 ) E(X)2 =
3
b) Per il Teorema Limite Centrale

P(X1 + . . . + Xn > na + x n) =
q 
 q 
 X + . . . + X na
n
> x a32
1 8 x a32
P 1
q
a2 n
3

dove 8 indica al solito la f.r. di una legge N(0, 1). Con i valori numerici assegnati e le tavole
si ottiene

x=a
1 8( 3 ) = 1 8(1.732) = 0.041

x = 21 a 1 8( 21 3 ) = 1 8(0.866) = 0.807 .
4.7 Se indichiamo con Xi lerrore commesso nella i-esima addizione, allora lerrore complessivo X = X1 + . . . + X106 . Osserviamo che le v.a. Xi hanno densit (discreta)

10 se 0.5 1010 t 0.5 1010
f (t) = 10
0
altrimenti .
Esse hanno dunque media nulla (per simmetria, chi non ci crede pu calcolare lintegrale. . . ).
Inoltre
Z 0.51010
1
Var(Xi ) = E(Xi2 ) = 1010
t 2 dt =
1020 := 2 .
12
0.51010

Dunque con lapprossimazione normale e scrivendo n = 106 ,

P(0.5 107 X 0.5 107 ) = P(X 0.5 107 ) P(X 0.5 107 ) =
= P(X1 + . . . + Xn 0.5 107 ) P(X1 + . . . + Xn 0.5 107 )
8

 0.5 107 
 0.5 107 
8

n
n

Ora
 0.5 107 


= 8 0.5 107 103 1010 12 = 8( 3 ) = 8(1.732) = 0.958 .

n
 0.5 107 


= 8 0.5 107 103 1010 12 = 8( 3 ) = 8(1.732) = 0.041 .


8
n

Esercizio 4.9

75

e dunque la probabilit che la settima cifra sia significativa 0.958 0.041 = 0.917. Ripetendo
i calcoli per 0.5 108 si ha facilmente
P(0.5 108 < X 0.5 108 ) 8(0.173) 8(0.173) = 0.568 0.431 = 0.137 .
La probabilit che la settima cifra decimale sia corretta molto elevata, mentre per lottava non
si pu dire lo stesso.

4.8

a) Poniamo
Xi =

1
0

se lo i-esimo lancio ha dato 6


altrimenti .

Allora il numero totale di 6 in 900 lanci X = X1 + . . . + X900 , dove le v.a. Xi sono


5
indipendenti e di Bernoulli B(1, p), p = 61 . Poich E(Xi ) = 61 e Var(Xi ) = 16 65 = 36
, usando
lapprossimazione normale
P(X 180) = P(X1 + . . . + X900 > 179.5) 1 8

179.5 900
q
5
900 36

1
6

= 1 8(2.63) = 0.0044 = 0.44% .

b) Se un dado truccato allora il numero totale X di 6 ottenuti in 900 lanci si pu ancora


scrivere X = X1 + . . . + X900 , dove per ora le v.a. X1 , . . . , X900 sono di Bernoulli B(1, 29 ).
Dunque, ancora con lapprossimazione normale
P(X 180) = P(X1 + . . . + X900

179.5 900 29
> 179.5) 1 8 q
900 29 79

= 1 8(1.64) = 0.95 .

Dunque un dado truccato viene individuato con una probabilit del 95%.

4.9 a) Se X il numero di bit distorti, chiaro che X segue una legge B(1000, 0.01) (numero
di successi in 1000 prove indipendenti con probabilit di successo p = 0.01 in ogni singola
prova). Dunque E(X) = 1000 0.01 = 10. La probabilit che vi siano bit distorti
P(X 1) = 1 P(X = 0) = 1 (1 0.01)1000 1
(0.991000 = 4.3 105 ), mentre la probabilit che vi siano almeno 10 bit distorti
(1.14)


9 
X
1000
P(X 10) = 1 P(X 9) = 1
0.01i 0.991000i .
i
i=0

76

Parte 1: soluzioni

Per calcolarla conviene usare lapprossimazione normale:


P(X 10) = P(X > 9.5) = 1 P(X 9.5) =
 9.5 1000 0.01 
18
= 1 8(0.159) = 0.563 .

0.01 0.99 1000


A titolo di paragone la somma in (1.14), che viene ottenuta facilmente con un software adatto,
vale 0.543. In questo caso lapprossimazione normale discreta, ma non particolarmente
precisa.
b) Un singolo bit risulta distorto se almeno due delle tre ritrasmissioni vengono distorte.
Ognuna di queste lo con probabilit 0.01 e dunque il numero di ritrasmissioni distorte, per un
singolo bit, segue una distribuzione B(3, 0.01). La probabilit che almeno due ritrasmissioni
siano distorte per un singolo bit
 
 
3
3
2
0.013 = 0.012 (3 0.99 + 0.01) = 2.98 104 .
0.01 0.99 +
q :=
3
2
La probabilit che vi siano bit distorti ora
1 (1 q)1000 = 0.258 .
La probabilit che vi siano pi di 10 bit distorti, che abbiamo ottenuto in a), si potrebbe
calcolare anche approssimando la legge B(1000, 0.01) con una legge di Poisson di parametro
= 10 (ricordiamo che una densit B(n, p) per n grande e p piccolo si pu approssimare con
una densit di Poisson di parametro np, vedi lOsservazione 4.9). Un calcolo numerico avrebbe
dato
(1.15)

P(X 10) = 1 e10

9
X
10
i=0

i!

= 0.543

e 0.543 lo stesso valore che avremmo ottenuto se avessimo effettuato la somma in (1.14).
In questo caso dunque lapprossimazione con le leggi di Poisson d risultati migliori che
lapprossimazione normale. Questultima rimane comunque pi pratica perch il calcolo della
f.r. in (1.15) richiede comunque un certo lavoro numerico (inoltre, di solito, per le leggi di
Poisson non ci sono tavole, anche se i pacchetti software statistici sono in grado di fornire le f.r.
anche delle leggi di Poisson).
Si potrebbe pensare di usare lapprossimazione normale per stimare, nella situazione del
punto b), quale sia la probabilit che vi siano pi () di k bit distorti, per qualche valore di k
fissato. In realt in questo caso lapprossimazione normale non funziona bene. Ad esempio per
k = 2 la probabilit di avere pi (>) di un bit distorto 1 (1 q)1000 1000 q(1 q)999 =
0.0365 mentre lapprossimazione normale d
 1.5 1000 q 
18
= 1 8(2.2) = 0.0138

q(1 q) 1000
che unapprossimazione abbastanza scadente dal vero valore 0.0365. In effetti una regola
accettata in pratica per potere utilizzare lapprossimazione normale con leggi binomiali B(n, p)

Esercizio 4.12

77

che i numeri np e n(1p) siano entrambi pi grandi di 5, mentre in questo caso (p = 2.98104 )
np = 0.298.
4.10 a) Fissiamo lattenzione su un singolo pixel e indichiamo con Ai , i = 1, . . . , 8, levento
lo i-esimo bit non distorto e con A levento nessuno degli 8 bit distorto. Per le
ipotesi del problema, gli eventi A1 , . . . , A8 sono indipendenti e A = A1 . . . A8 . Dunque
P(A) = P(A1 ) . . . P(A8 ) = (1 p)8 = 0.9984.
b) Se poniamo
n
1 se lo i-esimo pixel distorto
Xi =
0 altrimenti
per i = 1, . . . , 131 072, allora il numero di pixel distorti nellimmagine X = X1 + . . . +
X131 072 . Inoltre le v.a. Xi sono di Bernoulli (possono prendere solo i valori 0 oppure 1)
B(1, 0.0016) (0.0016 = 1 0.9984 la probabilit che un singolo pixel venga distorto nella
trasmissione). Dunque
E(X) = 131 072 0.0016 = 209.7 .
Per calcolare la probabilit che vi siano pi di 200 pixel distorti si pu usare lapprossimazione
normale. In effetti la v.a. X la somma di n = 131 072 v.a. di Bernoulli di parametro q =
0.0016. Sappiamo che in questo caso una regola euristica per la validit dellapprossimazione
normale che i due numeri nq e n(1q) siano entrambi 5. Abbiamo gi visto che nq = 209.7,
mentre n(1 q) certo un numero molto grande. Lapprossimazione normale d quindi
P(X 200) = 1 P(X < 200) = 1 P(X 199.5) =
 199.5 nq 
=18
= 1 8(0.706) = 0.773 .
nq(1 q)

e varianza (+)2
4.11 a) Una v.a. Beta(, ) ha media +
(vedi il paragrafo 3.9).
(++1)
Dunque

,
Var(Xn ) =

E(Xn ) =
2
+
( + ) (n + n + 1)

Dunque le v.a. Xn hanno tutte la stessa media +


, mentre la loro varianza tende a 0 per
n . Come abbiamo visto nellosservazione successiva allEsercizio 4.1, ci implica, per
la disuguaglianza di Chebyshev,

P(|Xn

+ |

e dunque
Xn

Var(Xn )
0
n
2

4.12 Ricordiamo che vi sono vari modi per studiare il limite in legge: calcolando il limite
delle funzioni di ripartizione oppure delle funzioni caratteristiche, soprattutto.

78

Parte 1: soluzioni

...........
... ..
... ....
..
..
..
...
..
..
.. ....... ..... ...
..
... .......
..... ..
..
.....
..... .
.
.. .
.
......
.....
.... .
.
... ..
........
..............................................................
.
.
.
.
.
.
.
.
.
.............. . .....
.
....... .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
............. .
.
.
......
.............................
.......
...
..
.......
... ..... .................
.
.
......
.
.
.
.
.
.
.
.
....
.
.
.
.
.
... ....... ........................
.
.....
..
.
...
....
.....
....
.
.
.
.
.
.
.
...
..
.
.
.
.
.
.
...... ....... ....... .......................................
.
.
.
.
.
...
.....
.
.
.
.
.
.
.....
..
.
.
.
.....
.
.
.
.
..
.
.
.
.
..
..
.
.
.
.................................... ....... ....... .............................................................
....... ....... ....
.............

5
4
3
2
1

2
5

Figura 1.12 Andamento della densit Beta(n, n) per = 2, = 3 e n = 1 (tratto pieno), n = 3


(trattini) e n = 8 (puntini). La densit tende a concentrarsi intorno alla media.

Primo modo: funzioni di ripartizione. Se indichiamo con Fn la f.r. di Yn = n1 Xn , allora


Fn (t) = 0 per t < 0, mentre per t 0, calcolando la somma geometrica come indicato a
pag. 39 del libro,

Fn (t) = P(Xn nt) = P(Xn nt) =

nt 
X

k=0

k
n

nt+1
=1 1
n


e dunque per ogni t 0


nt+1



=
=
n
1 1
n

lim Fn (t) = 1 et .

Riconosciamo ora nel termine a destra la f.r. di una legge esponenziale di parametro . Dunque
Yn converge in legge ad una v.a. che ha questa distribuzione.
Secondo modo: funzioni caratteristiche. Ricordando lespressione della funzione caratteristica di una v.a. geometrica (Esempi 3.77 b) a pag.155), si ha
Xn ( ) =

n
i
n )e

1 (1

n(1 ei ) + ei

e dunque
Yn ( ) = Xn
Osservando che

lim n(1 ei/n ) = lim

n(1 ei/n ) + ei/n

1 ei/n

d i
e |=0 = i
d

Esercizio 4.14

79

si ha

n
i
che appunto la funzione caratteristica di una legge esponenziale di parametro .
Come si vede, in questo caso tutti e due i metodi si possono applicare in maniera semplice.
lim Yn ( ) =

4.13 Poniamo Sn = X1 + . . . + Xn . Per la Legge dei Grandi Numeri la v.a.


probabilit a E(X1 ) = . Possiamo scrivere

P(X1 + . . . + Xn n) = P n1 Sn 1 = Fn (1)
dove Fn indica la f.r. di

Sn
n .

Sn
n

converge in

La v.a. costante uguale a ha f.r. data da


F (t) =

0
1

se t <
se t .

Ora, se 6= 1, 1 un punto di continuit per F e poich la convergenza in probabilit implica


quella in legge (Osservazione 4.10)
n
0 se > 1
lim P(X1 + . . . + Xn n) = lim Fn (1) = F (1) =
n
n
1 se < 1 .

Se invece = 1 il valore 1 non un punto di continuit per F e questo ragionamento non basta,
perch la definizione di convergenza in legge e la Legge dei Grandi Numeri non permettono di
stabilire quanto valga il limite. Si ha per per il Teorema Limite Centrale
P(X1 + . . . + Xn n) = P(X1 + . . . + Xn n 0) =
X + . . . + X n

1
n
=P 1
0
8(0) =

n
2
n

(ricordiamo che stiamo supponendo = 1, per cui le v.a.


uguali a 1). In conclusione
(
0
lim P(X1 + . . . + Xn n) = 21
n
1
4.14

Xi hanno tutte media e varianza


se > 1
se = 1
se < 1 .

a) Calcoliamo la densit f di X1 : chiaro che la f.r. F



se x 1
F (x) = 1 P(X1 > x) = 1 x
0
se x < 1 .

Dunque la densit di X1 f (x) = F (x) = x (+1) per x 1, mentre f (x) = 0 per x < 1.
Quindi
Z +
Z +
E(X1 ) =
tf (t) dt =
t dt .

80

Parte 1: soluzioni

Si vede dunque che X1 ha speranza matematica finita se e solo se > 1 e in questo caso
E(X1 ) =
Inoltre
E(X12 ) =

1
+

t +1 dt

per cui la varianza finita solo se > 2. In questo caso si ha


E(X12 ) =

,
2

Var(X1 ) = E(X12 ) E(X1 )2 =

 2

2
1
( 2)( 1)2

b) Usiamo il metodo della funzione di ripartizione. Poich P(Yi 0) = P(Xi 1) = 0, la


densit di Yi nulla per t 0. Per t > 0 invece la f.r. G di Yi data da
G(t) = P(Yi t) = P(log Xi t) = P(Xi et ) = 1 et .
La densit di Yi si pu calcolare come al solito per derivazione. Qui per basta riconoscere che
G la f.r. di una legge esponenziale di parametro .
c) Osserviamo che
n
n
 1X
1X
log(Xi ) =
Yi .
log (X1 X2 . . . Xn )1/n =
n
n
i=1

i=1

Dunque per la Legge dei Grandi Numeri


log (X1 X2 . . . Xn )1/n
e quindi (Osservazione 4.2)

(X1 X2 . . . Xn )1/n

E(Y1 ) =

e1/ .

4.15 La v.a. X1 X2 il prodotto di due v.a. indipendenti, aventi entrambe speranza matematica finita. Sappiamo quindi (Proposizioni 3.38 oppure 2.41) che anchessa ha speranza matematica finita e anzi che
E(X1 X2 ) = E(X1 )E(X2 ) = 0 .
Anche la v.a. X12 X22 il prodotto delle due v.a. X12 e X22 che sono indipendenti ed hanno
speranza matematica finita (perch per ipotesi X1 e X2 hanno varianza finita). Dunque
Var(X1 X2 ) = E(X12 X22 ) = E(X12 )E(X22 ) < + .

Esercizio 4.16

81

b) Le v.a. X1 X2 , . . . , X2n1 X2n sono indipendenti, centrate ed hanno varianza finita. Inoltre
hanno tutte la stessa legge. Dunque per la Legge dei Grandi Numeri
Vn =

1
(X X + X3 X4 + . . . + X2n1 X2n )
n 1 2

E(X1 X2 ) = 0 .

c) La normalizzazione con n invece che n deve far pensare al Teorema Limite Centrale:
applicandolo alle v.a. X1 X2 , . . . , X2n1 X2n , che sono indipendenti, equidistribuite e centrate
si ha
X1 X2 + . . . + X2n1 X2n
+
N(0, 1)

n
n
+

dove 2 = Var(X1 X2 ). Dunque Vn N(0, 2 ).


d) Le v.a. X14 , X24 , . . . hanno tutte varianza finita (perch E(Xi8 ) < + per ipotesi) e sono
indipendenti. Per la Legge dei Grandi Numeri dunque
Wn =

1 4
(X + . . . + Xn4 )
n 1

E(X14 ) .

Inoltre si pu scrivere
Un =

X12 + . . . + Xn2
X14 + . . . + Xn4

1
2
n (X1
1
4
n (X1

+ . . . + Xn2 )

+ . . . + Xn4 )

e dunque per la Legge dei Grandi Numeri applicata al numeratore e al denominatore


Un

E(X12 )

E(X14 )

(vedi lOsservazione 4.2).

4.16 Le v.a. Zn che intervengono in questo esercizio sono definite come il minimo delle v.a.
X1 , . . . , Xn . Siamo dunque in una situazione in cui facile calcolare le f.r., mentre lo stesso
non si pu dire per le funzioni caratteristiche. Nel calcolo dei limiti in legge proposti useremo
quindi piuttosto il metodo basato sulle f.r.
a) Si ha, per 0 t 1,
P(Zn > t) = P(X1 > t, . . . , Xn > t) = (1 t)n
e dunque la f.r. Fn di Zn vale
Fn (t) = 1 P(Zn > t) =

(0

1 (1 t)n
1

per t < 0
per 0 t 1
per t > 1 .

82

Parte 1: soluzioni

chiaro quindi che


lim Fn (t) =

per t 0
per t > 0 .

0
1

Ora la f.r. di una v.a. che assume il solo valore 0 con probabilit 1

0 per t < 0
F (t) =
1 per t 0 .
Poich Fn (t) F (t) per n per ogni t, tranne che per t = 0, che non punto di continuit
per F , possiamo concludere che Zn converge in legge ad una v.a. che ha questa distribuzione.
La convergenza ha luogo anche in probabilit, dato che, se > 0,
P(|Xn | ) = P( Xn ) = Fn () Fn ()

e dunque
P(|Xn | > ) = 1 P(|Xn | )

b) Se Gn la f.r. di nZn , allora, se 0 t n,


Gn (t) = P(nZn t) = P Zn

t
n

= Fn

Basta ora applicare un limite ben noto per avere



0
lim Gn (t) = G(t) =
1 et
n

t
n

=1 1


t n
n

per t 0
per t > 0 .

Dunque la successione (nZn )n converge ad una legge esponenziale di parametro = 1. Per n


grande dunque

P min(X1 , . . . , Xn ) n2 1 e2 = 0.86 .
4.17 a) Le v.a. X1 , X2 , . . . assumono tutte due valori, il che rende semplice lo studio della
convergenza in legge sia con le funzioni di ripartizione che con le funzioni caratteristiche.
Usando questultimo metodo vediamo che
Xn ( ) = (1 n )ei0 + n ein = 1 n + n ein
e quindi, se n 0 per n ,
Xn ( )

1,

per ogni

che la funzione caratteristica di una v.a. X che assume il valore 0 con probabilit 1.
b) Le v.a. del punto a) hanno media e varianza date da
E(Xn ) = (1 n ) 0 + n n = nn

E(Xn2 ) = (1 n ) 02 + n n2 = n2 n

Var(Xn ) = E(Xn2 ) E(Xn )2 = n2 n (1 n )

Esercizio 4.19

83

Dunque se, ad esempio, n = n1 allora Var(Xn ) +, mentre la varianza del limite in legge
X uguale a zero. Ed inoltre E(Xn ) 1, mentre E(X) = 0.
4.18

a) Poniamo
n

1 se lo i-esimo bit vale 1


0 altrimenti .
Il numero totale di bit che assumono il valore 1 nel segnale Sn = X1 + . . . + Xn , mentre la
proporzione di bit che valgono 1 p n = n1 Sn . Per il Teorema Limite Centrale la v.a.
Xi =

S 0.2 n
n
n(0.2 0.8)
segue una legge che, per n abbastanza grande, approssimativamente N(0, 1). Dunque, con
lapprossimazione normale,

 S 0.2 n
(0.23 0.2) n 
>
P(p n > 0.23) = P(Sn > 0.23 n) = P n

n(0.2 0.8)
0.2 0.8
 0.03 n 
18
0.16
sostituendo il valore numerico n = 1000 si ottiene 1 8(2.37) = 0.009.
b) Poniamo per comodit
ripetendo il ragionamento del punto a) e usando
p = 0.2. Allora
la (4.8) si ha, poich = p(1 p) = 0.16 = 0.4,


P(|p n p| > ) 2 1 8

 n 
40

 n 
= 28
40

Perch questa quantit sia pi piccola di = 4 103 occorre (dopo uno sguardo alle tavole)
che sia

n
2.88
40
ovvero n > (40 2.88)2 = 13271.
4.19 a) log Si assume i valori log(1 + n ) e log(1 + n ), entrambi con probabilit 21 . La
funzione caratteristica di Si dunque
( ) =




1  i log(1+ n )
i log(1+ )
n
+e
= cos log 1 +
e
2
n

La v.a. log Xn uguale a log(xt ) + log S1 + . . . + log Sn . La sua funzione caratteristica vale
dunque
 
n
t
n ( ) = ei log(x ) cos log 1 +
n

84

Parte 1: soluzioni

b) Nel calcolo del limite per n di n ( ) siamo quindi ricondotti ad una forma 1 .
Ricordando gli sviluppi di Taylor per x e z vicini a 0
x2
+ o(x 2 )
2
log(1 + z) = z + o(z)

cos x = 1
si ottiene facilmente, per n ,

e dunque

Dunque



1 2 2
+o
cos log 1 +
=1
2 n
n
 
n 
1 2 2
cos log 1 +
+o
= 1
2 n
n
n ( )

ei log(x ) e

2
n

n

2
n

= e

2 2 /2

2 2 /2

Se ne deduce che log(Xn ) converge in legge ad una v.a. normale di media log(xt ) e varianza
2.
+
c) Sia Z una v.a. normale N(log(xt ), 2 ). Abbiamo appena visto che log Xn Z, dunque,
poich la f.r. di Z continua,
P(log Xn x)

P(Z x)

P(Z log x) = P(eZ x)

per ogni x R. Da ci si ricava


P(Xn x) = P(log Xn log x)

Dunque Xn converge in legge ad una v.a. lognormale di parametri log(xt ) e 2 .


2
La media di questa legge xt e /2 . Hanno quindi un rendimento medio maggiore gli effetti
finanziari per cui 2 grande.
Uno sguardo allandamento delle densit lognormali, come nella Figura 1.4, fa per pensare
che il valore medio non sia forse qui il criterio giusto di valutazione.

4.20 a) Per provare una convergenza in legge abbiamo a disposizione due metodi: quello
della funzione di ripartizione e quello delle funzioni caratteristiche. In questo caso, dato che
le funzioni caratteristiche delle leggi normali sono ben note, questultimo probabilmente il
metodo pi semplice. Infatti
2 2 /2

Xn ( ) = eibn en

e|ib e
{z

2 2 /2

f.c. di una v.a.

N(b, 2 )

Esercizio 4.20

85

Anche il metodo delle funzioni di ripartizione comunque non crea problemi: basta ricordare
che se 8b, 2 e 8 indicano le f.r. di v.a. N(b, 2 ) e N(0, 1) rispettivamente, allora si ha
8b, 2 (t) = 8
e dunque, poich 8 continua,
8bn ,n2 (t) = 8

t b 
n
n

t b

t b
= 8b, 2 (t) .

b1) Cominciamo con losservare che X1 ha legge normale ( una funzione lineare-affine
della v.a. normale Z1 ) di media x e varianza 2 .
Anche X2 = X1 + Z2 normale, essendo la somma delle due v.a. X1 e Z2 , che sono
normali e indipendenti. Poich media e varianza sono date da
E(X2 ) = E(X1 ) + E(Z2 ) = 2 x
| {z }
=0

Var(X2 ) = Var(X1 ) + Var(Z2 ) = 2 2 + 2 .


se ne deduce che X2 N( 2 x, 2 (1 + 2 )).
b2) Lo stesso ragionamento, per ricorrenza, prova che Xn N( n x, 2 (1+ 2 +. . .+ 2n )):
supponiamo che ci sia vero per un valore n e dimostriamolo per n + 1. Poich Xn+1 =
Xn + Zn+1 e le due v.a. Xn e Zn+1 sono indipendenti e entrambe di legge normale, anche
Xn+1 ha legge normale. Restano da controllare i valori della media e della varianza di Xn+1 :
E(Xn+1 ) = E(Xn ) + E(Zn ) = n x = n+1 x
| {z }
=0

Var(Xn+1 ) = Var(Xn ) + Var(Zn ) = 2 2 (1 + 2 + . . . + 2n ) + 2 =


= 2 (1 + 2 + . . . + 2(n+1) ) .

Poich || < 1 abbiamo (vedi il riquadro a pag. 39)


nx

2 (1 + 2 + . . . + 2n )

1 2
2

e per il punto a) (Xn )n converge in legge ad una v.a. N(0, 1


2 ).

b3) Con i valori numerici assegnati Xn converge ad una v.a. N(0, 43 ). Dunque per n grande
q
Xn ha approssimativamente la stessa legge di 43 Z, dove Z N(0, 1) e quindi
q 

q 
 q 
P(|Xn | 1) = P |Z| 43 8 43 8 43 =
= 8(0.866) 8(0.866) = 0.807 0.193 = 0.614 .

86

Parte 1: soluzioni

5.1 a) Le probabilit di transizione in due passi si possono calcolare facendo il prodotto di


matrici P 2 = P P , che d

(2)
P 2 = (pij )ij =

7
16
5
16
3
8
13
36

9
16
7
16
5
8
19
36

0
1
4

0
0

.
0
1
9

(2)

Dunque si in 2 dopo due passi con probabilit p22 = 41 partendo da 2 e con probabilit
(2)
p32 = 0 partendo da 3.
b) Sappiamo che uno stato i transitorio se esso comunica con uno stato j che per non
comunica con i; questa una condizione sufficiente per la transitoriet di uno stato, che anche
necessaria se per di pi la catena, come in questo caso, finita. Uno stato ricorrente se non
transitorio.
La determinazione di ricorrenza e transitoriet consiste quindi nel verificare, per ogni stato i,
con quali altri stati esso comunica e se questi altri stati a loro volta comunichino con i.
Ora partendo da 1 si pu solo restare in 1 oppure andare in 3; invece partendo da 3 si pu solo
restare in 3 oppure passare in 1. Gli stati 1 e 3 costituiscono quindi una classe chiusa e sono
ricorrenti, poich non soddisfano alla condizione di transitoriet che abbiamo appena ricordato
(non comunicano con un altro stato j che non comunica con loro).
Invece lo stato 2 comunica sia con 1 che con 3 che, come abbiamo visto, non comunicano con
2 che quindi transitorio. Per lo stesso motivo anche 4, che comunica con 1 e 3, transitorio.
Partendo da 2 la catena pu restare in 2 oppure passare in uno degli stati 1 oppure 3. In questa
eventualit la catena non torner mai pi in 2, perch abbiamo visto che 1 e 3 costituiscono una
classe chiusa. Dunque la sola possibilit di essere in 2 dopo 12 passi consiste nel restare in 2 in
(12)
tutte le 12 transizioni; quindi la probabilit richiesta p22 = 2112 .
c) La nuova matrice di transizione
1

4
1
4
1
2

0
1
2

0
1
3

3
4
1
4
1
4
1
3

.
1

4
1
3

Ma ora si vede facilmente che tutti gli stati comunicano tra loro, e sono quindi ricorrenti.

5.2 a) Abbiamo gi ricordato che uno stato i transitorio se esso comunica con uno stato j
che a sua volta non comunica con i.
1 comunica con 2 (p12 = 21 > 0) ma 2 non comunica con 1 (in effetti la probabilit pi1
uguale a 0 per ogni stato i) e dunque 1 transitorio.
4 comunica con 4 e 5 e lo stesso vale per 5; 4 e 5 sono dunque ricorrenti e costituiscono
una classe irriducibile.

Esercizio 5.2

87

2 comunica con 4 che, come abbiamo visto, non comunica con 2: 2 transitorio.
3 comunica con 2 che comunica con 4. Dunque 3 comunica con 4, che per non comunica
con 3: 3 transitorio. Avremmo anche potuto osservare che 3 comunica con 2, che sappiamo
gi essere transitorio, e ci basta a stabilire la transitoriet di 3 (uno stato ricorrente non pu
comunicare con uno transitorio).
Osserviamo che in tutti questi ragionamenti non era importante conoscere i valori dei numeri
pij , ma solo se essi fossero o no > 0. In particolare la classificazione degli stati che abbiamo
ottenuta valida per ogni matrice della forma




0 0
0 0

0
0

0
0

0 0
0

0 0

dove gli asterischi indicano numeri qualunque, purch > 0. Per tutte le matrici di questa forma
gli stati 1, 2, 3 saranno transitori, mentre 4 e 5 ricorrenti.
b) Sappiamo che una distribuzione invariante data da dei numeri v1 , . . . , v5 , tutti 0, tali
che v1 + . . . + v5 = 1 e che siano soluzione del sistema di equazioni lineari
v1 p1j + . . . + v5 p5j = vj

j = 1, . . . , 5

ovvero in forma matriciale


(1.16)

(v1 , . . . , v5 ) p11

. . . p15
..
= (v1 , . . . , v5 ) .
.
. . . p55

p51

Sostituendo i valori di pij si tratta di risolvere il sistema composto dalle equazioni

(1.17)

1
2
1
2
1
2

v1 +
v1 +
v2 +

1
4
1
4
1
4
3
4

v2 +
v2 +
v4 +
v4 +

1
2
1
2
1
2
1
2

0 = v1
v3 = v2
v3 = v3
v5 = v4
v5 = v5

pi lequazione
v1 + v2 + v3 + v4 + v5 = 1 .
Questo sistema si semplifica per considerevolmente ricordando che una distribuzione invariante
sempre nulla sugli stati transitori. Dunque v1 = v2 = v3 = 0 e il sistema diviene
(1.18)

1
4
3
4

v4 +
v4 +

1
2
1
2

v5 = v4
v5 = v5

v4 + v5 = 1 .

88

Parte 1: soluzioni

Esprimendo v5 = 1 v4 dalla terza equazione e sostituendo nella prima, questa d


1
4

1
2

v4 +

1
2

v4 = v4

cio
1
2

e quindi v4 =

2
5

5
4

v4

e v5 = 1 v4 = 53 . Quindi
v1 = 0,

v2 = 0,

v3 = 0,

v4 = 25 ,

v5 =

3
5

una distribuzione invariante. Essa anche unica, perch il sistema (1.18) ammette solo questa
soluzione.
c) Gli stati 4 e 5 sono i soli stati ricorrenti. Sappiamo che una catena di Markov con probabilit
1 lascia prima o poi linsieme costituito dagli stati transitori. Quindi la probabilit di giungere
in {4, 5} uguale a 1.
Un errore molto comune nel calcolo della distribuzione invariante consiste nel considerare
il sistema
(1.19)

pj 1 v1 + . . . + pj N vN = vj

j = 1, . . . , N

(N il numero degli stati), cio in forma matriciale


p
11

pN1

. . . p1N v1 v1
..
.. = ..
.
.
.
vN
vN
. . . pNN

invece di quello corretto (1.16)


(1.20)

p1j v1 + . . . + pNj vN = vj

j = 1, . . . , N

cio nel considerare il sistema i cui coefficienti sono dati dalla matrice P invece che dalla sua
trasposta. C per un modo facile per accorgersi di questo errore: la soluzione del sistema
(1.19) infatti sempre data da v1 = . . . = vN = N1 , cio dalla distribuzione uniforme, come
facile accorgersi osservando che pj 1 + . . . + pj N = 1 (la somma degli elementi di ogni riga
della matrice di transizione vale 1).
Si pu per dimostrare che la distribuzione uniforme invariante se e solo se la matrice P
bistocastica, cio se e solo se anche la somma degli elementi di ogni colonna vale 1. In
conclusione: se trovate come distribuzione invariante la legge uniforme, verificate che P sia
effettivamente bistocastica, altrimenti rivedete i vostri conti, probabilmente avete commesso
lerrore di considerare il sistema (1.19) invece di quello corretto (1.20).
In pratica nel calcolo della distribuzione stazionaria occorre risolvere il sistema (1.20) con
in pi lequazione
(1.21)

v1 + . . . + vN = 1 .

Esercizio 5.3

89

Infatti (1.20) non ha soluzione unica (se v = (v1 , . . . , vN ) soluzione, allora anche v, R
soluzione). Ci vuole dire che tra le equazioni (1.20) ce n sempre almeno una che
linearmente dipendente dalle altre (nel caso di (1.18) la seconda equazione uguale alla prima).
Concretamente per trovare la distribuzione invariante occorre risolvere il sistema che si ottiene
dalla (1.20) eliminando una equazione che dipende dalle altre ed aggiungendo la (1.21). Nei
casi in cui c una sola distribuzione invariante in questo modo si ottiene un sistema che ha
soluzione unica.

5.3

a) La matrice di transizione di questa catena

P =

0
1p
p

p
0
1p

1p
p
0

La catena irriducibile perch, per ipotesi, sia p che 1 p sono numeri > 0 e dunque ogni
stato comunica con tutti gli altri. Per mostrare che la catena regolare basta mostrare che esiste
un n tale che la matrice P n abbia tutti gli elementi > 0. In questo caso basta n = 2: infatti
P2 =

2p(1 p) (1 p)2
p2
2
p
2p(1 p) (1 p)2
2
(1 p)
p2
2p(1 p)

Calcoliamo la distribuzione invariante. Prima per di lanciarsi nella risoluzione del sistema
lineare (che in questo caso in 3 incognite) conviene controllare che non vi siano scorciatoie,
come succede ad esempio con le matrici di transizione bistocastiche (per le quali anche la somma
degli elementi delle colonne sono = 1). In effetti questa la situazione e sappiamo dunque che
la distribuzione stazionaria quella uniforme v = ( 13 , 13 , 31 ).
b) Si ha
P(Xn = 1, Xn+1 = 2) = P(Xn+1 = 2|Xn = 1)P(Xn = 1) =
= p12 P(Xn = 1) = pP(Xn = 1) .
Poich per n grande P(Xn = 1) 13 , P(Xn = 1, Xn+1 = 2)

p
3.

Allo stesso modo

P(Xn = 2, Xn+1 = 1) = P(Xn+1 = 1|Xn = 2)P(Xn = 2) = p21 P(Xn = 2)

1p

c) Perch la catena sia reversibile occorre che sia vi pij = vj pj i per tutti gli stati i, j . In
questo caso i valori vi della distribuzione stazionaria non dipendono da i. Dunque abbiamo la
reversibilit se pij = pj i per ogni i, j , cio se e solo se la matrice di transizione simmetrica.
Uno sguardo a P e si vede subito che ci si verifica se e solo se p = 21 (che anche il valore
per cui le due probabilit calcolate in b) sono uguali).

90

Parte 1: soluzioni

5.4 a) Il problema si pu chiaramente modellizzare con una catena di Markov del tipo della
rovina del giocatore, avente cio come insieme degli stati E = {0, 1, . . . , 1001} e matrice di
transizione
(
p se j = i + 1
pij = q se j = i 1
0 altrimenti
18
19
se 0 < i < 1001 dove p = 37 , q = 37 , mentre invece gli stati i = 0 e i = 1001 sono assorbenti.
Si vede subito che tutti gli stati, tranne 0 e 1001, sono transitori, poich comunicano con gli
stati assorbenti 0 e 1001 che non comunicano con altri stati. Dunque per n la catena
converge (viene assorbita) in 0 oppure in 1001. Se indichiamo con i la probabilit di passaggio
in 0 della catena con stato iniziale i allora la probabilit che il giocatore vinca 1 1000 . Le
formule per le probabilit di passaggio della rovina del giocatore danno
i =

i + . . . + 1000
1 + . . . + 1000

19
. Per calcolare 1000 conviene effettuare qualche manipolazione algebrica
dove = pq = 18
per evitare gli errori di arrotondamento:

1000 =

1000
1
1 1
1
=
=

= 0.053
1000
1000
1001
1 + ... +

+ ... + 1
1
19

( 1001 = 3.33 1024 ). Quindi la probabilit che il giocatore vinca 1 0.053 = 0.947.
Invece con probabilit del 5.3% il giocatore finisce rovinato.
b) La v.a. Y pu assumere i soli valori 0 oppure 1001, poich sappiamo che con probabilit
1 il gioco finisce dopo un numero finito di giocate. Pi precisamente, considerando come stato
iniziale i = 1000
P(Y = 0) = 1000 = 0.053
P(Y = 1001) = 1 1000 = 0.947 .

Quindi

E(Y ) = 0 0.053 + 1001 0.947 = 947.9 .

In media dunque, come ci si poteva aspettare, il giocatore perde (alla fine ha un capitale inferiore
a quello iniziale).

5.5 Il problema in realt pi difficile in questo tipo di esercizi consiste nella modellizzazione
del problema, cio nello scrivere la matrice di transizione della catena di Markov da usare come
modello. Ci del resto si pu fare in molti modi. In questo caso il pi semplice consiste nel
considerare una catena di Markov con 6 stati:
1 A tiene il gioco
2 B tiene il gioco
3 C tiene il gioco
4 A vince
5 B vince
6 C vince .

Esercizio 5.6

91

Gli stati 4, 5, 6 saranno assorbenti, il che equivale a dire che il gioco si ferma non appena un
giocatore vince. Se supponiamo che A, B, C siano seduti in senso antiorario intorno al tavolo,
dovr essere
p11 =
p12 =
p13 =
p14 =

3
8
3
8
1
8
1
8

(probabilit che il giocatore A conservi il gioco)


(probabilit che A passi il gioco a destra)
(probabilit che A passi il gioco a sinistra)
(probabilit che A vinca)

p15 = p16 = 0 (B e C non possono vincere in un passo se A a tenere il gioco) .


Le relazioni precedenti determinano la prima riga della matrice di transizione (in esse 83 la
probabilit di ottenere 2 teste e una croce e anche quella di ottenere una croce e due teste, mentre
1
8 la probabilit di tre teste o tre croci). Le altre righe si determinano in maniera analoga. La
matrice di transizione risulta

3 3 1 1
0 0
8
8
8
8
1 3 3 0 1 0

8 8 8
8

3 1 3
8 8 8 0 0 81

P =

0 0 0 1 0 0

0 0 0 0 1 0
0

La probabilit che il giocatore che inizia il gioco vinca chiaramente la stessa qualunque sia il
giocatore che inizia. Dunque questa probabilit la stessa che la probabilit di assorbimento
in 4 partendo da 1. Il calcolo di i =probabilit di assorbimento in 4 partendo da i, si effettua
risolvendo il sistema (5.9) che qui diventa
i = pi4 + pi1 1 + pi2 2 + pi3 3
e cio
1 =

1
8

2 =
3 =
La soluzione del sistema 1 =
che inizia il gioco vinca 11
26 .

11
26 , 2

3
8
1
8
3
8

1 +
1 +
1 +

7
26 , 3

3
8
3
8
1
8

2 +
2 +
2 +

8
26 .

i = 1, 2, 3
1
8
3
8
3
8

3
3
3 .

Dunque la probabilit che il giocatore

5.6 a) Indichiamo con Xn il numero di palline nere nellurna dopo n estrazioni.


Se Xn = 1 nellurna si trovano 1 pallina N e 2 R e da essa verr dunque estratta una pallina
N con probabilit 13 ed una pallina R con probabilit 23 ; dunque Xn+1 = 0 con probabilit 13 e
Xn+1 = 2 con probabilit 23 .
Ripetendo questo ragionamento si vede che

92

Parte 1: soluzioni

se Xn = 2 allora Xn+1 = 1 con probabilt 21 e Xn+1 = 3 con probabilit 21 ;


se Xn = 3 allora Xn+1 = 4 con probabilit 25 e Xn+1 = 2 con probabilit 35 .
Gli stati 0 e 4 vengono scelti assorbenti in quanto corrispondono alla fine della partita. In
conclusione la matrice di transizione
0

0 1
1
1
3

2 0

3 0
4 0

0
0

1
2

0
0

0
0

2
3

1
2

3
5

0
0

0
0

0 .

2
5
1

b) Si richiede di calcolare P2 (X3 2) (P2 la probabilit partendo dallo stato 2). Ricordiamo
(n)
che se pij indica la probabilit di fare una transizione in n passi da i a j , allora Pi (Xn = j ) =
(n)

pij . Dunque

(3)

(3)

(3)

P2 (X3 2) = P2 (X3 = 2) + P2 (X3 = 3) + P2 (X3 = 4) = p22 + p23 + p24 .


(3)

Le probabilit pij si determinano calcolando il prodotto P 3 = P P P della matrice di


transizione per se stessa 3 volte. Un calcolo paziente d

3
P =

1
4
9
1
6
1
10

0
0

0
19
45

0
0

19
60

19
60

19
50

2
15
1
5
13
50

19
dunque la probabilit che vi siano almeno due palline N nellurna dopo tre estrazioni 60
+ 15 =
31
60 (bisogna guardare la terza riga, perch gli stati sono numerati a partire da 0). Attenzione
anche a non confondere P2 (probabilit partendo dallo stato 2) con P 2 (matrice di transizione
in due passi).
c) La probabilit richiesta non altro che la probabilit di assorbimento in 4 partendo da 2. Se
i la probabilit di assorbimento in 4 partendo da i, allora i numeri 1 , 2 , 3 sono soluzione
del sistema lineare
1 = 23 2

2 =
3 =

1
2
2
5

1 +
+

3
5

1
2

2 .

4 6 8
, 11 , 11 ) e quindi la probabilit che A vinca 2 =
La soluzione ( 11
6
5
vinca sar invece 1 11
= 11
. Il giocatore A favorito.

6
11 .

La probabilit che B

Esercizio 5.7

93

d) Se indichiamo con i il tempo medio di assorbimento in {0, 4} partendo da i, allora i numeri


i , i = 1, 2, 3 sono soluzione di
1 = 1 +
2 = 1 +
3 = 1 +

2
3 2
1
2 1
3
5 2

1
2 3

60 47
Il sistema ha per soluzione ( 51
11 , 11 , 11 ). Poich supponiamo di partire inizialmente dallo stato
2 (due palline nere nellurna), la partita dura in media 60
11 = 5.45 estrazioni.

5.7

a)

r
q

0
p

p
r
q
0
0
0

0
p
r
q
0
0

0
0
p
r
q
0

0
0
0
p
r
q

q
0

0
.
0

p
r

b) Ricordiamo che, per definizione, una catena irriducibile se tutti gli stati comunicano tra
loro. Supponiamo che sia p > 0. Allora lo stato 1 comunica ( ) con 2. Poich 2
3 per
lo stesso motivo, anche 1
3. Ripetendo lo stesso ragionamento vediamo che 1 comunica
con 4, 5, . . . , N. Dunque 1 comunica con tutti gli altri stati. Lo stesso ragionamento si pu
ripetere per ogni altro stato, ottenendo che tutti gli stati comunicano tra loro e quindi la catena
irriducibile. Lo stesso ragionamento permette di provare lirriducibilit nellipotesi che sia
q > 0.
c) Ricordiamo che una matrice di transizione regolare se esiste un numero m tale che P m
abbia tutti i suoi elementi > 0; una condizione semplice (ma solo una condizione sufficiente)
che la catena sia irriducibile e vi sia almeno un elemento sulla diagonale di P che sia > 0.
Se uno almeno tra i numeri p e q > 0 abbiamo visto che la catena irriducibile; se per di pi
r > 0, dato che tutti gli elementi della diagonale di P sono uguali a r (come si vede anche dal
punto a)), sono soddisfatte le condizioni del criterio di regolarit: catena irriducibile ed almeno
un elemento sulla diagonale > 0; la catena quindi regolare.
Se invece r = 0 il criterio non soddisfatto ed occorre verificare direttamente la definizione,
(m)
cio se esista un numero m tale che pij > 0, tale cio che la probabilit di passare da i a j in
m passi, sia > 0 per ogni coppia di stati i, j .
Se N pari la catena non regolare. Basta osservare che ad ogni transizione da uno stato i
si pu passare solo in uno stato contiguo. Se il poligono ha un numero N pari di vertici, allora
se i uno stato di indice pari gli stati ad esso contigui hanno indice dispari e, viceversa, se i
di indice dispari gli stati ad esso contigui sono di indice pari (Vedi la Figura 5.8). Quindi se
si parte dallo stato iniziale i dispari, dopo un numero pari di passi ci troveremo certamente in
uno stato dispari, mentre dopo un numero dispari di passi la catena si trover in uno stato pari.

94

Parte 1: soluzioni

Quindi, nellesempio dellesagono, la matrice di transizione in m passi P m sar della forma

0 0
0 0

0 0

0 0

0 0
0 0

0
0

0
0

oppure

0
0 0

0 0

0
0 0

0 0
0

0 0

0 0
0

a seconda che m sia dispari o pari rispettivamente. P m non pu dunque mai avere tutti i suoi
elementi > 0.
Se invece il numero di vertici N dispari, allora il ragionamento appena svolto non si pu
ripetere perch lo stato 1 contiguo sia a uno stato pari che a uno dispari. Del resto nellEsercizio
5.3, dove avevamo N = 3, si aveva r = 0 ma la catena era regolare. In realt si potrebbe
dimostrare che se il numero di vertici dispari, allora se p > 0, q > 0, la catena sempre
regolare (anche se r = 0).
d) facile rendersi conto che la matrice di transizione bistocastica. Dunque la distribuzione
uniforme i = N1 stazionaria. Poich con i valori di p, r, q assegnati la catena regolare,
questa anche lunica distribuzione invariante. Inoltre, per n grande
P(Xn = 1, Xn+1 = 2) = P(Xn+1 = 2|Xn = 1)P(Xn = 1) p12

1
p
=
N
N

Allo stesso modo si vede che P(Xn = 2, Xn+1 = 1) = Nq . La relazione di reversibilit


i pij = j pj i diviene qui p = q: la catena reversibile se e solo se sono uguali le probabilit
di spostarsi in senso orario e antiorario.

5.8 a) La descrizione dellevoluzione dello stato della stampante determina subito la matrice
di transizione che
0
1


0 1b
b
P =
.
1
a
1a
b) Se a = 0, b = 0 la matrice di transizione diventa


1 0
P =
0 1
e i due stati 0 e 1 sono assorbenti. La catena non dunque irriducibile e non pu essere regolare.
Se invece a = 1, b = 1 la matrice di transizione


0 1
.
P =
1 0
La catena ora irriducibile (gli stati comunicano), ma non pu essere regolare: ad ogni intervallo
di tempo essa cambia di stato con probabilit 1. Dunque se lo stato iniziale 0, la catena si

Esercizio 5.9

95

trover in 1 ai tempi dispari ed in 0 ai tempi pari. Non quindi possibile che P n possa avere
tutti i suoi elementi > 0. Se a = 1, b = 21 invece
P =

1
2

1
2

La catena regolare. Infatti essa irriducibile e vi almeno un elemento > 0 sulla diagonale.
Se infine 0 < a < 1, 0 < b < 1 la catena certo regolare perch gi P ha tutti i suoi elementi
> 0. In questultima situazione la probabilit che la catena si trovi nello stato 1 per n grande
si pu valutare approssimativamente con il valore 1 , dove = (0 , 1 ) la distribuzione
stazionaria, la cui unicit garantita dal Teorema di Markov 5.15. Essa si ottiene risolvendo il
sistema (5.9), pi la condizione 0 + 1 = 1. Cio il sistema lineare
(1 b)0 + a1 = 0
0 + 1 = 1

a
b
che ha come soluzione = ( a+b
, a+b
). Dunque la probabilit che la stampante sia occupata
b
ad un tempo n grande a+b . Coi valori numerici proposti si ottiene 1 = 0.7
1.1 = 0.636.
c) La catena irriducibile (abbiamo anzi visto che regolare). Dunque, per il Teorema
ergodico 5.28, N n converge in probabilit al valore della distribuzione stazionaria in 1, che
abbiamo calcolato in b). Con i valori numerici proposti la stampate risulterebbe dunque occupata
il 63.6% del tempo.

5.9 a) La v.a. D1 pu assumere i valori:


4 se le coccinelle si spostano entrambe in senso orario oppure entrambe in senso antiorario;
2 se la prima si sposta in senso orario e la seconda in senso antiorario oppure, viceversa, la
prima in senso antiorario e la seconda in senso orario.
Poich ognuna delle coccinelle sceglie una delle due eventualit con probabilit 21 e in maniera
indipendente dallaltra, presto visto che
P(D1 = 4) =

1
2

P(D1 = 2) = 21

b) Abbiamo gi calcolato in a) che se Dn = 4 allora Dn+1 pu assumere i valori 4 oppure 2


con probabilit 21 .
Daltra parte se a un determinato istante la distanza tra le due coccinelle vale 2, allora allistante
successivo essa potr essere:
0 se esse si spostano luna verso laltra (cio una in senso orario e laltra in senso antiorario,
ma dalla parte in cui esse sono pi vicine (probabilit 41 ).
2 se esse si spostano entrambe in senso orario oppure entrambe in senso antiorario (probabilit
1
);
2
4 se esse si spostano in sensi opposti, ma allontanandosi (probabilit 41 ).
Se invece Dn = 0 (cio le due coccinelle si trovano sullo stesso vertice) allora Dn+1 = 0
se esse si spostano insieme nella stessa direzione (probabilit 21 ) oppure Dn+1 = 2 se esse si
spostano in direzioni opposte (probabilit ancora 21 ).

96

Parte 1: soluzioni

In conclusione abbiamo visto tre stati possibili, {0, 2, 4}, con la matrice di transizione:
0
1

4

0
1
4 .

1
2
1
2
1
2

0
2

P = 2 41
4 0

1
2

c) La matrice di transizione P regolare, perch tutti gli stati comunicano tra di loro ed
inoltre vi sono elementi non nulli sulla diagonale. Per il Teorema di Markov esiste dunque
ununica distribuzione invariante = (0 , 2 , 4 ) e la probabilit P(Dn = 0) per n grande si
pu approssimare con il valore 0 della distribuzione invariante nello stato 0. Calcoliamo la
distribuzione invariante. Essa soluzione del sistema = P , ovvero
0 =
2 =
4 =

1
2
1
2
1
4

0 +
0 +
2 +

1
4
1
2
1
2

2
2 +

1
2

0 + 2 + 4 = 1 .
La soluzione facile perch dalla seconda equazione si ha
2 =

1
2

0 +

1
2

2 +

1
2

1
2

4 =

(0 + 2 + 4 ) =

1
2

da cui si ricava facilmente 0 = 4 = 41 . Quindi per n grande le due coccinelle si trovano nello
stesso vertice con probabilit 41 (qualunque sia lo stato iniziale).
d) Per calcolare il tempo medio necessario perch le due coccinelle si trovino nello stesso
vertice possiamo ragionare cos: rendiamo lo stato 0 assorbente (il che equivale ad arrestare
la catena nel momento in cui essa giunge in 0). Se indichiamo con 2 , 4 i tempi medi di
assorbimento in 0 partendo da 2 e 4 rispettivamente, allora sappiamo che 2 e 4 sono soluzione
di
2 = 1 + 21 2 + 41 4
4 = 1 +

1
2 2

1
2 4

che ha soluzione 2 = 6, 4 = 8. Poich supponiamo che le coccinelle partano da vertici


opposti, il tempo medio perch esse si ritrovino sullo stesso vertice 4 = 8.
5.10
a) chiaro che, se chiamiamo 5 lo stato fine del programma, la matrice di
transizione

0 21 21 0 0
1 0 0 1 1
2
4
4

3
4 0 0 41 0 .

0 0 1 0 1
2

Esercizio 5.11

97

b) Se indichiamo con i il tempo medio di assorbimento in 5 partendo da i allora i numeri i


sono soluzione di
1 = 1 + 21 2 + 21 3
2 = 1 +
3 = 1 +
4 = 1 +

1
2 1
3
4 1
1
2 3

+
+

1
4 4
1
4 4

che ha per soluzione


 136 104 46 28 
,
,
,
= (9.06, 6.93, 9.2, 5.6) .
15 15 5 5
Il tempo medio partendo da 1 vale 9.06 ed minore di quello partendo da 3.
c) Con i nuovi valori la matrice di transizione diviene
0

1
2

1
2

1
2
1
4

0
0
0

0
0

1
4
3
4

1
4

1
2

1
2

mentre ora il sistema lineare che d i tempi medi di assorbimento


1 = 1 +
2 = 1 +
3 = 1 +
4 = 1 +

1
2
1
2
1
4
1
2

2 +
1 +
1 +

1
2 3
1
4 4
3
4 4

che ha per soluzione


 128 104 110 76 
,
,
,
= (6.09, 4.95, 5.23, 3.62) .
21 21 21 21
Quindi ora lesecuzione pi veloce, qualunque sia lo stato iniziale.

5.11

a) Se Xn = i ci vuole dire che nelle due urne la situazione la seguente


urna A
urna B

palline bianche
i
r i

palline rosse
r i
i
2

La probabilit che sia Xn+1 = i + 1 dunque uguale a (ri)


: infatti si ha Xn+1 = i + 1 solo
r2
se nellurna A viene scelta una pallina rossa (probabilit ri
)
e simultaneamente nellurna B
r

98

Parte 1: soluzioni

viene scelta una pallina bianca (ancora


che, per i = 1, . . . , r 1, deve essere

pij =

ri
r ).

Ripetendo questo genere di ragionamenti si vede

(ri)2

r2

2i(ri)

i2

r2
0

r2

se j = i + 1

se j = i

se j = i 1
altrimenti .

Naturalmente se i = 0 oppure i = r si ha p01 = 1, pr,r1 = 1.


b) Linsieme degli stati E = {0, 1, . . . , r}. Tutti gli stati comunicano tra loro: ogni stato
infatti comunica con i suoi vicini a destra e a sinistra; quindi se i, j E e supponiamo per
semplicit i < j , allora i
i+1
...
j , da cui segue che i
j . Daltra parte si ha
anche j
j 1
...
i e dunque j
i. Quindi ogni stato comunica con tutti gli stati
alla sua destra e con tutti quelli alla sua sinistra, ovvero tutti gli stati comunicano tra di loro e
la catena irriducibile. Poich vi almeno uno stato ricorrente (la catena finita), tutti gli stati
sono ricorrenti. Essa anche regolare perch nella matrice di transizione vi sono degli elementi
> 0 sulla diagonale.
c) Primo modo. Intanto osserviamo che la somma delle probabilit k , k = 0, . . . , n uguale
a 1 ( lultima delle (1.16)). Per mostrare che invariante proviamo prima di vedere se per
caso reversibile. Infatti, anche se la reversibilit solo una condizione sufficiente per la
stazionariet, daltra parte verificare la reversibilit pi facile. La distribuzione reversibile
se si ha k pkj = j pj k per ogni j, k E. Poich pkj uguale a 0 a meno che j non sia uno

dei tre numeri k 1, k, k + 1, basta fare la verifica per j = k + 1. Ma, ponendo c = 1/ 2n
n ,
 2 
 (r 1)! 2
r k 2
r
=c
r
k!(r k 1)!
k
2 

 (r 1)! 2

2
k+1
r
=c
=c
r
k!(r k 1)!
k+1

k pk,k+1 = c
k+1 pk+1,k

e dunque reversibile.
Secondo modo. Il lettore attento avr osservato che questa una catena di nascita e morte e
per queste catene ci sono delle formule esplicite per la distribuzione stazionaria (vedi lEsempio
5.26). La formula (5.31) afferma infatti che la distribuzione stazionarie (che per queste catene
sempre reversibile) data da

vi = Pi
h=0 h
dove

j =

p0 . . . pj 1
q1 . . . qj

Qui si ha
pi = pi,i+1 =

i2
(r i)2
, qi = pi,i1 =
r2
r2

Esercizio 5.13

99

Dunque
j =

 2
r 2 (r 1)2 . . . (r j + 1)2
r
=
j
12 2 2 . . . j 2

ed ora la (5.31) e lultima delle (1.16) permettono di concludere.

5.12 a) Se Xn = k, al tempo n + 1 nellurna vi saranno k 1 palline se la pallina prescelta


una delle k che si trovano nella prima urna, oppure k + 1 se la pallina prescelta e` una delle
m k che si trovano nellaltra urna. Si tratta dunque di una catena di nascita e morte su
E = {0, 1, . . . , m} con
mk
pk = pk,k+1 =
m
rk = pk,k = 0
k
qk = pk,k1 =
m
per k = 0, 1, . . . , m.
b) Trattandosi di una catena di nascita e morte, sappiamo (Esempio 5.26) che la distribuzione
stazionaria

i = Pm i
h=0 h
dove i numeri i sono definiti da 0 = 1 e
i =
Evidentemente si ha

 
p0 . . . pi1
m
m(m 1) . . . (m i + 1)
=
=
i
q1 . . . qi
1...i
m
X
h=0

h =

m  
X
m
h=0

= 2m

(vedi il riquadro a pag. 18) e dunque


i =

 
m m
2
i

Le distribuzioni stazionarie delle catene di nascita e morte sono sempre reversibili.


c) Se al tempo 0 la catena si trova in uno stato pari, al tempo successivo essa si trover in uno
stato dispari e poi in uno pari e cos via. Quindi, qualunque sia n, la matrice di transizione in n
passi P n non pu avere tutti gli elementi positivi: la catena non regolare.

5.13 a) Tutti gli stati comunicano tra loro, perch il grafo connesso; dunque la catena
irriducibile e la distribuzione stazionaria unica. Per calcolarla ci sono due possibilit: la prima
consiste nel risolvere il sistema lineare P = pi la condizione 1 +. . .+10 = 1. Non una
via troppo complicata perch per motivi di simmetria chiaro che deve essere 2 = 3 = 4 e
5 = 6 = 7 = 8 = 9 = 10 . Ci si riconduce quindi a un sistema lineare in tre incognite.

100

Parte 1: soluzioni

La seconda possibilit consiste nel ricordare che per una catena di Markov sui vertici di un
grafo c una formula esplicita della distribuzione stazionaria: se ki il numero di spigoli del
grafo che arrivano nel vertice i e k la somma dei numeri ki , allora
i =

ki
k

la distribuzione invariante. Qui ki uguale a 3 per 4 vertici e uguale a 1 per 6. Dunque k = 18.
1
La distribuzione invariante vale 16 per gli stati 1, 2, 3, 4 e 18
per gli altri.
La catena non regolare. Basta osservare che gli stati si possono suddividere in due classi:
la prima formata da 1, 5, 6, 7, 8, 9, 10 e la seconda da 2, 3, 4. Se la catena si trova in uno stato
della prima classe, allistante successivo si trover in uno della seconda e viceversa. Non
dunque possibile che esista n tale che, partendo da i, si possa essere in ognuno degli stati con
probabilit positiva.
b) Con le nuove regole di transizione la catena ora regolare: essa infatti ancora irriducibile
e per di pi pii = 21 per gli stati da 5 a 10. Vi sono dunque degli elementi > 0 sulla diagonale
della matrice di transizione e questo, insieme alla irriducibilit, assicura la regolarit della
catena. La formula della distribuzione invariante per le catene sui vertici di un grafo d ora
k = 24 e quindi
1
se i = 1, 2, 3, 4
i = 81
12 se i = 5, . . . , 10 .
c) Il tempo medio di passaggio nella classe {5, . . . , 10} partendo da i, i = 1, 2, 3, 4, indicato
i , si ottiene risolvendo il sistema
i = 1 +

4
X

pij j ,

j =1

i = 1, 2, 3, 4 .

Questo si risolve facilmente osservando che, per motivi di simmetria, deve essere 2 = 3 = 4 .
Giungiamo quindi al sistema
2 = 1 + 13 1
1 = 1 + 2

che d facilmente 1 = 3, 2 = 2. Partendo da 1 dunque si giunge in uno degli stati 5, . . . , 10


in media in 3 passi.

5.14 Come nellEsempio 5.36, si possono modellizzare i lanci successivi con una catena di
Markov formata dagli stati
0C
1 CT
...
n CT n
dove con CT i indichiamo che negli ultimi i + 1 lanci si sono avute una croce seguita da i teste
consecutive. Ad ogni lancio si pu passare da CT i a CT i+1 con probabilit 21 (se il lancio

Esercizio 5.14

101

d ancora testa) e a C con probabilit 21 (se invece d croce), se 0 i n 1. Imporremo


invece che lo stato n sia assorbente. Dire che con probabilit 1 si ottengono prima o poi n teste
consecutive significa dire che la catena appena descritta passa prima o poi nello stato CT n .
Ma questo immediato perch tutti gli stati comunicano con lo stato CT n , che lunico stato
assorbente. Quindi tutti gli stati tranne CT n sono transitori e la catena con probabilit 1 entra
nello stato CT n .
Il tempo medio di assorbimento i nello stato n partendo dallo stato i, i = 0, 1, . . . , n 1 si
ottiene risolvendo il sistema lineare
i = 1 +

n1
X

pij j

j =0

che in questo caso diventa


n1 = 1 +
n2 = 1 +

1
2 0
1
2 0

...

1
2 n1

i = 1 +

1
2 0

1
2 i+1

0 = 1 +

1
2 0

1
2 1

...

Il tempo medio per ottenere n teste consecutive 0 . Sostituendo il valore di n1 dato dalla
prima equazione nella seconda si ottiene
n2 = 1 +

1
1
1 
1 1
1
0 +
1 + 0 = 1 + +
1+
.
2
2
2
2 2
2 0

Sostituendo questo valore nellequazione per n3


n3 = 1 +

1 1
1 1 1
+ +
1+ +

2 4 2
2 4 0

e pi in generale, per ricorrenza,


i = 1 +

1
1
1
1 
1
+ . . . + ni1 +
1 + + . . . + ni1 0
2
2
2
2
2

da cui per i = 0
1
1
1
1 
1
+ . . . + n1 +
1 + + . . . + n1 0 =
2
2
2
2
2

1 21n
1 1 21n
1 
1
+

=
2
1

=
+
1

.
0
2 1 21
2n
2n 0
1 21

0 = 1 +

Quindi, finalmente,
0 = 2(2n 1) = 2n+1 2 .

102

Parte 1: soluzioni

Ad esempio per n = 6 sono necessari in media 27 2 = 126 lanci.


5.15 a) Ricordiamo che una catena di nascita e morte ricorrente se e solo se divergente
la serie di termine generale
i =

q1 . . . qi
(1 + 3 k)(2 + 3 k) . . . (i + 3 k)
=

p1 . . . pi
(1 + k)(2 + k . . . (i + k)

Cominciamo con il caso k = 0: nellespressione di i il numeratore il prodotto di tutti i numeri


interi da 4 a i + 3, mentre il denominatore il prodotto dei numeri da 1 a i. Semplificando i
fattori comuni al numeratore e al denominatore otteniamo
i =

(i + 1)(i + 2)(i + 3)
6

(k = 0)

che il termine generale di una serie divergente (anzi i stesso tende allinfinito per i ).
Ripetendo lo stesso argomento, semplificando cio numeratore e denominatore che contengono
sempre molti termini in comune, si ottengono le espressioni di i per gli altri valori di k:
i+2
2
2
i =
i+2
i =

i =

6
(i + 1)(i + 2)(i + 3)

(k = 1)
(k = 2)
(k = 3) .

La serie di termine generale i dunque ancora divergente per k = 1, 2, ma convergente per


k = 3. In conclusione la catena ricorrente per k = 0, 1, 2 e transitoria per k = 3.
Per stabilire quando la catena sia ricorrente positiva oppure ricorrente nulla basta vedere
quando essa ammetta una distribuzione invariante. La catena ammette una distribuzione invariante se e solo se convergente la serie di termine generale
j =

p0 . . . pj 1

q1 . . . qj

1 (1 + k) . . . (j + k 1)
(2j + 3)
2 (4 k) . . . (j + 3 k)

(vedi lEsempio 5.26). Per k = 0 il numeratore nella frazione a destra nellespressione precedente il prodotto dei numeri interi da 1 a j 1, mentre il denominatore contiene i prodotti da
4 a j + 3. Dunque per k = 0
j =

3(2j + 3)
j (j + 1)(j + 2)(j + 3)

che il termine generale di una serie convergente (va a 0 allinfinito come j13 ). Ripetendo lo
stesso ragionamento per k = 1, 2 e semplificando numeratore e denominatore abbiamo
2j + 3
(j + 1)(j + 2)
2j + 3
j =
4

j =

(k = 1)
(k = 2) .

Esercizio 5.15

103

Dunque la serie di termine generale j divergente per k = 1, 2; in conclusione la catena


ricorrente positiva per k = 0 e ricorrente nulla per k = 1, 2.
b) Il limite in (5.60) certamente = 0 per k = 3, perch la catena transitoria e cos pure
per k = 1 e k = 2 (ricorrente nulla). Per k = 0 invece esiste una distribuzione invariante che
indicheremo . Sappiamo che
lim Pi (Xn = 3) = 3

qualunque sia lo stato iniziale i, a condizione che la catena sia aperiodica. Questa condizione
(n)
verificata in questo caso, poich lipotesi che sia r0 = 21 implica p0,0 r0n > 0. Dunque lo
stato 0 aperiodico, e, poich la catena irriducibile, tutti gli stati sono aperiodici. Come noto
la distribuzione stazionaria data da
j
j = P

h=0 h

(dove si pone 0 = 1).

2
Risultati degli esercizi proposti

4
25 .

1.19

a) 51 . b)

1.20

5
12

1.21

a1) 0.15. a2) 0.2. b1) C = (A B c ) (B Ac ). b3) 0.12.

= 0.416.

16 10
) = 0.36, che una probabilit non trascurabile, ma non particolarmente
1.22 a) 1(1 365
alta. b) 50%: 25 giorni, 90%: 76 giorni. c) 50%: 16 partecipanti, 90%:
52 partecipanti.

1.23

a) 0.95 0.03 + 0.2 0.97 = 0.2225. b)

1.24

a)

4 1
5 8

1 8
5 27

0.950.03
0.2225

= 0.56

c) n 5.
a) n 3. b) 1 0.8n , 1

Paolo Baldi
Calcolo delle Probabilit
McGraw-Hill 2011

(10.95)0.03
0.7775

= 0.16. b1) pi probabile che sia equilibrata. b2)


1 16
4 1
5 16 + 5 81
4 1
1 8
5 8 + 5 27

1.25

= 0.128. c)

0.8n
10.2n .

c)

0.8
10.2n .

= 0.0019.

106

Parte 2: risultati degli esercizi proposti

1.26

a) 31 . b) 21 .

1.27

a) Le sequenze sono equiprobabili. b) T T T T T T T T .

1.28

a)

(130)(39
13)
= 0.013. b)
(52
13)
13 39
4

1.29

a) 61 . b) 61 . c)

1.30

13

52
13

26 26
0 13
52
13

+4

39 13
0 13
52
13

= 0.051

2
11 .

28
(12)(28)
(12)(28)
(120)(10
)
6 0 40 20 4 0 40 10 = 0.062.
40
(10)
(20)
(10)

(8)(7)+(8)(7)+(8)(7)
(28)(47)
= 0.196. b) 0 6 1 15 5 2 4 = 0.23 c) 0.034; una probabilit un po
15
(6)
(6)
troppo piccola.
1.31

a)

1.32

a) 21 . b) 47 . c) 13 .

1.33

a)

(24)(26)
= 73 . b)
(104)

1.34

a)

(131)(131)(131)(131)
(13)(13)(13)(13)
(13)(13)(13)(13)
= 0.1. b) 2 2 52 0 0 = 0.022. c) 6 2 2 52 0 0 = 0.13. d)
52
(4)
(4)
(4)

1
14 .

c)

1
14 .

(264)(260)
= 0.055.
(524)

(03)(k7)
, k = 1, . . . , 7, q8 = 0. b) pk =
(10k )
massima per k = 1. c) p1 + p3 + p5 + p7 = 0.583.
1.35

a) qk =

1.36

a) 21 . b) 16 .

1.37

(2n)!
2n

3
1098

(10 k)(9 k), k = 1, . . . 8,

Esercizio 1.48

1.38

107

n!.

1.41 La probabilit di estrarre palline dello stesso colore 49 , quella di estrarre palline di
colori diversi 95 ed pi grande.

1.42

a)

(10)(110)
(100)(110
10 )
= 0.404. b) 10 120 0 8.16 1015 .
120
( 10 )
( 10 )

1.43

a)

(51)(71)(1)
. b) n = 5 oppure n = 6.
(12+n
3 )

1.44

a) P(N) = 13 , P(R) = 41 , P(G) =

1.45

a)

1.46

a)

5
12 .

b1) 23 . b2) 76 .

30
(60
(45)(45)
10)( 0 )
= 0.013. b) 10 90 0 = 5.6 104 .
90
(10)
(10)

3R
2R e 1B
1R e 2B
3B

1.47

a) 3

1.48

a) 1

10 15
7 15
25
22
10 15
8 14
25
22
10 15
9 13
25
22
10 15
10 12
25
22

8 9 10
= 0.05
23 24 25

9 10 15 3
= 0.29
23 24 25

10 14 15 3
= 0.46
23 24 25

13 14 15
= 0.2 .
23 24 25

(10)(10)(10)
(10)(10)(10)
(102)(101)(101)
= 0.492. b) 3 3 301 1 + 3 2 302 1 = 0.68.
30
(4)
(5)
(5)
(4)(35)
(04)(48
13)
= 0.696. b) 1 0 3913 = 0.818. c1)
52
(13)
(13)



4 48
4 48
4 48
3

c2)
1 
3 1
r

13
52
13

4 35  4 48
0 13
0 13
39
52
13
13

26
52
26

3 1

39
52
39

= 0.748 := r .

4 22  4 48
0 13
0 26
26
52
13
26

4 48 
0 39
52
39

= 0.813

108

Parte 2: risultati degli esercizi proposti

(A calcolata in c1).
1.49 a) Figura 1.1 a): 2p2 p4 ; Figura 1.1 b): 2p2 + p p4 2p3 + p5 . b) 2p2 + 2p3
5p4 + 2p5 . c) 1.1 a): 0.59, 1.1 b): 0.84, 1.2: 0.66.
1.50 a) Vero. b) Vero. c) Falso (possono essere indipendenti). d) Falso e) Falso. f) Vero. g)
Vero. h) Falso. i) Vero.

13
2.25 a) 1 13
0 0.74
13
b) (1 0.28) = 0.014.
 2  2

4 1
2 7

6
7

13
13
13
3
10
2
11
12
1 0.26 0.74 2 0.26 0.74 3 0.26 0.74

 3

4 1
3 7

6
7

2.26

a)

2.27

a) ( 21 )n . b) 1 ( 21 )n . c)

2.28

a) 49 . b)

2.29

a) E(T ) =

2.30

a) ( 23 )k , ( 31 )k . b) 3 ( 23 )k 3 ( 31 )k ,

4n2
(3n1)(3n2) ,

1
3.07

1
2

 4

4 1
4 7

= 0.46. b) 1

840
2401

= 0.45.

= 0.65.

n(n 1)( 21 )n . d) 1 (n + 1)( 21 )n . e)

2m 1 2m
m (2) .

n 49 .

104 = 3254.15. b) E(T ) =

k=4
0.56

k = 10
0.05

c) P(T = k) = ( 23 )k1 2 ( 13 )k1 , E(T ) =

1
2.06

104 = 4856. Cambia, cambia. . .

k = 20
9 104

11
2 .

(1p)
1(1p)(1) .

2.31

a) (1 p)n . b)

2.32

X1n B(1, p), X1 . . . Xn B(1, pn ).

2.33
a) voto medio= 30
 16  14

30 1
2
= 0.0116.
16 3
3

1
4

= 7.5,

 16  14

30 1
16 4

3
4

= 0.0006. b) Voto medio= 10,

Esercizio 2.44

2.34
p
1e(1p)

2.35

ep
(e1+p) ,
1 1e .

E(eX ) =
per p >

a)

109

eX non ha speranza matematica finita per p 1 1e , E(eX ) =

(25)(25)(25)
= 0.2. b)
(156)

6!
2! 2! 2!

( 31 )6 = 0.12.

2.36 a) {W1 = k, W2 = m} = {X1 = C, . . . , Xk1 = C, Xk = T , Xk+1 = C, . . . , Xk+m1 =


C, Xk+m = T }; P(W1 = k, W2 = m) = p2 (1 p)m+k2 = p(1 p)k1 p(1 p)m1
1
, per
2.37 a) P(X + Y = k) = (k 1)p2 (1 p)k2 , k = 2, 3, . . .. b) pX|X+Y (k|m) = m1
1
m > k 1. c) = m1 per ogni k = 1, . . . , m 1. Tutti i possibili valori sono equiprobabili.
1
2.38 a) 16 per A, 18
per B. b) qi (1 qi q7 )n2 , dove qi la probabilit di ottenere i come
12i+1
per i = 8, . . . , 12. c)
somma del lancio di due dadi, qi = i1
36 per i = 2, . . . , 7, qi =
36
2
P
qi
q7 + i6=2,7,12 qi +q7 = 0.465; conviene giocare come B.

2.39

a) (p2 + (1 p)2 )n p(1 p). b) 21 .

2.40

a)

1
50 .

a1) 83 . a2) pi probabile che si tratti di un dado equilibrato.

2.41 a) P(Y k) = ( nk )m . b) P(Y = k) = n1m (k m (k 1)m ), massima per k = n. c)


k...(km+1)
m
, P(Y = k) = n...(nm+1)
(k 1) . . . (k m + 1), massima ancora
P(Y k) = n...(nm+1)
per k = n.
1
2.42 a) P(X = k) = 16
per k = 1, . . . , 14, P(X = 15) = 18 ; E(X) =
E(Y ) = 4, Var(Y ) = 0. c) 43 .
b
(mr )(km)
)
1
, = 15
per b = 7, r = 3, k = 2 e m = 2. b1)
r+b
(k )
b
(r1)(km
)
1
, = 36
per b = 7, r = 3, k = 2 e m = 2.
3, k = 2. b2) mr+b1
( k )

2.43

a)

2.44

a) p =

5
16 .

b2)
p

n=3
= 0.34

11
32

n=4
= 0.36

93
256

135
16 .

r
b+r ,

b) P(Y = 4) = 1,

3
10

per b = 7, r =

110

2.46

Parte 2: risultati degli esercizi proposti

a) E(X) = E(X 3 ) = 0. b)

1
PY |X (r|k) = 2
0

se r = k 2 + 1 oppure r = k 2 1
altrimenti;

|X = k) = k 2 . c) a = 0.
E(Y

2.47 a) P(X = k |X + Y = n) = nk 21n che una legge binomiale B(n, 21 ); la speranza
condizionale vale 21 . b) Cov(X + Y, X + Z) = Var(X) = ; X+Y,X+Z = 21 . c) P(X + Y =
4
5
3
2, X + Z = 3) = e3 2 + 2 + 12 .
2.48

a) Falso. b) Falso. c) Vero. d) No. e) Falso.

2.49
a) k0 61. b) Usando un software adatto si trova che la probabilit che una v.a.
binomiale B(100, 23 ) assuma valori < 61 (ovvero 60) vale 0.1.
2.50


1p
.
a) H (p ; p0 ) = log 0 +0 . b) H (p ; p0 ) = n p log pp0 +(1p) log 1p
0

2.52

a) P(X = 3) =

1
2.

5
.
128 2

b) E(X) = 21 , Var(X) = 1. c) X + Y geometrica di parametro

2.53

P(SN = 0) = e(1p) , P(SN = 1) = p(1 p)e(1p) .

2.51

a) Binomiale negativa di parametri p, + . b) E(X) =

3.35

b) e 4 = 0.001.

3.36

Y esponenziale di parametro . fZ (t) = 3t 2 et per t > 0.

1p
p ,

Var(X) =

1p
.
p2

27

3.37 a) FX (x) = x per 0 x 1, = 0 per x 0 e = 1 per x 1. b) P(X 3) = 0,

P(X 31 ) = 3 . c) Y esponenziale di parametro . d) E(X) = +1


, Var(X) = (+1)2 (+2) .

Esercizio 3.50

3.38 a) F (t) = 1 (+t)


. b) Speranza matematica =
per > 2.

3.39

a) fY (t) = 1

1t 2

, 1 t 1. b) fY (t) =

nel caso a), E(Y ) = 21 nel caso b).


3.40 a) E(X) = 0, Var(X) =
di parametro .

2
.
2

per > 1, varianza =

111

2
(1)2 (2)

(1 t)1/2 (1 + t)1/2 . c) E(Y ) = 0

b) X di Laplace di parametro

|| ,

|X| esponenziale

3.41 a) P(X t) = 1 (1 t)n , fX (t) = n(1 t)n1 , 0 t 1. b) fX (t) = nt n1 .


1
n
, E(X ) = n+1
.0t 1
d) E(X ) = n+1
3.42

FY (t) = 0 se t 0, FY (t) = 1 et se 0 t < M, FY (t) = 1 se t M. No.

3.43

a) 0.9772. b) 0.0668. c) 0.4772. d) 0.5763.

3.44

a) 8(2.66) = 0.0038. b) 0.54. c) 0.9.

3.45

a) FX (t) = 8(t)n . b) 0.226. c) n 271. d) 1 3.14 108 .

3.46

a) 0.0227. b)

3.47

= 41 , =

1
4

3.48

a) fW (t) =

c 3/4 t
e ,
2t

1 2 2
2e

= 0.03.

nel primo caso e = 4, = 4 nel secondo.


che una ( 41 , 1). b)

2
.
( 41 )

c) E(X) = 0, Var(X) =

( 43 )
.
( 41 )

3.49 a) 1 e1 per = 1, 1 2e1 per = 2, 1 25 e1 per = 3. b) = 8(1.414)


8(1.414) = 0.843 per = 21 ; = 13 e1 + 8(1.414) 8(1.414) = 0.423 per = 23 ;
( 2 )


1
1
1
e + 8(1.414) 8(1.414)(1) = 0.151 per = 25 .
=
3
5 +
( 2 )

3.50

( 2 )

a) fY (t) =

2n/2 ( n2 )

t n1 et

2 /2

 n+1 2

( n+1 )
(
)
. b) E( X) = 2 ( n2 ) , Var(Y ) = n 2 ( n2 ) ;
2

112

Parte 2: risultati degli esercizi proposti

per n = 3 E(Y ) =

2 2
,Var(Y )

= 3 8 ; per n = 4 E(Y ) =

3.51

fZ (t) = e2t (22 t + 23 t 2 ), E(Z) =

3.52

a) E[ X1 ] =

b) g(t) =
3.53

()

1 per >
t (1+) e/t .

a1) (, ). a2)

1. Var( X1 ) =

3 2
4

, Var(Y ) = 4

9
8

5
4 .

2
(1)2 (2)

per > 2.

q . b1) (100, 100). b2) a = 0.81, b = 1.2.

3.54 a) g ancora esponenziale di parametro . b) g(x) = 21 ( + 2 x)ex . c) g di Pareto


di parametri 1 e .
3.55

b) 3. c) 6.

3.56

a1)
F (x) =

1

et
1 21 et
2

se t 0
se t 0 .

a2) Se X uniforme su [0, 1], allora F 1 (X) di Laplace di parametri , dove F 1 (y) =
log(2y) per y 21 e F 1 (y) = 1 log(2(1 y)) per y 21 .
b) Se X uniforme su [0, 1], allora F 1 (X) di Weibull di parametri e se F 1 (y) =
1/
.
1 log(1 y)

3.57 a) = 21 2 . b) X1 X2 lognormale di parametri 1 + 2 e 12 + 22 . c) Lognormale


di parametri 0 e 2 .

3.58

a) m(t) =

2
,
2 t 2

t . b) mY W (t) =

2
,
2 t 2

Y W di Laplace di parametro

. c) |Y W | esponenziale di parametro , E(|Y W |) =


2
= mX (0) = Var(X).
2

+t ,

3.59

r(t) =

3.60

a) fZ (t) = 2et (1 et ). b) E(Z) =

d) mZ (t) =

2
t

1
.

d) 0 = mX (0) = E(X),

decrescente in t; no.

2
2t .

3
2 ,

Var(Z) =

5
.
42

c) r(t) = 1

1
;
2et 1

s.

Esercizio 3.71

3.61

113

a = E(X).



1
(z a)2 + (b z)2 . b4)
3.62 b1) 21 (b + a). b2) m = 21 (b + a). b3) E[|X z|] = 2(ba)

z = 21 (b + a). c) E(X) = 1 , m = 1 log 2, E[|X z|] = z 1 1 2ez , z = 1 log 2.
3.63 a) Se X una v.a. di densit f , E(X) = (0), Var(X) = (0).
b2) Se Y una v.a. di densit f , E(Y ) = ( ), Var(Y ) = ( ).
b3) ( ) = Var(X) 0.
b4) f N( 2 , 2 ).
b5) f (, ).
b6) f (x) =
3.64

2 2
2

a) 1

r2
.
R2

e|x|+ x , m (t) =

b1) 1


r2 n
.
R2

2 2
.
2 (t+ )2

b2) 1


r2 n
nR 2

r2
R

6
1
, P(Y = 100) = 100
. a2) E(Y ) = 28. b1)
3.65 a1) P(Y = 20) = 43 , P(Y = 50) = 25
1
c = 20 , larea pi probabile resta quella relativa al punteggio 20. b2) E(Y ) = 40.

3.66

1
e.

3.67 a) P(|XY | > 1 ) = 1e . b) |XY | esponenziale di parametro . c) gXY (t) =


(di Laplace di parametro ).

|t|
2 e

3.68 a) c = 1. b) fX (x) = log x per 0 < x < 1, Y uniforme su [0, 1]; X e Y non sono
indipendenti. d) P(Y > 2X) = 21 .
3.69

a) 31 . b) 31 . c) 13 .

3.70

X, Y (1, 1).

3.71 a) X esponenziale di parametro , fY (y) =


di parametro . d)
fX|Y (x|y) = 2 x(y + 1)2 ex(y+1) ,

1
,
(y+1)2

y > 0 b) S. c) Esponenziale

E[X|Y = y] =

2
(y + 1)

114

Parte 2: risultati degli esercizi proposti

3.72

a) ( + , ).

+
1 (y x)1 ey per 0 < x < y.
()() x
(+) 1 x 1
(1 xz )1 .
gX|X+Y (x|z) = ()()
z(z)

E(X|X
+ Y = z) = +
z. La retta di regressione x =

b) g(x, y) =

c)
d)

3.73

c)
1

+x
+n+ .

b) E(X) =

+ ,

b = 0.

n
+ .

+ u1 v +1
v
()() (1u)+1 exp 1u , per x > 0, y > 0.
(+) 1
fU (u) = ()()
u (1 u)1 cio U Beta(, ).

+
+1 exp v .
fY |U (v|t) = (+)(1t)
+ v
1t
|U = t] = 1 ( + )(1 t). La retta di regressione di Y rispetto
E[U

3.74
b)

|X = x) =
a) E(Z

az + b dove a =

a) g(u, v) =

d)
( + )(1 t) (cio coincide con la speranza condizionale. . . ).

(+)(+k)
. b) E(X) =
a) pX (k) = ()(++k+1)

finita se 1. c) E(Y |X = k) = +1

3.75

1 , se

aU y =

> 1; X non ha speranza matematica

++k+1

3.76

a) E(X) = E(Y ) = 2. b) P(Y X) = 49 .

3.77

a) fX (x) =

3.78

fX (x) =

3.79

a) g(u, v) =

3.80

a) P(X Y ) = 2n . b)

x 1
.
(+x )2

( n2 + 21 )

( n2 ) n
1
8

b) fY |X (y|x) = ( + x )2 yey(+x ) . E[Y |X = x] =


1
2 n+1
2

(1+ xn )

(u2 v 2 )eu . b) gXY (v) =

f (t) =

2
+x .

t
4 e
t
(1 + 2t)
4 e

1 |v|
(1 + |v|).
4e

se t < 0
se t 0 .

3.81 a) E(X) = 0, Var(X) = 1. b) E[(X + Y )4 ] = 4! = 24. c) S X + Y + Z ha una densit


continua, P(X + Y + Z 0) = 21 .

Esercizio 3.89

115

a) E(X) = 0, E(X 2 ) = 2, E(X 3 ) = 0. b) E[(X +Y )2 ] = 4, E[(X +Y )4 ] = 34! = 72.

3.82

3.83
a) X ( ) = sin . b) Y ( ) =
X ( )2 . X1 + X2 2Y .
2

a) ( ) = e(1 +2 +1 2 ) ,

3.84

2(1cos )
.
2

c) 2Y ( ) =

(1cos2 +sin2 )
2 2

sin2
2

1
1
2
2
e 3 (x1 +x2 x1 x2 ) .
f (x) =
2 3

b) X12 ( 21 , 41 ).
c) U1 N(0, 6), U2 N(0, 2); U1 e U2 N(0, 2) sono indipendenti.
d) C non una matrice definita positiva. . .

a) f (x) =

3.85

15

e 15

1
8x12 +32x22 +8x1 x2 4x1 2x2 + 2

che per X2 = 41 . b3) 0.394.

C=
b)

3.87
no.

3.88

. b1) 18 . b2)

15
16 ,

sia per X2 = 21

a) (X + Y, X + 2Y ) congiuntamente gaussiana, centrata e di matrice di covarianza

3.86

23

t.

a) S. b1) No. b2) S. c) g(y, z) =

a) Var(X 2 ) = 2 4 . X2 (t) =

Z1 N(0, 3), Z2 N(0, 1). b2)

b3) Y12 + Y22 = Z12 + Z22 .

2
3

3
5

2 108

1
12 2 t

 2



1
13y 2 + 9z2 6yz . d) No,
exp 216

per t <

1
.
2 2

b1)

2
2
2

O=
2
2
2
2
2
2
Var(Z1 + Z2 ) = 20,

Z 2 +Z 2 =
1

1
,
(1 6t)(1 2t)

per t

3.89 a) x. b) yn . c) n = 4: 0.733, n = 8: 0.709. Le probabilit non cambiano passando da


X1 a Xn .

116

Parte 2: risultati degli esercizi proposti

4.21
a) ( n1 Xn )n converge in probabilit verso la v.a. costante p. b) (Xn )n converge in
probabilit verso la v.a. costante .

4.23

a) 0.16.

1 200
)
= 0.134. b) 0.3233213; lapprossimazione di Poisson d 0.3233236,
4.24 a) (1 100
lapprossimazione normale 0.3611695.

4.25 a) Probabilit di superare il test: 3.7 104 , di prendere un voto inferiore a 5: 0.2. b)
0.0166. c) p = 0.493.
4.26
a) Approssimazione normale: 0.51, risultato esatto (vedi Esempio 3.45): 0.55. b)
0.527. c) Skewness di X: 2 51/2 = 0.89, skewness di Y : 2 251/2 = 0.4.
4.27

a) 1 8(1.167) = 0.878 (con correzione di continuit). b) n 3 378.

4.28

a) 0.067. b) 0.081.

4.29
1
2.

a) limn P(Xn n +

4.30

a) Vero. b) Vero. c) Vero.

4.31

a) Z n Pn 0. b) 0.88.

4.32

a) Sn +
n N(0, 15). b) 0.22.

4.33

a) Sn +
n N(0, 2). b) 0.017.

4.34

Yn ( 21 , 2)

n) = 8(1) = 0.841, limn P(Xn n) = 8(0) = 21 . b)

Esercizio 5.17

4.35

a) E(log Xn ) = 0. b) Yn 1 in probabilit. c) Wn W , con W di densit


1
2
2
fW (t) =
e(log t) /(2(log 2) ) .
2 t log 2

4.36

b1) Wn (n,

4.37

a) 0.0013. b) 109 . c) S, affidabile.

4.38

a) 0.16. b) n 66358. c) n 38959.

4.39

a) 1 8(0.816) = 0.21. b) 1 8(0.608) = 0.271.

117

+
n). b2) Un +
n N(0, 1). a) Yn n N(0, 1).

4.40
a) (Zn )n converge in legge e in probabilit ad una v.a. che prende il valore 0 con
probabilit 1. b) (Yn )n converge in legge e in probabilit ad una v.a. che prende il valore 1 con
probabilit 1.

4.41
a) (Mn )n converge in legge e in probabilit ad una v.a. che prende il valore 1 con
probabilit 1. b) (Zn )n converge in legge ad una v.a. esponenziale di parametro 1.
4.42 a) (nYn )n converge in legge a una legge esponenziale di parametro 1. b) (nYn )n converge
in legge ad una v.a. che prende il valore 0 con probabilit 1.
x

4.43 Converge in legge alla f.r. F (x) = ee . Se le Xi hanno f.r. F (x) = ee , allora
Mn ha f.r. F per ogni n.

4.44

a) c = . b) Converge in legge ad una v.a. avente f.r. G(t) = et

4.45

Converge ad una v.a di funzione caratteristica ( ) = e|| , cio di Cauchy.

per t > 0.

5.16 P1 irriducibile ma non regolare, P2 e P3 sono regolari. Per P1 e P3 la distribuzione


stazionaria la probabilit uniforme. Per P2 la distribuzione stazionaria ( 21 , 41 , 41 ).
5.17 a) P1 non irriducibile, P2 regolare. b) Per P1 si ha P2 (Xn = 1) = 0 per ogni n, per
P2 limn P2 (Xn = 1) = 27 . c) No.

118

Parte 2: risultati degli esercizi proposti

5.18
a) 2 transitorio, gli altri sono ricorrenti. La catena non irriducibile. b) Ci sono
3 3(1) 4(1)
infinite distribuzioni stazionarie, della forma ( 2
5 , 0, 5 ,
7 ,
7 ), 0 1.
5.19

a) La catena regolare. b) ( 27 , 27 , 37 ), P1 (Xn = 3) 73 .

1 9 9
, 19 , 19 ). c) 17. d) Ora la catena irriducibile ma non
5.20 a) La catena regolare. b) ( 19
1 4 1
pi regolare. La distribuzione stazionaria ( 18
, 9 , 2 ).

5.21

a) La catena regolare. b) ( 27 , 27 , 37 ).

5.22
a) 1 e 2 sono transitori, 3, 4, 5 ricorrenti. b) 31 . c) (0, 0, 1, 0, 0), (0, 0, 0, 21 , 21 ) e
(0, 0, 21 , 41 , 41 ), ad esempio.

5.23 a) Irriducibile ma non regolare. La distribuzione stazionaria uniforme ed reversibile.


b) Ora la catena regolare. La distribuzione stazionaria sempre quella uniforme. c) 10.

5.24

a) 0.2. b) 31 ,

5.25

a)
1

1 0
1
2
2

30

P = 4 13

5
0
60
7 0

2
1
2

0
1
3

0
0
0
0

3
0

1
2

0
1
3

0
1
3

1
2
1
3

5
0
0
0

6
0
0

1
3

1
2

0
0

1
3

1
3
1
2

0
1

0
0

1
3

3 3 1 3 1
b) La catena irriducibile ma non regolare. = ( 18 , 81 , 16
, 16 , 8 , 16 , 16 ). c) La catena
1 1 1 1 1 1,1
4
regolare. = ( 9 , 9 , 6 , 6 , 6 , 6 9 ) d) 29 . La probabilit pi piccola si ha per lo stato i = 1.

Esercizio 5.31

5.26

a)

0
1
0
1
0
1 31 (1 p)
p

1
P = 2
0

2 (1 p)
3
0
0
4
0
0
60
(non dipende da p). c) 11(1p) .

2
0
2
(1
p)
3
p
3
5 (1 p)
0

b)

6
11

119

3
0
0
1
(1
p)
2
p
0

5 (1 p)
1

1
per
5.27 a) La catena irriducibile ma non regolare. b) La distribuzione stazionaria vale 24
1
1
gli stati negli angoli, 16 per quelli sui lati che non sono negli angoli, 12 per quelli in mezzo. c)
5
3
per gli stati negli angoli, 84
per quelli
La catena regolare. La distribuzione stazionaria vale 84
8
sui lati che non sono negli angoli, 84 per quelli in mezzo. d) La catena irriducibile ma non
2
3
regolare. La distribuzione stazionaria vale 16128
per gli stati negli angoli, 16128
per quelli sui
4
lati che non sono negli angoli, 16128 per quelli in mezzo.

5.28 a) La distribuzione invariante vale


La catena non regolare. b) 14.

1
12

per gli stati 1, 5, 6, 7, 8, 9, 10 e

5
36

per gli altri.

5.29 a) pi,i+1 = (1 p)(1 Ni ), per 0 i N 1, pi,i = p, pi,i1 = (1 p) Ni ,


per 1 i N, pij = 0 altrimenti. b) Irriducibile se p < 1, regolare se 0 < p < 1. c)

i = 2N Ni (come per il modello di Ehrenfest, Esercizio 5.12 e non dipende da p). Per n
grande lurna vuota con probabilit 2N .
i
5.30 b1) qi = (1 p) Ni , pi = p Ni
N , ri = p + N (1 2p). b2) la catena irriducibile
N i
e regolare. b3) i = i p (1 p)Ni ; per n grande la proporzione di tempo in cui la lurna

stata composta di sole palline bianche (risp. rosse) N = pN (risp. 0 = (1 p)N ). c)


5.31

a1)
0
1

P =3
0
0

1
0

2
3

0
1

2
3

0
0
1
3

NN
N!

120

Parte 2: risultati degli esercizi proposti

a2) Irriducibile ma non regolare. a3) v0 = 81 , v1 = 83 , v2 = 38 , v3 = 81 . b1)


1

2
1
6

1
2
1
2
1
3

0
0

3
P =
1
0
2
6
0 0 21 21
b2) Irriducibile e regolare. b3) v0 = 18 , v1 = 38 , v2 = 83 , v3 =

5.32

b) ( 31 , 13 , 13 ). c) ( 27 , 27 , 73 )

5.33

b) p2

1+q
1qp .

c) Se p =

3
4

1
8

(la stessa che in a3)).

con le condizioni proposte in realt B ci guadagna. d)

35
13

5.34 b) La distribuzione stazionaria luniforme = ( 31 , 13 , 13 ). La catena reversibile.


4
1
4
c) 2 assorbente, 1 e 3 sono transitori. d) = ( 1+8
, 1+8
, 1+8
), reversibile per ogni ,
1
1
0 2 ; 2 minima per = 2 . e) Se > 0 limn P1 (Xn = 1) = 1 = 13 . Se = 0
limn P1 (Xn = 1) = 0.
5.35
a) pN = p; la legge di Xn data dal vettore a per ogni n 1. c) = a d) Gli
stati transitori sono quelli tali che ai = 0. Gli altri sono ricorrenti e formano un classe chiusa
irriducibile.

5.37

a) Vero, b) falso, c) vero, d) falso, e) falso.