Sei sulla pagina 1di 33

Probabilità e Statistica

per Ingegneria e scienze


Soluzioni degli esercizi
28/2/2011
2

Cap.1 — Probabilità elementare

1. a) E ∩ F ∩ G,
b) E ∩ F ∩ G,   
c) E ∩ F ∩ G ∪ E ∩ F ∩ G ∪ E∩F ∩G

d) E ∪ F ∪ G = E ∩ F ∩ G ,
   
e) E ∩ F ∩ G ∪ E ∩ F ∩ G ∪ E∩F ∩G ∪ E∩F ∩G
  
f) E ∩ F ∩ G ∪ E ∩ F ∩ G ∪ E∩F ∩G ,
   
g) E ∩ F ∩ G ∪ E ∩ F ∩ G ∪ E∩F ∩G ∩ E∩F ∩G ,

h) E ∩ F ∩ G ,
i) E ∩ F ∩ G.
1
2. Se F ⊆ E, allora P [E ∩ F ] = P [F ] = ; inoltre, poiché P [E] + P [F ] > 1, è impossibile che
2
E ∩ F = ∅, se E ∪ F = Ω, allora usando P [E ∪ F ] = 1 otteniamo
1
P [E ∩ F ] = P [E] + P [F ] − P [E ∪ F ] = ,
6
e quindi
1 1
≤ P [E ∪ F ] ≤ .
6 2
Analogamente,
2
≤ P [E ∪ F ] ≤ 1.
3
3. Lo spazio campionario è

  ,   ,   ,   , ...,
,

n o
Ω= ,

#Ω = 36 e ciascuna coppia ha la stessa probabilità, quindi è sufficiente contare il numero di coppie


corrispondenti a ciascun evento:
11 10 6 9 32
P [A] = , P [B] = , P [C] = , P [D] = , P [E] = ;
36 36 36 36 36
per quanto riguarda le somme:
1 2 3
P [S2 ] = P [S12 ] = , P [S3 ] = P [S11 ] = , P [S4 ] = P [S10 ] = ,
36 36 36
4 5 6
P [S5 ] = P [S9 ] = , P [S6 ] = P [S8 ] = , P [S7 ] = ;
36 36 36
per quanto riguarda intersezioni e unioni, ancora è sufficiente contare il numero di coppie:
5 4 12
P [A ∩ C] = , P [B ∩ C] = , P [A ∪ C] = ,
36 36 36
12 8 35
P [B ∪ C] = , P [A ∩ E] = , P [A ∪ E] = ,
36 36 36
3

per le probabilità condizionate, si applica la definizione:

P [A ∩ C] 5 P [B ∩ C] 4
P [A|C] = = , P [B|C] = = ,
P [C] 6 P [C] 6

P [A ∩ C] 5 P [B ∩ C] 4
P [C|A] = = , P [C|B] = = ,
P [A] 11 P [B] 10

P [A ∩ E] 8
P [E|A] = = .
P [A] 11
 
n 1 n+1
4. P [A] = , P [B] = 1 − n , infine
2 2n 2
  
n 1
se n è pari


n/2 2n

P [C] =


0 se n è dispari

5. a) Con ovvia simbologia, usando il teorema delle probabilità totali, si ha

P [NB ] = P [NB |NA ] P [NA ] + P [NB |BA ] P [BA ]


7 2 6 3 32
= · + · = ;
10 5 10 5 50
b) usando la formula di Bayes,

P [NB |NA ] P [NA ]


P [NA |NB ] =
P [NB |NA ] P [NA ] + P [NB |BA ] P [BA ]
7 2
· 14
= 10 5 = .
7 2 6 3 32
· + ·
10 5 10 5
 n
1
6. Sia Tn l’evento “esce Testa all’n-esimo lancio”. Si ha che Ti ∩Tj = ∅ se i 6= j, inoltre P [Tn ] = .
2
Se A =“vince Andrea” e B =“vince Bruno”, allora
+∞
[ +∞
[
A= T2k+1 B= T2h
k=0 h=1

visto che i Tn sono disgiunti si ha


"+∞ # +∞ +∞  2k+1
[ X X 1 2
P [A] = P T2k+1 = P [T2k+1 ] = =
2 3
k=0 k=0 k=0
" +∞ # +∞ +∞  2h
[ X X 1 1
P [B] = P T2h = P [T2h ] = =
2 3
h=1 h=1 h=1

7. Con la simbologia dell’esercizio precedente,


1 1−p
P [A] = , P [B] = .
2−p 2−p
4

1 1 1
8. P [E] = , P [F ] = e P [E ∩ F ] = .
6 6 36
1 1 4−π π
9. P [A] = , P [B] = , P [C] = , P [D] = .
4 2 16 16
10. Con reimmissione:
13 25 24 3
P [A] = , P [B] = , P [C] = , P [D] = ;
49 49 49 7
senza reimmissione:
12 18 24 1
P [A] = , P [B] = , P [C] = , P [D] = .
42 42 42 2

11. a) p + p2 − p3 , b) 2p2 + 2p3 − 5p4 + 2p5 , c) 3p3 − p5 − 3p6 + p7 .


12. Sia E l’evento “nel circuito passa corrente”,
 siano
 inoltre
  B, C e D gli eventi “il componente ··
A,
è in funzione”, dobbiamo confrontare P A|E con P B|E . Usando la formula di Bayes, abbiamo
   
  P E|A P A
P A|E =   ,
P E

osserviamo che
 
P E = 1 − P [E] = 1 − P [[A ∪ (B ∩ C)] ∩ D] = 1 − [pa + pb pc − pa pb pc ]pd = 0.03376,

inoltre    
P E|A = 1 − P E|A = 1 − P [B ∩ C ∩ D] = 0.2476;
dunque    
  P E|A P A 0.2476 · 0.1
P A|E =   = ' 0.7334.
P E 0.03376
Analogamente, poiché
   
P E|B = 1 − P E|B = 1 − P [A ∩ D] = 0.109,

abbiamo    
 P E|B P B
 0.109 · 0.2
P B|E =   = ' 0.6457.
P E 0.03376
5

Cap.2 — Variabili aleatorie

1. a) Confronta Esercizio 3 del Capitolo 1: P [X = i] = P [Si ] con i = 2, 3, . . . , 12;


6 10 8 6 4
b) P [Y = 0] = , P [Y = 1] = , P [Y = 2] = , P [Y = 3] = , P [Y = 4] = , P [Y = 5] =
36 36 36 36 36
2
;
36
1 3 5 7 9
c) P [V = 1] = , P [V = 2] = , P [V = 3] = , P [V = 4] = , P [V = 5] = , P [V = 6] =
36 36 36 36 36
11
;
36
11 9 7 5 3
d) P [W = 1] = , P [W = 2] = , P [W = 3] = , P [W = 4] = , P [W = 5] = ,
36 36 36 36 36
1
P [W = 6] = ;
36
i valori attesi sono:
70 161 91
E [X] = 7, E [Y ] = , E [V ] = , E [W ] = ;
36 36 36
le varianze sono:
91 647 2555 2555
Var [X] = , Var [Y ] = , Var [V ] = , Var [W ] = .
3 324 1296 1296

2. Si ha
1 5 51 3 3
α= , E [X] = , Var [X] = , β = 3, E [Y ] = , Var [Y ] = .
3 4 81 2 4
3. (Tutte le misure sono in cm o cm2 )

0 x < 9.5
( 
2 9.5 ≤ x ≤ 10
fR (x) = , FR (x) = 2(x − 9.5) 9.5 ≤ x < 10 ;
0 altrove 
1 x ≥ 10

inoltre  π
area media = E πR2 = 285.25;

raggio medio = E [R] = 9.75,
3
se A è l’area del dischetto, si ha che A = πR quindi FA (x) = 0 se x < 9.52 π, FA (x) = 1 se
2

x > 100π, mentre per 9.52 π ≤ x ≤ 100π si ha


r  r 
x x
FA (x) = FR =2 − 9.5
π π

e quindi P [A < 95π] = FA (95π) ' 0.4936; per quanto riguarda il quantile aα , bisogna risolvere
l’equazione FA (aα ) = α, si trova
α 2
aα = π + 9.5 ; a0.5 = 95.0625π.
2

4. α = 3, poiché inoltre il volume del cubo sarà compreso tra 1 e 2, fV (x) = 0 se x < 1 o x > 2,
FV (x) = 0 se x < 1 e FV (x) = 1 se x > 2, mentre per 1 ≤ x ≤ 2

FV (x) = FL ( 3 x) = x − 1, fV (x) = 1
1
quindi E [V ] = 1.5, Var [V ] = .
12
6

5. Chiamiamo s la somma che Bruno dà ad Aldo nel caso “tre croci”, sia X la variabile aleatoria
“vincita di Aldo”, allora
1 1
P [X = −2] = , P [X = −8] = ,
2 4 s − 40
⇒ E [X] = .
1 1 8
P [X = −16] = , P [X = s] = ,
8 8
Affinché il gioco sia equo, la media della vincita di Aldo deve essere 0, quindi s = 40$.
6. Usando la disuguaglianza di Cebicev
1
P [|X − 1| ≥ 2] ≤ = 0.25;
22
inoltre P [X − 1 > 2] ≤ P [|X − 1| > 2] ≤ 0.25.
7. Diciamo che X e 2 − X sono le lunghezze delle due assicelle, dobbiamo determinare la densità
della variabile aleatoria Y = X(2 − X), sapendo che il punto è stato scelto in maniera “uniforme”
abbiamo
1
 

 0<x<2  0 x<0
fX (x) = 2 FX (x) = x/2 0 ≤ x < 1
1 x≥1
 
0 altrove

osserviamo subito che necessariamente 0 < Y < 1, pertanto fY (y) = 0 se y < 0 o y > 1, FY (y) = 0
se y < 0 e FY (y) = 1 se y > 1, mentre per 0 ≤ y ≤ 1

FY (y) = P [Y ≤ y] = P [X(2 − X) ≤ y] = P X 2 − 2X + y ≥ 0 =
 
hn p o n p oi
=P X ≤1− 1−y ∪ X ≥1+ 1−y =
h p i h p i
=P X ≤1− 1−y +P X ≥1+ 1−y =
 √   √ 
1− 1−y 1+ 1−y p
= + 1− = 1 − 1 − y,
2 2
pertanto
 √1

0≤y<1
fY (y) = 2 1 − y ,
0 altrove

inoltre con pochi conti si trova


2 8
E [Y ] = , Var [Y ] = , yα = 1 − (1 − α)2 .
3 9

8. P [X = 0] = 0.1, P [X = 1] = 0.5, P [X = 3] = 0.3, P [X = 5] = 0.1; E [X] = 1.9, Var [X] = 2.09.

9. Punteggio medio= 9.
7

Cap.3 — Variabili aleatorie notevoli


1. Supponiamo che le partite rappresentino altrettante prove di uno schema di Bernoulli, per il quale
“successo”⇔“vittoria di Bruno”, e quindi p = 0.3.
a) Sia X:“numero di partite vinte da Bruno”, per quanto detto abbiamo che X ∼ Bin(n =
7, p = 0.3). Andrea vince più partite di Bruno se Bruno vince al massimo 3 partite, quindi
P [Andrea vince più partite di Bruno] = P [X ≤ 3]
= P [X = 0] + P [X = 1] + P [X = 2] + P [X = 3] = . . . = 0.8740.

b) Per l’indipendenza delle prove di Bernoulli (partite), l’esito delle ultime due non dipende in
alcun modo dalle prime cinque, pertanto la probabilità che Bruno vinca almeno una delle ultime
due partite è “uno meno” la probabilità che le perda entrambe, ossia 1 − q 2 = 0.51.
c) Sia Y :“numero di partite disputate fino alla prima vittoria di Bruno”, quindi Y ∼ Geo(p =
0.3). Allora
P [Bruno vince per la prima volta entro la quarta partita]
= P [Y ≤ 4] = 1 − P [Y > 4] = 1 − q 4 = 0.7599.

d) Ponendo P [Y ≤ k] = 1 − (1 − p)k ≥ 0.95 e risolvendo rispetto a k, otteniamo k ≥ 8.4 quindi


occorrono almeno 9 partite.
2. Poiché X ∼ Geo(p), P [X ≤ 10] = 1 − q 10 , pertanto

1 − (1 − p)10 = 0.9 ⇒ p=1− 10
1 − 0.9 ' 0.2057.

3. Sia X:“numero di palline bianche estratte dall’urna”, per quanto detto abbiamo che X ∼ Ipe(N =
14, K = 6, n = 4).
a) P [X ≥ 2] = 1 − P [X ≤ 1], cioè
(    8 )
6 8 6
0 4 1 70 + 336
P [X ≥ 2] = 1 −  +
14
3
14 =1− ' 0.5944.
4 4
1001

6
b) E [X] = 4 14 ' 1.7143.
c) Sia A l’evento “la terza e la quarta pallina sono bianche”, usiamo la formula delle probabilità
totali, rispetto alla partizione P [X = k]. Poiché X è ipergeometrica,
70 336 420
P [X = 0] = , P [X = 1] = , P [X = 2] = ,
1001 1001 1001
160 15
P [X = 3] = , P [X = 4] = ;
1001 1001
inoltre, contando le possibili permutazioni di palline bianche e nere, ovviamente P [A|X = 0] =
P [A|X = 1] = 0, mentre
1 1
P [A|X = 2] = , P [A|X = 3] = , P [A|X = 4] = 1.
6 2
Pertanto:
4
X
P [A] = P [A|X = k] P [X = k]
k=0
= P [A|X = 0] P [X = 0] + . . . + P [A|X = 4] P [X = 4]
1 420 1 160 15 165 15
= · + · +1· = = .
6 1001 2 1001 1001 1001 91
8

4. Segliamo come unità di misura i minuti, pertanto λ = 25 5


60 = 12 . Sia Nt :“numero di telefonate
5
in t minuti” e T :“intertempo tra una telefonata e la successiva”. Nt ∼ Poi (µ = λt = 12 t) e
5
T ∼ Esp(λ = 12 )
a) Usando la densità della Poissoniana,
5 5
P [N2 = 0] = e− 12 ·2 = e− 6 ' 0.4346.

b) P [N5 ≥ 4] = 1 − {P [N5 = 0] + . . . + P [N5 = 3]}, quindi


"  2  3 #
25 25 1 25 1 25
P [N5 ≥ 4] = 1 − e− 12 1 + + + ' 0.1582.
12 2 12 3! 12

5
c) P [T > 3] = e− 12 ·3 = 0.2865.
d) Per l’assenza di memoria,
5
P [T > 4|T >] = P [T > 1] = e− 12 ·1 = 0.6592.

5. Gli arrivi delle automobili ad un casello seguono uno schema di Poisson. Misuriamo il tempo in
minuti. Se Nt :“numero di arrivi in t minuti”, Nt ∼ Poi (µ = λt). L’affermazione del casellante si
traduce nell’equazione P [N5 = 3] = P [N5 = 4], ossia

eλ·5 (λ · 5)3 eλ·5 (λ · 5)4 4


= ⇒ λ= = 0.8.
3! 4! 5
Pertanto Nt ∼ Poi (λt = 54 t); inoltre, detto T l’intertempo tra due arrivi, abbiamo T ∼ Esp(λ = 45 ).
a) P [N1 ≥ 1] = 1 − P [N1 = 0] = 1 − e−0.8 ' 0.5507.
b) P [T > 2] = e−1.6 ' 0.2019.
c) E [N60 ] = 48.
6. Se X è l’orario (minuti) in cui Carlo arriva in quell’ufficio, X ∼ Uni (a = 0, b = 30).
a) P [X < 20] = FX (20) = 23 .
b) Cerchiamo P [X > 15|X < 20], per definizione di probabilità condizionata, un volta osser-
vato che {X < 20} ∩ {X > 15} = {15 < X < 20}, abbiamo
2 1
P [15 < X < 20] 3 − 2 1
P [X > 15|X < 20] = = 2 = ;
P [X < 20] 3
4

b) Poiché E [X] = 15, dovrebbe presentarsi in media alle 10.15.


7. Sia X ∼ Nor (µ = 5, σ 2 = 8).
a) Standardizzando,
   
6−5 1
P [X < 6] = P Z < √ =Φ √ ' Φ(0.35) ' 0.63683.
8 8

b) Standardizzando,
   
3−5 2
P [X < 3] = P Z < √ = Φ −√
8 8
 
2
=1−Φ √ ' 1 − Φ(0.71) ' 0.23885.
8
9

c) Standardizzando,
 
4−5 7−5
P [4 < X < 7] = P √ < Z < √
8 8
   
2 1 h i
=Φ √ − Φ −√ ' Φ(0.71) − 1 − Φ(0.35) ' 0.39798.
8 8
d) Usando la definizione di probabiltà condizionata (osservato che {X < 6}∩{X < 7} = {X <
6}) e standardizzando,
 
P [X < 6] Φ √18 Φ(0.35)
P [X < 6|X < 7] = =  ' ' 0.8367.
P [X < 7] Φ √2 Φ(0.71)
8

8. Ricordiamo che X ∼ Nor (µ = 10.1, σ 2 = 0.2).


a) Per calcolare la percentuale di matasse vendute a prezzo ribassato, è sufficiente calcolare la
probabilità che una matassa abbia lunghezza inferiore alla lunghezza nominale, standardizzando:
 
10 − 10.1
P [X < 10] = P Z < √
0.2
   
0.1 0.1
=Φ − √ =1−Φ √ ' 1 − Φ(0.22) ' 0.41294,
0.2 0.2
cioè: poco più del 41% delle matasse devono essere vendute a prezzo ribassato.
b) Dobbiamo calcolare P [X < 10.15|X > 10], seguendo il solito procedimento
P [10 < X < 10.15]
P [X < 10.15|X > 10] =
P [X > 10]
Φ(0.11) − Φ(−0.22)
' ' 0.2177.
Φ(0.22)

9. Standardizzando, da P [|X| < x̄] = 0.6 si ricava


 
x̄ x̄
P [|X| < x̄] = P [−x̄ < X < x̄] = P − √ < Z < √ ,
6 6

inoltre P [−z0.8 < Z < z0.8 ] = 0.6, pertanto x̄ = z0.8 6 ' 2.0615.
10. Osservando che 0.8 = P [Z > −z0.8 ], standardizziamo:
 
0−µ µ
0.8 = P [X > 0] = P Z > √ ⇒ − √ = −z0.8 ,
5 5

quindi µ = z0.8 5 ' 1.8819.
11. Standardizziamo entrambe le relazioni, otteniamo
   
4−µ 7−µ
0.8 = P [X > 4] = P Z > , 0.9 = P [X < 7] = P Z < ,
σ σ
poiché 0.8 = P [Z > −z0.8 ] e 0.9 = P [Z < z0.9 ] otteniamo il sistema
( (
4−µ
σ = −z0.8 ⇒
µ − z0.8 σ = 4
7−µ
σ = z0.9 µ + z0.9 σ = 7
da cui  2
z0.8 3
µ=4+ ' 4.3964, σ2 = ' 1.9965.
z0.8 + z0.9 z0.8 + z0.9
10

12. Sia X il numero di palline estratte, allora X ∼ Ipe(N = 200, K = 150, n = 8), osserviamo che
valgono le condizioni per cui
 
K
Ipe(N, K, n) ≈ Bin n = n, p = ,
N
150
= 34 ; per costruzione X ≈ Y .

sia allora Y ∼ Bin n = 8, p = 200
a) P [X = 3] ' P [Y = 3] e
   3  5
8 3 1
P [Y = 3] = ' 0.0231;
3 4 4

(il valore calcolato senza approssimazione è P [X = 3] ' 0.0212).


b) Allo stesso modo, P [X ≥ 3] ' P [Y ≥ 3] e

P [Y ≥ 3] = 1 − P [Y ≤ 2] = . . . ' 0.0042;

(il valore calcolato senza approssimazione è P [X ≥ 3] ' 0.0035).


13. Dobbiamo supporre che ogni utente sia indipendente dagli altri, se cosı̀ è, il numero X di utenti che
1
non riescono a connettersi segue una legge Bin(n = 2000, p = 1500 ), poiché sussistono le condizioni,
1
sappiamo che Bin(n, p) ≈ Poi (µ = np), sia allora Y ∼ Poi (µ = 2000 · 1500 = 43 ), quindi X ≈ Y .
a) P [X = 2] ' P [Y = 2] e
4
e− 3 ( 34 )2
P [Y = 2] = ' 0.2343;
2!
(il valore calcolato senza approssimazione è P [X = 2] ' 0.2344).
b) P [X ≥ 2] ' P [Y ≥ 2] e
 
4 4 4
P [Y ≥ 2] = 1 − P [Y ≤ 1] = 1 − e− 3 + e− 3 ' 0.6151;
3

(il valore calcolato senza approssimazione è P [X ≥ 2] ' 0.6150).


1
14. Supponiamo, sostanzialmente, che ogni biglietto sia “vincente” con p = 20 , indipendentemente
dagli altri.
a) Se X è il numero di biglietti “vincenti” su 100 acquistati,
   
1 1
X ∼ Bin n = 100, p = ≈ Y ∼ Poi µ = 100 · =5 ,
20 20

pertanto P [X ≥ 3] ' P [Y ≥ 3] e
 
25
P [Y ≥ 3] = 1 − P [Y ≤ 2] = 1 − e−5 + 5e−5 + e−5 ' 0.8753;
2

(il valore calcolato senza approssimazione è P [X ≥ 2] ' 0.8817).


1
b) Se X è il numero di biglietti “vincenti” su 1000 acquistati, allora X ∼ Bin(n = 1000, p = 20 ),
poiché le condizioni sono soddisfatte possiamo usare l’approssimazione normale:
 
1 1 19
X ≈ Y ∼ Nor µ = 1000 = 50, σ 2 = 1000 = 47.5 ,
20 20 20
11

pertanto, usando la correzione del continuo, P [X ≥ 40] ' P [Y ≥ 39.5] e


   
39.5 − 50 10.5
P [Y ≥ 39.5] = P Z > √ =Φ √ ' Φ(1.52) ' 0.93574;
47.5 47.5

(il valore calcolato senza approssimazione è P [X ≥ 40] ' 0.9402).


c) X è la stessa del punto precedente, usando la correzione del continuo, P [X > 55] =
P [X ≥ 56] ' P [Y > 55.5] e
   
55.5 − 50 5.5
P [Y ≥ 55.5] = P Z > √ =1−Φ √ ' 1 − Φ(0.80) ' 0.21186;
47.5 47.5

(il valore calcolato senza approssimazione è P [X > 55] ' 0.2101).


12

Cap.4 — Vettori aleatori

1. Poiché E [X] = 0 · P [X = 0] + 5 · P [X = 5] = 3, deduciamo che P [X = 5] = 0.6, e la tabella diventa


Y =0 Y =1 Y =2
X=0 0.2 0.2 0 0.4
X=5 0 0.3 0.3 0.6
0.2 0.5 0.3

a) P [XY > 0] = P [X = 5, Y = 1] + P [X = 5, Y = 2] = 0.6; inoltre E [Y ] = 1.1 e E [XY ] = 4.5,


pertanto Cov [X, Y ] = 1.2.
b) E [X|Y = 0] = 0, E [X|Y = 1] = 3, E [X|Y = 2] = 5.
2. Note P [X = 0] = 0.5 e P [X = 0, Y = 0] = 0., ricaviamo P [Y = 0] = 0.4, la tabella diventa
Y =0 Y =1 Y =2
X=0 0.2 0.25 0.05 0.5
X=2 0.12 0.15 0.03 0.3
X=5 0.08 0.1 0.02 0.2
0.4 0.5 0.1
RR
3. Poiché (X, Y ) è uniformemente distribuito, la densità congiunta è costante in D, inoltre f =1
impone che tale costante valga π1 , pertanto
(
1
x2 + y 2 ≤ 1
fX,Y (x, y) = π .
0 altrove

Per simmetria, le marginali di X e Y hanno identica espressione, calcoliamo quella di X: il supporto


di X è [−1, 1], pertanto fX (x) = 0 se x < −1 o x > 1, per ogni x ∈ [−1, 1] abbiamo

Z +∞ Z 1−x2
1 2p
fX (x) = fX,Y (x, y) dy = √ dy = 1 − x2 ;
−∞ − 1−x2 π π
concludendo: ( √
2
π 1 − x2 −1 ≤ x ≤ 1
fX (x) = .
0 altrove

4. Ragionando come nell’esercizio precedente, abbiamo


(
1 0 ≤ x ≤ 1, 0 ≤ y ≤ 2x
fX,Y (x, y) = .
0 altrove

a) Rispettivamente:

2 − y
(
2x 0 ≤ x ≤ 1 0≤y≤2
fX (x) = , fY (y) = 2 .
0 altrove 0 altrove

b) Usando la definizione, ricaviamo


2

y
fX,Y (x, y)  2 ≤x≤1
fX|Y (x|y) = = 2−y ,
fY (y) 0 altrove
13

per quanto riguarda il valore atteso condizionato di X dato Y , possiamo osservare che, poiché la
congiunta è costante, ogni distribuzione condizionata è uniforme rispetto a x sull’intervallo ove
è definita (ossia [ y2 , 1]), e pertanto il corrispondente valore atteso di X è il punto medio di tale
intervallo: E [X|Y = y] = 21 ( y2 + 1) = 41 (y + 2); in alternativa, usando le formule:
Z +∞ Z 1
2 2+y
E [X|Y = y] = xfX|Y (x|y) dx = x dx = ;
−∞ y/2 2−y 4

ad ogni modo, E [X|Y ] = 14 (Y + 2).


RR
5. a) Imponendo f = 1, abbiamo
Z 1 Z 1−x
c
1= dx cx2 y dy = ⇒ c = 60;
0 0 60

inoltre Z 1/2 Z 1−y


11
P [X − Y > 0] = dy 60x2 y dx = . . . = .
0 y 16

b) Integrando la congiunta rispettivamente in [0, 1 − x] e in [0, 1 − y] otteniamo


(
30x2 (1 − x)2 0 ≤ x ≤ 1
fX (x) = ,
0 altrove

e (
20y(1 − y)3 0≤y≤1
fY (y) = .
0 altrove

c) Usando le marginali appena determinate,


2
(
3x
(1−y)3 0≤x≤1−y
fX|Y (x|y) = ,
0 altrove
e (
2y
(1−x)2 0≤y ≤1−x
fY |X (y|x) = .
0 altrove

d) Abbiamo, rispettivamente
1−y
3x2
Z
3
E [X|Y = y] = x 3
dx = . . . = (1 − y),
0 (1 − y) 4
e Z 1−x
2y 2
E [Y |X = x] = y dy = . . . = (1 − x);
0 (1 − x)2 3
pertanto
3 2
E [X|Y ] = (1 − Y ), E [Y |X] = (1 − X).
4 3
RR
6. a) Imponendo f = 1, abbiamo
Z 1 Z 1
c
1= dx cy 2 dy = ⇒ c = 4;
0 x 4
14

inoltre Z 1 Z 1
4
P Y2 >X = 4y 2 dx = . . . =
 
dx √
.
0 x 5
b) Integrando la congiunta rispettivamente in [x, 1] e in [0, y] otteniamo
(
4
(1 − x3 ) 0 ≤ x ≤ 1
fX (x) = 3 ,
0 altrove
e (
4y 3 0≤y≤1
fY (y) = .
0 altrove

c) Usando le marginali appena determinate,


(
1
y 0≤x≤y
fX|Y (x|y) = ,
0 altrove
e (
3y 2
1−x3 x≤y≤1
fY |X (y|x) = .
0 altrove

d) Abbiamo, rispettivamente
Z y
1 y
E [X|Y = y] = x dx = . . . = ,
0 y 2
e
1
3y 2 3(1 + x + x2 + x3 )
Z
E [Y |X = x] = y dy = . . . = ;
x 1 − x3 4(1 + x + x2 )
pertanto
Y 3(1 + X + X 2 + X 3 )
E [X|Y ] = , E [Y |X] = .
2 4(1 + X + X 2 )
7. Usando le regole del valore atteso, e ricordando che il valore atteso del prodotto di due variabili
aleatorie indipendenti è il prodotto del valore atteso, abbiamo:
E [U ] = E [XY ] = E [X] E [Y ] = mX mY ;
 2
e (ricordando che E X = Var [X] + (E [X])2 )
Var [U ] = E U 2 − (E [U ])2 = E (XY )2 − (mX mY )2 =
   

= E X 2 Y 2 − (mX mY )2 = E X 2 E Y 2 − m2X m2Y =


     

= (vX + m2X )(vY + m2Y ) − m2X m2Y = vX vY + m2X vY + m2Y vX .

8. Per i valori attesi:


E [U ] = E [X + 2Y − Z + 4] = −1, E [V ] = E [2X − 3Y + Z] = 16;
per le varianze:
Var [U ] = Cov [U, U ] = Cov [X + 2Y − Z + 4, X + 2Y − Z + 4]
= Cov [X, X] + Cov [X, 2Y ] + Cov [X, −Z] +
+ Cov [2Y, X] + Cov [2Y, 2Y ] + Cov [2Y, −Z] +
+ Cov [−Z, X] + Cov [−Z, 2Y ] + Cov [−Z, −Z] =
= Var [X] + 4Var [Y ] + Var [Z] +
+ 4Cov [X, Y ] − 4Cov [Y, Z] − 2Cov [X, Z] = 61;
15

Var [V ] = Cov [V, V ] = Cov [2X − 3Y + Z, 2X − 3Y + Z]


= Cov [2X, 2X] + Cov [2X, −3Y ] + Cov [2X, Z] +
+ Cov [−3Y, 2X] + Cov [−3Y, −3Y ] + Cov [−3Y, Z] +
+ Cov [Z, 2X] + Cov [Z, −3Y ] + Cov [Z, Z] =
= 4Var [X] + 9Var [Y ] + Var [Z] +
− 12Cov [X, Y ] − 6Cov [Y, Z] − 4Cov [X, Z] = 93;

infine, la covarianza:

Cov [U, V ] = Cov [X + 2Y − Z + 4, 2X − 3Y + Z]


= Cov [X, 2X] + Cov [X, −3Y ] + Cov [X, Z] +
+ Cov [2Y, 2X] + Cov [2Y, −3Y ] + Cov [2Y, Z] +
+ Cov [−Z, 2X] + Cov [−Z, −3Y ] + Cov [−Z, Z] =
= 2Var [X] − 6Var [Y ] − Var [Z] +
+ Cov [X, Y ] + 5Cov [Y, Z] − Cov [X, Z] = −59.

9. a)
U =0 U =1 U =2
V =0 0.144 0.408 0.064 0.616
V =1 0 0.288 0.096 0.384
0.144 0.696 0.16

b) E [U ] = 1.016, E [V ] = 0.384 e E [U V ] = 0.48, quindi

Cov [U, V ] = 0.48 − 1.016 · 0.384 ' 0.0899.

c) La distribuzione condizionata di U , dato V = 0 è


0.144 0.408
P [U = 0|V = 0] = , P [U = 1|V = 0] = ,
0.616 0.616
0.064
P [U = 2|V = 0] = ,
0.616
pertanto
0.144 0.408 0.064
E [U |V = 0] = 0 · +1· +2· ' 0.8701;
0.716 0.716 0.716
mentre la distribuzione condizionata di U , dato V = 1 è
0.288 0.096
P [U = 1|V = 1] = , P [U = 2|V = 1] = ,
0.384 0.384
mentre P [U = 0|V = 1] = 0, quindi
0.288 0.096
E [U |V = 1] = 0 · 0 + 1 · +2· = 1.25.
0.384 0.384

10. a)
U =0 U =5 U = 10
V =0 0.2 0.3 0 0.5
V =1 0.2 0 0.3 0.5
0.4 0.3 0.3
16

b) E [U ] = 4.5, E [V ] = 0.5 e E [U V ] = 3, quindi

Cov [U, V ] = 3 − 4.5 · 0.5 = 0.75.

c) La distribuzione condizionata di U , dato V = 0 è


0.2 0.3
P [U = 0|V = 0] = , P [U = 5|V = 0] = ,
0.5 0.5
e P [U = 10|V = 0] = 0, pertanto
0.2 0.3
E [U |V = 0] = 0 · +5· + 2 · 0 = 3;
0.5 0.5
mentre la distribuzione condizionata di U , dato V = 1 è
0.2 0.3
P [U = 0|V = 1] = , P [U = 10|V = 1] = ,
0.5 0.5
e P [U = 5|V = 1] = 0, quindi
0.2 0.3
E [U |V = 1] = 0 · + 5 · 0 + 10 · = 6.
0.5 0.5

11. La funzione di densità di X e di Y è


(
1 0≤t≤1
fX (t) = fY (t) = ,
0 altrove

innanzitutto notiamo che il supporto di V è [0, 2], pertanto fV (v) = 0 se v < 0 o v > 2. In tutti
i casi, usiamo la formula che fornisce la densità della somma di due variabili aleatorie continue
indipendenti: Z +∞
fV (v) = fX (t)fy (v − t) dt,
−∞

osserviamo innanzitutto che l’integrale si può ridurre al solo intervallo [0, 1], ove fX (t) ≡ 1, quindi
Z +∞ Z 1
fV (v) = fX (t)fy (v − t) dt = fY (v − t) dt
−∞ 0

osserviamo ora che l’integrale a secondo membro è l’integrale di una funzione che vale 1 se 0 ≤
v − t ≤ 1 e 0 altrove:
( (
1 0≤v−t≤1 1 v−1≤t≤v
fY (v − t) = == ,
0 altrove 0 altrove

perché le due disuguaglianze

0≤t≤1 v − 1 ≤ t ≤ v,

siano contemporaneamente soddisfatte, vi sono due casi (coerentemente con il fatto che fV si
annulla all’esterno dell’intervallo [0, 2]):
(
0≤t≤1
0≤v≤1 ⇒ 0≤t≤v
v−1≤t≤v
(
0≤t≤1
1≤v≤2 ⇒ v−1≤t≤1
v−1≤t≤v
17

per cui, se 0 ≤ v ≤ 1 Z 1 Z v
fV (v) = fY (v − t) dt = 1 dt = v,
0 0
se invece 1 ≤ v ≤ 2
Z 1 Z 1
fV (v) = fY (v − t) dt = 1 dt = 1 − (v − 1) = 2 − v,
0 v−1

e allora 
v
 0≤v≤1
fV (v) = 2 − v 1<v≤2.

0 altrove

12. Usando lo stesso procedimento dell’esercizio precedente,


Z +∞ Z 1
fW (w) = fU (t)fV (w − t) dt = fV (w − t) dt
−∞ 0

e, facendo attenzione agli insiemi di variabilità degli integrali e della funzione fV , abbiamo
1 2

 2w 0≤w≤1
3w − w2 − 3 1 < w < 2

fW (w) = 1 2 .
 2 (w − 3)2
 2≤w≤3

0 altrove

13. La trasformazione (X, Y ) → (U, V ) è invertibile:


( (
U =X −Y X = U +V
2
⇒ .
V =X +Y Y = V −U
2

e lo Jacobiano della trasformazione inversa è


1 1
 
J= 2 2
− 12 1
2

quindi det J = 14 . Usiamo la formula delle trasformazioni di vettori aleatori; poiché X e Y sono
indipendenti, la loro congiunta è il prodotto delle marginali:
(
6e−2x−3y x ≥ 0, y ≥ 0
f X, Y (x, y) = ;
0 altrove

pertanto
 
u+v v−u 1
fU,V (u, v) = fX,Y , ·
2 2 4
( u+v v−u
6e−2( 2 )−3( 2 ) 14 u+v
2≥ 0, v−u
2 ≥0 ;
=
0 altrove

l’espressione analitica della densità congiunta di U e V è allora


3 u−5v
e 2
2
18

definita in u + v ≥ 0, v − 2 ≥ 0, ossia u ∈ R, v > |u|:


( u−5v
3
e 2 u ∈ R, v > |u|
fU,V (u, v) = 2 .
0 altrove

Per ottenere la densità di U , è sufficiente ricavare la marginale dalla congiunta appena determinata:
Z +∞ Z +∞
3 u−5v
fU (u) = fU,V (u, v) dv = e 2 dv
−∞ |u| 2
+∞
3 u +∞ − 5 v
Z 
3 u 2 5 3 1
= e2 e 2 dv = e 2 − e− 2 v = e 2 (u − 5|u|) ;
2 |u| 2 5 |u| 5

in definitiva (
3 3u
fU (u) = 5e u<0
.
3 −2u
5e u≥0

14. In simboli sappiamo che V ∼ Nor (µV , CV ), ove


   
3 6 3
µV = e CV = .
4 3 4

a) Osserviamo che U = AV + b, con


   
1 2 1
A =  −3 2  e b =  0 ,
1 −1 3
applichiamo le formule:
     
1 2   1 12
3
µU = AµV + b =  −3 2  +  0  =  −1  ,
4
1 −1 3 2
e
 
1 2   
6 3 1 −3 1
CU = ACV AT =  −3 2 
3 4 2 2 1
1 −1
   
12 11   34 −14 23
1 −3 1
=  −12 −1  =  23 34 −13  .
2 2 1
9 7 23 −13 16

b) Per definizione di densità condizionata,


fX,Y (x = 2, y)
fY |X (y|x = 2) = ,
fX (x = 2)
sappiamo che X ∼ Nor (µ = 3, σ 2 = 6), perciò
2
1 (x−3) 1 1
fX (x) = √ e− 12 , ⇒ fX (2) = √ e− 12 ;
12π 12π

6
inoltre, con qualche conto si ricava che % = 4 , e sappiamo che
h √ i!
(x−3)2 (y−4)2 6 (x−3)(y−4)
1 − 54 6 + 4 − 2

24
fX,Y (x, y) = √ e
2π 15
19

ponendo x = 2, abbiamo
h i!
(y−4)2 (y−4)
1 − 45 1
6 + 4 + 4
fX,Y (x = 2, y) = √ e
2π 15
e allora h i!
(y−4)2 (y−4)
1 − 45 1
6 + 4 + 4
√ e
2π 15
fY |X (y|x = 2) = ,
1 1
√ e− 12
12π
e, semplificando,
2
(y− 27 )
1 1 2 1 −
fY |X (y|x = 2) = √ e− 20 (2y − 7) = q e 2 52 ;
5π 2π 25

pertanto (Y |X = 2) ∼ Nor (µ = 72 , σ 2 = 25 ).
20

Cap.5 — Campioni e teoremi limite

1. x̄ = 53.9, s2 = 842.8316.
2. Poiché la media è nota, usiamo s20 : s20 = 111.9925.
3. Sia X la variabile aleatoria “Numero di telefonate da effettuare per compilare 50 questionari”,
supponendo che ogni telefonata rappresenti una prova di Bernoulli con p = 13 , ovviamente X ∼
Bin(n = 50, p = 31 ).
n
a) E [X] = p = 150.
b) Dobbiamo calcolare P [X ≥ 170], per il Teorema Centrale del Limite
 
1 n 2 nq
Bin(n = 50, p = ) ≈ Nor µ = = 150, σ = 2 = 300 ,
3 p p

detta allora Y ∼ Nor (µ = 150, σ 2 = 300), X ≈ Y e

P [X ≥ 170] ' P [Y ≥ 169.5] = . . . = 1 − Φ(1.1258) ' 0.12924.

4. Sia X la variabile “Numero di automobili che escono dal casello tra le 8:00 e le 20:00”, allora
X ∼ Poi (µ = 240).
a) E [X] = 240.
b) Approssimiamo X con Y ∼ Nor (µ = 240, σ 2 = 240), allora

P [X < 250] ' P [Y < 249.5] = . . . ' Φ(0.6132) ' 0.79207.

5. Poiché E [X] = 0 e Var [X] = 31 ,


    1
E X n = 0, Var X n = ,
3n
supponiamo che n sia sufficientemente grande (ipotesi che verificheremo a posteriori), in tal caso
 
1
X n ≈ Nor µ = 0, σ 2 = ,
3n
 
standardizziamo allora la relazione P |X n | < 0.1 ≥ 0.9:
 
  0.1 0.1
0.9 ≤ P −0.1 < X n < 0.1 = P − q <Z< q 
1 1
3n 3n

 √ √ 
cioè 0.9 ≤ P −0.1 3n < Z < 0.1 3n ; usando i quantili della normale standard abbiamo che

P [−z0.95 < Z < z0.95 ] = 0.9, imponiamo 0.1 3n ≥ z0.95 , da cui
 2
1  z0.95 2 1 1.64485
n≥ = = 90.185,
3 0.1 3 0.1

ossia n ≥ 91, poiché 91 è sufficientemente grande da giustificare l’approssimazione normale, si


tratta effettivamente del risultato cercato.
21

6. Misuriamo il tempo in minuti. Poiché ogni telefonata Ti ∼ Esp(λ = 21 ), la durata X delle prossime
50 telefonate è
50  
X 1
X= Ti ∼ Γ α = 50, λ = ≈ Nor (µ = 100, σ 2 = 200);
i=1
2

se poniamo Y ∼ Nor (µ = 100, σ 2 = 200), abbiamo X ≈ Y e

P [X > 90] = P [Y > 90] = . . . ' Φ(0.7071) ' 0.76115.

7. Sia Ti la variabile “Metri cubi d’acqua transitati il giorno i”, allora E [Ti ] = 240 e Var [Ti ] = 120,
supponiamo che ciascuna Ti sia indipendente dalle altre. Se X è la quantità d’acqua transitata in
90 giorni, allora
90
X
X= Ti E [X] = 90E [Ti ] = 21600, Var [X] = 90Var [Ti ] = 10800;
i=1

poiché inoltre X è la somma di 90 variabili i.i.d., possiamo usare il TCL e l’approssimazione


normale: X ≈ Y ∼ Nor (µ = 21600, σ 2 = 10800) e pertanto

P [X > 21500] ' P [Y > 21500] = . . . ' Φ(0.9623) ' 0.83147.


22

Cap.6 — Stima di parametri

1. K = (ϑ + 1)(ϑ + 2); inoltre


q
Pn Pn 2
1 − 3X n −2n − 3 i=1 log Xi + 4n2 + ( i=1 log Xi )
ϑbM = , ϑbL = Pn .
Xn − 1 2 i=1 log Xi
n
1X 2
2. Poiché E [X] = 0 e Var [X] = ϑ, ϑbM = X .
n i=1 i

3. Usando la densità di X scritta nella forma


 |x|
ϑ
pX (x) = (1 − ϑ)1−|x| , x = 0, 1;
2
Pn
si ottiene ϑbL = n1 i=1 |Xi |, il cui valore coincide con ϑbM in corrispondenza di ogni campione di
X.
4. Poiché E [X] = 0, dobbiamo sfruttare il momento secondo:
(2ϑ)2 ϑ2
E X 2 = Var [X] + (E [X])2 =
 
−0= ;
12 3
q Pn
pertanto ϑbM = 3 n1 i=1 Xi2 .

5. La funzione di densità è (
1
2ϑ −ϑ ≤ x ≤ ϑ
fX (x) = ,
0 altrove
pertanto la funzione di verosimiglianza diventa
(
1
(2ϑ)n −ϑ ≤ xi ≤ ϑ ∀xi
L(ϑ) = ,
0 altrove

richiedere che −ϑ ≤ xi ≤ ϑ ∀xi equivale a richiedere che ϑ ≥ max |xi |, pertanto possiamo riscrivere
L nella forma (
1
n ϑ ≥ max |xi |
L(ϑ) = (2ϑ) ,
0 altrove

e L ha il suo massimo in corrispondenza di ϑ = max |xi |, in definitiva ϑbL = max |Xi |.


ϑ
6. Poiché E [X] = 3, ricaviamo immediatamente che ϑbM = 3X n .
7. µ ∈ [44.1973, 46.4427]; σ 2 ≤ 19.2162.
8. µ ≤ 127.3338; σ 2 ∈ [30.8672, 177.3207].
9. x15 = 78.32; confidenza del 99%.
10. x27 = 43.2; n = 27.
11. x10 = 12.12, s210 = 0.04178; quindi

a) µ ∈ [11.9960, 12.2440]; b) µ ∈ [11.9738, 12.2662]

.
23

12. Se µ = 12.1, allora s20 = 0.038; quindi

a) σ 2 ≥ 0.02561; b) σ 2 ≥ 0.02377

13. x11 = 12.4; s211 = 10.31.


14. In mancanza di informazioni sulla distribuzione della capacità di carico, usiamo l’intervallo per la
media di una distribuzione qualsiasi. Detta c la capacità media, si ha c ∈ [1538.0286, 1546.9714].
15. n ≥ 1491.
P
16. xi = 152.6, pertanto λ ∈ [0.04537, 0.1193].
17. µ ≥ 31.3696, σ 2 ≤ 19.4660.
18. 1 − α = Φ(0.9901) ' 0.83891, quindi confidenza dell’84% circa.
19. Intervallo del III tipo (numerosità elevata): p ∈ [0.3583, 0.5224]
(altrimenti: II tipo p ∈ [0.3610, 0.5229], III tipo corretto p ∈ [0.3599, 0.5227]).
20. Intervallo del III tipo corretto (numerosità ridotta): p ∈ [0.3354, 0.5117]
(altrimenti: III tipo p ∈ [0.3296, 0.5099], II tipo p ∈ [0.3336, 0.5111]).
21. Intervallo del III tipo (data la numerosità): 700 intervistati, confidenza del 90%.

22. Intervallo del III tipo (data la numerosità): n = 600; 249 favorevoli.
23. Intervallo del III tipo corretto (data la scarsa numerosità): p ∈ [0.5071, 0.7050]; 1−α = Φ(1.7634) '
0.9610, quindi confidenza del 96.1% circa.
24

Cap.7 — Verifica di ipotesi

1. Si ricava immediatamente x7 = 15.6571, poiché v = 0.8


xn − µ0 15.6571 − 15
u= p = p = 1.9437;
v/n 0.8/7

sappiamo che U è distribuita come una normale standard; il p-value è all’incirca 2(1 − Φ(1.94)) '
0.052, quindi rifiuteremo l’ipotesi nulla ai livelli maggiori del 5.2%, la accetteremo a quelli inferiori.
2. Si tratta di testare H0 : µ ≥ 114 contro H1 : µ < 114, si ricava che x6 = 111.9 e s26 = 3.168; la
statistica test vale allora
xn − µ0 111.9 − 114
u= p = p = −2.89,
2
sn /n 3.168/6
ed è distribuita come una t(ν = 5), si rifiuta H0 se −u > t1−α;5 , poiché t0.95;5 = 2.0150 e t0.99;5 =
3.3649 rifiuteremo H0 al 5%, non rifiuteremo H0 all’1%.
3. Si tratta di un t-test sulla media di una normale; le ipotesi sono H0 : µ ≤ 12 contro H1 : µ > 12,
poiché però n = 203 è molto grande, potremmo usare i quantili della normale; in ogni caso la
statistica test è
xn − µ0 12.32 − 12
u= p =p = 3.0641,
2
sn /n 2.214/203
ed è distribuita come una t(202), approssimeremo tale distribuzione con una normale; il p-value è
pari a 1 − Φ(3.0641) = 1.092 · 10−3 ; possiamo pertanto rifiutare l’ipotesi nulla ai livelli abituali.

4. Si tratta di un test asintotico, in quanto la distribuzione di X non è specificata; la statistica test


vale
xn − m0 45.57 − 40
u= p =p = 6.0126
2
sn /n 52.35/61
essa è “asintoticamente” distribuita come una normale; la regola di decisione dice di rifiutare H0
se u > z0.95 = 1.645, cosa che nel nostro caso è verificata, per cui rifiutiamo H0 . Inoltre, il p-value
del test vale 1 − Φ(6.0126), praticamente nullo.
5. Si ricava s27 = 1.3329, stiamo effettuando un test sulla varianza, in cui le ipotesi sono H0 : σ 2 = 0.8
contro H1 : σ 2 6= 0.8, la statistica test vale

(n − 1) · s2n (7 − 1) · 1.3329
u= 2 = = 9.9968,
σ0 0.8

la sua distribuzione è una χ2 (ν = 6), notiamo che per tale distribuzione

χ20.1;6 = 2.2041 χ20.9;6 = 10.6446,

poiché u cade in mezzo a questi due quantili, non rifiuteremmo l’ipotesi nulla nemmeno al livello
del 20%.
6. Si tratta di fare un test sulla differenza tra le medie di due normali, a varianze incognite. Potremmo
prima effettuare un test sulle varianze, per sapere se possiamo considerarle uguali o dobbiamo
considerarle diverse, la statistica test in questo caso è

s2X 15.4
u= 2 = = 0.723
sY 21.3
25

che è distribuita come una F(ν1 = 12, ν2 = 8), confrontiamola con i quantili:
1
F0.1;12,8 = = 0.4454 F0.9;12,8 = 2.502
F0.9;8,12
2
poiché u si trova in mezzo a tali quantili, non potremmo rifiutare H0 : σX = σY2 nemmeno al livello
del 20%, pertanto possiamo ritenere le varianze uguali. Effettueremo quindi il test sulla differenza
tra due medie nel caso in cui le varianze siano uguali; la statistica test vale
xn − y m
u = s r =
(n − 1)s2X + (m − 1)s2Y 1 1
+
n+m−2 n m
175.6 − 170.9
= r r = 2.5719
(13 − 1)15.4 + (9 − 1)21.3 1 1
+
13 + 9 − 2 13 9
ed è distribuita come una t(ν = 20), poiché t0.99;20 = 2.5280 e t0.995;20 = 2.8453 possiamo rifiutare
H0 : µX = µY a tutti i livelli superiori al 2%, non possiamo rigettarla ai livelli inferiori all’1%.
7. Si tratta di effettuare un test di Mann-Whitney: riordiniamo tutte le osservazioni

squadra B B B A A B B B
punti 78 89 91 99 106 106 108 112
ranghi 1 2 3 4 5.5 5.5 7 8

squadra A A B B A A A
punti 115 121 124 131 145 153 161
ranghi 9 10 11 12 13 14 15

le due osservazioni A:106 e B:106 hanno rango 5.5 poiché sono uguali. Calcoliamo allora i due
valori uA e uB secondo le formule con i ranghi:
nA
X nA (nA + 1)
uA = rA,i − = 70.5 − 28 = 42.5,
i=1
2

nB
X nB (nB + 1)
uB = rB,j − = 49.5 − 36 = 13.5;
j=1
2

(notiamo per inciso che uA + uB = nA · nB ), la nostra statistica test u = min{uA , uB } varrà quindi
u = 13.5; la confrontiamo con u0.1;7,8 = 13 (dalla tabella), poiché u > u0.1;7,8 , al livello del 10% non
possiamo rifiutare l’ipotesi nulla (le due squadre sono ugualmente “forti”). Ovviamente, se al livello
del 10% non rifiutiamo H0 , non la rifiuteremo nemmeno ai livelli inferiori. Dalla tabella ricaviamo
anche u0.05;7,8 = 10 e u0.01;7,8 = 13, non possiamo rifiutare H0 a nessun livello di significatività.
8. a) Test χ2 di indipendenza, la tabella con le numerosità attese è

meno di 50-60 più di


50 anni anni 60 anni
meno di 3 volte al mese 31.5 10.5 28
3 o più volte al mese 58.5 19.5 52

da cui
(25 − 31.5)2 (15 − 10.5)2 (50 − 52)2
u= + + ... + ' 5.2503;
31.5 10.5 52
26

dalla tabella dei quantili della χ2 (ν = 2), si ha χ20.9;2 ≤ u ≤ χ20.95;2 , per cui si rifiuta l’ipotesi di
indipendenza al livello del 10% o maggiore, non si rifiuta al livello del 5% o minore.
b) Test χ2 di adattamento della marginale delle età dei mariti rispetto alla distribuzione del
testo, si ha:

meno di 50-60 più di


50 anni anni 60 anni
frequenze osservate 90 30 80
frequenze attese 100 40 60

da cui
(90 − 100)2 (30 − 40)2 (80 − 60)2
u= + + ' 10.1667;
100 40 60
poiché u ≥ χ20.99;2 , si rifiuta l’ipotesi di buon adattamento a qualsiasi livello dall’1% in su.

9. Poiché in entrambi i test U è distribuita come una χ2 (2) ∼ Γ(1, 21 ) ∼ Esp( 21 ), detta V una variabile
aleatoria Esp( 12 ) abbiamo che in entrambi i casi p-value= P [V > u], pertanto
1
a) p-value = e− 2 5.2503 = 0.0724 ' 7.2%
1
b) p-value = e− 2 10.1667 = 0.0062 ' 0.6%.

10. a) Test di buon adattamento di Kolmogorov-Smirnov, se X ∼ Uni (0, 10), si ha che



 0 x<0
FX (x) = x/10 0 ≤ x < 10
1 x ≥ 10

costruiamo la tabella

FX (·) Fi∗ ∗
Fi−1 |FX (·) − Fi∗ | ∗
|FX (·) − Fi−1 |
1.3 0.13 0.2 0 0.07 0.13
3.2 0.32 0.4 0.2 0.08 0.12
7.9 0.79 0.6 0.4 0.19 0.39
8.2 0.82 0.8 0.6 0.02 0.22
9.1 0.91 1 0.8 0.09 0.11

da cui si vede che u = 0.39. Poiché u0.1;5 = 0.510 non si rifiuta l’ipotesi nulla a nessuno dei livelli
usuali.
b) Test di adattamento di Kolmogorov-Smirnov, se X ∼ Nor (µ = 4, σ 2 = 4), si ha che

FX (1.3) = Φ(−1.35) = 0.08850


  FX (3.2) = Φ(−0.4) = 0.34458
x−4
FX (x) = Φ ⇒ FX (7.9) = Φ(1.95) = 0.97441
2
FX (8.2) = Φ(2.1) = 0.98214
FX (9.1) = Φ(2.55) = 0.99461

la tabella diventa allora

FX (·) Fi∗ ∗
Fi−1 |FX (·) − Fi∗ | ∗
|FX (·) − Fi−1 |
1.3 0.0885 0.2 0 0.1115 0.0885
3.2 0.3446 0.4 0.2 0.0554 0.1446
7.9 0.9744 0.6 0.4 0.3744 0.5744
8.2 0.9821 0.8 0.6 0.1821 0.3821
9.1 0.9946 1 0.8 0.0054 0.1946
27

si ha u = 0.5744, poiché

u0.1;5 = 0.510, u0.05;5 = 0.565 e u0.01;5 = 0.669,

possiamo rifiutare l’ipotesi nulla al 10% ed al 5% di significatività, ma non all’1%.

11. t-test a due code; u = 2.8568, rifiutiamo H0 al 10% ed al 5%, non la rifiutiamo all’1% (p-value'
1.8%).
12. t-test a una coda; u = −1.6667, rifiutiamo H0 al 10%, non la rifiutiamo al 5% e all’1% (p-value'
5.4%).
13. z-test asintotico a una coda; u = −4.2348, p-value' 0.001%, si rifiuta senz’altro l’ipotesi nulla.

14. z-test a una coda; u = 2.6667, p-value' 0.38%, è lecito pensare che gli studenti di quest’anno siano
migliori.
15. z-test asintotico a una coda; u = −0.8860, p-value' 19.2%, al 5% gli impiegati non meritano
l’aumento.

16. z-test asintotico a una coda; u = −3.1305, p-value' 0.09%, i consumatori hanno ragione.
17. z-test asintotico a una coda; u = 3.5355, p-value' 0.02%, sı̀.
18. z-test asintotico per percentuali, a una coda; u = 2.2399, p-value' 1.2%, vi è stato un incremento
al 5% e al 10%, all’1% nessun incremento.

19. z-test asintotico per percentuali a una coda; u = 5.7354, p-value' 0, le affermazioni del produttore
non sono accettabili.
20. z-test asintotico per percentuali a una coda; u = −2, p-value' 2.3%, quindi. . .
21. Test χ2 a due code sulla varianza di una normale; u = 19.65, rifiutiamo H0 al 10% e al 5%, non la
rifiutiamo all’1% (p-value' 2%).
22. Test χ2 a una coda sulla varianza di una normale; u = 18.75, al 5% non rifiutiamo le affermazioni
dell’agricoltore.
23. Test χ2 di buon adattamento; u = 2.5, a tutti i livelli di significatività il dado è regolare.

24. Test χ2 di buon adattamento; accorpando le classi “5” “6” e “7” si ottiene u = 2.0234, al 5% la
distribuzione è poissoniana (λ
b = 1.6).

25. Poiché U ∼ χ2 (ν = 4), il p-value è P χ2 (ν = 4) > 2.0234 , osservato che χ2 (ν = 4) ∼ Γ(2, 21 ),


 

abbiamo Z 2.0234
1 −1t
p-value = 1 − te 2 dt = . . . = 73.15%.
0 4

26. Test χ2 di buon adattamento; u = 12.6356, al 5% la distribuzione non è Poi (λ = 1.8).


27. Test χ2 di indipendenza; u = 11.7340, non c’è indipendenza, alla luce dei dati possiamo concludere
che il nuovo farmaco è più efficace.
28. Test di Mann-Whitney; u = 23, dalla tabella ricaviamo che

u0.01;12,8 = 15 u0.05;12,8 = 22 u0.1;12,8 = 26,

rifiutiamo H0 al 10%, non la rifiutiamo al 5% e all’1%.


28

Cap.9 — Processi stocastici

?>=<
89:; / ?>=<
89:;
1. a) il grafo della catena è
1 >o 2
O >>
>>
>>
89:;
?>=<
>>

3>
>>
>>
>>
89:;
?>=< / 89:;
?>=<
>> 

4 o 5
è composta da un’unica classe comunicante, ovviamente finita, ed è aperiodica, infatti partendo da
1 vi si può fare ritorno sia in due passi (1 2 1) sia in tre passi (1 3 4 1).

89:;
?>=< / ?>=<
89:; / 89:;
?>=< / ?>=<
89:;
b) il grafo della catena è
( v
1 >o 2 3 4
O >> O O O
>>
>>
89:;
?>=< / 89:;
?>=< / 89:;
?>=< / 89:;
?>=<
 >>  
 v
5 o 6 7 o 8

la catena è finita, composta da tre classi comunicanti: C1 = {1, 2, 5, 6}, C2 = {3, 7, 8} e C3 = {4}, le
prime due sono costituite da stati aperiodici, poiché in entrambe è presente uno stato con un laccio
(p 1 1 6= 0 e p 8 8 6= 0, rispettivamente), inoltre C1 e C2 sono entrambe formate da stati transitori; la
classe C3 è ricorrente, ed è formata dal solo stato assorbente 4.
c) il grafo della catena è

?>=<
89:; / ?>=<
89:; /' ?>=<
89:;
(
1 >o 2 >o 3>
>> >> >>
>> >> >>
>> >> >>
?>=<
89:; / 89:;
?>=< 89:;
?>=< / ?>=<
89:;
>> >> >>
  
4 >^ 5 6 >o @7
>> >>
>> >>
>> >>
89:;
?>=< 89:;
?>=<
>> >>

8 9

la catena è finita, composta da tre classi comunicanti: C1 = {1, 2, 3}, C2 = {4, 5, 8} e C3 = {6, 7, 9},
gli stati di C1 sono transitori e aperiodici, gli stati di C2 sono ricorrenti positivi e periodici (il periodo
è 3), gli stati di C3 sono ergodici (ricorrenti positivi e aperiodici).
2. a) I valori di pij si ricavano per differenza dagli altri, quindi:

89:;
?>=< / ?>=<
89:;

0.5 0.2 0.3
0.2 v
0.5
6 1X1 11 F2 0.6
0 0.6 0.4
P=
11 1

0.3 0.5 0.2
1111
1
11 1

1 10.3 0.5
0.3 1111 0.4
1111
1
11 1
89:;
?>=<
 
3
U
0.2
29

b) P [X2 = 1|X0 = 2] è la componente sulla seconda riga e prima colonna della matrice P2 , si ha

0.34 0.37 0.29
P2 =

0.12 0.56 0.32

0.21 0.46 0.33

quindi P [X2 = 1|X0 = 2] = 0.12; calcolando µ2 :



0.34 0.37 0.29
2 0 2

µ = µ · P = (0.5, 0.5, 0) ·
0.12 0.56 0.32
= (0.23, 0.465, 0.305)

0.21 0.46 0.33

e pertanto P [X2 = 1] = 0.23.


c) Si tratta di determinare la distribuzione asintotica; la catena è ergodica, quindi la distribuzione
asintotica esiste ed è unica, e coincide con la distribuzione invariante, calcoleremo quest’ultima
risolvendo il sistema π = π · P:

0.5 0.2 0.3

(π1 , π2 , π3 ) = (π1 , π2 , π3 ) ·
0 0.6 0.4

0.3 0.5 0.2

cioè 
 5π1 + 0π2 + 3π3 = 10π1
2π1 + 6π2 + 4π3 = 10π2
3π1 + 4π2 + 2π3 = 10π3

da cui (I equazione) π3 = 35 π1 , sostituendo nella III si trova


 
1 1 5 31
π2 = [8π3 − 3π1 ] = 8 π1 − 3π1 = π1 ,
4 4 3 12

abbiamo ricavato il seguente vettore:


 
31 5
π = (π1 , π2 , π3 ) = π1 , π1 , π1 ,
12 3

effettuando la normalizzazione (π1 + π2 + π3 = 1), ricaviamo π1 = 12/63 e


 
12 31 20
π= , , = (0.1905, 0.4920, 0.3175).
63 63 63

3. a) Catena ergodica,

0.2 0.4 0.1 0.3

0.4 0.2 0 0.4
P=

0.3 0 0.5 0.2

0 0 0.6 0.4
b) Si ha

0.23 0.16 0.25 0.36

0.16 0.2 0.28 0.36
P2 =



0.21 0.12 0.4 0.27

0.18 0 0.54 0.28
quindi
P [X3 = 3|X1 = 2] = (P2 )23 = 0.28,
30

inoltre P [X1 = 2] è la seconda componente del vettore


 
13 14 14 19
µ1 = µ0 P = , , ,
60 60 60 60
pertanto
14
P [X3 = 3, X1 = 2] = P [X3 = 3|X1 = 2] P [X1 = 2] = 0.28 ·
60
49
= ' 0.0653;
750
infine, P [X2 = 4] è la quarta componente del vettore
 
124 80 197 199
µ2 = µ0 P2 = , , ,
600 600 600 600
e cioè P [X2 = 4] ' 0.3317.
c) Catena irriducibile e finita, la distribuzione invariante è unica, e attraverso i soliti conti si
perviene a  
2 1 4 3
π= , , , .
10 10 10 10
Poiché la catena è anche aperiodica, π è anche la distribuzione asintotica.
4. a) Scegliamo come unità di misura le ore, in tal caso
λ1 = 4, λ2 = 3, λ3 = 6 e λ4 = 2;
facendo uso delle informazioni, abbiamo

?>=<
89:; 89:;
?>=<
 
−4 3 0 1
 1 −3 2 0  3 /
R= , 1 >^ o 2
 2 4 −6 0  >> 1 O
−2 >>
0 0 2 >> 4 2
89:;
?>=< / 89:;
?>=<
1
 2 >> 
4 2
3

b) La catena è finita e irriducibile, l’unica distribuzione invariante è anche la distribuzione asintotica


cui converge µt per t → +∞, ponendo πR = 0 troviamo


 −4π1 + π2 + 2π3 = 0
  
 3π1 − 3π2 + 4π3 = 0 13 6
⇒ π = 2π4 , π4 , π4 , π4 ,
2π2 − 6π3 + 2π4 = 0
 5 5

π1 − 2π4 = 0

5
e π = 10 13 6 5

da cui, normalizzando, π4 = 34 34 , 34 , 34 , 34 ; pertanto, il sistema trascorrerà la maggior
parte del tempo nello stato 2.
5. Si tratta di una coda M/M/1, misuriamo il tempo in ore. Con i simboli soliti abbiamo λ = 10 e
µ = 15.
a) Facendo uso delle formule, abbiamo
10 1 1
L= = 2, W = = ,
15 − 10 15 − 10 5
1 2 4
WQ = W − = , LQ = 10WQ = ,
15 15 3
pertanto (in media):
31

i) saranno presenti due persone,


ii) passeremo 15 di ora, cioè 12 minuti,
2
iii) prima di essere serviti dovremo attendere 15 di ora, cioè 8 minuti,
iv) troveremo in coda 43 persone.

b) La probabilità di non dover fare coda è P [N = 0], ossia π0 = 1 − % = 13 ; la probabilità che in


gelateria ci siano alemo 4 clienti è P [N ≥ 4], quindi
+∞
X 16
P [N ≥ 4] = (1 − %)%k = %4 = ' 0.1975;
81
k=4

infine, la probabilità che prima di uscire dalla gelateria passino almeno 10 minuti (che corrispondono
a 61 di ora) è P W ∗ > 16 , ricordando che W ∗ ∼ Esp (µ − λ) abbiamo


 
1 5
P W > ∗
= e− 6 ' 0.4346.
6

c) Cominciamo con il valutare il costo orario attuale: i clienti attendono in coda mediamente
2
WQ = 15 di ora (8 minuti), nell’arco di un’ora per la gelateria passano mediamente λ = 10 clienti
e a ciascun cliente corrisponde una perdita oraria di 30 centesimi al minuto (che corrisponde a 18
Euro all’ora, il costo orario complessivo è allora
     
2 clienti Euro Euro
C1 = [ore] · 10 · 18 = 24 ;
15 ora cliente ora ora

nel caso dell’assunzione dell’aiutante, vi sarebbe una coda M/M/2, per la quale
1 1
π0 = , WQ = ;
2 120
in questa nuova situazione, il costo orario (comprensivo del costo dell’aiutante) diventa
       
1 clienti Euro Euro Euro
C2 = [ore] · 10 · 18 + 20 = 21.50 ;
120 ora cliente ora ora ora

poiché C2 < C1 , conviene assumere l’assistente.


6. Coda M/M/1.
a) λ = 30, µ = 40. L = 3, WQ = 40 3
h = 40 3000 , LQ = 2.25.
b) π0 = 0.25, quindi la cassa rimane inattiva complessivamente per tre ore e mezza.
c) P [N ≤ 3] = 175/256.
d) La perdita oraria Ph relativa al singolo cliente in coda è di 3 Euro. Nella situazione di partenza
la “perdita oraria” complessiva è
3 Euro
“perdita oraria” = Ph · WQ · λ = 3 · · 30 = 6.75 ;
40 h
accettando la proposta del cassiere, µ passa a 45, per cui WQ = 2
45 h = 20 4000 , la nuova “perdita
oraria” complessiva è allora
2 Euro
“perdita oraria” nuova = Ph · WQ · λ + aumento = 3 · · 30 + 2 = 6 .
45 h
Vale la pena di accontentare il cassiere.
32

7. Coda M/M/1, λ = 6, µ = 10, ρ = 53 .


a) Essendo arrivati qualche ora dopo l’apertura siamo all’equilibrio, abbiamo con l’usuale simbologia
3
P [aspettare] = P [N ≥ 1] = 1 − P [N = 0] = 1 − π0 = ρ = ,
5
e
P [essere il primo della coda] = P [N = 1] = π1 = ρ(1 − ρ) = 0.24;
inoltre, se siamo i primi della coda, dovremo attendere, per essere serviti, che il cliente servito
adesso finisca, poiché il tempo T di servizio è esponenzialmente distribuito (misurandolo in ore
abbiamo T ∼ Esp(µ = 10)) per l’assenza di memoria ricaviamo
 
1 1
P [attendere almeno 5’] = P T > = e−10 12 ' 0.4346.
12

b) Senza il rinnovo dei macchinari, il tempo medio passato in coda è WQ = 90 = 203


h, con il rinnovo
0 00 2
dei macchinari il tempo medio passato in coda è WQ,nuovo = 2 40 = 45 h, il costo orario relativo
al tempo del cliente è 6 Euro, sapendo che in media arrivano 6 clienti all’ora abbiamo
3
Ccomplessivo = 6 · · 6 = 5.40 Euro/h,
20
2
Ccomplessivo,nuovo = 6 · · 6 + 2 = 3.60 Euro/h;
45
pertanto conviene eseguire la sostituzione.
33

App.C — Elementi di Calcolo Combinatorio

1. Si tratta semplicemente delle permutazioni di otto oggetti distinti, quindi 8! = 40320.


2. Possiamo calcolare il numero totale di possibilità come i modi che uno dei commensali ha di vedere
gli altri sette, ossia 7! = 5040.
9!
3. Permutazioni con oggetti ripetuti: = 504.
5!3!1!
4. Poiché si sceglie solo chi fa e chi non fa parte della delegazione, senza tener conto dell’ordine,
useremo i coefficienti binomiali. Suddividiamo il problema, prima il caso che si tratti di tre uomini
e due donne, poi il caso opposto. Le delegazioni composte da tre uomini e due donne sono 63 92 =
 

720; le delegazioni composte da due uomini e tre donne sono 62 93 = 1260. In totale, abbiamo a
 

disposizione 720 + 1260 = 1980 diverse delegazioni.


5. Vi è un solo insieme vuoto, vi sono n1 = n sottoinsiemi di un solo elemento, vi sono n2 sottoinsiemi
 

composti da due elementi, eccetera, quindi il numero totale di sottoinsiemi è dato da


           
n n n n n n
+ + + + ... + + = 2n .
0 1 2 3 n−1 n

6.  4 3  42
13
 4 12 13 11
 4
i) 1 2 3 1 = 1098240, ii) 2 2 1 1 = 123552,

13
 4 12
 4 2 4 5
 4

iii) 1 3 2 1 = 54912, iv) 10 1 − 10 1 = 10200,

4 13 4 13
    4 12
 4
v) 1 5 − 10 1 = 1247, vi) 1 3 1 2 = 3744,

13
 4 12
 4 4

vii) 1 4 1 1 = 624, viii) 10 1 = 40.

7. i) s(s − 1) · . . . · (s − p + 1), ii) sp .