Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Esercizi
1. Siamo interessati al peso medio di una popolazione di mele renelle, da cui possiamo estrarre un campione
di n mele. Sappiamo che il peso di ciascuna mela renella è data da una v.a. Gaussiana con media
µ = 180 grammi con varianza σ 2 = 49 e che le variabili aleatorie che compongono il campione sono
indipendenti e identicamente distribuite.
(a) Con un campione di dimensione n = 25, qual’è la probabilità che la media campionaria sia
compresa tra 179 e 184? E se n = 400?
(b) Calcolare la probabilità che la varianza campionaria sia maggiore di 98, se n = 25.
(c) Supponiamo ora di conoscere solo la varianza σ 2 ma di non conoscere la media µ. Dare la
definizione di intervallo di confidenza per la media al livello 1 − α, sapendo che la varianza è nota.
Supponiamo di ottenere delle realizzazioni del campione tali che x̄ = 181.4 se n = 25, e x̄ = 179.8
se n = 400
Calcolare esplicitamente il suddetto intervallo al livello 0.95 con n = 25 e n = 400. (NOTA: si
ricordi che z0.025 = 1.96.).
2. Si consideri un esperimento il cui successo è associato ad una variabile aleatoria di Bernoulli X che
assume valore 1 con probabilità p e 0 con probabilità 1 − p.
(a) Calcolare media e varianza di X.
(b) Abbiamo a disposizione un campione composto da variabili aleatorie X1 , . . . , Xn distribuite come
una Bernoulli con probabilità di successo p. Calcolare lo stimatore di massima verosimiglianza
p̂MLE di p.
(c) Sia Y la variabile aleatoria che indica il numero di successi che otteniamo se effettuiamo l’e-
sperimento n = 400. Calcolare la probabilità approssimata che Y sia maggiore di 250, qualora
p = 0.2.
3. Supponiamo di avere a disposizione un campione composto da variabili aleatorie X1 , . . . , Xn , i.i.d, con
la seguente distribuzione.
1 2 −x
f (x|ϑ) = x e ϑ,
2ϑ3
con ϑ > 0.
(a) Sia X una v.a. con densità f (x|ϑ). Calcolare E (X)) e Var (X)
(b) Calcolare ϑ̂MLE , lo stimatore di massima verosimiglianza di ϑ.
(c) Dare la definizione di distorsione e stabilire se lo stimatore calcolato al punto (b) è distorto.
4. Supponiamo di avere a disposizione un campione X1 , . . . , Xn che segue una distribuzione Gaussiana
con media nota (µ = 1) e varianza σ 2 ignota.
Esercizio 1. Supponiamo di avere un campione X1 , . . . , Xn , laddove Xi ∼ N µ, σ 2 , con µ = 180 e
σ 2 = 49. Ne segue che
σ2
X̄ ∼ N µ, .
n
Posso dunque standardizzare la media campionaria per ottenere
√ X̄ − µ √ X̄ − 180
n = n = Z ∼ N (0, 1) .
σ 7
(a) Come immediata conseguenza, troviamo che
√ 179 − 180 √ X̄ − 180 √ 184 − 180
P 179 < X̄ < 184 = P n < n < n
7 7 7
√ √
n √ X̄ − 180 4 n
=P − < n <
7 7 7
√ √
n 4 n
=P − <Z<
7 7
√ √
4 n n
=Φ −Φ −
7 7
√ √
4 n n
=Φ −Φ −
7 7
√ √
4 n n
=Φ +Φ − 1.
7 7
Quindi, se n = 25,
20 5
P 179 < X̄ < 184 = Φ +Φ − 1 = 0.997 + 0.762 − 1 = 0.76,
7 7
Mentre, se n = 400,
80 20
P 179 < X̄ < 184 = Φ +Φ − 1 = 1 + 0.997 − 1 = 0.997.
7 7
Si noti che la probabilità aumenta al crescere di n. L’intervallo (179, 184) contiene infatti la media
teorica (il valore atteso) µ = 180. Poichè la varianza, che indica la dispersione attorno alla media
teorica, decresce al crescere di n, mi aspetto per n più grandi una dispersione ridotta e quindi
una probabilità più alta di trovare la media campionaria in un intervallo che contiene la media
teorica.
(b) Sappiamo che la varianza campionaria di una popolazione Gaussiana, moltiplicata per n − 1 e
divisa per σ 2 , si distribuisce come una distribuzione chi–quadro con n − 1 gradi di libertà, ossia
S2
(n − 1) ∼ χ2n−1 ,
σ2
ossia, nel nostro caso,
24 S 2 2
ξ .
49 ∼ n−1
Denotiamo con Fχ2n−1 la funzione di ripartizione di una distribuzione chi–quadro con n − 1 gradi
di libertà. Ne segue che
24 2 24 24 2
P S 2 > 98 = P
S > 98 = P S > 48 = 1 − Fχ2n−1 (48) = 0.002.
49 49 49
(c) Sappiamo che l’intervallo di confidenza di livello 1 − α per la media è dato da
σ σ
In = x̄ − z α2 √ , x̄ + z α2 √ .
n n
Anche in questo caso, all’aumentare del numero di osservazioni, a parita di livello di confidenza,
la lunghezza dell’intervallo in cui mi aspetto di trovare µ è diminuito (la mia stima per intervallo
è più precisa).
Esercizio 2. Questo esercizio è un ottimo ripasso per quel che riguarda molti argomenti del corso.
Anzitutto ricordiamo che nel caso di v.a. di Bernoulli, abbiamo la seguente funzione di massa di
probabilità
p se X = 1
P (X = x) = .
1 − p se X = 0
E (X) = 1 · P (X = 1) + 0 · P (X = 0) = p.
D’altra parte,
E X 2 = 1 · P (X = 1) + 0 · P (X = 0) = p.
quindi
Var (X) = E X 2 − E X 2 = p − p2 = p (1 − p) .
(b) Supponiamo di avere un campione X1 , . . . , Xn , composto da v.a. i.i.d ciascuna con la distribuzione
di Bernoulli sopra indicata. Per calcolare la funzione di verosimiglianza, devo prima calcolare la
funzione di massa congiunta in un insieme di realizzazioni del campione x1 , . . . , xn . In questo
caso, usando l’indipendenza e l’identità in distribuzione, trovo
n
Y Pn Pn
1−xi n− xi
` (p|x1 , . . . , xn ) = pxi (1 − p) =p i=1 xi
(1 − p) i=1
.
i=1
Ora, per definizione, la stima di massima verosimiglianza è data dalla seguente formula:
ossia
p∗MLE = x̄.
Quindi lo stimatore di massima verosimiglianza è dato da
p̂MLE = X̄.
Provate a verificare (è molto semplice) che questo è uno stimatore corretto di p.
(c) In questo caso, Y ∼ B (n, p), con n = 400 e p = 0.2. Notiamo anzitutto che E (Y ) = 80. Vediamo
che Var (Y ) = np (1 − p) = 64 è alta: possiamo usare l’approssimazione ad una Gaussiana. Non
scordiamoci la correzione di continuità, perchè stiamo approssimando una v.a. discreta con una
continua.
P (Y > 250) ' P (Y > 250.5) .
Uso l’approssimazione Gaussiana, sapendo che approssimativamente Y si comporta come X ∼
N (np, np (1 − p)). Opto per una standardizzazione, in modo da usare Z = √X−np ∼ N (0, 1) .
np(1−p)
Di conseguenza, abbiamo che
Esercizio 3. Possiamo immediatamente notare che le variabili aleatorie che compongono il campione
sono delle Gamma (α, λ) con parametro α = 3 noto e λ = 1/ϑ incognito.
(a) Usiamo i nostri studi sulla distribuzione Gamma, per stabilire che
(b) Dapprima, calcoliamo la funzione di verosimiglianza, tramite la densità congiunta del campione
in una sua realizzazione e usando la sua indipendenza e la sua identità in distribuzione,
n
Y 1 2 − 1 xi
` (ϑ|x1 , . . . , xn ) = x e ϑ
i=1
2ϑ3 i
n
1 Y 2 − 1 Pni=1 xi
= x e ϑ .
2n ϑ3n i=1 i
Ne segue che
n
1 X
ϑ∗MLE = xi .
3n i=1
e, di conseguenza, lo stimatore di massima verosimiglianza di ϑ è dato da
1
ϑ̄MLE = X̄.
3
Esercizio 4. Nel nostro caso, ciascun elemento del campione aleatorio segue la densità:
1 (x−1)2
f x|σ 2 = √ e− 2σ2 .
2πσ 2
(a) Calcoliamo la funzione di verosimiglianza, tramite la densità congiunta del campione in una sua
realizzazione e usando la sua indipendenza e la sua identità in distribuzione,
n
1 (x −1)2
− i2σ2
2
Y
` σ |x1 , . . . , xn = √ e
i=1 2πσ 2
1 − 12
Pn 2
i=1 (xi −1) .
= n e 2σ
2
(2πσ ) 2
Di conseguenza, possiamo calcolare la log-verosimiglianza