Sei sulla pagina 1di 27

Calcolo delle Probabilità e Statistica

Soluzioni degli esami

Magoga Francesco

12 febbraio 2019

Versione 1.6
Indice
1 Urne e palline 2
1.1 Testo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

2 V.c. continue e funzione di ripartizione 4


2.1 Testo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

3 Binomiali e v.c. bivariate 8


3.1 Testo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2 Soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

4 Resistenze 10
4.1 Testo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

5 Funzione generatrice dei momenti 14


5.1 Testo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.2 Soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

6 Leggi normali 16
6.1 Testo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.2 Soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.2.1 Calcolare Φ e Φ−1 . . . . . . . . . . . . . . . . . . . . 18

7 Popolazioni e stime 19
7.1 Testo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.2 Soluzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.2.1 Richiami: la v.c. media campionaria . . . . . . . . . . 19
7.2.2 Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.2.3 Esponenziale . . . . . . . . . . . . . . . . . . . . . . . 20
7.2.4 Normale con µ noto . . . . . . . . . . . . . . . . . . . 20
7.2.5 Normale con σ 2 noto . . . . . . . . . . . . . . . . . . . 20
7.2.6 Normale con µ e σ 2 ignoti . . . . . . . . . . . . . . . . 21
7.2.7 Binomiale . . . . . . . . . . . . . . . . . . . . . . . . . 21
7.3 Verificare le proprietà . . . . . . . . . . . . . . . . . . . . . . 21
7.3.1 Distorsione . . . . . . . . . . . . . . . . . . . . . . . . 21
7.3.2 Distorsione asintotica . . . . . . . . . . . . . . . . . . 22
7.3.3 Consistenza . . . . . . . . . . . . . . . . . . . . . . . . 22
7.3.4 Normalità asintotica . . . . . . . . . . . . . . . . . . . 22
INDICE

8 Popolazioni e stime (Alternativo) 23


8.1 Testo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
8.2 Soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
INDICE 1

Introduzione
Le soluzioni contenute in questo testo si basano sugli esami dell’A.A.
2016/2017, sull’A.A. 2017/2018 e sull’inizio dell’A.A. 2018/2019 del corso
di Calcolo delle Probabilità e Statistica tenuto dal prof. Luigi Pace all’uni-
versità degli studi di Udine.

Le soluzioni dovrebbero essere tutte corrette. In caso trovaste degli erro-


ri potete contattarmi sulla mail spes (magoga.francesco@spes.uniud.it), cosı̀
che io possa correggerli e rilasciare una nuova versione della dispensa (si, la
versione serve solo per capire quale dispensa è scritta più recentemente, i
contenuti però non cambiano, a meno di correzioni di errori).

Le soluzioni sono spiegate esaustivamente, ma per capirle è necessaria


una conoscenza di base della materia. In certi casi ho preferito scrivere
i procedimenti di come si ricavano alcune formule da utilizzare, è poi a
discrezione vostra riportarli nell’esame o meno.
1 URNE E PALLINE 2

1 Urne e palline
1.1 Testo
Un’urna contiene N1 palline nere e B1 bianche. Una seconda urna con-
tiene N2 palline nere e B2 bianche. Una terza urna contiene N3 palline nere
e B3 bianche. (Una quarta urna contiene N4 palline nere e B4 bianche.)
Uno sperimentatore sceglie a caso un’urna fra le n con equiprobabilità, poi
estrae a caso, con reinserimento, nE palline dall’urna scelta. Si determini
la probabilità che l’urna scelta sia stata quella con Nj nere, se le palline
estratte risultano, senza tener conto dell’ordine di estrazione, una NE e BE
bianche.

1.2 Soluzione
Abbiamo n urne Ai con i = 1, . . . , n tali che l’urna Ai contiene Ni palline
nere e Bi palline bianche per un totale di ni = Ni + Bi palline. Sappiamo
che è stata scelta un’urna Aj con 1 ≤ j ≤ n e l’evento E ci dice che so-
no state estratte NE palline nere e BE palline bianche, per un totale di
nE = N E + BE .

Bisogna scegliere un colore di riferimento, che noi chiameremo con C,


avremo che quindi Ci = Ni se si è scelto il nero, Ci = Bi se si è scelto
il bianco. Sia Ci l’altro colore. Sia anche CE il numero delle palline del
colore scelto presenti in E. Sia Pi (c) = ncii con c = {Ci , Ci } la probabilità di
estrarre il colore c dall’urna i.

Per il compito: Bisogna scrivere gli eventi! Quindi Ai = ”viene scelta


l’urna Ai ” e E = ”vengono estratte con reinserimento NE palline nere e BE
palline bianche”.
Per il compito: Bisogna dire che gli eventi Ai formano una partizione.

Le verosimiglianze che indicano la probabilità che si sia verificato l’evento


E avendo scelto l’urna Ai sono:
 
nE
P (E | Ai ) = Pi (Ci )CE Pi (Ci )(nE −CE )
CE
   CE  (nE −CE )
nE Ci Ci
=
Ci ni ni

Per il compito: Indicare che le probabilità sono binomiali poiché l’e-


strazione avviene con reinserimento delle palline nell’urna.
Il coefficiente binomiale esprime la probabilità di estrarre CE dello stesso
colore da un numero di palline nE , la prima potenza indica la probabilità
1 URNE E PALLINE 3

dei casi di successo e la seconda quella dei casi di fallimento.

Adesso dobbiamo applicare Bayes per trovare la probabilità che sia ve-
rificato l’evento avendo scelto l’urna Aj .
1
P (Aj )P (E | Aj ) n P (E | Aj ) P (E | Aj )
P (Aj | E) = Pn = 1 n = Pn
i=1 P (Ai )P (E | Ai ) i=1 P (E | Ai )
P
n i=1 P (E | Ai )

Per il compito: Indicare esplicitamente che si utilizza il teorema di


Bayes.

P (Ai ) = n1 dato che la scelta dell’urna è equiprobabile, poiché fatta a


caso.
Per il compito: Indicare esplicitamente che la probabilità P (Ai ) = n1
poiché l’estrazione è equiprobabile.

Nota: nel secondo passaggio si è sostituito P (Ai ) e si è portata fuori la


frazione dalla sommatoria.
2 V.C. CONTINUE E FUNZIONE DI RIPARTIZIONE 4

2 V.c. continue e funzione di ripartizione


2.1 Testo
Sia X una variabile casuale con supporto SX = [a, b] e funzione di densità
di probabilità di forma pX (x) = cf (x) per x ∈ SX e 0 altrove (exp(z) = ez ).
Si completi la definizione della funzione di densità di X, determinando il
valore della costante di normalizzazione c. Si calcoli la funzione di ripar-
tizione di X, esplicitandola in tutti i suoi tratti. Si ottengano valore atte-
so/mediana/moda di X. Sia infine T = g(X). Si ottenga il supporto di T e
si calcoli P (h(T ))/si calcoli la varianza di T .

2.2 Soluzione
Abbiamo una v.c. continua definita su un intervallo [a, b] con legge di
probabilità contenente una costante c. Per calcolare tale costante basta
integrare secondo la formula seguente:
Z b
pX (x)dx = 1
a
Z b
cf (x)dx = 1
a
Z b
c f (x)dx = 1
a
1
c = Rb
a f (x)dx

Nota: in realtà bisognerebbe integrare in ]−∞, +∞[, ma sappiamo che


in ]−∞, a[ e in ]b, +∞[ la v.c. non è definita quindi la pX sarà sempre 0.
Esplicitando la funzione in tutti i tratti abbiamo che:
( 
0 se x 6∈ [a, b] 0 se x < a ∨ x > b
pX (x) = = 1
cf (x) se x ∈ [a, b]  R b f (x)dx f (x) se a ≤ x ≤ b
a

La funzione di ripartizione è definita come FX (x) = P (X ≤ x). Dato che


la v.c. è continua P (X = x) = 0 quindi FX (x) = P (X < x). La funzione di
ripartizione è definita come:
Z x Z x Z x
FX (x) = pX (t)dt = pX (t)dt = c f (t)dt
−∞ a a

Possiamo ovviamente sostituire il −∞ con a, dato che la v.c. nell’intervallo


]−∞, a[ non è definita e quindi P (X ∈ ]−∞, a[) = 0.
2 V.C. CONTINUE E FUNZIONE DI RIPARTIZIONE 5

Esplicitando anche i tratti non compresi nell’intervallo avremo che:


 
0 R
 se x ∈ ]−∞, a[  0 R se x < a
x
FX (x) = c a f (t)dt se x ∈ [a, b] = c ax f (t)dt se a ≤ x ≤ b
 
1 se x ∈ ]b, +∞[ 1 se x > b
 

Il valore atteso è la classica media aritmetica:


Z +∞ Z b Z b
E(X) = xpX (x)dx = xpX (x)dx = c xf (x)dx
−∞ a a

La forma in cui è scritta è strana, ma prendendo il valore x ∈ SX con proba-


bilità pX (x) = v/n avremo che il valore x verrà ripetuto v volte e la divisione
per n (fattore che verrà raccolto) è esattamente il numero di occorrenze dei
valori ∈ SX e quindi n = |SX |.

Varianza è una misura della variabilità dei valori assunti dalla variabile
stessa; nello specifico, la misura di quanto essi si discostino quadraticamen-
te rispettivamente dalla media aritmetica o dal valore atteso E(X) (fonte:
Wikipedia). Si calcola facilmente tramite la formula
V ar(X) = E(X 2 ) − E(X)2
dove E(X 2 ) è il valore atteso di X dove tutte le occorrenze di x sono elevate
al quadrato e E(X)2 è valore atteso elevato al quadrato di X. In formule
sarebbe: Zb  Z b 2
V ar(X) = c x2 f (x2 )dx − c xf (x)dx
"aZ a
2 #
b Z b
2 2
=c x f (x )dx − c xf (x)dx
a a

La moda è l’elemento del supporto che ha più probabilità di capitare e


che effettivamente capita più frequentemente (è un trend):
xmo ∈ SX : pX (xmo ) ≥ pX (x) ∀x ∈ SX
Per calcolarla conviene osservare se la funzione pX (x) è monotona cre-
scente o decrescente: se è crescente la moda sarà xmo = b poiché per defini-
zione di funzione monotona crescente pX (a) < · · · < pX (b); se è decrescente
la moda sarà xmo = a poiché per definizione di funzione monotona decre-
scente pX (a) > · · · > pX (b).

La mediana è l’elemento del supporto che ha probabilità esattamente in


mezzo (quindi che spacca a metà) all’intervallo delle probabilità
1
x0,5 ∈ SX : PX (X ≤ x0,5 ) = PX (X ≥ x0,5 ) = 0, 5 =
2
2 V.C. CONTINUE E FUNZIONE DI RIPARTIZIONE 6

Per calcolarla si usa il primo termine:


1
PX (X ≤ x0,5 ) = FX (x) =
2
Basta quindi porre la funzione di ripartizione uguale a 0, 5 e esplicitare la
variabile x per calcolare la mediana.

Per il compito: dare la definizione di ciò che è richiesto (valore atteso,


varianza, moda, mediana).

Per ultima cosa abbiamo una v.c. trasformata T , che deriva da X tramite
una funzione g (i.e. T = g(X) e g(x) = −x oppure g(x) = x2 o ancora
g(x) = |x|, . . . ). Il supporto di T equivale a:

ST = g(SX ) = {t ∈ R : t = g(x) per qualche x ∈ SX }

ovvero applicare la funzione g ad ogni singolo elemento di SX .


Nota: sarebbe t ∈ R con d il grado della v.c. X che in questo caso d = 1
poiché X è univariata.

Dal supporto di t ST possiamo dedurre che la v.c. trasformata T di una


v.c. continua X è anch’essa continua. Questo implica che la probabilità in
un singolo punto è pari a 0 (i.e. P (T = c) = 0 con c ∈ ST ). Negli altri casi è
facile calcolare la probabilità tramite la funzione di ripartizione ricordando
che FT (t) = P (T ≤ t) = P (T < t) e P (T ≥ t) = P (T > t) = 1 − FT (t):
(
FX (g −1 (t)) se g è monotona crescente
FT (t) = −1
1 − FX (g (t)) se g è monotona decrescente

dove in realtà se g è decrescente FT (t) = 1 − FX (g −1 (t)) + P (X = g −1 (t)),


ma la formula si semplifica dato che P (X = g −1 (t)) = pX (g −1 (t)) = 0.
Si ricorda che per trovare g −1 (t) basta risolvere l’equazione t = g(x)
in base alla variabile x (quindi esplicitare la variabile x) per ottenere t =
g −1 (x).

In qualche occasione al posto della probabilità di t viene richiesta la


varianza di T . Per calcolarla usiamo la proprietà di linearità del valore
atteso: sia T = aX + b allora

E(T ) = E(aX + b) = aE(X) + b

Per il compito: Indicare esplicitamente che si usa la proprietà di li-


nearità del valore atteso.
2 V.C. CONTINUE E FUNZIONE DI RIPARTIZIONE 7

La formula per calcolare la varianza di T la otteniamo cosı̀:

V ar(T ) = E(T 2 ) − E(T )2


= E((aX + b)2 ) − (E(aX + b))2
= E(a2 X 2 + aXb + b2 ) − (aE(X) + b)2
= a2 E(X 2 ) + aE(X)b + b2 − (a2 E(X)2 + aE(X)b + b2 )
= a2 E(X 2 ) + aE(X)b + b2 − a2 E(X)2 − aE(X)b − b2
= a2 E(X 2 ) − a2 E(X)2
= a2 (E(X 2 ) − E(X)2 )
= a2 V ar(X)

Quindi per calcolare la varianza di T basta calcolare la varianza di X e


moltiplicarla per il termine a2 .
3 BINOMIALI E V.C. BIVARIATE 8

3 Binomiali e v.c. bivariate


3.1 Testo
Sia (X, Y ) una variabile casuale bivariata con componente marginale
X ∼ Bi(nX , pX ) (legge binomiale con indice n = nX e parametro p = pX ) e
distribuzioni condizionate binomiali Y |X = x ∼ Bi(1 + x, 1/2), per x ∈ SX .
Si determinino il supporto congiunto di (X, Y ), la funzione di probabilità
congiunta di (X, Y ), il supporto marginale di Y , la funzione di probabilità
marginale di Y . Si dica, motivando, se (X, Y ) ha componenti indipendenti.
Si calcoli infine P (f (X, Y )).

3.2 Soluzione
Abbiamo le v.c. X = Bi(nX , pX ) e Y = Bi(nY , pY ) entrambe con legge
binomiale e Y dipendente da X.

Il supporto di X è determinato da:


 
nX
SX = {x : (pX )x (1 − pX )(nX −x) > 0} = {0, . . . , nX }
x
Se Y dipende da X (i.e. in nX oppure in pX compare x) allora il supporto
di Y si determina fissando un valore di x ∈ SX :
 
nY |x
SY |X=x = {y : (pY |x )y (1 − pY |x )(nY |x −y) > 0} = {0, . . . , nY |x }
y
dove i termini nY |x e pY |x sono i termini nY e pY nelle cui espressioni si è
sostituita la variabile x con il valore fissato.
Se invece Y non dipende da X (i.e. in nX E in pX NON compare x)
allora SY |X=x si può determinare semplicemente come SX :
 
nY
SY |X=x = {y : (pY )y (1 − pY )(nY −y) > 0} = {0, . . . , nY }
y
Il supporto congiunto è quindi l’insieme di coppie:

SX,Y = {(x, y) ∈ R2 : x ∈ SX , y ∈ SY |X=x }

Nota: se le v.c. sono dipendenti e supponiamo che SX = {0, 1}, SY |X=0 =


{0, 1} e SY |X=1 = {1, 2} avremo che SX,Y = {(0, 0), (0, 1), (1, 1), (1, 2)}.
Credo che il prof. richieda la scrittura esplicita di tutte le coppie.

La funzione di probabilità congiunta va determinata assegnando ogni


x ∈ SX e ogni y ∈ SY |X=x :

pX,Y (x, y) = pX (x)pY |X=x (y)


3 BINOMIALI E V.C. BIVARIATE 9

La funzione pY |X=x sarà determinata dalla legge Bi(nY |X=x , pY |X=x ) che
si ottiene sostituendo la variabile x con un preciso valore in SX nella legge
Bi(nY , pY ).
Si ricorda che
 
nX
pX (x) = (pX )x (1 − pX )(nX −x)
x
e  
nY |x
pY |X=x (y) = (pY |x )y (1 − pY |x )(nY |x −y)
y
che sono le solite probabilità binomiali.

Il supporto marginale di Y è:

SY = {y ∈ R : (x, y) ∈ SX,Y per qualche x}

Quindi è l’insieme di tutti i secondi elementi delle coppie nel supporto con-
giunto.

La legge marginale va calcolata ∀y ∈ SY nel seguente modo:


X
pY (y) = pX,Y (x, y)
x∈Sx

La v.c. bivariata ha componenti indipendenti se SX,Y = SX × SY e per


ogni (x, y) ∈ SX,Y vale che pX,Y (x, y) = pX (x)pY (y).

L’ultimo punto si ottiene sommando pX,Y (x, y) con x e y che soddisfano


la condizione (i.e. se X + Y = 2 prendo tutti gli (x, y) tali che x + y = 2)
4 RESISTENZE 10

4 Resistenze
4.1 Testo
Una apparecchiatura ha solo n componenti che si possono guastare. La
vita operativa Xi (i = 1, ..., n) di ciascuna di esse ha distribuzione esponen-
ziale con valore atteso pari a E(Xj ) anni/Xi con calore atteso pari a E(Xi )
anni, indipendentemente dalla durata di corretto funzionamento dell’altra.
Quando almeno una/tutte delle n è guasta, l’apparecchiatura non è più
operativa. Sia T il tempo di corretto funzionamento dell’apparecchiatura. Si
esprima T come funzione di X1 , X2 . Si dica qual è il supporto di T . Si otten-
gano poi la funzione di ripartizione e la funzione di densità di probabilità di
T , esplicitandole in tutti i loro tratti. Si calcolino l’n-esimo quartile di T (è
il quantile-p con p = n/100) e la probabilità condizionale P (T > b | T > a).

4.2 Soluzione
Bisogna trovare il tempo T di corretto funzionamento dell’apparecchio
con n resistenze (solitamente n = 2 oppure n = 3, supponiamo n abbia
quest’ultimo valore) con vita operativa Xi con i = 1, . . . , n e con un certo
valore atteso E(Xi ).

Bisogna anzitutto esprimere T come funzione delle Xi . Per risolvere


questo punto bisogna fare attenzione al testo del problema: se l’apparecchio
smette di funzionare quando almeno una delle resistenze si guasta allora
bisogna utilizzare la funzione minimo, se invece l’apparecchio smette di
funzionare quando tutte le resistenze sono guaste allora bisogna utilizzare
la funzione massimo. Questo perché il tempo di corretto funzionamento
dell’apparecchio è dovuto alle vite operative delle resistenze, quindi con la
funzione minimo scegliamo il tempo di corretto funzionamento della prima
resistenza che si rompe (che soddisfa la richiesta almeno) invece con la
funzione massimo scegliamo il tempo di corretto funzionamento dell’ultima
resistenza che si rompe (che soddisfa la richiesta tutte). Quindi:
(
min(X1 , . . . , Xn ) se la richiesta è almeno
T =
max(X1 , . . . , Xn ) se la richiesta è tutte

Per il compito: Dire per quale motivo si è scelta la funzione max o min
(vedi testo sopra la formula).

Dato che le v.c. Xi modellano un tempo d’attesa, allora la loro legge


è esponenziale: Xi ∼ Esp(λ) per i = 1, . . . , n. Sappiamo che il supporto
di una v.c. con legge esponenziale è [0, +∞[ e che una v.c. trasformata di
una v.c. con legge esponenziale avrà anch’essa legge esponenziale, quindi
4 RESISTENZE 11

possiamo concludere che:


ST = [0, +∞[
Per il compito: Indicare esplicitamente che il minimo/massimo di due
intervalli tra [0, +∞[ è sempre [0, +∞[

Per trovare il parametro λ basta considerare il valore atteso delle re-


sistenze: se il testo dice ”ciascuna di esse ha distribuzione esponenzia-
le con valore atteso pari a E(Xj ) anni” con j ∈ [1, n] casuale dato che
E(Xi ) = E(Xi+1 ) ∀x ∈ [1, n − 1] si ha che
1
λi =
E(Xj )

e quindi λi = λj per i = 1, . . . , n. Avremo che ni=1 λi = E(X n


P
j)
.
Se invece il testo elenca i vari valori attesi per le varie Xi (i.e. ciascuna di
esse ha distribuzione esponenziale, X1 con calore atteso pari a E(X1 ) anni,
. . . , Xn con calore atteso pari a E(Xn ) anni ) allora avremo che
1
λi =
E(Xi )

per i = 1, . . . , n. Avremo che ni=1 λi = ni=1 1


P P
E(Xi ) .

Il parametro λ ci serve per calcolare la funzione di ripartizione:

FT (t) = P (T ≤ t) = 1 − P (T > t)
= 1 − P (X1 > t, . . . , Xn > t)
Yn
=1− P (Xi > t)
i=1
n
Y
=1− e−λi t
i=1
−t n
P
=1−e i=1 λi

ed esplicitandola in tutti i tratti:


(
0 se t < 0
FT (t) = Pn
1 − e−t i=1 λi se t ≥ 0

Q compito: Indicare assolutamente che 1 − P (X1 > t, . . . , Xn >


Per il
t) = 1 − ni=1 P (Xi > t) poiché le v.c. Xi sono indipendenti.
4 RESISTENZE 12

La f.d.p. è la derivata della funzione di ripartizione, quindi:


d
pT (t) = FT (t)
dt
d  Pn 
= 1 − e−t i=1 λi
dt
n
!
−t n
P
λ d X
= −e i=1 i −t λi
dt
i=1
n
!
Pn X
= −e−t i=1 λi − λi
i=1
n
!
X Pn
= λi e−t i=1 λi

i=1

ed esplicitandola in tutti i tratti:


(
0 se t < 0
pT (t) = Pn Pn
( i=1 λi ) e−t i=1 λi se t ≥ 0

Il quantile-p tp si calcola ponendo la FT (tp ) = p. Dopo dei semplici


calcoli si ottiene che:
FT (tp ) = p
Pn
1 − e−tp i=1 λi
=p
Pn
−tp i=1 λi
e =1−p
X n
−tp λi = log(1 − p)
i=1
log(1 − p)
tp = − Pn
i=1 λi

Come ultima cosa manca la probabilità condizionata P (T > b | T > a).


Prima di tutto osserviamo che:
P (T > t) = 1 − FT (t)
Pn
= 1 − (1 − e−t i=1 λi
)
Pn
= 1 − 1 + e−t i=1 λi
Pn
= e−t i=1 λi
4 RESISTENZE 13

Adesso possiamo procedere con la formula classica della probabilità con-


dizionata:
P (T > b)
P (T > b | T > a) =
P (T > a)
Pn
e−b i=1 λi
= −a Pn λ
e P i=1 i P
n n
= e−b i=1 λi +a i=1 λi
Pn
= e(a−b) i=1 λi
Pn
= e−(b−a) i=1 λi
5 FUNZIONE GENERATRICE DEI MOMENTI 14

5 Funzione generatrice dei momenti


5.1 Testo
Sia Y una variabile casuale univariata avente quale funzione generatrice
dei momenti MY (t) = exp(g(t)), dove exp(z) = ez . Siano poi Y1 , . . . , Yn
copie indipendenti di Y e si ponga W = c1 ∗ Y1 + · · · + cn ∗ Yn . Si calcoli
la funzione generatrice dei momenti di W . Si ottengano valore atteso e
varianza di W .

5.2 Soluzione
Abbiamo la variabile Y con funzione generatrice dei momenti MY (t) =
eg(t) e Y1 , . . . , Yn copie indipendenti di Y , che vuol dire che Y ∼ Y1 ∼ · · · ∼
Yn . Abbiamo poi W definito come funzione P delle Yi per i = 1, . . . , n, ma a
noi conviene definire W anche come W = ni=1 ci Yi = c1 Y1 + · · · + cn Yn . In
questo modo possiamo vedere W = −Y1 − Y2 come W = c1 Y1 + c2 Y2 con
c1 (x) = c2 (x) = −1.

La funzione generatrice dei momenti si ottiene tramite i seguenti passag-


gi:
MW (t) = E(etW )
Pn
= E(et i=1 ci Yi )
n
!
Y
=E etci Yi
i=1
n
Y
= E(eci tYi )
i=1
Yn
= MYi (ci t)
i=1
n
Y
= MY (ci t)
i=1
n
Y
= eg(ci t)
i=1
Pn
g(ci t)
=e i=1

ed eventualmente si semplifica. Qn tci Yi  Qn


Per il compito: Indicare assolutamente che E i=1 e = i=1 E(eci tYi )
per l’indipendenza delle Yi .
Per il compito: Conviene indicare che ni=1 MYi (ci t) = ni=1 MY (ci t)
Q Q
poiché Y ∼ Y1 ∼ · · · ∼ Yn .
5 FUNZIONE GENERATRICE DEI MOMENTI 15

0 (t). Si avrà che:


Per il valore atteso bisogna calcolare la derivata MW
0
E(X) = MW (0)

00 (t). Si avrà
Per la varianza conviene calcolare la derivata seconda MW
che:
00
E(X 2 ) = MW (0)
e poi procedere con la solita formula

V ar(X) = E(X 2 ) − E(X)2


6 LEGGI NORMALI 16

6 Leggi normali
6.1 Testo
La variabile casuale multivariata (Y1 , . . . , Yn ) ha componenti indipen-
denti e identicamente distribuite con legge marginale normale, P in partico-
n Yi
lare Y1 ∼ N (µ, σ 2 ). Si mostri che la variabile casuale Y n = i=1 n ha
2
legge normale, Y n ∼ N (µ, σ /n). Sia n = n0 . Si calcolino P (Y n0 > a) e
P (Y n0 < b). Si ottenga infine l’i-esimo percentile di Y n0 (il quantile-p con
p = 0.i).

6.2 Soluzione
Pn  2

Yi
Dobbiamo dimostrare che la v.c. Y n = i=1 n ∼ N µ, σn sapendo
che Y1 ∼ N (µ, σ 2 ) e che Y1 ∼ · · · ∼ Yn .
Si ricorda che se Y ∼ N (µ, σ 2 ) allora avrà funzione generatrice dei mo-
1 2 2
menti MY (t) = E(etµ+ 2 t σ ).

La dimostrazione è schematica e richiede i seguenti passaggi:


 
MY n (t) = E etY n
 1 Pn 
= E et n i=1 Yi
n
!
Y t
=E e n Yi
i=1
n
Y  t 
= E e n Yi
i=1
  t n
= E e n Y1
  n
t
= M Y1
n
 t 1 t 2 2 n
= e n µ+ 2 ( n ) σ
t2 2
 
n nt µ+ 21 σ
=e n2

1 2 σ2
= etµ+ 2 t n

 
P n Yi σ2
da cui si conclude che Y n = i=1 n ∼ N µ, n poiché una funzione
generatrice dei momenti (in questo caso MY n (t)) caratterizza la legge di
probabilità della v.c. associata (in questo caso Y n ).
Q  Q  t 
n t n
Y
Per il compito: Indicare assolutamente che E i=1 e n i = i=1 E e n Yi
per l’indipendenza delle Yi .
6 LEGGI NORMALI 17

Qn  t    t n
Per il compito: Indicare assolutamente che i=1 E e n Yi = E e n Y1
per l’identica distribuzione delle Yi .

Per il calcolo delle varie probabilità si ricorda che P (Y n > t) = 1 −


P (Y n ≤ t) e che P (Y n ≤ t) = P (Y n < t) poiché P (Y n = t) = 0 se la v.c.
ha legge continua.
A questo punto ci basta sapere come calcolare P (Y n ≤ t) = FY n (t)
  !
√ t−µ
 
t−µ t−µ
FY n (t) = Φ  q  = Φ =Φ n
σ2 √σ σ
n
n

ATTENZIONE: sigma non è elevato al quadrato!



Se t − µ < 0 si ricorre alla formula Φ(−x) = 1 − Φ(x) con −x = n t−µ σ .
Per ottenere il valore di Φ(x) bisogna fare riferimento alle tavole della
funzione di ripartizione della legge normale standard.

Per il quantile-p tp anche qui bisogna porre FY n (t) = p passando però


tramite la v.c. Z ∼ N (0, 1). Sia quindi
r
σ2 σ
tp = µ + zp = µ + √ zp
n n

si ottiene che
   q 
σ2
t−µ µ+ n zp −µ
FY n (t) = Φ  q  = Φ  q  = Φ(zp ) = p
σ2 σ2
n n

da cui possiamo ricavare


zp = Φ−1 (p)
Nelle tavole è riportato solo p ≥ 0, 5, ma questo non è un problema
tenendo conto della formula zp = −z1−p e quindi

Φ−1 (p) = −Φ−1 (1 − p)

In conclusione quello che ci basta fare per calcolare un quantile-p è usare


la formula r
σ 2 −1 σ
tp = µ + Φ (p) = µ + √ Φ−1 (p)
n n
ed eventualmente applicare la formula precedente se p < 0, 5.
Nota: il quantile-p con p = 0, 5, ovvero la mediana, è sempre pari a 0
per le v.c. con leggi normali.
6 LEGGI NORMALI 18

6.2.1 Calcolare Φ e Φ−1


La tavola M della funzione Φ si presenta sotto forma di matrice: nel-
l’intestazione delle righe (quindi nella prima colonna M 1 ) sono riportate le
prime due cifre tc di t (la cifra intera e la prima cifra decimale), mentre nel-
l’intestazione delle colonne (quindi nella prima riga M1 ) è riportata l’ultima
cifra decimale tr .

Per calcolare Φ(t) dobbiamo cercare tc + tr = t con tc = mi,1 e tr = m1,j .


Il valore Φ(t) = mi,j , dove mi,j è l’elemento all’incrocio tra la colonna di tr
e la riga di tc .

Per calcolare Φ−1 (p) basta trovare l’elemento mi,j = p, in caso appros-
simando p al valore più vicino presente nella tabella e guardare gli elementi
nelle intestazioni mi,1 e m1,j . Anche qui avremo che t = tc + tr con tc = mi,1
e tr = m1,j .
7 POPOLAZIONI E STIME 19

7 Popolazioni e stime
7.1 Testo
Dato un campione y1 , . . . , yn , realizzazione di variabili casuali Y1 , . . . , Yn ,
n > 1, indipendenti con legge esponenziale con tasso di guasto λ > 0 igno-
to/di Poisson con valore atteso λ > 0 ignoto/normale di media nota pari
a µ e varianza σ 2 > 0 ignota/normale di media µ ∈ R ignota e varianza
nota pari a σ 2 /Bi(n, p) di media p ∈ (a, b) ignota, si reperisca una sti-
ma di λ/λ/σ 2 /µ/p e si indaghino le proprietà campionarie dello stimatore
corrispondente.
calcolandone anche lo standard error (solo nel caso della legge Bi(n, p)).

7.2 Soluzioni
7.2.1 Richiami: la v.c. media campionaria
Sia Y = (Y1 , . . . , YnP), E(Yi ) = µ e V ar(Yi ) = σ 2 per ogni i = 1, . . . , n.
Si ricorda che Y n = n1 ni=1 Yi ha valore atteso
n n n
!
1X 1X 1X 1
E(Y n ) = E Yi = E(Yi ) = µ = nµ = µ
n n n n
i=1 i=1 i=1
e varianza
n n n
!
1X 1 X 1 X 2 1 2 σ2
V ar(Y n ) = V ar Yi = V ar(Yi ) = σ = nσ =
n n2 n2 n2 n
i=1 i=1 i=1

Si ricorda inoltre che se y = (y1 , . . . , yn ) è una realizzazione di Y , allora


la realizzazione y n di Y n è
n
1X
yn = yi
n
i=1

7.2.2 Poisson
Sia Y = (Y1 , . . . , Yn ) una variabile di c.c.s. con numerosità n e legge
Y ∼ P (λ) (Poisson), allora una stima λ̂n per λ è:
λ̂n (y) = y n

Stima λ̂n (y) = y n


Stimatore λ̂n = Y n
Valore atteso E(λ̂n ) = λ
Varianza V ar(λ̂n ) = nλ

Standard error ˆ λ̂n ) = √λ̂nn
se(
7 POPOLAZIONI E STIME 20

7.2.3 Esponenziale
Sia Y = (Y1 , . . . , Yn ) una variabile di c.c.s. con numerosità n e legge
Y ∼ Esp(λ), allora una stima λ̂n per λ è:
1
λ̂n (y) =
yn
1
Stima λ̂n (y) = yn
1
Stimatore λ̂n = Yn
1
Valore atteso E(λ̂n ) = λ
1
λ2 1
Varianza V ar(λ̂n ) = n = nλ2

Standard error ˆ λ̂n ) = √ 1


se( = 1

nλ̂2n λ̂n n

7.2.4 Normale con µ noto


Sia Y = (Y1 , . . . , Yn ) una variabile di c.c.s. con numerosità n e legge
Y ∼ N (µ, σ 2 ) con µ noto, allora una stima ŝ2n per σ 2 è:
n
1X
µ̂2 = (yi − µ)2
n
i=1

1 Pn
Stima µ̂2 = n i=1 (yi − µ)2
1 Pn
Stimatore µ̂2 = n i=1 (Yi − µ)2
Valore atteso E(µ̂2 ) = σ 2
2σ 4
Varianza V ar(µ̂2 ) =
q n
2 √
2µ̂ µ̂2 2
Standard error se(
ˆ µ̂2 ) = √ 2 = √
n n

7.2.5 Normale con σ 2 noto


Sia Y = (Y1 , . . . , Yn ) una variabile di c.c.s. con numerosità n e legge
Y ∼ N (µ, σ 2 ) con σ 2 noto, allora una stima µ̂n per µ è:
µ̂n (y) = y n

Stima µ̂n (y) = y n


Stimatore µ̂n = Y n
Valore atteso E(µ̂n ) = µ
σ2
Varianza V ar(µ̂n ) = n

2
Standard error se(µ̂
ˆ n) = √σ
n
7 POPOLAZIONI E STIME 21

7.2.6 Normale con µ e σ 2 ignoti


Sia Y = (Y1 , . . . , Yn ) una variabile di c.c.s. con numerosità n e legge
Y ∼ N (µ, σ 2 ) con µ e σ 2 ignoti, allora una stima ŝ2n per σ 2 è:
n
1 X
ŝ2n = (yi − µ)2
n−1
i=1

1 Pn
Stima ŝ2n = n−1 i=1 (yi − µ)2
1 Pn
Stimatore Sn2 = n−1 i=1 (Yi − Y )2
Valore atteso E(ŝ2n ) = σ 2
2σ 4
Varianza V ar(σ̂n ) = n−1
√ 4 √
2ŝ ŝ2 2
Standard error ˆ 2n ) = √n−1n =
se(ŝ √n
n−1

7.2.7 Binomiale
Sia Y = (Y1 , . . . , Yn ) una variabile di c.c.s. con numerosità n e legge
Y ∼ Bi(n, p) con p ∈ ]a, b[ e n noto, allora una stima p̂n per p è:

p̂n (y) = y n

Stima p̂n (y) = y n


Stimatore p̂n = Y n
Valore atteso E(p̂n ) = p
Varianza V ar(p̂n ) = p(1−p)
√ n
p̂n (1−p̂n )
Standard error se(p̂
ˆ n) = √
n

7.3 Verificare le proprietà


Tutti gli stimatori riportati in questa dispensa godono di tutte le pro-
prietà elencate.

7.3.1 Distorsione
Uno stimatore θ̂n è detto non distorto per θ se

E(θ̂n ) = θ

Questa proprietà si verifica facilmente se lo stimatore è la v.c. Y n (vedi


inizio sezione), altrimenti bisogna utilizzare le varie proprietà del valore
atteso: si parte dal termine E(θ̂n ) e si cerca di ottenere θ.
7 POPOLAZIONI E STIME 22

7.3.2 Distorsione asintotica


Uno stimatore θ̂n è detto asintoticamente non distorto per θ se

lim E(θ̂n ) = θ
n→+∞

Questa proprietà si verifica facilmente se E(θ̂n ) = θ (ovvero lo stimatore


è non distorto): dato che θ non dipende da n se lo stimatore è non distorto,
allora E(θ̂n ) = θ ∀n ∈ N.

7.3.3 Consistenza
Uno stimatore θ̂n è detto consistente per θ se
p
θ̂n →
− θ

Sia Y = (Y1 , . . . , Yn ) una v.c. multivariata con componenti Yi indipen-


denti e identicamente distribuite con valore atteso E(Y1 ) = µ e varianza
V ar(Y1 ) = σ 2 finite (si veda le tabelle dei vari stimatori).
p
− µ con Y n = n1 ni=1 Yi la media
P
Per la legge dei grandi numeri Y n →
campionaria. Dato che µ = E(Y1 ) = E(Y n ) e che la media campionaria ha
p
come valore atteso la stima θ, Y n → − θ. Quindi uno stimatore θ̂n per θ in Y ,
se deriva dalla media campionaria è consistente.

7.3.4 Normalità asintotica


Uno stimatore θ̂n è detto asintoticamente normale per θ se
√ d
→ N (0, σ 2 (θ))
n(θ̂n − θ) −

dove σ 2 (θ) è la varianza asintotica.


Si può dimostrare usando il teorema del limite centrale che Y n è uno
stimatore asintoticamente normale.
8 POPOLAZIONI E STIME (ALTERNATIVO) 23

8 Popolazioni e stime (Alternativo)


8.1 Testo
Il responsabile qualità di una fabbrica vuole valutare la proporzione p
di pezzi prodotti che non sono idonei alla vendita. Viene estratto dalla
produzione del giorno un campione casuale di n pezzi e si osserva che d di
essi non sono idonei. Si definisca un modello statistico parametrico utile
per descrivere l’esperimento effettuato. Si reperisca uno stimatore per p, si
determini l’associato standard error e si calcolino le corrispondenti stime.

8.2 Soluzione
Vogliamo valutare la porzione p sapendo che n sono i pezzi totali consi-
derati e d sono i pezzi difettosi. Il modello statistico è quindi

Y = (Y0 , . . . , Yn ) con Y1 ∼ · · · ∼ Yn ∼ Bi(1, p)

Le componenti Yi di Y saranno quindi indipendenti e identicamente di-


stribuite, come al solito.

Avendo y = (y1 , . . . , yn ) realizzazione di Y , il parametro d equivale al


numero di pezzi difettosi, quindi
n
X
d= yi
i=1

dato che y ∈ Y = {0, 1}n (poiché Yi ∼ Bi(1, n) quindi SYi = {0, 1}) e che
yi = 0 se il pezzo i NON è difettoso, yi = 1 se il pezzo i è difettoso.

Lo stimatore p̂n per p è quindi (come già riportato)


n
1X
p̂n = Y n = Yi
n
i=1

La stima invece è
n
1X
p̂n (y) = y n = yi
n
i=1
dove y = (y1 , . . . ,P
yn ) è la realizzazione di Y .
Sapendo che ni=1 yi = d abbiamo che il valore della stima p̂n (y) è
1 d
p̂n (y) = y n = ·d=
n n
d
Questo vuol dire che la porzione di oggetti difettosi p ' n, come ci si
può aspettare logicamente.
8 POPOLAZIONI E STIME (ALTERNATIVO) 24

(Necessario?) Il valore atteso di Y n è


 
Sn 1 1
E(Y n ) = E = E(Sn ) = np = p
n n n

con Sn = ni=1 Yi .
P

(Necessario?) La varianza di Y n è
 
Sn 1 1 p(1 − p)
V ar(Y n ) = V ar = 2 V ar(Sn ) = 2 np(1 − p) =
n n n n
1 1
). Si ha sempre Sn = ni=1 Yi .
P
ed è maggiorata da 4n (i.e. V ar(Y n ) ≤ 4n

Infine lo standard error se(p̂


ˆ n ) è
p
p̂n (1 − p̂n )
se(p̂
ˆ n) = √
n
p
poiché se(p̂
ˆ n) = V ar(p̂n ) dato che Y n è uno stimatore non distorto (i.e.
E(Y n ) = p̂n ).

(Per completezza) La probabilità di una realizzazione yi , di una singola


componente Yi ∼ Bi(1, p), di essere difettosa è:
 
1 yi
pY (yi ; p) = p (1 − p)1−yi = pyi (1 − p)1−yi
yi

poiché yi ∈ 0, 1 e quindi y1i = 1 per ogni valore di yi .




Da questo segue che la probabilità pY (y; p) della realizzazione y di Y di


avere d pezzi difettosi è
n
Y
pY (y; p) = pyi (1 − p)1−yi
i=1
Pn Pn
yi
=p i=1 (1 − p)n− i=1 yi

= pd (1 − p)n−d

Potrebbero piacerti anche