G. Andreatta
Ww. Runggalidier
Statistica
matematica
Prebliemi ed esereizi risolti
Serie dimatematieae fisica T 5
Liguori Editore==Giovanni Andreatta
Wolfgang Runggaldier
Statistica
matematica
Problemi ed esereizi risolti
Liguori EditorePrefazione
Il presente volume intende fornire essenzialmente una collezione di
esercizi e problemi, tutti risolti, di Statistica Matematica. Per cercare
di rendere questo librio il pid possibile autosufficiente, abbiamo premes-
so'ad ogni capitolo di esercizi una parte teorica di richiami ed esempi
a cui fare riferimento. Tuttavia questa parte non deve essere intesa
come un manuale o come un testo teorico, bensi come uno strumento
didattico per chiarire, attraverso esempi ed osservazioni, alcuni concetti
fondamentali della Statistica Matematica. Nella risoluzione degli esercizi
l’accento é stato generalmente posto pit sulla illustrazione delle partico-
lari tecniche che non sul fatto di arrivare al risultato nel modo pid
rapido.
Da parte del lettore si richiedono note solo le nozioni e le tecniche
pit comuni del Calcolo delle Probabilita. Non si é fatto uso della Teo-
ria della Misura 2d anzi si é generalmente preferito semplificare, per
quanto possibile, la trattazione dei vari argomenti. .
Poiché preparare un libro di esercizi su tutti gli argomenti della Stati-
stica Matematica sarebbe un’impresa pressoché impossibile, ci siamo im-
Pposti alcune limitazioni. Una prima limitazione deriva dal fatto di non
aver trattato alcuni temi (come per esempio i modelli lineari) e di esser-
ci strettamente limitati alla Statistica parametrica. Particolare enfasi,
invece, é stata riservata all’approccio decisionale Bayesiano (capitolo
V). Una seconda limitazione é dovuta all’aver considerato solo variabili
scalari, discrete o assolutamente continue, dipendenti da parametri
essi pure scalari. :
Intendiamo ringraziare in modo particolare il Prof. Arrigo Cellina
che fin dal 1978 ha suggerito e stimolato la realizzazione di questo
libro. Infine desideriamo ringraziare tutti coloro che direttamente
o indirettamente vi hanno contribuito, specialmente Daniela De Rossi,
Giusy Filippino, Anna Pieretti e Vincenzo Porfido che hanno paziente-
mente dattiloscritto il manoscritto originale.
G.A - W.R.Capitolo
Capitolo
Capitolo
Capitolo
Capitolo
Appendice
Bibliografia
1
4
Indice
— Statistiche sufficienti
Richiami ed esempi.........
Berti
— Stima parametrica
Richiami ed esempi
ees .
— Stima intervallare
Richiami ed esempi...... 000.0002 e00ee eee
Ra rere creer cera ca ca cecmte acmtamrarcatemiars
-- Test parametrici
Richiami ed esempi
Esercizi... 1 ee ee eee eee
— Approccio decisionale Bayesiano
Richamiedesmpi
Problemi decisionali.. .
Strategie Bayesiane e Stima parametrica.
Strategie Bayesiane ¢ Test parametrici.. .
Esti
Problemidecisionali..................05
Strategie Bayesiane e Stima parametrica....... .
Strategie Bayesiane e Test parametrici.........
Indice analitico
13
ae
30
56
96
110
131
161
199
199
225
233
245
265
290
315
321
323Definizione 1.1:
Esempio 1.1:
TT
Statistiche sufficienti
Parte A: Richiami ed esempi
Una statistica Y, si dice sufficiente (per il parame-
tro 6) se per ogni statistica Y,, la distribuzione di
Y, condizionata a Y, non dipende dal parametro
incognito @. :
Sia X ~b (1, 6): dimostrare che Y = £, X, @ una
1
statistica sufficiente per 0.
Basta verificare che la distribuzione de] campione casuale stesso, condi-
zionata a Y, non dipende da 6.
Da:
Py Xr d)
Pie... X,[Y=— *
9 1. ox, |Y) P,0)
tenuto conto che y=x, +x, +... +x,
e quindi:
Py Oty. Kg V=Py ers. =O" — OY?
n
P0)=(") oa —ar-?
7
si ricava:
el - oy"? n
Py... +4 b= = (")
(‘aor14 Cap. 1 - Statistiche sufficienti
da cui si vede che la distribuzione del campione casuale, condizionata
alla statistica Y, non dipende da @ e quindi Y risulta, in base alla defini-
zione, una statistica sufficiente.
Esempio 1.2: (Un esempio di statistica non sufficiente).
Si supponga di eseguire 3 prove indipendenti,
basate su una v.c, X ~ b(1, 6). Si dimostri che la
statistica
Y=X, +2X, +35
non é sufficiente per 0 .
Per dimostrare cid, basta osservare che:
P,{X, =1, Xp =1, Xs =O/X, +2X, +3X3=3} =
P,{X, =1, X_=1, X;=0, X, + 2X, +3X3 =3}
P,{X, +2X, +3X; =3)
P,{X, =1,X, =X; =0} -
~ P(X =1, Xz = 1, Xy =0) +P, (X, =0,X, =0, Xy=1)
671 —0) 6
o(1—-e+(1-0) 0 6+(1-8)
¢ quindi, poiché la distribuzione del campione, condizionata alla stati-
stica Y, dipende dal parametro 0, ne consegue che la statistica Y non
é sufficiente per 0.
Per verificare se una statistica ¢ sufficiente oppure no, é spesso utile
ticorrere, anziché alla definizione, ad alcuni criteri. Citiamo il seguente:
Criterio di Fisher-Neyman
La statistica Y= Y(X,,..., X,) ¢ sufficiente per 6 se e solo se la di-
stribuzione congiunta del campione pud scriversi nél modo seguente: ©
F(e,|0) +... FO, =s (Oy... x, 10} ° HG... x,)Parte A: Richiami ed esempi 15
dove g(yv1@) é la distribuazione della statistica Y e la funzione H dipen-
de solo dal campione e non dal parametro @.
Esempio 1.3: Sia X una v.c. di Poisson di parametro i, cioé con
distribuzione:
~~
fRIN= ek (x intero > 0) .
Dimostrare, in base al criterio di Fisher-Neyman
che la seguente statistica Y = =, X, @ una statistica
sufficiente per \.
Se X,, X2,...,X, sono ».c. di Poisson indipendenti, identicamente
distribuite, ciascuna di parametro A, Ja statistica Y = z, X, ha, come
€ noto, distribuzione di Poisson di parametro nA, cioé:
(ad)
go|[)=PiY= vy = ~ cone
Ora basta osservare che:
Mo ee
FOA1N FOr)... -FG,IN=T e a
Xytx tata, Ex; : .
aoe ee em 2X0! 1
x1 1x3!. (2, x)! a
=gQ]A) + HO. x2,.-..%,)
”
per poter concludere, in base al criterio di Fisher-Neyman che la stati-
stica Y=, X, é sufficiente.
Esiste poi un secondo criterio, noto come “‘Criterio di Fattorizzazione”,
che consente di evitare la conoscenza della distribuzione della statistica
Criterio di fattorizzazione
La statistica Y= Y(Xy,..., X,,) é sufficiente se e solo se esistono due.
funzioni non negative k, e k, tali che la distribuzione congiunta del16 Cap. 1 - Statistiche sufficienti
campione puo essere espressa tramite la seguente relazione:
FOO). Fg) = ky 0G, oO) halen)
dove k, dipende dal solo campione e non dal parametro 0.
Osservazione 1.1: Il criterio di fattorizzazione é un criterio “costrut-
tivo”, perché consente di trovare una statistica suf-
ficiente e non solo di verificare se una certa statisti-
ca é sufficiente oppure no.
Esempio 1.4: Sia X una variabile casuale assolutamente continua
con densita:
Fix|O= 0+ x9? (@>0, 0
0 se e solo se x € {0,1,...,}, siha, per ogni
funzione u(x):
£,wa}= J ueo("\e a —ar-s =
x=0
“£0 (ewes
ue) § a tk gt
= u(0) + {u(I)n—u(O)n}-@+.:.+
+|y w(," 9) caret} sor
2
Quindi:
E, (u(X)} risulta un polinomio di grado n in 0.20 Gap. I ~ Statistiche sufficienti
L’potesi che £, {u(x)} =0 V0 € (0, 1], implica Pannullarsi di tutti i
coefficienti di tale polinomio e quindi:
u(0)=0=u(1)=u(2)=...=u(n)
Definizione 1.4: La statistica Y si dice completa se lo é la famiglia
Ol) },c0-
n
Esempio 1.8: Se X ~ b(1, 6),la statistica ¥Y = = X; una stati-
stica completa.
Immediata conseguenza del fatto che risulta Y ~ b(n, 8) e dell’esempio
precedente.
Osservazione 1.4: Ricordiamo infine la seguente proposizione estre-
mamente utile per riconoscere la completezza di
molte statistiche:
Se {f(xl@)},.. ¢ una famiglia di distribuzioni di
classe esponenziale e © contiene almeno un punto
interno, la statistica Y = 2,k(X,) oltre ad essere
sufficiente é anche completa.a
Statistiche sufficienti
Parte B: Esercizi
Esercizio 1.1. Sia data la distribuzione discreta:
F160) ="! (1 —0)2- "I con x € {-1, 0, 2}
0 0, 6 > 0: si trovi una statistica sufficiente
e completa per 6.
Si osservi che
£(%|0) =S(x) exp {p(8) » k(x) + 4(8)}Parte B: Esercizi 23
dove
x20
Sx)=
x<0
p(a)y= —1/6
k(@x)=x
q(8) = log(1/0)
per cui f(x/@) risulta una distribuzione di classe esponenziale. Da cid
consegue che la statistica
Y=E,K(X)=2,X,
risulta una statistica sufficiente e completa
Esercizio 1.3. Sia data la distribuzione discreta
(1 — 6/2 per x=0
F109) = i con 0<@<1
a. +6)/2 per x=2
Si chiede:
a) Questa distribuzione é di classe esponenziale?
b)Esiste una statistica sufficiente e completa?
Si osservi che la distribuzione f(x|@) pud essere riscritta in questo mo-
do:
aes
FOl8)= (4-2
er x =Oox=2
: per x x
da cui (sempre perx =0 0x =2):
1-6 x 1+0
3
1¢x10)= exp {(- +) toe 7 tyes =24 Cap. I — Statistiche sufficienti
ke Loe Ly 1-
= ex] pa iG
P 2 4 2 2 sg
Ne consegue che:
a) f(xl@) & una distribuzione appartenente alla classe esponenziale.
b) Y= ,X, risulta una statistica sufficiente e completa per 8.
Esercizio 1.4. Si dica se la seguente distribuzione:
~(@+1)
x
F(x|@)=0 + con x1; @>0
a) appartiene alla classe esponenziale;
b) é dotata di una statistica sufficiente e completa.
a) Si osservi che
F¢|8) = S(x) exp {p(8) + k(x) + (6)}
dove
1 x2l
SQ)=
0 xl
p(0)= —(6 +1)
k(x) = logx
q(8) = log @
Per cui f&|9) risulta una distribuzione di classe esponenziale.
b) Ne consegue che la statistica
Y=Z,M(X,)= , log X, = log Il, X,
risulta una statistica sufficiente e completa.Esercizio 1.5.
Parte B: Eserciti 25
Data la variabile casuale discreta [Link]
x € {-2,-1,1,2}
1
rT Oye ele 2
e Felay=
1
z 6 lel= 1
si trovi una statistica sufficiente per @.
Si consideri la seguente v.c. Z trasformata della v.c. X:
Z=2-1Xl
Z-risulta una v.c. bemoulliana di parametro 8. Di conseguenza la sta-
tistica T= 2,Z,=2n — E 1X, lrisulta una statistica sufficiente e comple-
ta per 6.
Anche la statistica Y = 2n — T=, 1x)! risulta sufficiente in quanto
funzione invertibile di una statistica sufficiente.
Esercizio 1.6.
Sia X una v.c. assolutamente continua con densita
f(x|@) che appartiene alla classe esponenziale.
Si consideri una v.c. Y = h(X), dove h si suppone
invertibile, derivabile con continuitd ¢ non dipen-
dente dal parametro @. Dimostrare che anche la
densita g('|@) della v.c. Y appartiene alla classe
esponenziale. (Nel caso che X sia una v.c. discreta,
si perviene allo stesso risultato sulla Y nella sola
ipotesi che la funzione A sia invertibile).
Dal calcolo delle probabilita é noto che:
e quindi
F(x|0)=2 {hx)|O} + Ih'(x)I
fA10)|0}
£01) Tao26 Cap. I~ Statistiche sufficienti
Dal fatto che la distribuzione di X appartiene alla classe esponenziale
si ricava:
SAO)
8010 = Te aot
exp (p(8) + k[h™()] + q(6)}
e quindi si riconosce che anche la distribuzione di Y appartiene alla
classe esponenziale.
Esercizio 1.7. Sia X ~ f(x |0) dove
1/6 00, x>0
0 x>0
a) in base al criterio di fattorizzazione trovare una
statistica sufficiente per 0;
b)verificare che si tratta di una statistica sufficien-
te, utilizzando il criterio di Fisher-Neyman;
c) verificare se si tratta di una statistica completa.
a) Si osservi che f(x|@)=/, (x)/@
1 Oo
e quindi:
F(%1 (9) + fa]) >... + FOe,]0)= 1/8") +1, +. =
= (1/8") + 1, MAX {x1,X2,.-.4%, })
ne consegue che la statistica Y= MAX {X,, X2,...,X,,}. in base
al criterio di fattorizzazione, é sufficiente.Parte B: Esercizi 27
b) Premessd che la densita di Y= MAX {X,,...,X,}é
c)
_
neytt
C0) se 0)
(dimostrare!) si ha:
1
F110) *F6210)*... £1) = G1, 00=
_ nent 1 :
=e 0) Spar 8019)» ae
La statistica Y= MAX {X,, Xz, ..., X,} @ inoltre completa, per-
ché, da
E,(u(Y)}=0 Weee
si ricava u(y) = 0, qualunque sia la funzione continua u(y). Infatti:
n
ay" ldy=
8 @
o=z,ui=f uoreolnay=[ uo?
lo ‘0
o
= i u@)y""* dy
°
0”
quindi:
e
o= | uQy)y"~'dy Weee
lo
¢, derivando rispetto a @:
u(@ye"-'=0 WeEe
dal che consegue che u(@) = 0 e quindi la completezza della stati-
stica Y.28 Cap. I - Statistiche sufficienti
Esercizio 1.8. Sia X una v.c. di densita
1/6 0)
0 x26
a) Tale distribuzione appartiene alla classe esponen-
ziale?
b) Trovare una statistica sufficiente per 6.
a) Tale distribuzione non appartiene alla classe esponenziale in quanto
il supporto della v.c. X dipende dal parametro @.
b) Indichiamo con [,(x) la funzione caratteristica dell’intervallo
[8 26] cioé:
1 O026
si ha evidentemente:
1
fel=— + 1,0)
e quindi:
F618) P18) + + FEQ1V= Fe" Myla) “Ly Oa) Lgl)
Osservando che
T,(0,)* 61, 0, ) = MIN by, xa,
+ 1, (MAX x1, %2.....%,})
n
si ricava, in base al criterio di fattorizzazione, che una statistica suffi-
ciente per 6 é la seguente statistica bidimensionale (Y,, Y,) dove
Y, =MIN {X,, Xq,...,X,}Parte B: Esercizi 29
e Y¥, =MAX {X,, Xz,...,X,}
Esercizio 1.9. Dimostrazione che la seguente famiglia di distribu-
buzioni
f|0) = 1/0 O0
é completa, mentre non lo é la famiglia:
f(x la)=1/(26) -@0
Nel secondo caso basta infatti considerare la funzione continua u(x) =x
evidentemente non nuila ma tale che per ogni @, risulta E, {u(X)} =0.
Nel primo caso invece si ha:
@ 1 e
O=E, moore | ue) -soleax=— | u(x) dx
°
dacui f u(e) dx =0 per ogni 6 e,
‘0
derivando (rispetto a @) si ottiene
u(@)=0
il che prova che la famiglia é completa.Definizione 2.1:
Esempio 2.1:
2.
Stima parametrica
Parte A: Richiami ed esempi
Uno stimatore Y (di 6) dicesi corretto (0 non di-
storto) se gode della seguente proprieta:
E,{Y}=0 (V6Ee).
Sia X ~ b (1, @), 8€ O=[0, l]e X,, X2,..
un relativo campione casuale.
Lo stimatore Y = risulta_corretto.
Infatti, ricordando che E, {X} =6, siha:
Osservazione 2.1:
Esempio 2.2:
Si badi bene che non sempre esiste uno stimatore
corretto, come prova il seguente esempio:
Sia X una v.c. csponenziale:
X~f(x|0)=6e-°* — (con 6>0, x >0).
Provare che non esiste uno stimatore corretto basa-
to su un campione di taglia 1.Parte A: Richiami ed esempi 31
Supponiamo per assurdo che esista un tale stimatore Y = h(X,). Per
definizione stessa di stimatore si ha h(x,) > 0 Vx, > 0; inoltre, per
la supposta correttezza di Y si avrebbe:
+.
o=z,071=[ h(x) 6 e- °* dx vaco
lo
e cioé:
+e
1=f h(x) +e 8 dx Veco
°
In particolare, supponendo di prendere due valori @,, 82 con 0, >4,
si avrebbe:
os O,x ie Ox
| AG) ee es ax=f AG) eos dx
lo °
e cioé:
+0
Wi) (et eke 9 ds 0
°
mentre, poiché da 6, > 6, risultae "" —e '” <0 Wx >0, per
ben note proprietd degli integrali dovrebbe risultare h(x) = 0 quasi
ovunque e quindi
oe
E,(Y=[ kG -0e-t dx=o
,
contro l’ipotesi che £, {Y} =6 Va>0
Definizione 2.2: Uno stimatore Y dicesi oftimale se, fissato n (il nu-
mero delle prove), Y risulta:
1) corretto
2) avere varianza minore o uguale a quella di ogni
altro stimatore corretto, per ogni valore di
6 €@ (cioé uniformemente in 6).
Osservazione 2.2: Il problema di trovare degli stimatori ottimali in32 Cap. II ~ Stima parametrica
base alla definizione appena data non é facile. A
Priori non siamo nemmeno certi dell’esistenza di
stimatori a varianza uniformemente pid piccola.
(L’esempio 2.2 di questo stesso paragrafo dimostra
anche che non sempre esiste uno stimatore ottima-
le). Ricordiamo i seguenti teoremi, utili ai fini
della determinazione di stimatori ottimali.
Teorema 2.1. (Rao-Blackwell): Date due variabili casuali unidimensio-
nali X e Y, con Y dotata di media e varianza:
E{¥} =m; VAR {Y¥} =02 sia w(x) =E {¥|x}. Si
ha: E (W(X)}=m e VAR {¥(X)} So}.
Inoltre VAR {p(X)} =o}, se e solo se ¥Y = y(X)
quasi ovunque (Y non ha una aleatorieta sua ma
solo quella derivante dall’essere funzione della
X),
Teorema 2.2 (Corollario del teorema di Rao-Blackwell): A partire da
Osservazione 2.3:
Teorema 2.3:
“Asservazione 2.4:
una», c. X ~ f(x|@) (@€O © R)edaun relativo
campiéne casuale X,, X),-.., X,, sia Yy =
=Y,(%).. , X,)una statistica sufficiente per 0
esia Y, =Y,(X,,..., X,,) uno stimatore corretto
di @.
Allora lo stimatore Y; = Y3(¥;) definito come
segue: Y3(v,) = E, {¥2|3,} € uno stimatore
corretto con varianza minore o uguale a quella di
Ye
Quest’ultimo teorema implica che la ricerca di sti-
matori ottimali puo essere limitata alla sola classe
degli stimatori corretti che siano funzioni di una
statistica sufficiente. Rimane ancora aperto il pro-
blema di sapere se, dentro a tale classe esista uno
stimatore ottimale. Una risposta a tale quesito si
ottiene dal seguente:
Data una famiglia di distribuzioni {f(x |@) : 6 € 0},
se esiste una statistica Y sufficiente e completa per
6, & se esiste uno stimatore corretto di 0, funzione
del campione solo attraverso la statistica Y, allora
questo stimatore é ottimale.
La completezza della statistica Y garantisce cheParte A: Richiami ed esempi 33
lo stimatore ottimale (se esiste) é essenzialmente
unico nel senso che se esistono due stimatori
ottimali, questi possono differire al pid su di un
insieme di probabilita zero.
Esempio 2.3: (Stimatore ottimale per la media di una normale
con varianza nota): sia X ~ N(8, 07).
FE’ noto che tale distribuzione appartiene alla classe esponenziale e che
lastatistica Y=) X, é sufficiente e completa per 0.
i
Inoltre:
nE, {X}=n6@
£,(=£,{5 x]=nE,
i=1
E’ quindi immediato concludere che, in base al teorema 2.3 precedente,
n
X,
lo stimatore T = Y/n = = —+ @ (Punico) stimatore ottimale per 6,
n
i
essendo corretto
1
£,(T}=—E, (Y}=0
e funzione della statistica Y sufficiente e completa per 0 .
Esempio 2.4: (Stimatore ottimale per la varianza di una normale
con media nota). Sia ¥ ~ N (m, 6).
La distribuzione f (ea() della X appartiene alla classe esponenziale, in-
fatti:
1 ome
SO1O = Tee 200 =
- Flee (278), =34 Cap, I - Stima parametrica
Se Sm i
exp{ 26 (x? —2xm) 26 7 108 (278)
© quindi la statistica
.
y=)" (4? -2mx,)
ii
risulta, come é noto, sufficiente e completa per @. Poiché inoltre:
E,{Y}= ) £,{x?}-2m ) 8, (%}
Fi i
n
Y WAR, (%,} +m?) —2m + nm
fa
n@ +nm? — 2nm?
n(0--m?)
ne consegue che lo stimatore
v
T=—+m?
n
@ lo stimatore ottimale per @, essendo corretto e funzione della statisti-
ca Y, sufficiente e completa per 6.
Osservazione 2.5. Il metodo seguito per trovare uno stimatore otti-
male é piuttosto standard: si parte con la ricerca
di una statistica Y sufficiente e completa per 0,
si calcola E, {Y} e infine, apportando le eventuali
modifiche, si ricava uno stimatore corretto che, per
come é costruito, é anche stimatore ottimale.
Asservazione 2.6: E’ chiaro che, nella classe degli stimatori corretti,
il miglior stimatore @ quello ottimale: se peroTeorema 2.4:
Definizione 2.3:
Esempio 2.5:
Parte A: Richiami ed esempi 35
lo stimatore ottimale non esiste, acquista impor-
tanza il poter misurare in qualche modo, il “‘grado
di bonta” di uno stimatore corretto: a questo sco-
po si é introdotto il concetto di “efficienza”. Il gra-
do di efficienza di uno stimatore corretto deriva da
un confronto fra la varianza dello specifico stima-
tore ed un numero che rappresenta un corifine
inferiore (noto come confine inferiore di Rao-
Cramer) per la varianza di uno stimatore corretto.
Si ha infatti il seguente teorema:
(Rao-Cramer) Sia X una ».c. unidimensionale (il
cui supporto non dipende da 6) con distribuzione
appartenente alla famiglia {f(x|0) : 0 € [c, d]}.
Sotto leggere ipotesi di regolarita sulla f(x|@) (che
essenzialmente riguardano la possibilita di derivare
sotto il segno di integrale), la varianza VAR, {Y}
di un qualsiasi stimatore corretto Y di @ (basato su
un campione casuale di taglia m) soddisfa a:
1
VAR, YI?
a 2
dove si é posto 1(8) = E, | 5p toe rex |
Uno stimatore Y dicesi efficiente se gode delle
seguenti proprieta:
a) Yécorretto
b) VAR, {¥}= (V6E@)
ou
ni(9)
(Stimatore efficiente per la media di una bernoul-
liana). Sia X ~ b(1, 8).
Al fine di determinare il confine inferiore per la varianza di un qualun-
que stimatore corretto per 6, calcoliamo la quantita
: ;
1(6)=E, {Poa eere19] i Si ha:36 Cap. II — Stima parametrica
F(x|0)= 6 (1 — 8) ~*
log f (x|0) =x log 6 + (1 — x) log (1 — 4)
a x
Fp leet @la=—-
a 2 x? (=x _2x(1-x)
[ap erela] “9 td ey 00-8
Inoltre poiché:
E,{X}= 6
E, {X*}) = VAR, {X} + [E, (X}]? =6(1 — 6) + 0? =6
E, {1 — X)}8, (1+X? —2X}=1+0-20=1-0
si ha:
a-x~ . X¥—x?
= —+ -2———_} =
FQ) = Eq |p: a-0 ~ 6(1—8)
11 2020)
@ 126 d—a)e —
a
61 —6)
a
Consideriamo ora lo stimatore Y = E X,/n.
Evidentemente si ha:
1
VAR, {Y} =
uw ~9a-6)_ 1
= CA) ee ree)
e quindi tale stimatore é efficiente.Osservazione 2.7:
Osservazione 2.8:
Osservazione 2.9:
Teorema 2.5:
Parte A: Richiami ed esempi 37
La quantita /(@) si suole chiamare “Quantita di
informazione” di Fisher, in quanto misura in un
certo senso linformazione su @ contenuta in una
prova sulla X. Si pud dimostrare che la “informa-
zione” su @ contenuta in un campione di taglia
én volte l’informazione contenuta in una singola
prova.
Infine ricordiamo che, nelle solite ipotesi di rego-
larita, la quantita /(@) pud essere calcolata anche
nel modo seguente:
az
1(6)= | tog /¢e|0|
36?
formula che permette spesso semplificazioni nei
calcoli.
La quantita /(@) permette di dare una definizione
alternativa di statistica sufficiente: infatti se Y
una statistica basata su un campione di taglia n si
ha:
Ty (0) 0
2>[Link]}
@>0
Questa distribuzione appartiene alla classe esponenziale; infatti:
1
F(x|8) ==
x
f(x|0)=x2-! exp |-4-toe [F(@) + 0°
da cui segue che la statistica
é sufficiente e completa per @.
Inoltre Y, essendo somma di v.c. indipendenti ed identicamente distri-
buite di tipo Gamma, é ancora una v.c. di tipo Gamma (con parametri
naeé).
Dal Calcolo delle Probabilita ¢ noto che il valor medio della v.c. Y é:
=nod.
8
EAE) %
Se ora consideriamo lo stimatore T = Y/(n a), possiamo affermare che:Parte A: Richiami ed esempi—-39
a) tale stimatore risulta evidentemente corretto;
b)la distribuzione della v.c. T soddisfa alle ipotesi del teorema 2.5 (con
(0) =nal(6*));
c) tale stimatore é@ ottimale (perché corretto e funzione della statistica
sufficiente e completa Y) e quindi, per il Teorema 2.5 precedente,
anche efficiente.
Esempio 2.7: (Esempio di stimatore ottimale ma non efficiente).
Sia X ~ f(|@) con
e
Tc)
F@la)= Stee eee) 0c 07020
dove il parametro c é supposto noto. Si tratta an-
cora di una distribuzione Gamma ma espressa in
forma differente (qui il parametro incognito é
il reciproco del parametro che compariva nell’esem-
pio 2.6, e il parametro c coincide con il parametro
a).
E’ immediato verificare che tale distribuzione appartiene alla classe
esponenziale e che la statistica
n
Y=) X, ésufficiente e completa per 0.
Cerchiamo uno stimatore corretto ¢ funzione della statistica sufficiente
e completa Y cosicché tale stimatore risultera ottimale.
Poiché E, {Y} = proviamo a considerare lo stimatore
ne ne
=
u%
Fi
Dal Calcolo delle Probabilita é noto che la somma di n v.c. indipendenti
di tipo Gamma (con parametri c e @) é ancora una v.c. Gamma di para-
metrinc e 0, per cui:40 Cap. Il — Stima parametrica
a 1 =
E, {Z}= ne+E, |=
al Oke
Seo eae me—k 9 8Y gy =
nef Poo 2
nc-@__¢*” gne-}
ne-1 J, T(ne-1)
yhen2 9 OF dy=
ne
ne—1
Lo stimatore Z non é quindi corretto, tuttavia a questo punto é imme-
diato riconoscere che lo stimatore
1
T=(ne-1) Y
& uno stimatore corretto ¢ quindi ottimale (essendo funzione della stati-
stica sufficiente e completa Y).
Per quanto riguarda la efficienza di 7 non utilizziamo il teorema 2.5
perché non é immediato vedere se la distribuzione della v.c. T soddisfa
alle ipotesi di tale teorema. Calcoliamo quindi il confine inferiore di
Rao-Cramer. Si ha:
|~
:
ae — 9x +(e ~ 1) log + te ( u )
a
50 BF e1O = 35 Te)
+ ger}
| fo:
6°T(c)
—x+c/6Parte A: Richiami ed esempi 41
#,| Flos rein} -{--< a
rE i 6g?
Ricordiamo che:
1 8
alt
elyl ne-1
eche:
+0
1 1 gre
E | [ ee
ol yy J, yt Tinc) ha e dy
@? - gne-2 oe
a 7. yne-3 gov gy =
(ie—D@e-2) J}, Tae-2)"” “ y
2
~ ae — 1) (me — 2)
Calcoliamo la varianza dello stimatore ottimale T.
Si ha:
VAR, {T} VAR, | (ne - 1 t}=(ne -1p- var,{+| -
vee.)
we [pe |
(mc -1)(ne— 2) (ne - 1)
2
nce—242° Cap. I - Stima parametrica
6
Quindi la varianza
n
2
2 dello stimatore ottimale é superiore al con-
2
@
fine inferiore di Rao-Cramer | lo stimatore T non ¢ efficiente.
N.B.: Nei calcoli svolti si é implicitamente supposto che ne > 2.
Osservazione 2.10:
Osservazione 2,11:
Esempio 2.8:
Si badi bene che la varianza di uno stimatore otti-
male rappresenta sempre e comunque un confine
inferiore per la varianza di uno stimatore corretto
(ed anzi rappresenta il miglior confine inferiore
essendo !’estremo inferiore ed anzi il minimo delle
varianze di stimatori corretti). In altre parole, uno
stimatore ottimale non é “meno buono” per il
fatto di non essere “efficiente”: in questo caso
infatti é il confine inferiore che pud essere “miglio-
rato”, e non lo stimatore.
1
Si ricordi che la quantita ———— rappresenta un
nI(@)
confine inferiore per la varianza di uno stimatore
corretto, a condizione che il supporto della distri-
buzione non dipenda da @. Si veda a questo propo-
sito il seguente esempio:
(Esempio di distribuzione per cui la varianza di uno
a
stimatore ottimale é inferiore alla quantita 1) )
Sia X una vc. distribuita in modo uniforme fra
zero e @.
1
fO|== per 00
Abbiamo gia visto (nell’esercizio 1.7) che la statistica Y= MAX {X,,
xy
X,,} € una statistica sufficiente e completa per 0; inoltre:
°
B,v3= [ yg |0)dy=
@
n
= ye
‘0
6"
tay=Parte A: Richiami ed esempi 43
n fy"+2]? no
oe .
pe ge eal n+l
Y é corretto e ottimale perché funzione
della statistica sufficiente e completa Y.
Calcoliamo ora la varianza dello stimatore T.
ae . ak
Quindi lo stimatore T=
VAR, {T} = E, {77} —(E, {T}? =
in + 1)?
-{[ GEM yt go]yay—0? =
0
n+i\
CRY Le dertane =
°
nt+1\
C2) gf meee
| Gea es] -# =
n 9g” n+2]o
Cn
n(n +2) n(n +2)
D’altra parte:
: = a. = 1 = o?
ni(0)
a
n.E, Fa lof ela)
Peo ee oe
vl
1
Quindi la varianza dello stimatore 7, (# . cain) risulta inferiore
n(n +2)44 Cap. I - Stima parametrica
alla qu; ae
hee nI(0) on
1
Si noti che se in questo esercizio si fosse calcolato TI) con la seconda
n.
formula fornita qui (cosa peraltro non [Link] questo esercizio) si sa-
rebbe trovato
1 6g?
nI(8) n
Osservazione 2.12: Spesso (come nei successivi esempi 2.9 e 2.10) si
ha interesse a stimare non il parametro originario 0
ma una funzione dello stesso g(6).
In tal caso uno stimatore Y si dice corretto per
(6) se E, (Y)=g(6). (V0 €6)
Le definizioni di ottimale ed efficiente rimangono
formalmente le stesse ma il confine inferiore di
Rao-Cramer diventa:
{s'(6)?
nI(6)
dove si suppone g(@) derivabile.
Allo scopo di determinare stimatori efficienti o ottimali per g(@),
sono spesso utili i seguenti teoremi:
Teorema 2.6: Sia X una v.c. con distribuzione di classe esponen-
Ziale, cioé:
F&|6) =S(x) exp (k(x) p(@) + q(8)}
Allora (t) lo stimatore
+ Implicitamente si assume che p'(#) # 0 ¢ che siano soddisfatte le usuali ipotesi di regolarit’a
Fichicste dal teorema di Rao-Cramer.Teorema 2.7:
Parte A: Richiami ed esempi 45
é efficiente per la funzione
_ (8)
p'(8)
8(0)=
Sia X una y.c. con distribuzione di classe esponen-
ziale. Allora (t) tutte e sole le funzioni g(@) che
possono essere stimate in modo efficiente sono le
seguenti (a #0)
ead)
p'(@)
e lo stimatore efficiente ¢ dato da:
g@)= +b
yo kX)
Fi
Ysa ———— +b
n
(cfr. Esercizio 2.18).
Inoltre, il teorema 2.3 pud essere esteso pid in generale come segue:
Teorema 2.8:
Esempio 2.9:
Data una famiglia di distribuzioni {f(x |@):4 € @},
se esiste una statistica T sufficiente e completa per
6, e se esiste uno stimatore Y che é corretto per
la funzione g(@) ed é funzione del campione solo
attraverso la statistica T, allora lo stimatore Y é
ottimale.
(Stima di g(@) = 0(1 — 6)). Sia X ~ b(, O) e si
voglia stimare la varianza della v.c. X, cioé la fun-
zione
8(6)=6(1 —6).
La distribuzione della v.c. X é di classe esponenziale, con:
ke) =x
P(8) = log (@/(1 — 4))
q(8) = log(l — 6)
+ Implicitamente si assume che p"(0) # 0 ¢ che siano soddisfatte le usuali ipotesi di regolarita
richieste dal teorema di Rao-Cramer.46 © Cap. II — Stima parametrica
Applicando il teorema 2.7 é facile vedere che esistono stimatori effi-
cienti solo per le funzioni lineari di @ e quindi non esiste uno stimatore
efficiente per la varianza (g(@) = 0(1 — @) non é funzione lineare di 0).
Poiché non esiste uno stimatore efficiente cerchiamo uno stimatore
ottimale. Allo scopo iniziamo col costruire uno stimatore corrctto
per g(@) utilizzando la seguente procedura (applicabile in generale):
consideriamo un evento la cui probabilita sia g(@); una volta trovato
tale evento, la sua funzione indicatrice risulterd uno stimatore corretto
per g(@). Supponiamo in quanto segue che n > 2 e consideriamo il
seguente evento A,
A= {X,=1,X, =0)
E’ owio che:
P(A) =8 (6)
quindi:
1 seX,=1e X=
EO x)
0 altrimenti
é uno stimatore corretto per g(0) .
Ricordiamo inoltre che
To
m1
2 una statistica sufficiente e completa per @ .
Ne consegue che lo stimatore
Y=E(,(X%....,X,)I7)
é corretto per g(8) ¢ funzione della sola statistica T sufficiente e com-
pleta per @ e quindi Y é ottimale per g(@) in virtd del teorema 2.8.
Volendo l’espressione esplicita di Y si noti che
y=0 per T=0 oper T=nParte A: Richiami ed esempi 47
eche per1k}= (Probabilita di “soprav -
vivenza” oltre I’“eta” k).
Ancora una volta, per il teorema 2.7, sappiamo che non esiste uno sti-
matore efficiente per g(@). Cerchiamo quindi di costruire uno stimatore
ottimale.
Consideriamo l’evento A = {X, > k}.
E’ evidente che P(A) = g(@) e che quindi J, (X,,..., X,,) € uno stima-
tore corretto per g(8).
D’altra parte sappiamo che la statistica
fn
7 x,
at
é sufficiente e completa per 6 e quindi, per il teorema 2.8 il seguente
stimatore48 Cap. I — Stima parametrica
Y=E(,(%y,...,X,)I7)
2 ottimale per (8).
Semplici calcoli (che lasciamo al lettore) provano che lo stimatore
Y pud essere espresso come segue:
0 T... £019)
dove k(x,,..., x, ) non dipende da 8.
Tale funzione verrd nel seguito indicata con
Ly... %,50)-
Uno stimatore 6 che, in corrispondenza ad ogni
campione osservato, stima @ come uno dei valori
(se ne esistono) che massimizzano la funzione ve-
tosimiglianza si chiama “‘stimatore di massima vero-
simiglianza” (stimatore di m.v.) per 6.
La definizione di stimatore di massima verosimi-
glianza fornisce un criterio costruttivo per ottenere
degli stimatori (si veda il successivo esempio 2.13).
Tuttavia in qualche caso lo stimatore di massima
verosimiglianza pud non esistere (vedi esempio
2.14) oppure pud esistere ma non essere univoca-
mente definito (come nel successivo esempio 2.16).
(Riprendiamo la distribuzione dell’esempio 2.7).
Sia X ~ f(x] 6)
con f(x|@)= Te + xe- 1p Ox
K
(x > 0,0 0).
Si cerchi uno stimatore di massima verosimiglianza
per 6.
Consideriamo la distribuzione congiunta del campione:
fer)... Fe,|0=(so oxgr} see a -( ul sxeot ven
P(e) Ic)Parte A: Richiami ed esempi 51
gre n |
a ete - Fy
rer Qt... 7 x,) ox { 6 » x;
. . —1
[Se oe
{r(e)]”
Come funzione verosimiglianza possiamo allora considerare la seguente:
1
E(t... ,%,30)= 0" exp fey |
Dobbiamo ora massimizzare questa funzione (di @). Tenuto conto della
monotonia della funzione logaritmo, gli eventuali punti di massimo
della funzione verosimiglianza coincidono con quelli del suo logaritmo.
Spesso massimizzare il logaritmo della verosimiglianza comporta una
semplificazione nei calcoli. In questo caso:
log L (xy,...,%,:0)=ne + log@ —0 “yx,
iF
Si osservi ora che si tratta di una funzione (di @) continua che tende a
meno infinito per 0 che tende a zero 0 a pid infinito; che l'unico punto
in cui si annulla la derivata prima é il punto:
ne
na
¢-— —__
a.
e che questo é l’unico punto di massimo per tale funzione.
Ne consegue che lo stimatore
ne
L%
O%,,...,X,)=
& stimatore di massima verosimiglianza per @ (in questo caso é risultato
unico). Abbiamo gid visto (cfr. esempio 2.12) come questo stimatore
sia consistente ma non corretto né ottimale né efficiente.$2. Cap. If - Stima parametrica
Esempio 2.14: (Non esistenza di uno stimatore di massima vero-
simiglianza)
Sia X una v.c. uniformemente distribuita nell’intervallo da 0 a @ (con
6 parametro positivo incognito).
Se consideriamo come funzione densita la seguente:
1/6 se 0O a +). dove il parametro 6, che
qui é un cosiddetto parametro posizionale, non é
noto. La funzione densita di probabilita della X é:
1 se@ —1/2Potrebbero piacerti anche
Tut1 Unipi
Nessuna valutazione finora
Tut1 Unipi
92 pagine
Cps PDF
Nessuna valutazione finora
Cps PDF
167 pagine
Appunti v3
Nessuna valutazione finora
Appunti v3
191 pagine