Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Contents
1 Introduo
1.1
Notaes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2
1.2.1
1.3
1.4
Famlia Exponencial
Inferncia
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1
. . . . . . . . . . .
10
1.3.2
Isto tudo? . . . . . . . . . . . . . . . . . . . . . . . . . .
14
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
2 Estatsticas
17
2.1
Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
2.2
Sucincia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
2.3
23
2.4
. . . . . . . . . . .
26
2.5
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
3 Estimao Pontual
35
3.1
3.2
3.3
3.4
. . . . . . . . . . . .
35
. . . . . . . . . . . . . . . . . .
37
3.2.1
37
3.2.2
41
3.2.3
. . . . . . . . . . . .
48
60
3.3.1
. . . . . . . . . . . . . . . . . . . . .
62
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
Estimador de Bayes
67
69
4.1.1
. . . . . . . . . . .
69
4.1.2
. . . . . . . . . . . .
77
4.1.3
Teste de Neyman-Pearson . . . . . . . . . . . . . . . . . .
83
4.1.4
86
4.2
P-valores
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3
94
. . . . . . . . . . . . . . . . . . .
95
4.3.1
Fatores de Bayes . . . . . . . . . . . . . . . . . . . . . . .
95
4.3.2
Hipteses Precisas
97
. . . . . . . . . . . . . . . . . . . . . .
5 Estimao Intervalar
99
4
5.1
Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2
Intervalos de Conana
5.3
99
. . . . . . . . . . . . . . . . . . . . . . . 100
5.2.1
Mtodo da Inverso
. . . . . . . . . . . . . . . . . . . . . 101
5.2.2
5.2.3
Avaliando Intervalos
. . . . . . . . . . . . . . . . . . . . . 104
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
105
6.1
6.2
6.3
. . . . . . . . . . . . . . . 105
Prefcio
Este material est sendo construdo para servir como base para alunos do
Mestrado em Matemtica da Universidade Federal do Amazonas.
Em geral,
Esta verso est tentando corrigir estes erros. Ela passar por diversas modicaes, especialmente estruturais, ao longo deste ano.
Assim, fortemente
recomendado que este material no seja utilizado como nica fonte de estudo.
Chapter 1
Introduo
1.1 Notaes
Ao longo deste texto, uma varivel aleatria sempre ser representada por letras maisculas, enquanto que seus respectivos valores observados sero representados por letras minsculas. A exceo ocorre na notao dos parmetros,
que sempre sero representados por letras gregas minsculas
1 mesmo se forem
As funes densidade ou de probabilidade sero designadas por letras minsculas e suas respectivas funes de distribuio sero representadas pelas suas
respectivas letras maisculas. Por exemplo,
f (x|) = ex ,
onde
x, > 0
F (x|) = 1 ex ,
onde
> 0.
f (x|) =
1 Esta
e x
,
x!
onde
x = 0, 1, 2, . . .
> 0,
F (x|) =
x
X
e y
y!
y=0
onde
> 0.
versos teoremas que valem tanto para o caso discreto quanto para o contnuo.
Tradicionalmente, funes de probabilidade de uma varivel aleatria discreta
so descritas como
P (X = x).
P (X = x|) =
onde
> 0.
e x
,
x!
P ( = |x),
que faz sentido no contexto bayesiano mas no comum nos textos que tratam
especicamente desta tipo de inferncia. Contudo, a notao
P (X = x)
ainda
f (x)
F (x).
X,
Z
f (x) =
f (x|)dF ().
X.
X = {X1 , . . . , Xn }
sero
Y.
Para
representado por
Mdia amostral:
=
X
n
X
Xi
i=1
(1.1)
Varincia amostral:
S2 =
n
X
2
(Xi X)
i=1
Estatsticas de ordem:
n1
(1.2)
X(i) ,
Em
X(n) = max{X1 , . . . , Xn }
X1 , . . . , Xn
proveniente de uma
de
na amostra pode, dependendo do contexto, ser uma tarefa rdua. Em vez disso,
usual procurar por um modelo que explique bem a amostra dentro de um
subconjunto de
F .
A abordagem paramtrica supe que a funo de distribuio est completamente especicada por certa quantidade, no observvel, denominada parmetro.
Usualmente, parmetros so representados letras gregas e neste material a letra
ser utilizada sempre que possvel para se referir ao de interesse. Sem maiores
X|
ou seja, a
conhecida.
A famlia
F = {F (.|) : }.
7
necessrio
A abordagem no paramtrica
Z
F (.) F :
1.2.1
x dF (x) < .
Famlia Exponencial
Denio 1.1. Uma famlia de densidades/funes de probabilidade denominada exponencial se existir a decomposio
f (x|) = h(x)c() exp
k
X
!
wi ()ti (x) ,
(1.3)
i=1
Seja
X| Binomial(n, ).
Ento,
n
n x
(1 )nx =
(1 )n ex log()x log(1)
x
x
n
=
(1 )n ex log( 1 ) .
x
h(x) = nx , t(x) = x, c() = (1 )n e w() = log(/(1 )),
p(x|) =
Fazendo
temos
Seja
for
X|, 2 Normal(, 2 ).
Temos que
1
2
f (x|, ) =
exp 2 (x )
2
2 2
1
2
x2
x
=
exp 2 exp 2 + 2 .
2
2
2 2
2
Fazendo
/2 2
que
famlia exponencial.
t1 (x) = x2 ,
X pertence
k
X
!
i ti (x) ,
(1.4)
i=1
onde
1
c ()
k
X
Z
h(x) exp
=
X
!
i ti (x) dx.
i=1
1.3 Inferncia
Considere uma distribuio de probabilidade
amostra
X1 , . . . , Xn .
Em geral, a distribuio
P,
P
P.
P,
P.
denida por
Z
(P ) =
xdP.
A, onde representa
A for um intervalo na
Em relao ao mtodo, existem duas principais abordagens para fazer inferncias: frequentista e bayesiana.
1.3.1
Denio 1.3 (Probabilidade Frequentista). Suponha que um mesmo experimento repetido um grande nmero de vezes sob condies idnticas. Ento
a probabilidade de um evento equivalente a sua frequncia relativa. Esta probabilidade denominada frequentista.
Os resultados da inferncia frequentista baseiam suas propriedades em termos de frequncias relativas: se o experimento for replicado innitas vezes, a
melhor estratgia a que possui bom desempenho na maioria das vezes.
Exemplo 1.3.
Seja
X1 , . . . , Xn
Xi | Bernoulli()
T =
n
X
Xi
i=1
Observe que
E[T |] =
n
X
i=1
E
Xi
1
= E
n
n
n
X
i=1
!
Xi = .
dada abaixo.
f(t )
t=
x = {x1 , . . . , xn }
n
X
xi
i=1
Agora,
e calculado
(1.5)
Se innitas amostras tivessem sido retiradas e, para cada uma fosse associada
seu respectivo valor de
t,
t1 , t2 , . . .
com maior
f ()
quanticada
denominada
priori.
Esta
X|
ob-
f (|x) =
|x
A distribuio de
Exemplo 1.4.
Seja
f (x|)f ()
.
f (x)
denominada
X1 , . . . , Xn
posteriori.
Xi | Bernoulli()
Uniforme(0, 1).
Isto implica que, sem analisar qualquer amostra, voc cr que cada subintervalo
de
(0, 1)
conhecimento sobre
A distribuio de
f (|x) f (x|) f () =
n
Y
seria
f (xi |) f ()
i=1
n
Y
xi (1 )1xi 1 =
Pn
i=1
xi
(1 )n
Pn
i=1
xi
i=1
Pn
i=1 xi + 1, n
i=1 xi + 1). A gura abaixo mostra
um exemplo com a densidade (subjetiva) de antes e depois da amostra x ter
tem-se que
|x
Pn
Beta(
.
12
f( x)
Densidade Beta
Densidade Uniforme
Ao observar o grco acima, pode-se notar que a densidade subjetiva sobre
a posteriori
Pn
E[|x] =
xi + 1
.
n+2
i=1
notar que existe um ponto em comum entre as duas inferncias: ambas utilizam
priori
a posteriori
de
nado verossimilhana.
Denio 1.5. Seja X1 , . . . , Xn uma amostra de variveis aleatrias com densidade/funo de probabilidade conjunta dada por
f (x|).
A funo L : [0, )
L() = f (x|)
13
n
Y
f (xi |).
i=1
1.3.2
Isto tudo?
1.4 Exerccios
1.1.
Seja
X1 , . . . , Xn
k
X
!
wi ()ti (x) .
i=1
Prove que a distribuio conjunta da amostra pertence famlia exponencial.
1.2.
Seja
por
aberto.
MX (s) =
c? ()
.
c? ( + s)
E(X) =
14
d
log c? ().
d
1.3.
f (x|, ) =
com
1
x
exp{x},
()
x, , > 0.
f (x|, ) =
com
x1 (1 x)1
,
B(, )
> 0.
e x
,
x!
f (x|) =
>0
onde
x = 0, 1, 2, . . ..
f (x|) =
com
0<<1
x = 0, 1, 2, . . .
Seo 1.3.1
1.4. (Fcil)
dentes com
r+x1 r
(1 )x ,
x
Seja X1 , . . . , Xn
Xi | Poisson().
Pn
Xi | Poisson(n).
T =
E[T /n|] = .
i=1
T /n?
X xi
t
=
.
5
5
i=1
O que este resultado representa?
15
Calcule
n,
1.5.
X1 , . . . , Xn
(Fcil) Seja
Exponencial(1).
a priori
sobre
Encontre a distribuio
Xi | Poisson().
a posteriori
de
Quanto vale
E[|x]?
1.6.
(Mdio) Seja
X1 | Exponencial().
1.
a>0
P (X a|) 1 ex .
(b) Se a hiptese verdadeira, encontre o valor de
tal que
P (X a|) 0, 95.
(c) Considere a inferncia Rejeita-se a hiptese quando
a.
vezes ocorreu
x > a,
x = 17.
Interprete a
deciso.
1.7.
(Mdio)Seja
X1 |
1.
a priori Exponencial(log(2)).
Calcule a prob-
abilidade
P ( 1).
Interprete este resultado.
(b) Mostre que a distribuio
(c) Observa-se
x = 17.
a posteriori
|x Gama(2, x + log(2)).
Calcule
P ( 1|x).
Compare esta probabilidade com a obtida no item
sultado.
16
(a).
Chapter 2
Estatsticas
2.1 Introduo
Seja
X1 , . . . , Xn
Xi F (.) e considere
(F ). razovel crer
F (.).
Denio 2.1. O conjunto X n representa o espao de todas as amostras possveis de tamanho n e denominado espao amostral.
estatsticas.
Denio 2.2. Qualquer funo T : X n Rn T Rm denominada
estatstica.
denominados
distribuies amostrais.
X = {X1 , . . . , Xn }, ser
T funo de X e, em
caso contrrio, ser utilizada simplesmente a notao T . De modo anlogo, para
a amostra observada x = {x1 , . . . , xn } sero utilizadas as notaes T (x) ou t.
utilizada a notao
T (X)
As estatsticas procuram sumarizar a informao da amostra. Uma das principais caractersticas de uma estatstica o particionamento do espao amostral,
17
Exemplo 2.1.
X1 Gama(1, ).
n
n
X
=
R
. Considere a estatstica T (X) =
+
Pn
i=1 Xi . A distribuio amostral de T uma Gama(n, ) e T = R+ . A estatstica T reduziu a informao da amostra, de dimenso n, para uma informao
escalar.
Seja
X1 , . . . , Xn
2.2 Sucincia
T tal
X|T (X)
X|T (X)
que
no depende de
no depende de
).
(no
Este tipo de
Exemplo 2.2.
X1 , . . .P
, Xn uma amostra iid de X1 Poisson(). Conn
T (X) = i=1 Xi . Sabendo que T (X) Poisson(n), tem-se
Seja
sidere a estatstica
que
f (x, T (x))
f (T (x))
n
e
(n)t
= f (x)
t!
Qn xi
e /xi !
= t! i=1n
e
(n)t
Qn
Pn
t!
xi
i=1 1/xi !
i=1
= t!
= t Qn
.
(n)t
n i=1 xi !
f (x|T (x)) =
logo,
T (X) =
Pn
i=1
Xi
f (x|x, ) =
f (x, x|)
= 1.
f (x|)
18
Avaliar se uma estatstica suciente atravs da Denio 2.3 pode ser uma
tarefa rdua. O teorema a seguir uma importante ferramenta para a busca de
estatsticas sucientes.
Proof.
(2.1)
T (X)
Primeiro, seja
uma
e como
suciente,
(2.2)
f (t|).
h(x) = f (x|t)
g(T, ) =
estatstica
T.
Ento,
f (x, T (x)|)
f (T (x)|)
f (x|)
=P
f (x|T (x), ) =
yX n :T (y)=T (x)
=P
=P
Portanto, como
X|T (X)
f (y|)
h(x)g(T (x), )
yX n :T (y)=T (x) h(y)g(T (y), )
h(x)
yX n :T (y)=T (x)
no depende de
h(y)
tem-se que
T (X)
suciente para
Corolrio 2.6. Se
tambm suciente.
19
Exemplo 2.4.
Seja
f (x|) = n e
h(x) = 1
suciente para .
Fazendo
g(T (x), ) = n e
Pn
i=1
i=1
xi
xi
, tem-se que
T (X) =
Observando a forma de
f (t|) =
Portanto, pelo Corolrio 2.5 tem-se
Exemplo 2.5.
Pn
Seja
n n1 t
t
e .
(n)
Pn
que
i=1 Xi Gama(n, ).
Pn
i=1
Xi
que esta
n
1 Y
I(xi ).
f (x|) = n
i=1
O produtrio acima igual a um se e somente se todas as observaes forem
menores ou iguais que
seja menor que
Assim,
1
I(x(n) ),
n
g(t, ) = f (x|), tem-se que T (X) = X(n)
f (x|) =
e, fazendo
para
X(n)
h(x) = 1
suciente
n n1
t
I(0 < t ),
n
Existem situaes nas quais existe mais de uma estatstica suciente para o
mesmo parmetro, ou uma estatstica suciente est associada a dois ou mais
parmetros.
Exemplo 2.6.
Seja
X1 , . . . , Xn
Xi
Gama(, ).
Ento,
!1
n
n
Y
Y
Pn
1 xi
n n
f (x|) =
xi e
= ()
xi
e i=1 xi .
()
i=1
i=1
Qn
Pn
Assim, T (X) = { i=1 Xi ,
i=1 Xi } uma estatstica suciente bidimensional
Qn
para (alternativamente, tambm correto dizer que T1 (X) =
i=1 Xi e
Pn
T2 (X) = i=1 so estatsticas conjuntamente sucientes para ).
20
Exemplo 2.7.
Fazendo
Seja
= (, )
(
)
n/2
n
1 X
(xi )2
1
exp 2
exp
f (x|) =
(xi )2
2
2
2
2
2
2
i=1
i=1
n/2
o
n n
n
1
1
exp 2 (
x )2 exp
s2 ,
=
2
2
2 2
n
Y
n
n
X
X
(xi )2 =
(xi x
)2 + n(
x )2 = (n 1)s2 + n(
x )2 .
i=1
(2.3)
i=1
Assim, a estatstica
S2}
{X,
tando que
{, 2 }.
No-
n n
o
1 exp 2 (
x )2
2
n n
o
n
f (
x|, 2 ) =
x )2 .
exp 2 (
2
2 2
f (x|) =
n 1/2
o 1 n1
n n
2
n1 2
2
exp
(
x
s
.
exp
2 2
2 2
2 2
2 2
1)/2,(n 1)/2 2 ),
f (s2 2) =
n1
2 2
n1
2
n1
n1 2
1
(s2 ) 2 1 exp
s
,
(n 1)
2 2
f (x|) = h(x)g1 (
x, )g2 (s2 , 2 ),
g1 (
x, ) a densidade da
2
Gama((n 1)/2,(n 1)/2 ) e
onde
Normal(,
h(x) =
/n), g2 (s2 , 2 )
(n 1)
.
(s2 )0,5(n1)
a densidade da
Normal(, 2 /n),
X
S 2 Gama((n 1)/2, (n 1)/2 2 )
S2
so independentes.
(n 1)
S2
2n1 .
2
Teorema 2.8. Se
T (X) =
( n
X
T1 (xi ), . . . ,
i=1
n
X
)
Tk (xi )
i=1
suciente para .
Proof.
??.
Exemplo 2.8.
conjunto
na amostra
Seja
D Z.
X ).
Seja
Ento
f (x) =
n
Y
f (xi ) =
i=1
Portanto, pelo Critrio da Fatorao,
f (z)nz (x) .
zD
suciente para
F.
O exemplo acima tem uma importante implicao: a frequncia dos valores
F.
F.
22
Utilizando o Corolrio
nz (X)/n
tambm so
Exemplo 2.9.
Seja
X1 , . . . , Xn
X1 F .
Seja
T = {X(1) , . . . , X(n) },
onde
X(i)
a i-sima coordenada de
denadas de
so denominadas
F.
estatsticas de ordem ).
Ora, as estatsticas de
f (x|T (x)) =
f (x1 , . . . , xn , T (x))
.
f (T (x))
Note que o numerador acima diferente de zero apenas quando alguma permutao de
igual
t.
f (x1 , . . . , xn , T (x)) =
1
f (t)
n!
f (x|T (x)) =
o que mostra que
suciente para
1
,
n!
F.
possa ser sumarizada em poucos valores, o que implica em procurar pela estatstica suciente com a menor dimenso possvel. Tais estatsticas so denominadas
minimais.
Exemplo 2.10.
e
> 0.
Seja
n
Y
1
I( xi )
f (x|) =
2
i=1
23
f (x|) =
n
1 Y
I( x(i) ),
(2)n i=1
1
I( x(1) )I(x(n) ),
(2)n
1
f (x|) =
I(max |Xi | )
i
(2)n
f (x|) =
Na segunda, a estatstica
e na ltima, a estatstica
mente,
T3
mostrar que
T3
T1
no poderia
T2
Proof.
A prova ser dada apenas para o caso discreto. Primeiro, para qualquer
estatstica
T,
temos que
f (x|) = f (x|)
f (T (x)|)
f (T (x)|)
f (x|)
= f (T (x)|) P
f (y|)
1
f (y|)
.
f (x|)
yX n :T (y)=T (x)
= f (T (x)|)
yX n :T (y)=T (x)
T (x) = T (y)
a razo
o termo
yX n :T (y)=T (x)
f (x)|/f (y|)
no depende de
1
f (y|)
:= h(x).
f (x|)
24
T,
Assim,
constante em relao
o que implica em
f (x|) = f (T (x)|)h(x).
Logo, pelo Teorema 2.4, temos que
suciente.
Agora, seja
em
com o ponto
(x, y)
implicando
f (x|)
h(x)g(w(x), )
h(x)
=
=
,
f (y|)
h(y)g(w(y), )
h(y)
logo, a razo constante em
T (x) = T (y).
nico elemento
T T,
o que implica
W W = {W (x) : x X n }
em T : W T .
X1 Normal(, 2 ).
f (x|) =
1
2 2
n2
Seja
existe um
X1 , . . . , Xn uma
Sabe-se que
n
n1 2
2
exp 2 (
x )
s ,
2
2 2 x
s
]
y
f (y|)
2
2 2 x
1
= exp 2 n(
x )2 n(
y )2 + (n 1)(s2x s2y )
2
(
"
#)
n
n
X
X
1
2
2
2
2
2
2
= exp 2 n(
x ) n(
y ) + (
xi n
x
yi + n
y )
2
i=1
i=1
#)
(
"
n
n
X
X
1
2
2
yi )
xi
= exp 2 2n(
x y) + (
2
i=1
i=1
logo,
Pn
Pn
se e somente se x
= y e se i=1 x2i = i=1 yi2 ,
P
n
2
2
Xi Uniforme(0, ),
Sejam
f (x|) = n I(x(n) ).
25
X1 , . . . , Xn
y.
X(n)
Considere duas
Ento,
I(x(n) )
f (x|)
=
.
f (y|)
I(y(n) )
Sem perda de generalidade, assuma que
tante
c>0
tal que
x(n) = y(n) + c.
I(y(n) + c )
=
I(y(n) )
1,
0,
y(n) + c
,
y(n) < y(n) + c
e a razo no constante em
concluso se
x(n) = y(n) ,
Exemplo 2.13.
Seja
X1 , . . . , Xn
{X(1) , . . . , X(n) }
F.
X1 F .
J vimos
T (X) =
f (x(1) , . . . , x(n) )
f (x)
=
.
f (y)
f (y(1) , . . . , y(n) )
T (x) = T (y) ento a razo
F F , o nico modo da ra ao
Se
constante em relao a
f.
f (x(1) , . . . , x(n) )
f (y(1) , . . . , y(n) )
ser constante em relao a um
qualquer fazer
T (x) = T (y).
ancilares.
Tais estatsticas so
Denio 2.12. Uma estatstica dita ser ancilar para se sua distribuio
no depende de .
Exemplo 2.14.
Seja
2
Normal ,
X
n
e
S2
no depende de
Considere que
conhecido. Ento
X
Normal(0, 1)
n
Tambm foi
n1 2
S Gama((n 1)/2, 1/2) 2n1 .
2
e S 2 so independentes. Portanto,
mostrado que X
X
n
tn1 .
S
T =
Como
pende de
2 ,
logo,
mente.
Exemplo 2.15.
Seja
independentes com
E[Yi |xi ] = 0 + 1 xi ,
ou seja, o valor mdio de
0
X,
1 .
0 , 1
2 ,
ou seja,
x,
a distribuio de
Y |x
suciente para
e, neste caso, a
1 .
Exemplo 2.16.
0
x = (3, 1; 5, 2; 2, 7; 7, 8).
Ento
27
Por exemplo,
x(1)
x(2)
x(3)
x(4)
2,7
3,1
5,2
7,8
Amostra ordenada
Posio
Xi F ,
F
X.
onde
r = (2, 3, 1, 4).
Seja
X1 , . . . , Xn
uma amostra de
R o
x, R pode
de {1, . . . , n}.
Z
p(r) =
Como
p(r|x)f (x)dx =
1
n!
Z
f (x)dx =
1
.
n!
Muitos testes
em
{T, U },
onde
Esta famlia denominada completa se para qualquer funo real g tem-se que
E(g(T )) = 0 para todo implica que g(T ) nula em quase toda parte. Neste
caso, a estatstica denominada completa.
de qualquer estatstica
Teorema 2.14 (Teorema de Basu). Estatsticas sucientes completas so independentes de quaisquer estatsticas ancilares.
Proof.
anlogo). Sejam
Como
T suciente, teremos
g(t) = f (u|t) f (u). Ento
disso, como
que
f (u|t)
f (u)
no depende de
. Alm
. Faa
tambm no depende de
Z
E[g(T )|] = ET | [f (u|T )] ET | [f (u)] =
= f (u) f (u) = 0, .
28
Como
g(t) = 0
independente de
U.
Seja X uma
X1 Uniforme(0, ). Sabe-se que T = X(n)
suciente para (Exemplo 2.5) e que T / Beta(n, 1). Ser mostrado que X(n)
completa. Primeiro, se inf < a() < b() < inf so funes diferenciveis,
tem-se que
d
d
b()
f (x|)dx = f (b()|)
a()
d
d
b() f (a()|) a() +
d
d
b()
a()
d
f (x|)dx.
d
(2.4)
g(t)
qualquer
Z
n n1
n
d
g(t) n t
dt = g() +
ng(t)tn1 n dt
d
0
0
Z
n
n n
n
n
= g()
g(t)tn1 dt = g() E[g(T )].
0 n
d
d
E[g(T )] =
d
d
g() = 0
a equao acima
para todo
Lema 2.15 (Lei do Cancelamento de Lerch). Sejam f1 (t) > 0 e f2 (t) > 0
funes reais positivas e contnuas com domnio em R+ , onde
fi (x)etx dx <
f1 (t)est dt =
(2.5)
Em
g(x)etx dx = 0,
0
o teorema implica em
g(x) = 0
para todo
x.
ser utilizado para mostrar que uma estatstica completa, conforme pode-se
vericar nos dois exemplos a seguir.
1 Este
Seja
X1 , . . . , Xn
A densidade conjunta de
dada por
f (x|) = n exp {n
x} ,
o que implica, pelo Teorema 2.4. Utilizando o Corolrio 2.5, pode-se mostrar
que
Gama(n, n).
X
=
E[g(X)]
g(
x) ,
tem-se que
n n1
x
exp {n
x} d
x
(n)
g(
x)n x
n1
exp {n
x} d
x.
(n)
g(
x)
0
=
0
c(t) = g(t)
Se
= 0,
E[g(X)]
n n1
t
.
(n)
x
,
ento
todo
c(
x) = 0,
c(
x)
e,
n e , apenas quando g(
x) = 0. Por outro lado, se g(
x) = 0 para
= 0. Portanto, E[g(X)]
= 0 se e somente se g(
E[g(X)]
x) = 0
uma estatstica completa.
X
todo
para
k
X
wj ()tj (x) ,
(2.6)
j=1
Proof.
Rk
{w1 (), . . . , wk () : }
contenha um
Exemplo 2.19.
X1 Normal(, 2 ).Note
(
)
n2
n
1
1 X
2
f (x|) =
exp 2
(xi )
22
2 i=1
(
)
n2
n
1 X 2 n
1
x 1
exp 2
=
x +
22
2 i=1 i
2
(
)
n2
n
1
1
1 X 2 n
x
x +
=
exp
exp 2
22
2
2 i=1 i
Seja
X1 , . . . , Xn
vaiid com
que,
(X,
Pn
nula cuja esperana nula. Por exemplo, pelo Exemplo 2.7 sabemos que
Normal(,
/n).
Assim,
2
2 ] = V ar(X)
+ E(X)
2 = + 2 = 2 1 + n
E[X
n
n
e
" n
X
#
Xi2
i=1
Fazendo
g(t) =
pode-se notar que
que
n
1 X 2
X
X
n+1
2n i=1 i
T,
mas
E[g(T )] = 0,
o que implica
no completa.
Exemplo 2.20.
Seja
X1
Binomial(2, ), onde
= {1/4, 3/4}.
Ora,
X1
g(0) = g(2) = 3
g(1) = 5.
X1
no
Ento
Logo,
X1
no completa.
Proof.
Seja
T = f (T )
T0
uma estatstica
f.
Construa
g(T 0 ) = E[T |T 0 ]
(a funo
acima no depende de
porque
suciente). Ento
Contudo,
acima
2.5 Exerccios
Seo 2.1
2.1. Seja X1 , X2 uma amostra de vaiid com X1 |
T1 = X1 /X2 e T2 = max X1 , X2 duas estatsticas.
(a) Encontre a distribuio amostral de
T1
Uniforme(0, ) e sejam
T2 .
(b) Qual destas duas estatsticas voc utilizaria para realizar inferncias sobre
Seo 2.2
2.2.
|X1 |
Seja
X1
X1
Normal(0,
).
A estatstica
suciente?
2.3.
Seja
X1 , . . . , Xn
2.4.
Seja
X1 , . . . , Xn
f (xi |) =
> 0.
onde
2.5.
Seja
1
I(i( 1) < xi < i( + 1)).
2i
X1 , . . . , Xn
f (x|, ) =
<x<
(, ).
onde
para
2.6.
Seja
> 0.
X1 , . . . , Xn
1
exp{(x )/},
Xi
(, ).
2.7.
Gama(, ). Encontre
Seja
2 < 4 ).
Encontre
2.8.
2.9.
(n 1)
2.10.
Seja
X1 , . . . , Xn
f (x|, ) =
com
S2
2n1 .
2
2x3
21
(x )2
exp
2x2
,
(a)
Gaussiana
X
Inversa(, n)
(b)
n
X
1
1
n 1 n
T =
Gama
,
Xi
2
2
X
i=1
(c)
so independentes.
(d)
so independentes.
33
Utilize
Seo 2.3
2.11. Mostre que a estatstica suciente encontrada no Exerccio 2.5 minimal.
2.12.
Seja
X1 , . . . , Xn
2.13.
g
Prove que, se
X1 Bernoulli().
Encontre
.
W = g(T ),
onde
Exemplo 2.11.
2.14.
Seja
FD
2.15.
Seja
F = {F1 , F2 }.
D Z.
Prove que as
F.
se
F2
se
F1
for o verdadeiro
f1 (X)
f2 (X)
F = {F1 , . . . , Fk }.
Seo 2.4
2.16. Utilize os Teoremas 2.16 e 2.17 para provar que,
X1 , . . . , Xn uma
k -paramtricas
k
com {w1 (), . . . , wk () : } contendo um conjunto aberto em R , ento existe uma estatstica suciente completa e minimal para .
se
2.17.
Seja
por
f (x|) = (1 )x1 ,
onde
x = 1, 2, . . . ,
.
0 < < 1.
minimal para
2.18.
X1 , . . . , Xn
uma amostra de
em cada
(a)
f (x|) =
2x
I(0
(b)
f (x|) =
, com
(1+x)1+
(c)
f (x|) =
log x
1 , com
< x < ),
com
> 0.
x, > 0.
x (0, 1)
> 1.
Classicar depois...
2.19. Para cada distribuio a seguir, encontre sua estatstica suciente e sua
respectiva distribuio
1. Poisson()
2. Gama(5, )
3. Uniforme(0, )
4. Pareto(, )
5. Exponencial deslocada:
<.
2.20.
Seja
Utilize
f (x|) = e(x)
Pn I(x > )I( R)I( > 0), ento
PnX(1)
Exponencial(n) e
(X
X
)
Gama
(n,
)
e
X
e
i
(1)
(1)
i=1
i=1 (Xi X(1)
(a) Se
so independentes.
Pn
Pn
X Gama(,P
), ento i=1 Xi Gama(n, ), X/ i=1 Xi Dirichlet(, . . . , )
P
n
n
e
i=1 Xi e X/
i=1 Xi so independentes.
Pn
Pn
Se X|, Binomial(, ), ento
i=1 Xi Binomial(n, ) e X1 , . . . , Xn |
i=1
Hipergeomtrica multivariada(), cuja f p dada por
Qn
n
X
i=1 xi
I( x(n) )
p(x|,
xi ) =
n
(b) Se
(c)
Pn
i=1
2.21.
Seja
a estatstica
2.22.
Seja
i=1
xi
com
= {1/4, 3/4}.
X1
X1
completa.
35
que
36
Chapter 3
Estimao Pontual
3.1 Estimador, Estimativa e Bons Estimadores
Considere a amostra
X1 , . . . , Xn F (.|).
com a quantidade
().
igual a
e tem-se perda
A quantidade
L(T (X), )
0, T (X) =
> 0, caso contrrio.
medida atravs do
1 Na Teoria da Deciso a funo de perda tambm pode ser negativa, implicando que existe
ganho no lugar de perda. Contudo, para os objetivos destas notas, a Denio 3.2 ser
suciente
37
(3.1)
quadrtica
L(T, ) = (T )2 .
(3.2)
R() = ET | [(T )2 ].
Doravante, esta funo ser denotada por
EQMT ().
= E(T |) .
dadas por
R()()d.
a priori,
T1 e T2 com
R1 () < R2 () para todo
de um estimador T tal que
R1 ()
R2 ().
ento, se
T com funo de risco RT () dito ser inadmissvel se existe outro estimador T 0 com funo de risco RT 0 () satisfazendo
RT 0 () RT (), .
que
EQMT () = V ar(T ),
Isto motiva a denio de um melhor estimador dentro desta classe.
V ar(T ) V ar(T 0 ), .
Tambm so
(X)
Esta notao
3.2.1
dado por
E[X k ] = (k) .
39
k -simo
momento de uma
T (k) =
n
X
Xk
i
i=1
Proof.
V ar(X k )
;
n
Exerccio 3.2.
Exemplo 3.2.
Como
para
= V ar[X1 ] = .
V ar[X]
EQMX()=
n
n
Observe que o erro quadrtico mdio do estimador decresce com o aumento do
tamanho da amostra.
= (T
(k)
).
= ((k )).
Portanto, pode-
.. ..
.=.
(m) = m (),
.. ..
.=.
T (n) = m ().
40
Seja o vetor soluo deste novo sistema. As coordenadas de so denominadas estimadores de momentos para .
O mtodo dos momentos uma ferramenta relativamente simples para encontrar estimadores. Existem situaes nas quais outros estimadores no esto
disponveis, ou so necessrios estimativas iniciais para construir novos estimadores. Em ambos os casos o mtodo dos momento til.
Quando
dim() = 2 o estimadores via mtodo dos momentos podem ser obtiT (2) por S 2 no sistema. O motivo dado na seguinte proposio.
dos trocando
V ar[X1 ] = 2 . Ento:
(a) Os sistemas
E[X]
E[X 2 ]
=
2 + 2
,
E[X]
V ar[X]
=
so equivalentes.
(b) S 2 no viciado para 2
Proof.
1 0
1
E[X]
E[X 2 ]
=
.
(b)
E(S ) =
=
=
=
!
!
n
n
1X
1X 2
n
n
2
2
E
E
(Xi X)
=
X X
n1
n i=1
n1
n i=1 i
n
2)
E(X 2 ) E(X
n1
n
+ E(X)
2
V ar(X) + E(X)2 V ar(X)
n1
n
1
= n
V ar(X) V ar(X)
V ar(X) V ar(X)
n1
n1
n
= V ar(X) = 2 .
Exemplo 3.3.
Seja
X1 , . . . , Xn
X1
L() =
n
Y
f (xi |) =
i=1
41
n n o
1
exp
x
.
n
Exponencial(1/),
Como
n n
1 n1
x
exp{n
x},
(n)
Gama(n, n/). Como dim() = 1, o sistema
pelo Corolrio 2.5 tem-se que X
L()
=
X
e, portanto, tem-se que
= X
o estimador para
= .
V ar()
n
Novamente, o erro quadrtico deste estimador diminui com o aumento do tamanho
da amostra.
Exemplo 3.4.
Seja
X1 , X2
Como
E[X] =
o estimador para
Xi
Uniforme(0, ).
,
2
.
obtido via mtodo dos momentos = 2X
Pode-se mostrar
que
f (
x|) =
onde
0 < x
.
2
{min{, 2
x max{0, 2
x }}} ,
2
Corolrio 2.5, tem-se que o estimador de momentos no uma estatstica suciente para
Uma crtica mais severa ao mtodo do momentos que estes podem produzir estimativas que no esto no espao paramtrico, como mostra o exemplo
abaixo.
Exemplo 3.5.
Seja
E(X1 ) = ,
V ar(X1 ) = (1 ).
Assim, os estimadores obtidos via mtodo dos momentos para
X
,
=
X S2
42
(, )
so
S2.
= X
ser um nmero natural. Alm disso, no existe
0 1 e que > 0. De fato, considere a seguinte amostra:
x = {0, 0, 1, 2, 3}. Neste caso, x
= 1, 2 e S 2 = 1, 7, o que produz = 2, 4 e
= 0, 5.
Pode-se notar que dicilmente
garantia de que
3.2.2
Seja
o nmero de caras em
X Binomial(5, ).
= {0, 1; 0, 2; . . . ; 0, 9}. Ao observar x,
5 x
L() = f (x|) =
(1 )5x .
x
Considere que
x = 3.
so dados abaixo:
L()
.1
.2
.3
.4
.5
.6
.7
.8
.9
0,0081
0,0512
0,1323
0,2304
0,3125
0,3456
0,3087
0,2048
0,0729
ento, em innitas
L(0 ).
L().
Algumas destas
43
1. .
Proof.
2. Se
Logo, a maximizao de
suciente
T (x),
estatstica suciente.
X1 Uniforme(0, ).
L() =
n
Y
i=1
f (xi |) =
n
Y
1
i=1
Seja
X1 , . . . , Xn uma amostra
I(0 < xi ) =
1
I(0 < x(n) ),
n
X(n)
L()
comum maximizar
log L()
= X(n)
no lugar de
EMV para
x(n) ,
maximizar as duas
l().
X Poisson().
L() =
n
Y
i=1
Seja
X1 , . . . , Xn uma amostra
f (xi |) =
n
Y
e xi
i=1
45
xi !
en
= Qn
Pn
i=1
i=1
xi !
xi
logo,
l() =
n
X
xi log() n
i=1
Pn
xi
d
l() = 0 i=1 n = 0 = x
P
n
d2
n
i=1 xi
l()|
=
= < 0,
=
2
d2
x
portanto,
= X
o EMV para
= V ar(X)
= V ar(X1 ) = .
V ar()
n
n
l()
Sejam
X1 , . . . , sXn Normal(, 2 ).
n
n1 2
n
log( 2 ) 2 (
x )2
S .
2
2
2 2
2. Mostrar que pelo menos uma das derivadas parciais de segunda ordem,
aplicadas em
negativa.
Pontos crticos:
l() = 0 2 (
x ) = 0
=X
n
1
l() = 0 2 +
((n 1)S 2 + n(
x
)) = 0
2
2
(2 2 )2
n1 2
S
2 =
n
Derivadas de segunda ordem:
2
X
l()|= = 2 < 0
2
2
n
(n 1)S 2
n
n
l()|= =
=
2 3
2
2
2
2
2
3
2
2
( )
2(
)
(
)
2(
)
(
)
n
=
<0
(2
2 )2
2
| =0
2 =
46
n2
0
Portanto,
(n 1)S 2 /n)
(X,
0
2(n2 )2
n2
2(2 )3
(, 2 ).
o EMV para
= (). A
para obter o EMV
EMV para .
(), onde uma funo real. Ento = ()
Proof.
uma funo
L() = L( 1 ())
e pode-se denir a verossimilhana em funo de
como
L? () = L( 1 ()) = L().
Se
o EMV para
,
= ()
e fazendo
(3.3)
tem-se que
= L( 1 ())
= L? (),
L? () = L() L()
para todo
No caso de
Portanto,
EMV para
= ()}.
uma partio de
= { :
forma
para todo
como
L? () = sup L().
(3.4)
L? ()
!
?
sup L () = sup
sup L()
por
= { : = ()}. Portanto, como todos os valores de
levam
, o estimador de mxima verossimilhanca para = ()
.
ao mesmo valor
onde
47
Seja
X1 , . . . , Xn
X1
L() =
n
Y
f (xi |) =
i=1
n
Y
xi (1 )1xi =
Pn
i=1
xi
(1 )n
Pn
i=1
xi
(3.5)
i=1
l() =
n
X
xi log() + (n
n
X
i=1
xi ) log(1 ).
i=1
= X
o EMV para
A funo
=
denominada
chance
(3.6)
Observe que
= /(1 + ),
logo, a verossimilhana em
L() =
1+
Pni=1 xi
1
1+
nPni=1 xi
,
Alterna-
=
o EMV para
X
,
1X
de vaiid com
n
X
X
n
2
l() =
log
+
xi log() +
xi
i=1
i=1
48
2n
n
X
i=1
!
xi
log(1 ).
.
= X/2
= f (1|) = 2(1 ),
com
(0, 1/4].
induzida
1 1p
1 1p
L? () = max L
1 2 , L
1 2
+
2 2
2 2
e a maximizao desta verossimilhana conduzir ao EMV de
Contudo,
X
X
=2
1
2
2
o EMV para
Embora os estimadores de mxima verossimilhana sejam preferveis aos estimadores obtidos via mtodo dos momentos, existem situaes nas quais estes
primeiros no produzem resultados satisfatrios. Os exemplos abaixo ilustram
os problemas que podem ocorrer com os estimadores de mxima verossimilhana.
X1 Uniforme(0, ),
L() =
X1 , . . . , Xn
1
I(x(n) ),
n
(0, ]. Foi mostrado
X o intervalo
X(n) . Por outro lado,
onde o suporte de
EMV para
Seja
uma amostra
como
1
I(x(n) < ),
n
onde o suporte de X o intervalo (0, ). Observe que a diferena entre as duas
uniformes est na possibilidade de x(n) = , logo, as duas so equivalentes exceto
L() =
este conjunto, que tem medida nula. Entretanto, a segunda uniforme denida
Sejam
L() = 2n
n
Y
i=1
Neste caso, a verossimilhana atingir o seu mximo para qualquer
no intervalo
Exemplo 3.13.
com
n = 1, 2, . . ..
Seja
Neste caso,
X1 Cauchy(, 1),
Sejam
X1 , . . . , Xn vaiid
1
f (x|) = (1 + (x )2 )
Ento, a funo de log-verossimilhana
l() = n log
n
X
log 1 + (xi )2 ) ,
i=1
e
X 2(xi )
d
l() = 0
=0
d
1 + (xi )2
i=1
Pn
Q
2 i=1 (xi ) i6=j [1 + (xj )2 ]
Qn
=0
2
i=1 [1 + (xi ) ]
n
X
Y
(xi ) [1 + (xj )2 ] = 0.
i=1
i6=j
2n 1
2n 1,
3.2.3
Seja
C = {T : E(T ) = ()}
().
() com
C.
().
C.
d
E(T (X)) =
d
[T (x)f (x|)] dx
(3.7)
e
V ar[T (X)] < .
Ento,
(3.8)
2
d
d E[T ]
V ar(T (X))
E
2 .
log f (X|)
(3.9)
Cov(X, Y )
1 p
1,
V ar(X)V ar(Y )
o que implica em
Cov(X, Y )2
.
V ar(Y )
V ar(X)
(3.10)
T,
tem-se que
d
d
E(T ) =
T (x)f (x|)dx =
T (x)f (x|)dx
d
d
Z
f (x|)
= T (x)
f (x|)
dx, e como (log g(x))0 = g(x)0 /g(x)
f (x|)
Z
= T (x)
log f (x|) f (x|)dx
Em especial, ao fazer
T = 1,
0=
tem-se
d
E(1) = E
d
log f (X|) .
V ar
log f (X|)
2 !
2
log f (X|)
E
log f (X|)
2 !
log f (X|)
=E
=E
51
X =T
Y = log(f (X|))/,
tem-se
que
2
2
Cov T,
Cov T,
log f (X|)
log f (X|)
=
V ar(T )
2
V ar
log f (X|)
log f (X|)
E
2
E
log f (X|)
2
d
E(T )
d
= h
2 i
E
log f (X|)
Proof.
2
d
d E(T )
2 i
log f (X1 |)
Exerccio.
Proof.
( "
2 #)1
E
log f (X1 |)
Exerccio.
Para a aplicao do Teorema 3.16 necessria a troca da ordem dos operadores derivada e integral(ou somatrio).
X1 Poisson().
??).
Seja
X1 , . . . , Xn
Ento
x1
d
e
d
log f (x1 |) =
log
d
d
x1 !
d
=
[ + x1 log log(x1 !)]
d
x1
= 1 +
52
uma amostra
"
E
"
2 #
2 #
X1
d
X1
X2
log f (X1 |)
=E
1 +
= E 1 + 21 2
d
=1+
=
E(X1 )
E(X12 )
2
2
1
,
V ar(T )
.
n
= .
V ar(X)
n
Como a varincia de
ENVVUM para
X
.
d
E
d
Z
log f (X|) =
f (x|) f (x|) dx,
ento,
E
2 !
2
f (X|)
= E
log
f
(X|)
.
Exemplo 3.16.
Seja
(, ).
1
1
log f (x1 |) =
log
exp (x1 )2
2
2
1
1
1
=
log 2 log (x1 )2
2
2
2
1
1
= + 2 (x1 )2
2 2
53
e que
2
1
1
log f (x1 |) = 2 3 (x1 )2
2
E
log f (X1 |)
2 !
2
log
f
(X
|)
1
2
1
1
3 (x1 )2
2
2
= E
= E
=
1
.
22
V ar(T )
dada por
2
.
n
Corolrio 3.20. Seja X1 , . . . , Xn uma amostra de viid de f (x|), onde f satisfaz as condies do Teorema 3.16. Se T um estimador no viesado para (),
ento T atinge o limite inferior de Cramr-Rao se e somente se
a()[T ()] =
l()
Exerccio.
X1
Bernoulli().
Seja
X1 , . . . , Xn uma amostra
n
Y
d
d
xi (1 )1xi
l() =
log
d
d
i=1
!
=
Pn
Pn
d
log i=1 xi (1 )n i=1 xi
d
!
n
n
X
d X
xi log() + (n
xi ) log(1 )
d i=1
i=1
Pn
Pn
n i=1 xi
xi
= i=1
1
" n
!#
n
X
X
1
=
xi (1 ) n
xi
(1 ) i=1
i=1
n
(
x )
=
(1 )
1 X
2
l() =
log
(xi )
exp
2
2 i=1
!
n
d
n
n
1 X
=
log(2) log
(xi )2
d
2
2
2 i=1
de vaiid com
n
n
1 X
+ 2
(xi )2
2 2 i=1
l() = 2
!
n
1X
2
(xi ) ,
n i=1
1X
(Xi )2
T =
n i=1
no viesado para
Contudo, como
desconhecido,
T no uma estatstica
cuja varincia atinge o
e, portanto, no
limite inferior de
Cramr-Rao.
(),
ento
possvel melhor-lo, isto , obter outro estimador no viesado com uma varincia menor.
Proof.
Primeiro, como
(T ) = E(W |T )
funo
(T )
().
Por ltimo,
L() =
X1 Binomial(2, ).
n
Y
2
i=1
tem-se que
xi
Pn
i=1
"
xi (1 )2xi =
n
Y
2
i=1
Xi
Seja
X1 , . . . , Xn uma amostra
Como
xi
#
(1 )2n
= () = f (1|) = 2(1 ).
W
W =
n
X
I(Xi = 1)
.
n
i=1
Note que
n
X
E[I(Xi = 1)]
E[W ] =
= E[I(X1 = 1)] = f (1|) = ,
n
i=1
56
Considere o problema
Seja
Pni=1
logo,
no viesado para
Como
"
#
n
X
I(Xi = 1)
E[W |T = t] = E
|T = t = E [I(X1 = 1)|T = t] = f (1|t, )
n
i=1
Pn
P (X1 = 1, i=1 Xi = t|)
P (X1 = 1, T = t|)
=
=
P (T = t|)
P (T = t|)
Pn
P (X1 = 1|)P ( i=2 Xi = t 1|)
=
P (T = t|)
2(n1) t1
2(1 ) t1 (1 )2(n1)t+1
=
2n t
2nt
t (1 )
2n
t
t
=
2
1
,
2n 1
2n
2n
logo, aplicando o Teorema 3.21, tem-se que
2n
2
(T ) =
2n 1
X
X
1
2
2
W
(compare o estimador
Suponha que
V ar(W )
T um melhor estimador
e o estimador
H=
1
(T + W )
2
57
().
Ento,
V ar(T ) =
().
Cov(X, Y )
p
V ar(X)V ar(X)
mostra-se que
1
V ar(T + W )
4
1
1
= V ar(T ) + V ar(W ) +
4
4
1
1
V ar(T ) + V ar(W ) +
4
4
= V ar(T )
V ar(H) =
Mas, como
a()
b()
1
Cov(T, W )
2
1p
V ar(T )V ar(W )
2
V ar(H) = V ar(T ).
Entretanto,
W.
Logo,
tais que
T = a()W + b().
Neste caso,
b() = 0.
Portanto,
W =T
o nico ENVVUM.
()
estimador para
seja o ENVVUM.
o ENVVUM para
H = T + aW
no viesado para
().
no
a=
e o menor valor da varincia de
V ar(H)
Cov(T, W )
,
V ar(W )
dado por
Cov(T, W )
V ar(H) = V ar(T ) +
V ar(W )
Cov(T, W )2
= V ar(T )
V ar(W )
2
Cov(T, W )
V ar(W ) + 2
V ar(W )
Cov(T, W )
o que implica em
V ar(H) V ar(T ).
Mas, como
de
T,
ENVVUM, a varincia de
no viesado para
T uma estatstica suciente completa para e seja (T ) qualquer estimador no viciado para (). Ento (T )
o ENVVUM para ().
Proof.
Seja
()
V ar((T )) V ar(W ).
Mas, como
completa,
E[(T ) (T )] = 0 (T ) = (T ).
Portanto,
(T )
ENVVUM para
().
59
X1
Seja
X1 , . . . , Xn uma
ENVVUM para
() = f (0|).
Para tanto, considere o estimador
W (X) =
que no viesado para
().
1X
I(Xi = 0),
n i=1
T (X) =
Pn
i=1
Xi
n
X
Xi = t)
i=1
Pn
Pn
P (X1 = 0, i=1 Xi = t)
P (X1 = 0, i=2 Xi = t)
Pn
Pn
=
=
P ( i=1 Xi = t)
P ( i=1 Xi = t)
Pn
P (X1 = 0)P ( i=2 Xi = t)
Pn
=
P ( i=1 Xi = t)
n
e
[n]t
e(n1) [(n 1)]t
=e
t!
t!
t
n1
=
,
n
f (0|)
T
n1
(T ) = E[W |T ] =
.
n
na
maioria das vezes. Esta noo de proximidade pode ser realizada pela escolha
de uma funo de perda.
em mente que valores de
distantes de
X1
Normal(,
).
Seja
X1 , . . . , Xn uma amostra
Pn
i=1
2
Xi2
so sucientes e com-
no viesado para
2 .
Note
que
X
1 X
2= 1
2 2Xi X)
(Xi X)
(X 2 + X
n 1 i=1
n 1 i=1 i
!
!
n
n
2
X
X
1
n
X
i
2
2
2
=
X nX
=
X
,
n 1 i=1 i
n 1 i=1 n
S2 =
logo, como
S2
ENVVUM para
EQMS 2 ( 2 ) = V ar(S 2 ).
No Exemplo 2.7 foi deixado como exerccio mostrar que
n1 2
S 2n1 .
2
A varincia da distribuio
2n1
2(n 1),
logo
2 n 1 2
V ar(S ) = V ar
S
n 1 2
4
n1 2
V
ar
S
=
(n 1)2
2
4
=
.
2(n 1)
2
61
S2
2 ,
2 =
O valor esperado de
1X
2 = n 1 S2.
(Xi X)
n i=1
n
E[
2 ] =
n1 2
n1
E(S 2 ) =
,
n
n
V ar(
2 ) =
n1
n
2
2 .
Alm disso,
V ar(S 2 ) =
n1 4
.
2n2
EQM 2 ( 2 ) = V ar(
2 ) + (E(
2 ) 2 )2
2
n1 4
n1 2
2
=
2n2
n
4
n1
= 2
+1
n
2
4 (n + 1)
=
,
2n2
logo,
EQMS 2 ( 2 )
4
2n2
=
EQM 2 ( 2 )
2(n 1) 4 (n + 1)
n2
= 2
> 1.
n 1
Por tanto, se o critrio para escolha do melhor estimador for o erro quadrtico
mdio,
S2
o ENVVUM para
a posteriori.
Seja
T0
a posteriori
T 0.
em estatsticas sucientes.
max f (|x)
E|x (|x)
Mediana(|x).
Proof.
Exerccio.
Vimos anteriormente que um estimador podia ser avaliado por uma funo
de perda. No caso frequentista o EQM foi utilizado e a avaliao de seu valor
sob
era recomendada.
EQM
63
Denio 3.28 (EQMP). Seja T (X) um estimador para h(). Erro quadrtico
mdio da posteriori deste estimador
E|x [(T (x) h())2 ].
Exemplo 3.22.
E|x [(T (x) h())2 ] = (T (x) E|x (h()))2 + E|x [h() E|x (h())]2 .
Consideremos
X1 , . . . , Xn | Normal(, 1)
Normal(, 1)
e seja
h() = .
Ento,
T = E|x ().
Notando que
n
1
)2 ( )2
f (|x) exp ( x
2
2
teremos que
n+1
n
x+
exp
(
) ,
2
n+1
1
) e o estimador que minimiza
|x Normal(n
x/(n+1)+/n+1, n+1
o EQMP ser
T (X) = n
+
.
n+1 n+1
de probabilidade para
Exemplo 3.23.
ncias sobre
Seja X| Bernoulli() e suponha que queremos fazer infer = /(1 ). Copnsiderando a conjugada Beta(1, 1), teremos
f (|x)
logo
|x Beta(
Pn
i=1
Pn
xi + 1, n
i=1
Pn
xi
i=1
(1 )n
xi + 1)
Pn
i=1
xi
"
f (|x) =
Pn
i=1
xi
n
n
X
X
B(
xi + 1, n
+1)(1 + )n+2
i=1
3.3.1
#1
.
i=1
Estimador de Bayes
Na seo XXX havamos denido uma funo de perda como sendo uma funo
foi denominado Erro Quadrtico Mdio - e sob esta medida, realizamos nossa
discusso sobre estimadores pontuais na inferncia clssica.
64
T,
P(T, )
.
uma funo
(3.11)
associado a perda
gerando a
seguinte denio.
(3.12)
denio.
de Bayes.
Notemos que
T,
que maximiza
E|x P(T, )
65
tamb maximiza
BR(T ).
3.4 Exerccios
Seo 3.1
3.1. Seja X1 Geometrica().
no viesado para
Mostre que
T (X) = I(X = 0)
um estimador
Seo 3.2.1
3.2. Demonstre o Teorema 3.9.
3.3.
= E(X)
X
S 2 = V ar(X)
Pn
2
i=1 (Xi X) /(n 1). Encontre o estimador via mtodo dos
momentos (utilizando o sistema acima quando for possvel) para as seguintes
onde
S2 =
distribuies:
(a) Poisson:
P (X = x|) = e x /x!, x = 0, 1, 2, . . . ,
>0
(e) Gama:
1
2
Lognormal: f (x|, ) = ( 2 2 x)
exp{.5(log(x) )2 / 2 }, x, 2 > 0
e R.
(f ) t-Student:
(g)
(h)
Seo 3.2.2
3.4. Seja X1 , . . . , Xn uma amostra de vaiid com densidade
f (x|) =
onde
x < .
66
,
x2
ilhana
3.5.
Seja
X1 , . . . , Xn
X1 Uniforme(0, ).
Encon-
Justi-
que.
3.6.
Seja
X1 , . . . , Xn
F (x|, ) =
0,
x
1,
x<0
, 0x
x>
3.7.
Seja
cuja densidade
f (x|, ) =
Encontre o EMV para
2x3
1/2
2
exp 2 (x ) .
2 x
Seo 3.2.3
3.8. Demonstre os Corolrios 3.17 e 3.18.
3.9.
= ()
com E[]
3.10.
ento
ENVVUM para
(b)
X1 , X2
X3
X1 , . . . , Xn
uma amostra de
r .
(a)
3.11.
().
> 0.
67
Uniforme(, 2) com
ima verossimilhana.
3. Qual destes estimadores pode ser melhorado atravs do Teorema de RaoBlackwell?
3.12.
Seja
X1 , . . . , Xn uma
(1 ).
X Bernoulli().
Encontre
X Normal(, 1).
Encontre
o ENVVUM para
3.13.
Seja
X1 , . . . , Xn
2 .
o ENVVUM para
68
Chapter 4
Testes de Hipteses
Paramtricos
Considerando-se a amostra
X1 , . . . , Xn
proveniente do modelo
existem diversos problemas nos quais o objetivo da inferncia levantar evidncias sobre a veracidade de alguma suposio sobre
F (.).
Tais suposies so
denominada hipteses.
X1 , . . . , Xn
Seja
que existam razes fsicas claras, considerar que estas variveis so iid uma
hiptese.
Exemplo 4.2.
Seja
1.
= 0
padro.
2.
> 0
mdia positiva.
Hi , com i = 0, 1, 2, . . ..
Seguem alguns
H1 : = 0.
H2 : > 0.
H3 : X1 , . . . , Xn Normal(, 2 )
H4 : X1 , . . . , Xn
(, 2 )
desconhecido.
F (.|),
onde apenas
desconhecido.
Nesta abordagem,
H0 : = 0 ; H1 : { = 0 } { = 0 }.
O objetivo de uma
H0 : 0 ; H1 : { 0 } { 0 }.
H0 : 0 ,
onde
0 ,
H0
como verdadeira.
H0
como falsa.
Note que estas decises so estatsticas, uma vez que elas so baseadas na
amostra.
H0
quando
H0
verdadeira.
H0
quando
H0
falsa.
70
Por exemplo, se
D(x) = 0
para todo
H0
for falsa.
x Xn
a hiptese
H0
nunca
deciso, possvel associar uma funo de perda para cada valor da estatstica
de teste, na qual obtm-se perda zero sempre que a deciso correta for tomada.
Classicamente, as funes de perda associadas aos testes de hipteses so do
tipo
L(, D(X) = 1) =
e
L(, D(X) = 0) =
onde
c1
c2
0,
c1 ,
se
c2 ,
0,
se
se
se
c0
0
c0
0
R() = E[L(, D)|] =
Se
c1 = c2 = 1,
c1 P (D(X) = 1|),
c2 P (D(X) = 0|),
0
c0
P (D(X) = 1|),
P (D(X) = 0|),
0
c0
admissvel.
hiptese nula.
H0 : 0 .
Doravante,
H0
H0
for ver-
sejam raros se
H0
for verdadeira.
2. Seja
3. Rejeite a hiptese
ou igual a
4. No rejeite
igual a
H0
A estatstica
H0 .
denominada
estatstica de teste.
H0
for ver-
dadeira. Portanto,
com
= {1/4, 3/4}
H0 : =
1
.
4
P5
T = i=1 Xi suciente para . Alm disso,
qualquer (0, 1), T Binomial(5, ). Em particular, sob
1
.
T |H0 Binomial 5,
4
H0
t
f (t|1/4)
0,3955
0,2637
0,0879
0,0146
0,0010
H0
Se
falsa.
t = 5
Se
H0 .
Alm
H0
para valores de
verdadeira:
t=5
H0
0,001. Portanto,
rejeitar
H0
sob
0,2373
elevados. Supondo
H0
H0 .
H0 .
Se
t = 3
0,1035. Portanto, este corresponderia a 1 resultado entre 10. Este resultado no parece ser to incomum quando a hiptese nula verdadeira, o
que levaria a deciso de no rejeitar
H0 .
H0
4.
se
No que foi discutido at aqui, pode-se notar que a deciso sobre rejeitar ou
no uma hiptese baseada na estatstica de teste. Ento, sem perda de generalidade, um teste de hipteses
onde
D(X)
acima seria
D(T ) =
1,
0,
T 4
T <4
cria os conjuntos
R = {x X n : D(T (x)) = 1}
e
A = Rc
denominado
O conjunto
H0
P (X R| 0 ) = P (D(X) = 1| 0 )
a probabilidade da hiptese
H0
1,
0,
T 5
,
T <5
1,
0,
T 4
,
T <4
1,
0,
T 3
.
T <3
D1 (T ) =
D2 (T ) =
e
D3 (T ) =
R() = E[L(, D)|] =
P (X R|), 0 P (Erro
P (X A|), c0 P (Erro
H0
Tipo I)
Tipo II)
= sup P (X R|).
0
sup P (X R|).
0
tambm ser
100%
Seja X1 , . . . , Xn
X1 | Normal(, 2 ), onde 2 conhecido, e considere
uma estatstica suciente
a hiptese H0 : = 0. J foi mostrado que X
completa para e que ,
2
Normal ,
X|
,
n
e que
Z=
Sob
H0
(ou seja, se
H0
X
n
Normal(0, 1)
2
X|H0 Normal 0,
,
n
Assim, valores observados da estatsca
de que a hiptese
H0
H0 , X
R = {x Rn : |
x| > t}.
74
simtrica em torno
t>0
tal que
> t|).
= sup P (|X|
0
Em detalhes,
> t| = 0) + P (X
< t| = 0)
= P (X
t
t
X
X
= P( n
> n
| = 0) + P ( n
< n
| = 0)
t
n
n
=P Z>
t| = 0 + P Z <
t| = 0 , ( mas como Z simtrica
n
n
t| = 0 + P Z >
t| = 0
=P Z>
n
= 2P Z >
t| = 0 ,
o que implica em
P
Seja
n
t
Z>
=
.
2
z/2 =
nt t
P (Z > z ) = .
H0 : = 0
com tamanho
>
1, |X|
0, |X|
z/2
n
z/2
n
Ento ,
1
.
nz/2
=
D(X)
em torno de zero)
Dez pacientes
0,7
1 Os
-1,6
-0,2
-1,2
-0,1
3,4
3,7
0,8
0,0
2,0
qnorm(gama,lower.tail=F).
75
Seja
que
H0 : = 0.
De fato, se a
=0
que implica que o novo sonfero bom em 50% das vezes e neste caso, no tomar
nada tem o mesmo efeito e mais barato! Considere um teste de tamanho 5%
(ou seja, a maior probabilidade de cometer o Erro Tipo I de 0,05).
Como
>
1, |X|
0, |X|
=
D(X)
1,76
z
10 0,05/2
1,76
z0,05/2
10
z0,05/2 1, 96.
O teste se torna
=
D(X)
A mdia amostral dos dados
para rejeitar
H0 ,
> 1, 09
|X|
1, 09
|X|
1,
0,
x
= 0, 75.
no existem evidncias para dizer que mdia da diferena entre as horas de sono
Exemplo 4.7.
onde
Seja
H0 : 0 .
para algum
H0 : 0 = [0 , ).
Sabe-se que
o ENVVUM para
evidncias de que
H0
do
rejeio
R = {x Rn : x
< t}.
Pode-se decidir o valor de
caso,
t
X
0
0
t
t
= sup P Z < n
| = sup FZ
n
.
0
0
76
Neste
onde
Z=
)/ Normal(0, 1).
n(X
)/)
montona decrescente em
Assim, para
0 > 00
FZ ( n(t
tem-se que
sup FZ
0
o que implica em
t
n
= FZ
z
= FZ
t 0
n
t 0
n
.
o valor em
z1 =
t 0
n
t = 0 + z1 .
=
D(X)
0 +
1, X
> 0 +
0, X
z1
n
z1
n
Seja
Xi
X1 , . . . , X10
Considere o Exemplo
X1
Normal(, 1, 76
),
sidere a hiptese
H0 : 0,
ou seja, a diferena mdia no negativa, mostrando que existe um efeito igual
ou maior nas horas de sono ao utilizar o sonfero. Considerando um teste de
nvel de signicncia 5%, tem-se
z10,05 1, 64
Utilizando o exemplo anterior, um teste de nvel(tamanho) de signicncia 5%
=
D(X)
Como
x
= 0, 75
o teste no rejeita
0, 915
1, X
> 0, 915
0, X
H0 .
= 1/2.
Sabe-se que
i=1
completa para
verdadeira, a distribuio de
Pn
X1 , . . . , X10 variveis
H0 :
hiptese de que H0
Sejam
Xi Binomial(10, 0, , 5),
Sob a
p(
x)
p(
x)
0,0
0,001
0,6
0,205
0,1
0,010
0,7
0,117
0,2
0,044
0,8
0,044
0,3
0,117
0,9
0,010
0,4
0,205
0,001
0,5
0,246
do indcios de que
6= 1/2,
logo
R = {x {0, 1}10 : x
>a
para
a > 0, 5,
ou
x
< 1 a},
R = {x {0, 1}10 : x
> 0, 9
ou
x
< 0, 1}.,
R = {x {0, 1}10 : x
> 0, 8
ou
x
< 0, 2}.,
R = {x {0, 1}10 : x
> 0, 7
ou
x
< 0, 3}.,
R1 = {x {0, 1}10 : x
> 0, 8
ou
x
< 0, 2},
x
> .9
0, 05.
ou
x
< 1}
R2 = {x {0, 1}10 :
H0 .
teste serviro de base para a construo da regio de deciso, que nada mais
do que a partio do espao amostral que nos leva a deciso de rejeitar
H0 .
4.1.2
Considere a
H0 : 0 .
Seja
0 ,
o valor em
tal que
(4.1)
0
O valor
a hiptese
quando
. Se L(0 ) estiver
de 0 est prximo do
H0
verdadeira.
Agora, seja
o EMV para
prximo do valor de
Portanto,
(X) =
do evidncias de que
H0
sup0 L()
L(0 )
,
=
sup L()
L()
(4.2)
falsa.
Em geral, o valor de
de modo a satisfazer
Exemplo 4.10.
Seja
xado.
X1 Exponencial(1/),
f (x|) =
com
x, > 0
cuja densidade
1 x/
e
,
e considere a hiptese
H0 : = 1.
79
H0
com tamanho
0 = 1
1, logo
do TRV
(X1 ) =
= X1 .
x
,
L(0 )
= X1 eX1 +1
L()
k (0, 1).
O valor de
= 1,
tem-se que
Z
P ((X1 ) < k|) = E {I((X1 ) k)} =
f (x1 |)dx.
{x>0:xex+1 <k}
(x).
xado existem
c1
c2
tais que
{(x) k} {x c1 } {x c2 }
logo,
Z
f (x1 |)dx =
=
{x>0:xex+1 <k}
f (x1 |)dx
{xc1 }{xc2 }
c1
c2
= P (X1 c1 ) + P (X1 c2 ) = 1 e
+e
e quaisquer valores de
teste de tamanho
P (X1 c1 ) =
P (X1 c1 ) =
tem-se que
c1 = log 1
2
80
1
k
(X1)
c1
c2
X1
Figure 4.1:
c2 = log
sendo o respectivo TRV de nvel
D(x1 ) =
1,
0,
se
2
dado por
x1 log(1 /2)
ou
x2 log(/2)
c.c.
Proof.
h(x)
g(t, )
tais que
f (x|) = h(x)g(t|),
onde
T.
g(t|)
Seja
L? () = g(t|),
a verossimilhana da estatstica suciente. Ento,
sup0 L()
sup0 f (x|)
sup0 h(x)g(t|)
=
=
sup L()
sup f (x|)
sup h(x)g(t|)
sup0 g(t|)
sup0 L? ()
=
=
= ? (t).
sup g(t|)
sup L? ()
(x) =
81
Exemplo 4.11.
de vaiid com
X1 , . . . , Xn uma amostra
H0 : 0 utilizando o
H0 , devemos maximizar a
X1
.
= 1/X
Sob
seguinte verossimilhana
L() = n eX I( 0 ).
Notemos que o ncleo da distribuio acima corresponde ao ncleo da dis-
, logo:
tribuio Gama(n, nX)
Se
0 < 1/X
.
1/X
Se
Se
a funo
0 1/X
0 = 0 .
atingido em
,
0 < 1/X
,
1/X
montona descrescente em
0 =
1
I
X
0 <
logo
0 =
+0 I 0
!n
n
o
L(0 )
0
0 )
(X) =
=
exp nX(
L()
n
exp nX
0+n
= 0 X
A Figura 4.2 mostra o grco de
.
(X) em funo de X
R+ : X
> c}
R = {X Rn+ : (X) < k} {X
Pn
c.
mos que,
> c| 0
sup P (X R|H0 ) = sup P X
0
82
Sabe-
1/
1
(X)
k
1 0
c
X
Figure 4.2:
(X)
83
Seja
o valor da distribuio
G Gama(n, n)
tal que
P (G c0 ) = 1 c =
Portanto, o TRV de nvel
P (G g ) = .
Ento
g1
.
0
> g1 /0 }.
R = {X Rn+ : X
Pn
(1/02 )n/2 exp 21 2 i=1 (Xi 0 )2
L(0 )
o
n
=
(X) =
L()
(1/
2 )n/2 exp (n1)
2
Lembrando que
2 n/2
02
i (Xi 0 )
2
2
(
n
R = {X R : (X) < k1 }
XR :
2
02
n/2
< k1
2
2/n
XR :
< k2 , onde k2 = k1
0 )2
2 + (X
)
(
1
n
< k2
XR :
2
0)
1 + (X
2
0 )2
(X
1 k2
n 1 k2
XR :
<
, fazendo k3 =
,
k2
2
k2
0 )
(X
> k3 .
X Rn :
k1 , k2
k3
hasse as contas. Na prtica, a expresso que levou a estas constantes irrelevante. Antes de darmos a forma nal de nossa estatstica de teste, sabemos que
S2
0 )/ 2 Normal(0, 1),
n(X
que
S 2 Gama
n1 n1
,
2
2 2
84
2
n 1 S2
=
2n1 ,
2
n 2
0 )/ X
0 )
0
(X
(X
= q
= n
tn1 .
S
1 / 2
/ n 1
S
Assim,
R
0 )
(X
> k3 X Rn
XR :
A estatstica
0
X
> k4 .
: n
S
T =
valor da distribuio
signicncia em
zero, teremos
logo
que
t/2 = t1/2 .
Assim a
R = {X R : |T | > t1/2 }.
Este teste denominado
4.1.3
Teste t Bilateral.
Teste de Neyman-Pearson
H0 .
H0
H0 : = 0
contra a hiptese
H1 : = 1 .
Novamente, possvel considerar a razo
(x) =
L(0 )
,
L(1 )
H0 verossmil comparada
(x) existem evidncias de que H0 prefervel
pequenos existem evidncias de que H0 no
H1 .
em relao
H1
e para valores
prefervel em relao
H1 .
(4.3)
H0 :
L(0 )
,
L(1 )
(X) =
Exemplo 4.13.
Seja
X1 Gama(, 1)
e considere as hipteses
H0 : = 1,
contra
H0 : = 2.
A estatstica do TNP
(X1 ) =
eX1
1
L(1)
=
=
,
X
1
L(2)
X1 e
X1
R = {x1 > 0 : x1
1 < k}.
Fixando
tem-se que
k = log().
rejeita
H0
se
X1 > log().
Proof.
Exemplo 4.14.
as hipteses
Sejam
H0 : = 0
L(0 )
en0 0 i=1 i
Pn
(X) =
=
= en(0 1 )
i=1 xi
L(1 )
n
1
e
1
86
0
1
Pni=1 xi
= (T ),
onde
T =
Pn
i=1
Xi
R = {t N : (t) < k} =
( n
X
xi N : e
n(0 1 )
i=1
0
1
t
<k
0
t N : n(0 1 ) + t log
< k1
1
0
= t N : t log
< k2
(notando que log(0 /1 ) < 0)
1
=
= {t N : t > k3 } .
Sob
H0 ,
sabe-se que
Pn
i=1
Xi
Poisson(n0 ) e
k3
vendo (numericamente)
P (T > k3 | = 0 ) = .
Contudo, como
T discreto,
xados.
alguns valores de
Exemplo 4.15.
Seja
e Considere as hipteses
H0 : = 0
contra
H1 : = 10.
A estatstica do TNP dada por
(x) =
L(0 )
e2nx(0 1 ) = (
x).
L(1 )
R = {
xR:
n
x > 1, 64}.
87
4.1.4
Considere um teste
H0 : 0
contra
H1 : c0 .
A tabela abaixo sumariza os dois tipos de erros que podem ser cometidos ao
realizar o teste.
Deciso
Aceitar
H0
Rejeitar
Deciso
H0
Verdade
H1
H0
Erro
correta
Tipo I
Erro
Deciso
Tipo II
correta
P (Erro
Tipo I)
sup P (X R|) .
0
P (Erro
Tipo II)
c0
P (X R|)
Assim, a funo
avaliada em
(4.4)
Exemplo 4.16.
Seja
e considere as hipteses
H0 : = 1
contra
H1 : 6= 1.
O EMV para
= X
e o EMV para
sob
0 = 1.
Como
T =X
(t) = tn ent+n .
e, notando que o grco de
(t)
(4.5)
R = {
x R+ : c1 X
88
ou
c2 , c2 < c1 }.
X
Sabe-se que
Gama(n, n),
X
Gama(n, n). Fazendo g
H0 , X
G Gama(n, n), a regio de rejeio de
e, sob
P (G g ) =
pode ser
um teste de tamanho
onde
dada
por
R+ : X
g/2
R1 = {X
ou
g1/2 },
X
g/2 |) + P (X
g1/2 |)
1 () = P (X R1 |) = P (X
= P (G g/2 ) + P (G g1/2 ).
Considere agora a X(1) Exponencial(n) e suponha que valores extremos
X(1) do evidncias de que H0 falsa. Notando que X(1) Exponencial(n),
sob H0 tem-se que X(1) Exponencial(n). Seja h o nmero tal que P (H
h ) = , onde H Exponencial(n). Ento, uma regio de rejeio para este
novo teste de nvel
de
ou
X(1) h1/2 }.
= 1).
o teste 1 possui um
c0 .
Sejam
1 ()
2 ()
1 1 () 1 2 (), c0 1 () 2 (), c0
1
Poder
1()
2()
Xi Exponencial().
90
H0 : = 1
para uma
D (x)
0
D(x)
-1
Note que
L(0 )
< k kL(1 ) L(0 ) > 0.
L(1 )
dN P (x) d0 (x) = 1,
ento
(x) > k ,
L(0 )
> k kL(1 ) L(0 ) < 0.
L(1 )
x X n,
Z
0
(4.6)
Z
=
k [ (1 ) (1 )] 0 (1 ) (1 ),
o que mostra que qualquer TNP de tamanho
91
um TUMP.
() e regio crtica R um
(a), qualquer TNP de tamanho tambm
, logo (1 ) = (1 ). Pela Equao (4.6), tem-se
Pela letra
um TUMP de tamanho
que
0 (0 ) (0 ) = (0 ) (0 ) .
Como
(0 )
com que
tem-se a
mostrando que
tamanho
TNP de
1 .
contra
H1 : > 0 ,
H00 : = 00
contra
H10 : = 10 ,
onde
00
0
na hiptese alternativa (ou seja, 0
densidade/probabilidade de T e seja
0 e 10
k = inf
tT
g(t|10 )
,
g(t|00 )
92
> 0 ).
10
qualquer ponto
Seja
g(t|)
a funo
onde
T = {t : t > t0
g(t|00 ) > 0
decrescente,
T > t0
ou
Como
possui RVM no
g(t|00 )
g(t|10 )
>k
< k? ,
0
g(t|0 )
g(t|10 )
k ? = 1/k > 0. Assim, pelo Corolrio 4.8, este teste um TUMP para
0
H0 : = 00 contra H10 : = 10 . Para determinar o nvel deste teste, considere
novamente que a famlia de T possui RVM no decrescente e, portanto,
com
g(t|0 )
1 g(t|0 ) g(t|00 ) P (T > t0 |0 ) P (T > t0 |)
g(t|00 )
(0 ) (00 ),
Como
para as hipteses
Como o resultado
Pode-se mostrar, sob as mesmas condies do Teorema 4.13 que o teste que
rejeita
H0 : 0
se e somente se
T < t0
um TUMP de nvel
= P (T <
t0 |0 ).
importante notar que no necessrio encontrar a distribuio da estatstica suciente para vericar se esta possui RVM. De fato, se
da fatorao
L(2 )
h(x)g(t|2 )
=
,
L(1 )
h(x)g(t|1 )
onde
g(t|)
Exemplo 4.17.
onde
02
Seja
T.
H0 : 0 ,
contra
H1 : > 0 .
Fixando
2 > 1 ,
tem-se que
L(2 )
exp
L(1 )
n
x
)
2
1
02
D(
x) =
um TUMP de nvel
1,
0,
= P (T > t0 |0 ).
93
se
se
.
X
Ento, o teste
x
> t0
x
t0
Exemplo 4.18.
Seja
X1 , . . . , Xn
Pn
i=1
T (Xi )
por
f (x|) = x1 ,
onde
x (0, 1)
> 0.
Considere as hipteses
H0 : 0
contra
H1 : < 0 .
Note que
"
#
( n
)
n
Y
X
1
n
f (x|) =
exp
log xi ,
x
i=1 i
i=1
logo,
T =
w() =
Pn
montona crescente
em
a estatstica
(
R=
xX :
n
X
)
log xi < t0
i=1
um TUMP de nvel
= P (T < t0 |0 )
X1 , . . . , Xn vaiid com
H0 : = 0 con-
Sejam
testar
,
X
cuja distribuio
2
2
t
1
g(t|2 )
= e n (2 1 ) e 2n (2 1 ) ,
g(t|1 )
logo,
ses:
> t1 |),
1 () = P (X
enquanto que o TUMP de nvel
< t2 |).
2 () = P (X
94
2()
Poder
1()
2 ()
().
H01
H02 .
1 ()
A parte negritada
R.
Sob suas respectivas hipteses alternativas, estes so os testes com maior poder.
Notando que
H0 = H01 H02
H1 = H11 H12 ,
estas hipteses, sua funo poder sob o espao da hiptese alternativa deveria
ser
() = 1 ()I( 0 ) + 2 ()I( 0 ).
A Figura 4.19 mostra um esboo destas trs funes poder.
regio de rejeio correspondente a funo
()
seria
Notemos que a
R = {x Rn : (x) <
95
4.2 P-valores
Denio 4.15. Um p-valor uma estatstica 0 p(x) 1 cuja valores pequenos do evidncias contra H0 . Um p-valor dito ser vlido se, para todo
0 e 0 1,
P (p(X) |) .
Sob a hiptese nula, a probabilidade de se obter
a
(4.7)
H0
utilizando
p-valores,
comparando-os com
p-valor
<0,01
0,01 -0,05
0,05 - 0,1
>0,1
Os
p-valores
Evidncia
Evidncia muito forte contra
H0
H0
contra H0
H0
ser obtido pelo valor de uma estatstica observada, como mostra o seguinte
teorema.
T (X) uma estatstica cuja valores muito baixos do evidncias de que H0 falsa. Ento, para cada x X dena
p(x) = sup P (T (X) T (x)|).
(4.8)
00
o valor em
tal que
para todo
Para no causar
confuso, faamos
levam a rejeio de
H0 ,
ento
p(x) =
Teorema 4.17. Seja T (X) uma estatstica com distribuio simtrica em torno
de zero, cuja valores extremos do evidncias contra H0 . Dena
p(x) = sup P (T (X) |T (x)||).
(4.9)
T (X) uma estatstica cuja valores extremos do evidncias contra H0 . Ento, os seguintes p-valores so vlidos:
1 .
Observamos a amostra
mais provvel.
1 |x).
H0 : 0
contra
H1 :
P ( 0 |x)
e de
P (
Este o modo mais simples para vericar o quo provvel uma hiptese
composta.
4.3.1
P ( = 0 |x) = 0.
Fatores de Bayes
Consideremos
H0 : 0
contra
H1 : 1 .
Podemos desenvolver um
H0 .
Como
f (x| 0 )
.
f (x| 0 )
A razo acima dene o fator de Bayes.
Notemos que, se
P ( 0 |x) P ( 1 )
.
P ( 1 |x) P ( 0 )
P ( 0 ) = P ( 1 ),
com
1 = {1 }
(4.10)
0 = {0 },
f ()
f ()d
i
fi () = R
e
Z
mi (x) =
f (x|)fi ()d,
i
P ( 0 |x) P ( 1 )
P ( 1 |x) P ( 0 )
R
f (x|)f0 ()d
m0 (x)
= R0
=
.
m1 (x)
f
(x|)f
()d
1
1
B01 (x) =
As funes
H0
(se
H0
fi () mi (x)
H0c
H0
Fator
Evidncia
<1/2
Contra
1/2 a 3/4
H0
Fraca
3/4 a 10/11
Subtancial
10/11 a 30/31
30/31 a 100/101
>100/101
Forte
Muito forte
Decisiva
Claramente, tal escala subjetiva, mas pode servir como base para comparaes.
Exemplo 4.21.
98
4.3.2
Hipteses Precisas
99
100
Chapter 5
Estimao Intervalar
5.1 Introduo
O problema de estimao por regies encontrar um conjunto
seja possvel fazer a inferncia de que
C(x).
C(x)
O conjunto aleatrio
tal que
C(X)
c1
L(, C(X)) =
c1 ,
/ C(X)
0, C(X)
e o risco associado
R() = P (
/ C(X)|)
e o objetivo torna-se encontrar intervalos com o menor valor de
R()
para todo
C(X) = ,
que no til, pois s arma o bvio. Assim, tambm desejvel que o volume
de
C(X)
perda:
L(, C(X)) =
onde
c2
c2 Volume(C(X)) + c1 ,
/ C(X)
,
c2 Volume(C(X)),
C(X)
C(X).
O risco
(, U (X)),
ou fazer
indo
[L(X), ).
R() = E[Comprimento(C(X))|] + P (
/ C(X)|).
A segunda parcela desta soma denominada probabilidade de cobertura.
Denio 5.2. Seja [L(X), U (X)] um estimdor intervalar para . A probabilidade P ( [L(X), U (X)]|) denominada probabilidade de cobertura.
Exemplo 5.1.
Exemplo 5.2.
o intervalo
intervalo? Vejamos:
1< <X
+ 1) = P (1 < X
< 1) =
P (X
= ( n) ( n) = 2( n) 1.
A funo acima montona crescente em
n,
Assim, este intervalo tem no mnimo uma probabilidade 0,64 de cobrir o valor de
Com
102
Nos exemplos acima vimos que um intervalo razovel deveria cobrir o valor
de
com uma probabilidade alta. Este conceito nos leva a seguinte denio.
conforme mostra
o seguinte exemplo.
Exemplo 5.3.
Seja
X1 Exponencial().
(0, X1 ] :
cobertura do intervalo
theta.
Como
existe a probabilidade desta ser cada vez menor, tornando este intervalo
desinteressante.
Exemplo 5.4.
intervalo interessante.
5.2.1
Mtodo da Inverso
para testar
H0 : = 0 .
= 0 .
de nvel de conana
1 .
1 para .
arbitrrio,
Consideremos
Considere a hiptese
teste de nvel
Seja ainda
que
P (X
/ A(0 )) P (X A(0 )) 1 .
Agora, notemos que
P (0 C(X)) = P (X A(0 )) 1 ,
e, como
um intervalo de conana
1 .
P (X R|0 ) = P (X
/ A(0 )) = P (0
/ C(X)) ,
logo,
A(0 )
Exemplo 5.5.
Seja
para
H0 : = 0 .
Temos que
n
X
f (y|) exp{ (yi xi )2 }.
i=1
sX
R = { : |
x2i ( 0 )| > z1/2 },
i
104
A(0 ) = { : z1/2
sX
x2i ( 0 ) z1/2 }.
1
X
X
= [ z1/2 /sqrt
C()
x2i , + z1/2 /sqrt
x2i ].
i
Alm disso, se observarmos o intervalo
plo, a hiptese de que
sobre
=0
[2, 2],
no exerce inuncia
Y ).
5.2.2
Y = Q(X|).
Consideremos que
P (a < Y < b) = 1 = .
Ora, como
no depende de
Q (considerando como
1. Este mtodo
Exemplo
5.6.
P
Gama
(n, P
1) uma quantidade pivotal invertvel. Assim, fazendo
i=1 i
n
o valor tal que P (
i=1 X i < g ) = , teremos
1 = P (g/2 <
n
X
Xi < g/2 ) = P
i=1
logo,
[g/2 /
Pn
i=1
Xi , g1/2 /
A monotonicidade de
Pn
em
i=1
Xi ]
g1/2
g/2
Pn
< < Pn
i=1 Xi
i=1 Xi
um intervalo de conana
1 .
Exemplo 5.7.
X1 , . . . , Xn |, cuja T a estatstica
FT Uniforme(0, 1), temos que FT
Como
e o conjunto
5.2.3
1 .
Avaliando Intervalos
Na seo anterior encontramos mostramos alguns mtodos para encontrar intervalos de conana. Nesta seo mostraremos como avaliar o intervalo encontrado. Consideremos o seguinte exemplo.
Exemplo 5.8.
a>0
Sejam
conhecido e
[X(1) + a, X(n) a]
Contudo, o segundo
A partir do exemplo acima, podemos notar que existem intervalos de comprimentos diferentes com a mesma probabilidade de cobertura. Nestes casos,
natural escolher o intervalo com o menor comprimento. Dependendo da complexidade do conjunto de conana, encontrar o menor conjunto pode ser uma
tarefa complicada, mesmo que numericamente. O Teorema abaixo mostra uma
situao na qual fcil encontrar o intervalo de comprimento timo.
Rb
a
f (x)dx = 1
5.3 Exerccios
106
Chapter 6
Neste
2.
Considere
L()
uma
d
d
log f (x|) =
l()
d
d
(6.1)
2 #
d
log f (x|)
d
(6.2)
(a) As derivadas
d
f (x|)
d
e
d2
f (x|)
d2
existem em quase toda a parte e existem
H1 (x)
H2 (x)
tais que
d
f (x|) H1 (x)
d
e
2
d
d2 f (x|) H2 (x),
com
(b)
R
R
U (x|)
Hi (x)dx < .
e
d2
d 2 l() existem em quase toda a parte.
(b)
(6.3)
e
IF () = E
Proof.
E
d2
log
f
(X
|)
1
d2
(6.4)
Note que
Z
Z
d
d
d
log f (X1 |) =
log f (x1 |) f (x1 |)dx1 =
f (x1 |)dx1
d
R d
R d
Z
d
=
f (x1 |)dx1 = 0
d R
logo,
n
X
d
E [U (X|)] =
E
log f (X1 |) = 0.
d
i=1
108
E
Z
d
d2 log f (X1 |)
1
d
=
f
(x
|)
f (x1 |)dx1
1
d2
R d f (x1 |) d
#
2
Z "
1
d
1
d2
=
1 X 2
q.c.
log f (Xi |) IF (),
n i=1 2
e, pelo Teorema Central do Limite,
1
D
U (X|) N (0, IF ())
n
quando
n .
Tn ,
para qualquer
Portanto, se o EQM de
consistente para
Exemplo 6.1.
P (|Tn (X) | )
Seja
.
X1 , . . . , Xn uma amostra de vaiid com X1 Normal(, 2 ).
e
=X
2 = (n 1)S 2 /n so os EMV para e 2 . Alm
disso,
=
E(X)
e
=
V ar(X)
2
,
n
logo
n
portanto,
consistente. Para
E(
2 ) =
2,
2 + ( )2
n
= 0,
tem-se que
n1 2
n1
E(S 2 ) =
n
n
V ar(
2 ) =
n1
n
2
V ar(S 2 ) = 2 4
n1
,
n2
logo,
portanto,
4n
2 !
n1 2
1
2
+
= 0,
n2
n
tambm consistente.
verossimilhana em torno de
d
1
d2
l()= + ( )2 2 l()=
d
2
d
2
1
+ ( )U (x|) + ( )2 d l()
= l()
=
=
2
d2
2
1 ( )2 l()
= l()
=
2
2
+ ( )
l() l()
110
logo,
exp 1 ( )2 nIF ()
,
L() L()
2
mostrando que a verossimilhana se aproxima de uma densidade normal.
O Teorema abaixo d as condies sucientes para convergncia em distribuio dos EMVs para a distribuio normal.
Teorema 6.4. Sejam X1 , X2 , . . . , Xn vaiid com X1 f (.|), R satisfazendo as condies de regularidade (a) e (b). Suponha ainda que
1. 0 < IF () <
2. E suph:|h|
2 l( + h)
2
Ento
2
2 l()
0 quando 0.
n( ) N (0, IF ()1 ),
onde o o EMV de .
Proof.
Seja
0 (, + u/ n) a expano de l( + u/ n)
de
L().
Para
de Taylor em torno
valor que
em sries
u
u2 2
log f (x| + u/ n) = log f (x|) +
log f (x|) +
log f (x|0 ),
2n 2
n
o que gera a seguinte expresso para
(u)
u
u2 2
(u) = U (x|) +
log f (x|0 ).
2n 2
n
Agora, notemos que
u
(u) = U (x|) +
n
u
= U (x|) +
n
u2 2
u2 2
log f (x|0 )
log f (x|)
2
2n
2n 2
u2 2
2
u2 2
0
log
f
(x|
)
log
f
(x|)
+
log f (x|)
2
2
2n
2n 2
(6.5)
Fazendo
An =
1
n
2
2
0
log
f
(x|
)
log
f
(x|)
,
2
2
111
0 = + h com h u/ n,
n
1 X 2
2
An
log f (Xi | + h) 2 log f (Xi |)
2
n i=1
n
2
1X
2
log
f
(X
|
+
h)
log
f
(X
|)
sup
i
i
2
2
n i=1 {h:|h| un }
0, n ,
logo,
q.c.
|An | 0.
!
n
u2
1 X 2
log f (Xi |) + I() + An
2
n i=1
2
u
u2
u2
(u) = U (X|) I() +
2
2
n
quando
n .
Para
|u| K ,
e o mximo de
(
u),
u
u2
(u) = U (X|) I() + op (1)
2
n
(u) obtido em u
= U (X|)/ nI(). Lembrando
que
=
L()
teremos
U (X|)
= + = +
nI()
n
e, como
D
U (X|)/ n N (0, I()), temos que
D
n N (0, I()1 ).
(6.6)
= q.
dim()
I()
H0 : = 0
contra
H1 : 6= 0 ,
onde
0 )
W = n( 0 )T I()(
onde
o EMV de
2q .
Antes
2. E suph:||h||
T l( + h)
Ento
2
T
o
l() 0 quando 0.
n( ) N (0, I 1 ()).
D
Suponha que
H0
verdadeira. Ento,
.
I()
Uti-
n( ) N (0, I 1 ()),
2q .
1
n( 0 )T
log L() |=0
n
2
n
1
+ ( 0 )T
log
L()
|
=0 ( 0 ).
2
n T
= log L(0 ) +
log L()
(6.7)
1
1
1 2
log
L()
n( 0 )
=
T
n
113
(6.8)
2 log
L(0 )
= ( 0 )T I(0 )( 0 ),
L()
U (X|) =
n
X
i=1
e que
114
Bibliography
Z. D. Bai and J. C. Fu. On the maximum-likelihood estimator for the location
Topics.
Statistical Inference.
ISBN 9780521685672.
D.R. Cox and D.V. Hinkley.
Theoretical Statistics.
ISBN 9780470181447.
B.R. James.
Projeto Euclides.
Journal
The Bayesian Choice: From Decision-Theoretic Foundations to Computational Implementation (Springer Texts in Statistics) by.
Christian P Robert.
Techno-
115