Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Ence
4.2 Estimação pelo Método de Máxima Verossimilhança.
Exemplo 4.4
O Diretor de uma Escola, no início de um certo dia, inquiriu sua bibliotecária sobre o
número médio de retiradas de publicações para consulta, por dia. Alertou-a que
precisava da informação no início do dia seguinte. Não dispondo de dados históricos,
ela resolveu registrar o valor observado naquele dia, e a partir desta única observação,
inferir o número desejado pelo Diretor. Ao final do dia a bibliotecária registrou x = 5
“retiradas para consulta”, e, com base em sua experiência, decidiu informar este próprio
valor como sendo o número médio desejado.
Suponhamos que o número de retiradas X, tenha distribuição de Poisson (λ), cuja
e −λ λ k
função de probabilidade é P(X = k) = , k = 0,1,2,.... .
k!
Recordemos que E(X) = λ, isto é, o próprio parâmetro de P(X = k) .
k\λ 1 2 3 4 5 6 7 8 9 10
P(X=5) 0.0031 0.0361 .1008 .1563 .1755 .1606 .1277 .0916 .0607 .0378
A solução proposta pela bibliotecária, embora rápida, simples e baseada numa única
observação do fenômeno, tem seu valor, na medida que o valor k = 5 é mais provável de
ocorrer se o parâmetro da população é igual a λ = 5.
Exemplo 4.5
Suponha que uma urna contenha bolas brancas e pretas na proporção de 3 para 1, mas a
cor mais freqüente é desconhecida. Sendo assim a probabilidade de seleção aleatória de
uma bola preta é igual a 0.25 ou 0.75. Se n bolas são extraídas aleatoriamente da urna,
com reposição, a distribuição de X, número de bolas pretas observadas, é Binomial
(n,¼) ou Binomial (n,¾), ou seja
n
P(X = k) = p k q n − k k = 0,1,2,...,n e p = 1/4 , 3/4
k
Suponha que n = 3 bolas sejam extraídas, com reposição, e a partir do valor observado
de X tentaremos estimar p. O problema de estimação neste caso é muito simples pois
temos somente duas escolhas: 1/4 , 3/4. Os possíves resultados da amostra e suas
respectivas probabilidades são mostradas abaixo:
k 0 1 2 3
P(k,1/4) 27/64 27/64 9/64 1/64
P(k,3/4) 1/64 9/64 27/64 27/64
0.25 k = 0,1
p̂ ( k ) =
0, 75 k = 2,3
Os dois exemplos apresentados são apenas introdutórios, pois que foram baseados
numa única observação da variável aleatória X.
Definição 4.3
Consideremos uma variável aleatória X com função de distribuição FX (x, θ) , onde θ é
o único parâmetro desconhecido. Seja ( x1 , x 2 ,..., x n ) uma particular observação da
amostra aleatória ( X1 , X 2 ,..., X n ) da variável X. Chama-se função de verossimilhança
da amostra à função
L X ( θ ) = f ( x1 , θ ) f ( x 2 , θ ) ... f ( x n , θ ) se X é contínua
Definição 4.4
Seja L ( x1 , x 2 ,..., x n , θ ) a função de verossimilhança de uma amostra da variável
aleatória X, com função de densidade (ou probabilidade) f (x, θ) . Se θ̂ =
g ( x1 , x 2 ,..., x n ) é o valor de θ que maximiza L ( x1 , x 2 ,..., x n , θ ) , então
Θˆ = G ( X , X ,..., X ) é o estimador de máxima verossimilhança (EMV) do parâmetro
1 2 n
θ.
n
L X ( θ ) = f ( x1 , θ ) f ( x 2 , θ ) ... f ( x n , θ ) ou L X ( θ ) = ∏ f ( x i , θ )
i =1
dL ( x1 , x 2 ,..., x n )
=0
dθ
Por outro lado, L(θ) e ln L ( θ ) têm seu máximo no mesmo valor de θ, e, muitas
vezes é mais fácil encontrar a n-úpla que maximiza o logaritmo de L ( θ ) .
n
L ( θ1 , θ2 ,..., θk ) = ∏ f ( x i , θ1 , θ2 ,..., θk ) .
i =1
maximizam L ( θ1 , θ2 ,..., θk ) .
Exemplo 4.6
Uma amostra aleatória de tamanho n = 2 de uma variável aleatória de Poisson (λ),
resultou nas seguintes observações: k1 = 1 e k 2 = 2 . Calcule a estimativa de máxima
verossimilhança para o parâmetro λ.
Solução:
A função de probabilidade de Poisson é aquela do exemplo 4.4 e a função de
verossimilhança da amostra é
2
e −λ λ k e −λ λ k e −2 λ λ 3
L ( λ ) = ∏ P ( ki , λ ) = → L (1, 2, λ ) =
1 2
i =1 k1 ! k 2 ! 1!2!
Daí, calculamos o ln de L(λ) e sua derivada
Exemplo 4.7
Generalizemos o exemplo anterior para obter o EMV do parâmetro λ da variável
aleatória X com distribuição de Poisson. Considerando uma amostra de tamanho n,
temos
n
∑ Xi
n
e −λ λ Xi λ i=1
L (λ) = ∏ ⇒ L ( λ ) =e-nλ n
∏ ( x !)
i =1 xi !
i
i =1
n n
ln L ( λ ) = − nλ + ln λ ∑ x i − ln ∏ ( x i ) !
i =1 i =1
d ln L ( λ ) 1 n
1 n 1 n
dλ
= −n + ∑ i
λ i =1
x ⇒ − n + ∑ i
λ i =1
x = 0 ⇒ λ = ∑ xi
n i =1
A função de verossimilhança é
n n
∑ xi n− ∑ xi
L ( p ) = p i=1 (1 − p) i =1
n
Façamos y = ∑ x i → ln L ( p ) = y ln p + (n − y) ln(1 − p)
i =1
d ln L(p) y n − y
= −
dp p 1− p
y n−y
− = 0 ∴ y − yp = np − yp ∴ y = np
p 1− p
De forma que a estimativa de máxima verossimilhança de p é
1 n
p̂ = ∑ x i
n i =1
1 n
Conclui-se daí que o EMV de p é a média da amostra X = ∑ X i
n i =1
Exemplo 4.9
Seja ( X1 , X 2 ,..., X n ) uma amostra aleatória de uma variável normalmente distribuída
com parâmetros µ e σ 2 . A função de verossimilhança da amostra é dada por
( x i − µ )2
L ( µ, σ ) = ∏
n
1
2
exp −
i =1 σ 2π
2σ2
n 2
1 ∑ ( x i − µ )
= exp − i =1
( 2πσ ) 2 n 2
2σ 2
ln L ( µ, σ 2 ) = − ln ( 2πσ2 ) − 2
n
n 1
∑(x − µ)
2
2σ
i
2 i =1
Daí, temos
d ln L ( µ, σ2 ) 1 n
dµ
=
σ2
∑(x
i =1
i − µ) = 0
d ln L ( µ, σ2 )
n 1 n
4 ∑( i
+ x − µ) = 0
=−
2
dσ 2
2σ 2σ i =1
2
As soluções das equações acima fornecem os EMV dos parâmetros, quais sejam:
1 n
∑ Xi
1 n
∑ ( Xi − X )
2
µˆ = X = e σˆ 2 =
n i =1 n i =1
Exemplo 4.10
Obter o EMV do parâmetro p da variável aleatória Geométrica e a seguir da função
θ = g ( p ) =1-p=q .
Solução:
Se X é geométrica(p) ⇒ P(x) = pq x −1 x=1,2,3,.... e a função de verossimilhança é
n
∑ xi −n n
∴ ln L(p) = n ln p + − n + ∑ x i ln(1 − p)
L(p) = p n q i=1
i =1
Derivando-se em relação a p , temos
d ln L(p) n 1 n
dp
= −
p 1− p − n + ∑
i =1
xi
n
1 1
n − np + np − p∑ x i ⇒ p = ⇒ p= ˆ
i =1 x X
Consideremos agora a função θ = g ( p ) = 1 − p e façamos p = g −1 ( θ ) = 1 − θ em L(p),
isto é .
n
n ∑ i
x −n
L x, g −1 (θ) = (1 − θ ) θ i=1
n
ln L x, g −1 (θ) = n ln(1 − θ) + ∑ x i − n ln θ
i =1
Derivando-se em relação a θ , temos
n
−n ∑
d ln L x, g −1 (θ)
xi − n
= + i =1 =0
dθ 1− θ θ
n n n
nθ = (1 − θ ) ∑ x i − n ∴ nθ = ∑ x i − n + nθ − θ∑ x i
i =1 i =1 i =1
n n
1
θ∑ x i = ∑ x i − n ∴θ = 1 −
i =1 i =1 x
Definição 4.5
Frederico Cavalcanti INF005 35
Inferência Estatística
Ence
Se Θ̂ é estimador de máxima verossimilhança do parâmetro θ, então G Θ ˆ é estimador ( )
de máxima verossimilhança de g(θ).
Exemplo 4.11
Obter o EMV da função θ = g(θ) = P(X = 0), onde X tem distribuição de Poisson (λ).
Conforme exemplo 4.7,
n n
ln L ( λ ) = −nλ + ln λ ∑ x i − ln ∏ (x i !)
i =1 i =1
Verificamos que θ = P(X = 0) ⇒ θ = g ( λ ) = e , isto é, θ é uma função do parâmetro
−λ
λ, e λ = g −1 ( θ ) = − ln θ .
Se substituirmos em ln L ( λ ) , obtemos
n n
ln L g −1 ( θ ) = n ln θ + ln ( − ln θ ) ∑ x i − ln ∏ (x i !)
i =1 i =1
dθ
= + ∑
θ θ ln θ i =1
x i = 0 ∴ n ln θ = −∑ x i
i =1
Finalmente,
n
∑x i
ln θ = − i =1
⇒ lnθ = − x ⇒ θ = e-x
n
Assim, o estimador do parâmetro θ é Θ ˆ = e −Λˆ ⇒ Θ
ˆ =g Λ ( )
ˆ = e− X
4.2.2 - Seja X uma variável aleatória com distribuição exponencial (λ). Dada uma
amostra aleatória de tamanho n, de X, encontre o EMV para o parâmetro λ da
distribuição. Obtenha ainda o EMV para a função de λ definida por P(X ≤ 1) .
4.2.4 - Seja ( X1 , X 2 ,..., X n ) uma amostra de origem N µ, σ02 . Sendo σ02 conhecida,
obtenha o EMV do parâmetro µ.
ρˆ = i =1 i n i n
( X − X ) ∑ ( Y − Y )
2 1/ 2 2 1/ 2
∑
n n
i =1 i n i =1 i n
1 n
O valor x = 0, 22 foi resultado da aplicação do estimador X = ∑ Xi , onde Xi é uma
n i =1
variável aleatória de Bernoulli. O estimador usado, média da amostra, é o estimador
obtido tanto pelo método dos momentos quanto pelo de máxima verossimilhança.
Suponhamos que Θ ˆ e Θ
1
ˆ sejam estimadores comuns do parâmetro θ . Através da
2
distribuição da amostra podemos construir as leis de probabilidade de ambos os
estimadores, e, o problema de escolher o melhor estimador se reduziria à comparação
das duas distribuições de probabilidade.
Imaginemos que Θ̂1 tenha uma certa distribuição de probabilidades tal que
k ˆ k
Pθ− ≤ Θ 1 ≤ θ+ = 0,90 , enquanto que Θ̂ 2 , embora com a mesma distribuição de
2 2
k ˆ k
Θ̂1 , seja tal que P θ − ≤ Θ 2 ≤ θ+ = 0,90 , para k inteiro positivo.
4 4
Definição 4.7
ˆ = θ + B Θ
Se Θ̂ é um estimador tendencioso de θ , então E Θ ˆ ( ) ˆ
, onde B Θ é
chamada tendenciosidade do estimador Θ̂ . Se B Θˆ =0, o estimador é não
( )
tendencioso, isto é, E Θ
ˆ −θ = 0.
Exemplo 4.12
Se X é uma variável aleatória com função de densidade dependendo de um parâmetro µ,
tal que E ( X ) = µ , então a média da amostra originária de X é um estimador não
tendencioso do parâmetro.
1 n
n
1
E ( X ) = E ∑ i =1 X i = E
n
(∑ n
i =1 )
Xi =
1 n
∑ E(Xi )
n i =1
(4.3)
E ( X ) = ∑ i =1 µ = n µ = µ
1 n 1
n n
Exemplo 4.13
Dada uma amostra aleatória de uma população X com média µ e variância σ 2 chama-se
momento central de segunda ordem da amostra (vide exercício 3.2) à estatística
definida por M′2 = ∑ ( X i − X ) .
1 n 2
n i =1
n i =1 n i =1
1 n 1 n
E(M′2 ) = E ∑ X i2 − nX 2 = ∑ E ( X i2 ) − E ( X 2 )
n i =1 n i =1
E(M′2 ) = E ( X i2 ) − E ( X 2 )
Recordemos que,
σ2
E (X 2
i )=σ 2
+µ 2
e E (X ) =
2
+ µ2
n
De forma que,
σ2
E ( M′2 ) = σ2 + µ 2 − + µ 2
n (4.4)
n −1 2 σ2
E ( M′2 ) = σ = σ 2
−
n n
Teorema 4.1
Se ( X1 , X 2 ,..., X n ) é uma amostra aleatória de uma variável X com média µ e variância
1 n
∑ ( X i − X ) é um estimador não viciado do parâmetro
2
σ 2 então a estatística S =
2
n − 1 i =1
σ2 .
Prova:
A demonstração do teorema é imediata levando em conta o resultado do exemplo
anterior,
1 n 2 n −1 2
E ( M '2 ) = E ∑ ( X i − X ) = σ
n i =1 n
n 1 n 2
× E ∑ ( Xi − X ) = σ2
n −1 n i =1
n 2
× ∑ ( Xi − X ) = σ2
1 n
E
n − 1 n i =1
1 n
2
E ∑ ( Xi − X ) = σ2
n − 1 i =1
Exercício Proposto:
Verificar se S é um estimador não tendencioso do parâmetro σ, desvio padrão de X,
N ( µ, σ ) , origem de uma amostra aleatória de tamanho n. Se S é tendencioso, qual a
sua tendenciosidade?
Teorema 4.2
Seja ( X1 , X 2 ,..., X n ) uma amostra aleatória de uma variável aleatória X.
Em geral, se existe o momento ordinário - centrado em torno de zero - de ordem s de
X, αs ( X ) = E ( X s ) , s = 0,1,2..., então o momento de ordem s da amostra, definido pela
1 n
estatística M S = ∑ ( Xi ) é um estimador não tendencioso de αs ( X ) .
s
n i =1
Prova:
1 n s 1 n 1 n
E(M S ) = E ∑ ( X i ) = ∑ E ( X i ) = ∑ αs ( X ) = α s ( X )
s
(4.6)
n i =1 n i =1 n i =1
ˆ = E 1 ∑10 X = µ
ˆ = 1 ∑10 X ⇒ E Θ
b) Θ10
10 i =1 i 10 10 i =1 i
Desta maneira, no formato média, temos 2n − 1 estimadores não tendenciosos para o
parâmetro µ, e em conseqüência, necessitamos portanto, estabelecer um critério para
escolher qual estimador preferível em cada caso.
Se σ 2 é a variância da população, temos que as variâncias de dois dentre os estimadores
citados acima são:
1 10 1 σ2
b.1) Var(Θ10 ) = Var ∑ X i =
ˆ × 10σ =
2
10 i =1 100 10
ˆ ) = Var 1 ∑ X = 1 × 15σ 2 = σ
15 2
b.2) Var(Θ 15 15 i
i =1 225 15
Segundo análise já feita anteriormente, é óbvio que escolheremos Θ̂15 , se apenas as
duas opções são viáveis, pois que Var(Θˆ ) < Var(Θ
15
ˆ ).
10
Exercício proposto:
Seja X uma variável aleatória de Poisson de parâmetro λ. Mostre que para 0 < α < 1, a
variável αX + (1 − α ) S2 é um estimador não tendencioso do parâmetro λ.
Definição 4.8
Se considerarmos todos os estimadores não tendenciosos de um parâmetro θ, aquele
com a menor variância é chamado estimador não tendencioso de variância mínima
(MVUE (1) de θ ).
Definição 4.9
( ) ( )
2
O erro médio quadrático de um estimador Θ̂ é definido por MSE Θ
ˆ =E Θ
ˆ −θ .
O erro médio quadrático pode ser escrito da seguinte forma:
( ) ( ) ( )
2
ˆ = E Θ
MSE Θ ˆ −E Θ ˆ − θ
ˆ +E Θ
= E {Θ ˆ )} + {E ( Θ
ˆ − E (Θ ˆ ) − θ}
2
= E {Θ ˆ )} + {E ( Θ
ˆ − E (Θ ˆ ) − θ} { ( )}{E ( Θˆ ) − θ}
2 2
+2 Θ
ˆ −E Θ
ˆ
De forma que
Frederico Cavalcanti INF005 43
Inferência Estatística
Ence
( ) { ( )} { ( ) }
2 2
MSE Θ
ˆ =E Θ
ˆ −E Θ
ˆ + E Θ
ˆ −θ
ˆ ) + {B Θ
MSE ( Θ }
ˆ ) = Var(Θ
2
ˆ (4.7)
Isto é, o erro médio quadrático de um estimador é igual à sua variância mais o quadrado
de sua tendenciosidade. Se Θ̂ é um estimador não viciado de θ, então seu erro médio
quadrático é igual à VAR Θ̂ . ( )
(1) MVUE - Minimum Variance Unbiased Estimator
(2) MSE - Mean Square Error
( )
dois estimadores quaisquer de um parâmetro θ , e se MSE Θ1 e MSE Θ 2 são os
ˆ ˆ ( )
seus respectivos erros médios quadráticos, chama-se eficiência relativa entre os
estimadores à razão
MSE Θˆ
1
.
( )
MSE Θ
ˆ
2 ( )
Se esta razão for menor do que 1 concluímos que Θ̂1 é um estimador mais eficiente de
θ do que Θ̂2 , no sentido de que ele tem menor erro médio quadrático.
Embora já discutido anteriormente, vale a pena recordar que: dada uma amostra de uma
variável aleatória X, tanto X quanto qualquer das X i , são estimadores não viciados de
µ = E ( X ) , pois para i=1,2,...,n E ( X ) = E ( X i ) = µ.
, e, portanto,
MSE ( Θ
ˆ ) Var ( X ) σ 2
2 i n
para amostras de tamanho n ≥ 2 , concluímos que X é um estimador mais eficiente que
X i na estimação de µ, pois a eficiência relativa de X i para X , é menor do que 1.
Algumas vezes poderemos preferir estimadores viciados a não viciados se eles têm
menor erro médio quadrático. Isto é possível quando pudermos reduzir
consideravelmente o MSE, com a introdução de uma pequena tendenciosidade. Uma
aplicação de estimação tendenciosa poderá ser estudada em [6] sec. 7.2 (pag. 374) e [9]
sec. 10-13 (pag. 613).
Definição 4.10
Seja X uma variável aleatória com função de distribuição FX ( x, θ ) . Dizemos que Θ̂ é
um estimador consistente(1) do parâmetro θ se lim P
n →∞
{ }
ˆ − θ > ε = 0 para todo ε >
Θ
0, arbitrário.
Exemplo 4.15
Segundo o teorema 3.2 a variável ( n − 1) S2 σ 2 tem distribuição qui-quadrado com (n-
1) graus de liberdade, e, em conseqüência Var ( n − 1) S2 σ2 = 2 ( n − 1) .
lim P { S 2
− σ2 > ε} = 0 ⇒ S 2
é um estimador consistente de σ 2 .
n →∞
Exemplo 4.16
Seja ( X1 , X 2 ,..., X n ) uma amostra aleatória de uma variável aleatória X com média µ e
desvio padrão σ . Então X é um estimador consistente do parâmetro µ.
σ2
{ }
Prova: lim P X − µ ≥ ε ≤ lim 2 = 0 ⇒ X é consistente
n →∞ n →∞ nε
Conforme vimos, o MSE de um estimador é uma ferramenta que nos permite comparar
dois estimadores de um mesmo parâmetro com o objetivo de selecionar o mais eficiente
dentre eles. O Teorema que segue nos fornece um limite inferior para o MSE de
qualquer estimador Θ̂ de um parâmetro θ , de uma distribuição de probabilidades que
satisfaça as seguintes condições:
Teorema 4.3
Seja ( X1 , X 2 ,..., X n ) uma amostra de uma variável aleatória X cuja função de densidade
f (x) - ou probabilidade P(x) - depende de um parâmetro θ, que satisfaz as condições
ˆ = G ( X , X ,..., X ) um estimador tendencioso de
citadas após a Definição 4.4. Seja Θ n 1 2 n
θ. Nestas condições
(1 + B′ Θˆ )
2
dB Θ
ˆ
MSE Θ ( )
ˆ ≥
∂ ln f X ( X )
2
onde B′ Θ
ˆ=
dθ
nE
∂θ
Exemplo 4.17
ln P(X) = X ln p + (1 − X) ln(1 − p)
∂ ln P ( X )
X (1 − X ) X − Xp − p + Xp X − p
− = = =
∂p p (1 − p ) pq pq
Calculemos agora o denominador da variância mínima, conforme Cramér-Rao,
2
X−p n n n
nE = 2 2 × Var ( X ) = 2 2 × pq =
pq pq pq pq
Aplicando-se a desigualdade, obtemos
Var Θ ( )
ˆ ≥ 1 = pq
n n
pq
Exemplo 4.18
Obtenha a variância mínima de um estimador Θ̂ , não tendencioso, do parâmetro µ da
variável aleatória X, N(µ, σ) .
1 ( x − µ )2
f (x) = exp −
σ 2π 2σ 2
(X − µ)
2
ln f ( X ) = − ln(σ 2π ) −
2σ 2
∂ ln f ( X ) ( −1) × 2 × ( X − µ ) = ( X − µ )
=−
∂µ 2σ 2 σ2
Calculemos o denominador da variância mínima:
( X − µ )2
1 n
nE = n× × Var ( X ) =
σ4 σ4 σ2
Aplicando-se a desigualdade de Cramér-Rao,
ˆ ≥ 1 =σ
( )
2
Var Θ
n 2 n
σ
σ2
Logo X é um estimador eficiente de µ, pois Var ( X ) = é igual à variância mínima
n
dada por Cramér-Rao.
(
∂ ln L X, θ )
Apêndice A2.3, e Θ( )
ˆ = ρ Θ
2 ˆ;
∂θ
, e , consequentemente 0 ≤ e Θˆ ≤ 1. ( )
ˆ = σ = Var ( X ) .
( )
2
no segundo Varmin Θ
n
Exemplo 4.19
Se X é uma variável aleatória N(µ,1) então X é um estimador eficiente de µ.
= X − µ ⇒ nE = nE ( X − µ ) = n
2
∂µ ∂µ
Teorema 4.4
θ1 e θ2 podem depender de θ .
Exemplo 4.20
Consideremos uma amostra aleatória de uma variável aleatória X normalmente
distribuída com média µ desconhecida e variância σ02 conhecida.
A função de verossimilhança da amostra é:
1 1 n 2
L (µ) = n exp − 2 ∑ ( x i − µ )
σ 0 ( 2π ) 2σ0 i =1
n 2
Verificamos que,
n n
∑ ( x i − µ ) = ∑ x i2 − 2µnx + nµ2
2
i =1 i =1
De forma que,
1 1 n
L (µ) = exp − 2 ∑ x i2 − 2µnx + nµ 2
σ0n ( 2π ) 2σ0 i =1
n 2
1 n
exp − 2 ∑ x i2
2σ0 i =1 × exp µn × x × exp − nµ
2
L (µ) = 2 2
σ0n ( 2π ) σ0 2σ 0
n 2
Façamos,
1 n
exp − 2 ∑ x i2
L1 = 2σ0 i =1 , θ = µn , Θ
ˆ =x e θ2 =
− nµ 2
σ 0 ( 2π ) σ 2σ02
n n 2 1 2 0
0
O teorema abaixo, que não será demonstrado, estabelece uma distribuição assintótica
para estimadores de MV, quando o tamanho da amostra é suficientemente grande.
Teorema 4.5
Se ( X1 , X 2 ,..., X n ) é uma amostra de uma variável aleatória X com função de densidade
f(x) - ou função de probabilidade PX (x) - dependendo de um único parâmetro θ, então a
distribuição de probabilidades do estimador de máxima verossimilhança Θ̂ é
assintoticamente normal de parâmetros
E Θ ˆ =θ ,e ( )
( )
Var Θ
ˆ = 1
∂ ln f X (X, θ)
2 ( )
ou Var Θ
ˆ = 1
∂ ln PX (X, θ)
2
,respectivamente.
nE nE
∂θ ∂θ
Exemplo 4.21
Como vimos no exemplo 4.7, o EMV do parâmetro λ de uma distribuição de Poisson é
λ
X e E ( X ) = λ e Var ( X ) = .
n
Calculemos a variância mínima de um estimador não tendencioso para λ, dada pela
desigualdade de Cramér-Rao:
ln P(X) = −λ + X ln λ − ln(X!)
∂ ln P ( X ) X
= −1 +
∂λ λ
X−λ ˆ =λ
2
nE
λ λ
n
= 2 E (X − λ) =
2 n
λ
⇒ Var Θ
n
( )
De forma que X é um estimador eficiente de λ, e, para n suficientemente grande, X é
assintoticamente N(λ; λ n) , de acordo com o Teorema 4.5.
fX ( y) = y>0
Γ (n)
De maneira que a média de Λ
ˆ = 1 é calculada como segue,
X
ˆ ) = ( nλ )
n +∞
E (Λ
1 n −1 − nλy
Γ (n) 0 y ∫ y e dy
ˆ ) = ( nλ ) Γ ( n − 1) ⇒ E ( Λ
n
E (Λ ˆ ) = nλ
Γ ( n ) ( nλ ) n −1
n −1
Calculemos agora o segundo momento de Λ̂ :
( nλ ) +∞ 1 n −1 − nλy
n
( )
E Λ =
ˆ 2
Γ ( n ) ∫0 y 2
y e dy
ˆ 2 = ( nλ ) Γ ( n − 2 ) ⇒ E Λ
n
n 2λ 2
( )
E Λ
Γ ( n ) ( nλ ) n − 2
ˆ2 = ( )
( n − 1)( n − 2 )
De forma que a variância de Λ̂ é dada por:
n 2λ 2 n 2λ 2
Var Λ
ˆ =( ) −
( n − 1)( n − 2 ) ( n − 1)2
⇒ Var Λ ( )
ˆ = λ 2 n2
( n − 1) ( n − 2 )
2
ˆ = nλ ⇒ E Λ
( )
E Λ ( )
ˆ = λ + B Λˆ ⇒ B Λˆ= λ .
n −1 n −1
ˆ = λ
( ) ˆ =λ
( )
2 2
Var Λ ou Var Λ
n−2 n
λ2
De forma que Λ̂ tem distribuição assintótica de média λ e variância .
n
Apliquemos agora, o Teorema 4.3, ao exemplo em questão,
ln f X (X) = ln λ − λX
∂ ln f X ( X ) 1
= −X
∂λ λ
∂ ln f X ( X )
2 2
1 n
nE = nE X − = 2
∂λ λ λ
De acordo com o teorema citado, podemos dizer que Λ̂ é assintoticamente normal
λ2
com média λ e variância .
n