Sei sulla pagina 1di 23

Inferência Estatística

Ence
4.2 Estimação pelo Método de Máxima Verossimilhança.

O método de estimação chamado de Máxima Verossimilhança, introduzido por R.A.


Fisher em 1912, é largamente aplicado em variados problemas estatísticos e, quase
sempre, resulta em um razoável estimador para o parâmetro θ de uma variável aleatória
X. Através dos exemplos que seguem, apresentaremos uma breve exposição sobre os
fundamentos básicos do método.

Exemplo 4.4
O Diretor de uma Escola, no início de um certo dia, inquiriu sua bibliotecária sobre o
número médio de retiradas de publicações para consulta, por dia. Alertou-a que
precisava da informação no início do dia seguinte. Não dispondo de dados históricos,
ela resolveu registrar o valor observado naquele dia, e a partir desta única observação,
inferir o número desejado pelo Diretor. Ao final do dia a bibliotecária registrou x = 5
“retiradas para consulta”, e, com base em sua experiência, decidiu informar este próprio
valor como sendo o número médio desejado.
Suponhamos que o número de retiradas X, tenha distribuição de Poisson (λ), cuja
e −λ λ k
função de probabilidade é P(X = k) = , k = 0,1,2,.... .
k!
Recordemos que E(X) = λ, isto é, o próprio parâmetro de P(X = k) .

Segue abaixo um extrato da tabela de Probabilidades da Poisson, contida no Apêndice


A3.6.

k\λ 1 2 3 4 5 6 7 8 9 10
P(X=5) 0.0031 0.0361 .1008 .1563 .1755 .1606 .1277 .0916 .0607 .0378

O quadro mostra na realidade, uma função f (5, λ) , do parâmetro λ, assumindo valores


no intervalo (0,1). Esta função assume seu valor máximo no ponto λ = 5.

A solução proposta pela bibliotecária, embora rápida, simples e baseada numa única
observação do fenômeno, tem seu valor, na medida que o valor k = 5 é mais provável de
ocorrer se o parâmetro da população é igual a λ = 5.

Exemplo 4.5
Suponha que uma urna contenha bolas brancas e pretas na proporção de 3 para 1, mas a
cor mais freqüente é desconhecida. Sendo assim a probabilidade de seleção aleatória de
uma bola preta é igual a 0.25 ou 0.75. Se n bolas são extraídas aleatoriamente da urna,
com reposição, a distribuição de X, número de bolas pretas observadas, é Binomial
(n,¼) ou Binomial (n,¾), ou seja
n
P(X = k) =   p k q n − k k = 0,1,2,...,n e p = 1/4 , 3/4
k
Suponha que n = 3 bolas sejam extraídas, com reposição, e a partir do valor observado
de X tentaremos estimar p. O problema de estimação neste caso é muito simples pois
temos somente duas escolhas: 1/4 , 3/4. Os possíves resultados da amostra e suas
respectivas probabilidades são mostradas abaixo:
k 0 1 2 3
P(k,1/4) 27/64 27/64 9/64 1/64
P(k,3/4) 1/64 9/64 27/64 27/64

Frederico Cavalcanti INF005 30


Inferência Estatística
Ence
No presente exemplo, se k = 0 em uma amostra de n = 3, a estimativa p̂ = 0,25 seria
preferível, porque uma amostra com k = 0 é mais provável de aparecer a partir de uma
população com p = 1/4, em vez de p=3/4. Em geral, o estimador em questão seria
definido como segue,

 0.25 k = 0,1
p̂ ( k ) = 
0, 75 k = 2,3

Os dois exemplos apresentados são apenas introdutórios, pois que foram baseados
numa única observação da variável aleatória X.

Definição 4.3
Consideremos uma variável aleatória X com função de distribuição FX (x, θ) , onde θ é
o único parâmetro desconhecido. Seja ( x1 , x 2 ,..., x n ) uma particular observação da
amostra aleatória ( X1 , X 2 ,..., X n ) da variável X. Chama-se função de verossimilhança
da amostra à função

L X ( θ ) = f ( x1 , θ ) f ( x 2 , θ ) ... f ( x n , θ ) se X é contínua

L X ( θ ) = P(X1 = x1 ; θ)P(X 2 = x 2 ; θ) ... P(X n = x n ; θ) se X é discreta

A função de verossimilhança, muitas vezes representada por L ( x1 , x 2 ,..., x n , θ ) nos dá a


relativa probabilidade das variáveis X1 , X 2 ,..., X n , componentes da amostra,
assumirem os valores x1 , x 2 ,..., x n .

Imaginemos por um momento, que o parâmetro θ seja conhecido, e representemos seu


valor por θ0 . Os valores amostrais mais prováveis de ocorrer formam a n-úpla
( x1′ , x′2 ,..., x′n ) que maximiza a função L ( x, θ0 ) .


Como o parâmetro θ assume diferentes valores em um conjunto Ω, a função de


verossimilhança L ( x1 , x 2 ,..., x n , θ ) na realidade define uma família F de funções de
densidades (ou probabilidades). Uma vez conhecido θ a distribuição de X, origem da
amostra, é completamente especificada.

Obtidos os valores amostrais ( x1′ , x ′2 ,..., x ′n ) , desejamos saber qual a densidade de F


com a maior “chance” de ter gerado ( x1′ , x′2 ,..., x′n ) . Em outras palavras desejamos
encontrar o valor de θ ∈ Ω , o qual representaremos por θ̂ , que maximiza
L ( x1 , x 2 ,..., x n , θ ) .

Frederico Cavalcanti INF005 31


Inferência Estatística
Ence

Este valor, em geral, é uma função de ( x1 , x 2 ,..., x n ) , isto é , θˆ = g ( x1 , x 2 ,..., x n ) e,


como já vimos, é a estimativa MV do parâmetro θ, realização da variável aleatória
Θˆ = G ( X , X ,..., X ) .
1 2 n

Definição 4.4
Seja L ( x1 , x 2 ,..., x n , θ ) a função de verossimilhança de uma amostra da variável
aleatória X, com função de densidade (ou probabilidade) f (x, θ) . Se θ̂ =
g ( x1 , x 2 ,..., x n ) é o valor de θ que maximiza L ( x1 , x 2 ,..., x n , θ ) , então
Θˆ = G ( X , X ,..., X ) é o estimador de máxima verossimilhança (EMV) do parâmetro
1 2 n

θ.

Se X é do tipo contínuo - o que segue vale para o caso discreto - a função de


verossimilhança pode ser escrita

n
L X ( θ ) = f ( x1 , θ ) f ( x 2 , θ ) ... f ( x n , θ ) ou L X ( θ ) = ∏ f ( x i , θ )
i =1

Em geral, as funções de verossimilhança satisfazem condições de regularidade tais que


o estimador de máxima verossimilhança é a solução da equação

dL ( x1 , x 2 ,..., x n )
=0

Por outro lado, L(θ) e ln  L ( θ )  têm seu máximo no mesmo valor de θ, e, muitas
vezes é mais fácil encontrar a n-úpla que maximiza o logaritmo de L ( θ ) .

Se a distribuição da variável aleatória X depende de vários parâmetros, isto é ,


f ( x, θ1 , θ2 ,..., θk ) ,sua função de verossimilhança toma a forma

n
L ( θ1 , θ2 ,..., θk ) = ∏ f ( x i , θ1 , θ2 ,..., θk ) .
i =1

Neste caso os estimadores de máxima verossimilhança dos parâmetros θ1 , θ2 ,..., θk , são


ˆ = G ( X , X ,..., X ) , i = 1,2,...,k, cujas realizações θˆ = g ( x , x ,..., x )
as estatísticas Θ i 1 2 n i 1 2 n

maximizam L ( θ1 , θ2 ,..., θk ) .

Frederico Cavalcanti INF005 32


Inferência Estatística
Ence
k
Se certas condições de regularidade são satisfeitas, o ponto em R que maximiza a
função de verossimilhança é a solução das k equações abaixo:

∂L ( θ1 , θ2 ,..., θk ) ∂L ( θ1 , θ2 ,..., θk ) ∂L ( θ1 , θ2 ,..., θk )


= 0, = 0 , ... , = 0 (4.2)
∂θ1 ∂θ2 ∂θk

A seguir apresentaremos alguns exemplos tradicionais de obtenção deestimadores de


máxima verossimilhança. O exemplo inicial, mais uma vez, para fixar a teoria, consiste
num caso numérico extremamente simples.

Exemplo 4.6
Uma amostra aleatória de tamanho n = 2 de uma variável aleatória de Poisson (λ),
resultou nas seguintes observações: k1 = 1 e k 2 = 2 . Calcule a estimativa de máxima
verossimilhança para o parâmetro λ.
Solução:
A função de probabilidade de Poisson é aquela do exemplo 4.4 e a função de
verossimilhança da amostra é
2
e −λ λ k e −λ λ k e −2 λ λ 3
L ( λ ) = ∏ P ( ki , λ ) = → L (1, 2, λ ) =
1 2

i =1 k1 ! k 2 ! 1!2!
Daí, calculamos o ln de L(λ) e sua derivada

ln  L (1, 2, λ )  = −2λ + 3ln λ − ln 2


d ln  L (1, 2, λ ) 
= −2 + 3 ⇒ −2 + 3 = 0
dλ λ λ

Finalmente, resolvendo a equação em λ , obtemos a estimativa de máxima


verossimilhança do parâmetro λ, ou seja , λˆ = 1,5 que é a média dos valores amostrais.

Exemplo 4.7
Generalizemos o exemplo anterior para obter o EMV do parâmetro λ da variável
aleatória X com distribuição de Poisson. Considerando uma amostra de tamanho n,
temos
n
∑ Xi
n
e −λ λ Xi λ i=1
L (λ) = ∏ ⇒ L ( λ ) =e-nλ n

∏ ( x !)
i =1 xi !
i
i =1
n n
ln L ( λ ) = − nλ + ln λ ∑ x i − ln ∏ ( x i ) !
i =1 i =1

d ln L ( λ ) 1 n
1 n 1 n

= −n + ∑ i
λ i =1
x ⇒ − n + ∑ i
λ i =1
x = 0 ⇒ λ = ∑ xi
n i =1

De forma que o EMV do parâmetro λ, de uma distribuição de Poisson, é a média da


1 n
amostra X = ∑ X i
n i =1

Frederico Cavalcanti INF005 33


Inferência Estatística
Ence
Exemplo 4.8
Suponha que uma amostra de tamanho n seja obtida a partir de uma variável aleatória de
Bernoulli de parâmetro p, ou seja

P(X = x) = p x q1− x , x = 0,1 0 ≤ p ≤1

A função de verossimilhança é
n n
∑ xi n− ∑ xi
L ( p ) = p i=1 (1 − p) i =1

n
Façamos y = ∑ x i → ln  L ( p )  = y ln p + (n − y) ln(1 − p)
i =1

d ln L(p) y n − y
= −
dp p 1− p

y n−y
− = 0 ∴ y − yp = np − yp ∴ y = np
p 1− p
De forma que a estimativa de máxima verossimilhança de p é
1 n
p̂ = ∑ x i
n i =1
1 n
Conclui-se daí que o EMV de p é a média da amostra X = ∑ X i
n i =1
Exemplo 4.9
Seja ( X1 , X 2 ,..., X n ) uma amostra aleatória de uma variável normalmente distribuída
com parâmetros µ e σ 2 . A função de verossimilhança da amostra é dada por
 ( x i − µ )2 
L ( µ, σ ) = ∏
n
1
2
exp  − 
i =1 σ 2π
 2σ2 
 n 2

1  ∑ ( x i − µ ) 
= exp − i =1 
( 2πσ ) 2 n 2
 2σ 2 
 
ln  L ( µ, σ 2 )  = − ln ( 2πσ2 ) − 2
n
n 1
∑(x − µ)
2


i
2 i =1
Daí, temos
d ln L ( µ, σ2 ) 1 n


=
σ2
∑(x
i =1
i − µ) = 0

d ln L ( µ, σ2 )
n 1 n
4 ∑( i
+ x − µ) = 0
=−
2

dσ 2
2σ 2σ i =1
2

As soluções das equações acima fornecem os EMV dos parâmetros, quais sejam:

1 n
∑ Xi
1 n
∑ ( Xi − X )
2
µˆ = X = e σˆ 2 =
n i =1 n i =1

Frederico Cavalcanti INF005 34


Inferência Estatística
Ence
O método de estimação por máxima verossimilhança permanece válido para
funções do parâmetro, ou seja os EMV’s são invariantes em relação a
transformações do parâmetro. Suponha que Β Β̂ seja o EMV de um parâmetro β e
seja uma função θ = g ( β ) . Nós podemos escrever L(β) em função de θ fazendo-se
β = g −1 ( θ ) em L(β). A estimativa de MV do parâmetro θ será obtida substituindo-
se β por βˆ , na função, isto é θˆ =g βˆ . ()

Exemplo 4.10
Obter o EMV do parâmetro p da variável aleatória Geométrica e a seguir da função
θ = g ( p ) =1-p=q .
Solução:
Se X é geométrica(p) ⇒ P(x) = pq x −1 x=1,2,3,.... e a função de verossimilhança é
n
∑ xi −n  n

∴ ln L(p) = n ln p +  − n + ∑ x i  ln(1 − p)
L(p) = p n q i=1
 i =1 
Derivando-se em relação a p , temos
d ln L(p) n 1  n

dp
= −
p 1− p   − n + ∑
i =1
xi 

n
1 1
n − np + np − p∑ x i ⇒ p = ⇒ p= ˆ
i =1 x X
Consideremos agora a função θ = g ( p ) = 1 − p e façamos p = g −1 ( θ ) = 1 − θ em L(p),
isto é .
n

n ∑ i
x −n
L  x, g −1 (θ)  = (1 − θ ) θ i=1


 n 
ln L  x, g −1 (θ)  = n ln(1 − θ) +  ∑ x i − n  ln θ

 i =1 
Derivando-se em relação a θ , temos
n

−n ∑
d ln L  x, g −1 (θ) 
 xi − n
= + i =1 =0
dθ 1− θ θ
 n  n n
nθ = (1 − θ )  ∑ x i − n  ∴ nθ = ∑ x i − n + nθ − θ∑ x i
 i =1  i =1 i =1
n n
1
θ∑ x i = ∑ x i − n ∴θ = 1 −
i =1 i =1 x

De forma que o estimador de máxima verossimilhança do parâmetro θ pode ser obtido


substituindo-se o parâmetro p, na função g(p), por seu EMV, p̂ , isto é
1
θˆ = g ( pˆ ) = 1 − pˆ ⇒ θˆ = 1 − .
X

Definição 4.5
Frederico Cavalcanti INF005 35
Inferência Estatística
Ence
Se Θ̂ é estimador de máxima verossimilhança do parâmetro θ, então G Θ ˆ é estimador ( )
de máxima verossimilhança de g(θ).

Exemplo 4.11
Obter o EMV da função θ = g(θ) = P(X = 0), onde X tem distribuição de Poisson (λ).
Conforme exemplo 4.7,
n n
ln L ( λ ) = −nλ + ln λ ∑ x i − ln ∏ (x i !)
i =1 i =1
Verificamos que θ = P(X = 0) ⇒ θ = g ( λ ) = e , isto é, θ é uma função do parâmetro
−λ

λ, e λ = g −1 ( θ ) = − ln θ .
Se substituirmos em ln L ( λ ) , obtemos
n n
ln L g −1 ( θ )  = n ln θ + ln ( − ln θ ) ∑ x i − ln ∏ (x i !)
i =1 i =1

Derivando-se em relação a θ, obtemos


d ln L  g −1 ( θ )  n 1 n n


= + ∑
θ θ ln θ i =1
x i = 0 ∴ n ln θ = −∑ x i
i =1

Finalmente,
n

∑x i
ln θ = − i =1
⇒ lnθ = − x ⇒ θ = e-x
n
Assim, o estimador do parâmetro θ é Θ ˆ = e −Λˆ ⇒ Θ
ˆ =g Λ ( )
ˆ = e− X

Exercícios Propostos 4.2

4.2.1 - Obtenha o EMV do parâmetro b, de uma variável aleatória uniforme no


intervalo (0,b), com base numa amostra de tamanho n.

4.2.2 - Seja X uma variável aleatória com distribuição exponencial (λ). Dada uma
amostra aleatória de tamanho n, de X, encontre o EMV para o parâmetro λ da
distribuição. Obtenha ainda o EMV para a função de λ definida por P(X ≤ 1) .

4.2.3 - Seja X uma variável aleatória com a seguinte função de densidade:


( α + 1) x α 0 < x < 1
f (x) = 
 0 c.c.
Encontre o EMV de α, baseado numa amostra aleatória de tamanho n.

4.2.4 - Seja ( X1 , X 2 ,..., X n ) uma amostra de origem N µ, σ02  . Sendo σ02 conhecida,
obtenha o EMV do parâmetro µ.

Frederico Cavalcanti INF005 36


Inferência Estatística
Ence

4.2.5 - Considere a distribuição de Weibull de parâmetros α e β, com densidade


 β  x β−1   x β 
 exp −    x>0
f ( x ) =  α  α    α  

 0 caso contrário
a) Determine a função de verossimilhança L ( α, β ) , de uma amostra de tamanho n e seu
logaritmo.
b) Mostre que ln L ( α, β ) é maximizada através das soluções das equacões
−1
n
 n β n

β ∑ ∑ i ∑
β
x i x ln x i ln x i 
α = i =1 e β =  i =1 n − i =1 
n  n 
 ∑
β
xi
i =1

c) Quais as complicações envolvidas na solução do sistema em (b)?

4.2.6 - Seja ( X1 , X 2 ,..., X n ) uma amostra de origem Gama com parâmetros λ e r.


a) Calcule L ( λ, r ) e seu logaritmo.
b) Encontre as equações que determinam os EMV’s de λ e r. Elas podem ser resolvidas
explicitamente?

4.2.7 - Determine o EMV do parâmetro θ da distribuição da variável aleatória X, cuja


densidade é dada por
θx θ−1 0 < x <1
f (x) =  θ>0
 0 caso contrário

4.2.8 - Seja ( X1 , X 2 ,..., X n ) uma amostra aleatória originária da seguinte função de


densidade:
1
1 − ( x −α )
f ( x, α, β ) = e β ,x>α,β>0e α∈R
β
Para um fixado α,
a) Determine o EMV de β.
b) Determine o EMV de Pα ,β (X1 ≥ 1)

4.2.9 - Suponha que ( X1 , Y1 ) , ( X 2 ,Y2 ) ,..., ( X n , Yn ) , formam uma amostra de uma


variável aleatória normal bivariada cujos 5 parâmetros são conhecidos. Mostre que os
EMV destes parâmetros são os seguintes:

Frederico Cavalcanti INF005 37


Inferência Estatística
Ence
µˆ x = X n e µˆ y = Yn
1 n
∑ ( Xi − X n )
1 n
∑ ( Yi − Yn )
2 2
σˆ 2x = e σˆ 2y =
n i =1 n i =1
∑ ( X − X )( Y − Y )
n

ρˆ = i =1 i n i n

( X − X )  ∑ ( Y − Y )
2 1/ 2 2 1/ 2
 
∑
n n
i =1 i n i =1 i n

4.2.10 - Seja ( X1 , X 2 ,..., X n ) uma amostra aleatória de origem X, cuja função de


dada por f ( x ) = ( θr ) x r −1e ( ) , x> 0 , sendo r um parâmetro conhecido.
r
−θ x
densidade é
Obtenha o EMV de θ.

4.2.11 - O espaço paramétrico de uma variável aleatória X com distribuição binomial é


{ }
Ω = ( n, p ) / n = 2,3 ; p= 1 , 1 . Use os fundamentos básicos do método de estimação
2 3
de máxima verossimilhança para estimar n e p, considerando que apenas uma
observação de X esteja disponível.

4.3 - Propriedades dos Estimadores.

Estudamos dois métodos para se estimar parâmetros desconhecidos de uma


distribuição de probabilidades: o método dos momentos (MM) e o de máxima
verossimilhança (MMV). Outros métodos propostos e de aplicação a específicos
modelos serão estudados adiante: estimadores bayesianos e estimadores de mínimos
quadrados.

Em muitos casos os métodos MM e MMV produzem o mesmo estimador, mas em


outros importantes problemas isto não é verdade.

Recordemos o exemplo inicial discutido no capítulo 1. Naquele modelo, o veterinário


embora tenha estimado em 0,22 a proporção de cães com o atributo em estudo, adotou
como estimativa o valor 0,25.

1 n
O valor x = 0, 22 foi resultado da aplicação do estimador X = ∑ Xi , onde Xi é uma
n i =1
variável aleatória de Bernoulli. O estimador usado, média da amostra, é o estimador
obtido tanto pelo método dos momentos quanto pelo de máxima verossimilhança.

O valor x = 0, 25 foi “obtido” através de um método de estimação, digamos sensitivo,


escolhido em função da experiência profissional do veterinário. Este último método não
tem justificativa teórica na Estatística, mas a sua adoção pode ser respaldada por um
teste estatístico paramétrico como veremos no capítulo 10.

Frederico Cavalcanti INF005 38


Inferência Estatística
Ence

Aliás, através do valor x = 0, 22 , resultado da aplicação dos métodos MM e MMV, é


que poderemos aceitar ou rejeitar a “estimativa sensitiva” adotada pelo veterinário.

Freqüentemente estaremos diante de dois ou mais estimadores para o mesmo parâmetro


de uma distribuição e, por isso, torna-se necessário definir regras e critérios para
compará-los. Se pudermos estabelecer alguma escala de “qualidade” para estimadores,
então seremos capazes de escolher o melhor estimador para um dado problema.

Como vimos, o estimador Θ̂ de um parâmetro θ é uma variável aleatória, função das


variáveis da amostra. Assim sendo, o valor θ̂ (estimativa de θ ) varia de uma amostra
para outra. Quase certamente θ̂ difere de θ , a menos que n = N, e, neste caso a teoria
estatística é dispensada.

Suponhamos que Θ ˆ e Θ
1
ˆ sejam estimadores comuns do parâmetro θ . Através da
2
distribuição da amostra podemos construir as leis de probabilidade de ambos os
estimadores, e, o problema de escolher o melhor estimador se reduziria à comparação
das duas distribuições de probabilidade.

Imaginemos que Θ̂1 tenha uma certa distribuição de probabilidades tal que
 k ˆ k
Pθ− ≤ Θ 1 ≤ θ+  = 0,90 , enquanto que Θ̂ 2 , embora com a mesma distribuição de
 2 2
 k ˆ k
Θ̂1 , seja tal que P  θ − ≤ Θ 2 ≤ θ+  = 0,90 , para k inteiro positivo.
 4 4

Obviamente que escolheremos Θ̂2 como estimador de θ , e adotaremos θ̂ como sua


estimativa obtida a partir de uma particular amostra, porque com igual probabilidade,
Θ̂2 diferirá de θ menos do que Θ̂1 .

Infelizmente, na maioria dos casos, as distribuições de probabilidades de diferentes


estimadores são também diferentes, e, neste caso a comparação de estimadores por este
critério se torna inviável, e, por isto, uma alternativa viável é fundamentada pelas
propriedades destes estimadores.

Frederico Cavalcanti INF005 39


Inferência Estatística
Ence

4.3.1 - Estimador Não Tendencioso (não viciado).

Se θ é um parâmetro da distribuição de probabilidades de X e Θ̂ o seu estimador, o


mínimo que desejamos é que a variável aleatória Θ̂ assuma valores em torno de θ
com alta probabilidade, ou mais simplesmente, desejamos que E Θˆ = θ. ( )
Definição 4.6
Seja X uma variável aleatória cuja distribuição de probabilidades depende de um
parâmetro θ . Dizemos que Θ̂ é um estimador não tendencioso (ou não viciado) para o
parâmetro θ , se E Θ( )
ˆ =θ.

Definição 4.7
ˆ = θ + B Θ
Se Θ̂ é um estimador tendencioso de θ , então E Θ ˆ ( ) ˆ
  , onde B Θ  é
chamada tendenciosidade do estimador Θ̂ . Se B Θˆ  =0, o estimador é não

( )
tendencioso, isto é, E Θ
ˆ −θ = 0.

Exemplo 4.12
Se X é uma variável aleatória com função de densidade dependendo de um parâmetro µ,
tal que E ( X ) = µ , então a média da amostra originária de X é um estimador não
tendencioso do parâmetro.

1 n
n
 1
E ( X ) = E  ∑ i =1 X i  = E
 n
(∑ n
i =1 )
Xi =
1 n
∑ E(Xi )
n i =1
(4.3)
E ( X ) = ∑ i =1 µ = n µ = µ
1 n 1
n n

O desenvolvimento acima não leva em conta o tipo de distribuição de X, e por isto, a


média da amostra é um estimador não tendencioso dos parâmetros µ da distribuição
N(µ, σ) , do parâmetro p da distribuição de Bernoulli (p), do parâmetro λ da
distribuição de Poisson (λ), etc...

Exemplo 4.13
Dada uma amostra aleatória de uma população X com média µ e variância σ 2 chama-se
momento central de segunda ordem da amostra (vide exercício 3.2) à estatística
definida por M′2 = ∑ ( X i − X ) .
1 n 2

n i =1

Calculemos a média da estatística M′2 :

Frederico Cavalcanti INF005 40


Inferência Estatística
Ence
1 2 1  
E(M′2 ) = E  ∑ ( X i − X )  = E  ∑ X i2 − 2nX 2 + nX 2 
n n

 n i =1  n  i =1 
1 n  1 n
E(M′2 ) = E ∑ X i2 − nX 2  = ∑ E ( X i2 ) − E ( X 2 )
n  i =1  n i =1
E(M′2 ) = E ( X i2 ) − E ( X 2 )
Recordemos que,
σ2
E (X 2
i )=σ 2
+µ 2
e E (X ) =
2
+ µ2
n
De forma que,
 σ2 
E ( M′2 ) = σ2 + µ 2 −  + µ 2 
 n  (4.4)
 n −1  2 σ2
E ( M′2 ) =   σ = σ 2

 n  n

Registramos portanto que o momento central de segunda ordem da amostra é um


estimador viciado da variância σ 2 da população, com tendenciosidade (vício) igual
σ2
B [ M′2 ] = − .
n

Teorema 4.1
Se ( X1 , X 2 ,..., X n ) é uma amostra aleatória de uma variável X com média µ e variância
1 n
∑ ( X i − X ) é um estimador não viciado do parâmetro
2
σ 2 então a estatística S =
2

n − 1 i =1
σ2 .

Prova:
A demonstração do teorema é imediata levando em conta o resultado do exemplo
anterior,
1 n 2  n −1  2
E ( M '2 ) = E  ∑ ( X i − X )  =  σ
 n i =1   n 

 n  1 n 2
  × E  ∑ ( Xi − X )  = σ2
 n −1   n i =1 
 n 2
× ∑ ( Xi − X )  = σ2
1 n
E
 n − 1 n i =1 
 1 n
2
E ∑ ( Xi − X )  = σ2
 n − 1 i =1 

De forma que E ( S2 ) = σ2 (4.5)

Frederico Cavalcanti INF005 41


Inferência Estatística
Ence
Segue imediatamente, conforme Definição 4.5, que S = + S2 é o estimador de máxima
verossimilhança do desvio padrão da população.

Exercício Proposto:
Verificar se S é um estimador não tendencioso do parâmetro σ, desvio padrão de X,
N ( µ, σ ) , origem de uma amostra aleatória de tamanho n. Se S é tendencioso, qual a
sua tendenciosidade?

Teorema 4.2
Seja ( X1 , X 2 ,..., X n ) uma amostra aleatória de uma variável aleatória X.
Em geral, se existe o momento ordinário - centrado em torno de zero - de ordem s de
X, αs ( X ) = E ( X s ) , s = 0,1,2..., então o momento de ordem s da amostra, definido pela
1 n
estatística M S = ∑ ( Xi ) é um estimador não tendencioso de αs ( X ) .
s

n i =1
Prova:
1 n s 1 n 1 n
E(M S ) = E  ∑ ( X i )  = ∑ E ( X i ) = ∑ αs ( X ) = α s ( X )
s
(4.6)
 n i =1  n i =1 n i =1

Obter um estimador não tendencioso de um parâmetro θ é , em geral, uma tarefa


bastante fácil, dado que as componentes de uma amostra são identicamente distribuídas.
Nestas condições, podemos definir muitos estimadores não tendenciosos para o
parâmetro µ, média da população X.

Qualquer estatística definida pela média de qualquer subconjunto das variáveis


aleatórias X i , i = 1,2,3...,n constitui um estimador não tendencioso de µ.
Por exemplo,
a) Θˆ =X ⇒E Θ
1 1 ( )
ˆ =µ
1

ˆ  = E  1 ∑10 X  = µ
ˆ = 1 ∑10 X ⇒ E  Θ
b) Θ10
10 i =1 i  10  10 i =1 i 
Desta maneira, no formato média, temos 2n − 1 estimadores não tendenciosos para o
parâmetro µ, e em conseqüência, necessitamos portanto, estabelecer um critério para
escolher qual estimador preferível em cada caso.
Se σ 2 é a variância da população, temos que as variâncias de dois dentre os estimadores
citados acima são:
 1 10  1 σ2
b.1) Var(Θ10 ) = Var  ∑ X i  =
ˆ × 10σ =
2

 10 i =1  100 10

ˆ ) = Var  1 ∑ X  = 1 × 15σ 2 = σ
15 2
b.2) Var(Θ 15  15 i
 i =1  225 15
Segundo análise já feita anteriormente, é óbvio que escolheremos Θ̂15 , se apenas as
duas opções são viáveis, pois que Var(Θˆ ) < Var(Θ
15
ˆ ).
10

Frederico Cavalcanti INF005 42


Inferência Estatística
Ence
Exemplo 4.14
Suponhamos que X tenha distribuição de Poisson (λ). Além das 2n − 1 médias possíveis
que definem estimadores não tendenciosos para λ, outras opções são disponíveis. Por
exemplo, como E(X) = VAR(X) = λ, então S2 é também um estimador não tendencioso
para o parâmetro λ. Ainda mais: as estatísticas X i ( X i − X j ) , i ≠ j = 1,2,3,...,n são
também estimadores não tendenciosos de λ, conforme constatamos abaixo,
E  X i ( X i − X j )  = E ( X i2 − X i X j ) = E ( X i2 ) − E ( X i ) E ( X j )
= Var ( X i ) + λ 2 − λ 2 = λ

Exercício proposto:
Seja X uma variável aleatória de Poisson de parâmetro λ. Mostre que para 0 < α < 1, a
variável αX + (1 − α ) S2  é um estimador não tendencioso do parâmetro λ.

Quando temos vários estimadores disponíveis, um princípio lógico estabelecido na


teoria da estimação é o de escolher o estimador não tendencioso que tem variância
mínima.

Definição 4.8
Se considerarmos todos os estimadores não tendenciosos de um parâmetro θ, aquele
com a menor variância é chamado estimador não tendencioso de variância mínima
(MVUE (1) de θ ).

4.3.2 - Erro Médio Quadrático de um estimador.

Eventualmente, na falta de um estimador não viciado, faz-se necessário adotar


estimador viciado. Em tais casos, o erro médio quadrático - MSE (2) - do estimador
pode ser de grande importância na melhor escolha.

Definição 4.9
( ) ( )
2
O erro médio quadrático de um estimador Θ̂ é definido por MSE Θ
ˆ =E Θ
ˆ −θ .
O erro médio quadrático pode ser escrito da seguinte forma:
( ) ( ) ( )
2
ˆ = E Θ
MSE Θ ˆ −E Θ ˆ − θ
ˆ +E Θ
 
= E {Θ ˆ )} + {E ( Θ
ˆ − E (Θ ˆ ) − θ}
2

 
= E {Θ ˆ )} + {E ( Θ
ˆ − E (Θ ˆ ) − θ} { ( )}{E ( Θˆ ) − θ}
2 2
+2 Θ
ˆ −E Θ
ˆ

De forma que
Frederico Cavalcanti INF005 43
Inferência Estatística
Ence
( ) { ( )} { ( ) }
2 2
MSE Θ
ˆ =E Θ
ˆ −E Θ
ˆ + E Θ
ˆ −θ

ˆ ) + {B  Θ
MSE ( Θ  }
ˆ ) = Var(Θ
2
ˆ (4.7)

Isto é, o erro médio quadrático de um estimador é igual à sua variância mais o quadrado
de sua tendenciosidade. Se Θ̂ é um estimador não viciado de θ, então seu erro médio
quadrático é igual à VAR Θ̂ . ( )
(1) MVUE - Minimum Variance Unbiased Estimator
(2) MSE - Mean Square Error

O MSE é um valioso critério para a comparação de dois estimadores. Se Θ


ˆ e Θ
1
ˆ são
2

( )
dois estimadores quaisquer de um parâmetro θ , e se MSE Θ1 e MSE Θ 2 são os
ˆ ˆ ( )
seus respectivos erros médios quadráticos, chama-se eficiência relativa entre os

estimadores à razão
MSE Θˆ
1
.
( )
MSE Θ
ˆ
2 ( )
Se esta razão for menor do que 1 concluímos que Θ̂1 é um estimador mais eficiente de
θ do que Θ̂2 , no sentido de que ele tem menor erro médio quadrático.

Embora já discutido anteriormente, vale a pena recordar que: dada uma amostra de uma
variável aleatória X, tanto X quanto qualquer das X i , são estimadores não viciados de
µ = E ( X ) , pois para i=1,2,...,n E ( X ) = E ( X i ) = µ.

A eficiência relativa de X i para X é


( ) = Var ( X ) = σ n = 1
MSE Θ
ˆ
1
2

, e, portanto,
MSE ( Θ
ˆ ) Var ( X ) σ 2
2 i n
para amostras de tamanho n ≥ 2 , concluímos que X é um estimador mais eficiente que
X i na estimação de µ, pois a eficiência relativa de X i para X , é menor do que 1.

Algumas vezes poderemos preferir estimadores viciados a não viciados se eles têm
menor erro médio quadrático. Isto é possível quando pudermos reduzir
consideravelmente o MSE, com a introdução de uma pequena tendenciosidade. Uma
aplicação de estimação tendenciosa poderá ser estudada em [6] sec. 7.2 (pag. 374) e [9]
sec. 10-13 (pag. 613).

Frederico Cavalcanti INF005 44


Inferência Estatística
Ence
4.3.3 - Estimador consistente.

Definição 4.10
Seja X uma variável aleatória com função de distribuição FX ( x, θ ) . Dizemos que Θ̂ é
um estimador consistente(1) do parâmetro θ se lim P
n →∞
{ }
ˆ − θ > ε = 0 para todo ε >
Θ
0, arbitrário.

Uma primeira decorrência da definição é que: se Θ̂ é um estimador não tendencioso


de θ , e se lim Var  Θ
ˆ  = 0 , então Θ̂ é um estimador consistente de θ . Tal afirmação é

n →∞

facilmente comprovada pela aplicação da desigualdade de Chebyshev à variável


aleatória Θ̂ .

Exemplo 4.15
Segundo o teorema 3.2 a variável ( n − 1) S2 σ 2 tem distribuição qui-quadrado com (n-
1) graus de liberdade, e, em conseqüência Var ( n − 1) S2 σ2  = 2 ( n − 1) .

ˆ = g ( X , X ,..., X ) converge em probabilidade para a constante θ .


(1) A sucessão Θ n 1 2 n

Daí segue que


( n − 1)
2
2σ4
Var ( S2 ) = 2 ( n − 1) ⇒ Var ( S2 ) = . (4.8)
σ4 ( n − 1)
Como S2 é um estimador não tendencioso de σ 2 , então E(S2 ) = σ2 .
Aplicando-se a desigualdade de Chebyshev, temos:
2σ 4
n →∞
{
lim P S2 − σ 2 ≥ ε ≤ lim }
n →∞ ( n − 1) ε 2
=0

lim P { S 2
− σ2 > ε} = 0 ⇒ S 2
é um estimador consistente de σ 2 .
n →∞

Exemplo 4.16
Seja ( X1 , X 2 ,..., X n ) uma amostra aleatória de uma variável aleatória X com média µ e
desvio padrão σ . Então X é um estimador consistente do parâmetro µ.
σ2
{ }
Prova: lim P X − µ ≥ ε ≤ lim 2 = 0 ⇒ X é consistente
n →∞ n →∞ nε

Frederico Cavalcanti INF005 45


Inferência Estatística
Ence
4.3.4 - Eficiência de um Estimador.

Conforme vimos, o MSE de um estimador é uma ferramenta que nos permite comparar
dois estimadores de um mesmo parâmetro com o objetivo de selecionar o mais eficiente
dentre eles. O Teorema que segue nos fornece um limite inferior para o MSE de
qualquer estimador Θ̂ de um parâmetro θ , de uma distribuição de probabilidades que
satisfaça as seguintes condições:

1a.) o domínio de f(x) - ou P(x) - deve ser independente de θ.


2a.) a derivada de f(x) - ou P(x) - em relação a θ deve ser uma função contínua e
diferenciável de θ.

O resultado do teorema é conhecido como Desigualdade de Cramér-Rao.

Teorema 4.3
Seja ( X1 , X 2 ,..., X n ) uma amostra de uma variável aleatória X cuja função de densidade
f (x) - ou probabilidade P(x) - depende de um parâmetro θ, que satisfaz as condições
ˆ = G ( X , X ,..., X ) um estimador tendencioso de
citadas após a Definição 4.4. Seja Θ n 1 2 n

θ. Nestas condições
(1 + B′ Θˆ  )
2
dB Θ
ˆ
MSE Θ ( )
ˆ ≥
 ∂ ln f X ( X ) 
2
onde B′  Θ
ˆ=
 dθ

nE  
 ∂θ 

A demonstração deste Teorema encontra-se no Apêndice A2.3.

Se Θ̂ é um estimador não tendencioso de θ, então B′  Θ


ˆ  = 0 e a desigualdade de

Cramér-Rao se expressa por
Var Θˆ ≥( ) 1
 ∂ ln f ( X, θ ) 
2
. (4.9)
nE  
 ∂θ 

Definição 4.1 1 - Estimador Eficiente


Seja ( X1 , X 2 ,..., X n ) uma amostra aleatória de uma variável aleatória X, com função de
densidade f(x,θ) - ou função de probabilidade P(x, θ) - e Θ̂ um estimador não
tendencioso de θ. Dizemos que Θ̂ é um estimador eficiente na estimação de θ, se ele
tem variância mínima dada pela desigualdade de Cramér-Rao.

Exemplo 4.17

Frederico Cavalcanti INF005 46


Inferência Estatística
Ence
Se X é uma variável aleatória de Bernoulli (p), então X é um estimador não
tendencioso de p. Verifique se X é eficiente.
Recordemos que E ( X ) =p e Var ( X ) =
pq
e que a função de probabilidade de X é
n
P ( X = x ) = p x (1 − p ) , x = 0,1 .
1− x

ln P(X) = X ln p + (1 − X) ln(1 − p)
∂ ln P ( X )
X (1 − X ) X − Xp − p + Xp X − p
− = = =
∂p p (1 − p ) pq pq
Calculemos agora o denominador da variância mínima, conforme Cramér-Rao,
2
X−p n n n
nE   = 2 2 × Var ( X ) = 2 2 × pq =
 pq  pq pq pq
Aplicando-se a desigualdade, obtemos
Var Θ ( )
ˆ ≥ 1 = pq
n n
pq

Portanto, se Θ̂ é um estimador não tendencioso do parâmetro p da variável aleatória de


Bernoulli, então a sua variância mínima é igual a pq/n. Nestas condições, como
Var( X )=pq/n, então X tem a menor variância possível dentre todos os estimadores não
tendenciosos de p, e, portanto X é um estimador eficiente de p.

Exemplo 4.18
Obtenha a variância mínima de um estimador Θ̂ , não tendencioso, do parâmetro µ da
variável aleatória X, N(µ, σ) .
1  ( x − µ )2 
f (x) = exp  − 
σ 2π  2σ 2 

(X − µ)
2

ln f ( X ) = − ln(σ 2π ) −
2σ 2
∂ ln f ( X ) ( −1) × 2 × ( X − µ ) = ( X − µ )
=−
∂µ 2σ 2 σ2
Calculemos o denominador da variância mínima:
 ( X − µ )2 
  1 n
nE   = n× × Var ( X ) =
 σ4  σ4 σ2
Aplicando-se a desigualdade de Cramér-Rao,
ˆ ≥ 1 =σ
( )
2
Var Θ
n 2 n
σ
σ2
Logo X é um estimador eficiente de µ, pois Var ( X ) = é igual à variância mínima
n
dada por Cramér-Rao.

Frederico Cavalcanti INF005 47


Inferência Estatística
Ence
Definição 4.12
Seja X uma variável aleatória cuja distribuição de probabilidades depende de um
parâmetro θ. Se Θ̂ é um estimador não tendencioso de θ, define-se eficiência de Θ̂ , e
Varmin Θ ˆ ( )
representa-se por e Θ ( )
ˆ à razão e Θ ˆ =( ) onde Varmin Θ ( )
ˆ é a variância
Var Θ ˆ ( )
mínima dada por Cramér-Rao.

Se Θ̂ é um estimador eficiente de θ, então e Θ ( )


ˆ = 1 . Por outro lado, conforme

(
 ∂ ln L X, θ  )

Apêndice A2.3, e Θ( )
ˆ = ρ Θ
2 ˆ;
∂θ
 , e , consequentemente 0 ≤ e Θˆ ≤ 1. ( )
 

Os exemplos 4.17 e 4.18 são esclarecedores: no primeiro Varmin Θ


n
( )
ˆ = pq = Var ( X ) e

ˆ = σ = Var ( X ) .
( )
2
no segundo Varmin Θ
n

Exemplo 4.19
Se X é uma variável aleatória N(µ,1) então X é um estimador eficiente de µ.

E ( X ) = µ ⇒ X é um estimador não tendencioso de µ e Var ( X ) =


1
.
n
1  ( X − µ )2 
Se X é N(µ,1) ⇒ f ( X ) = exp −  e
2π  2 
∂ ln f ( X )  ∂ ln f ( X ) 
2

= X − µ ⇒ nE   = nE ( X − µ ) = n
2

∂µ  ∂µ 

Temos então que Varmin Θ ( )


ˆ = 1 = Var ( X ) , logo e ( X ) = 1.
n

Se Θ̂ é um estimador eficiente de um parâmetro θ de uma variável aleatória X, a


função de verossimilhança de uma amostra de X satisfaz certas propriedades que serão
estabelecidas pelo teorema que segue, cuja demonstração encontra-se no Apêndice
A2.4.

Teorema 4.4

Frederico Cavalcanti INF005 48


Inferência Estatística
Ence
Uma condição necessária e suficiente para que um estimador Θ̂ seja eficiente na
estimação de um parâmetro θ de uma variável aleatória X, é que a função de
verossimilhança de amostra aleatória de X, possa ser escrita da forma
{
L ( θ ) = L1 exp Θ 0 1 2 }
ˆ × θ + θ de forma que L e Θ
1
ˆ não dependem de θ , enquanto que
0

θ1 e θ2 podem depender de θ .

Exemplo 4.20
Consideremos uma amostra aleatória de uma variável aleatória X normalmente
distribuída com média µ desconhecida e variância σ02 conhecida.
A função de verossimilhança da amostra é:
1  1 n 2
L (µ) = n exp − 2 ∑ ( x i − µ ) 
σ 0 ( 2π )  2σ0 i =1
n 2

Verificamos que,
n n

∑ ( x i − µ ) = ∑ x i2 − 2µnx + nµ2
2

i =1 i =1

De forma que,
1  1  n 
L (µ) = exp − 2  ∑ x i2 − 2µnx + nµ 2  
σ0n ( 2π )  2σ0  i =1
n 2

 1 n 
exp  − 2 ∑ x i2 
 2σ0 i =1  × exp  µn × x  × exp  − nµ 
2
L (µ) =  2   2 
σ0n ( 2π )  σ0  2σ 0 
n 2

Façamos,
 1 n 
exp  − 2 ∑ x i2 
L1 =  2σ0 i =1  , θ = µn , Θ
ˆ =x e θ2 =
− nµ 2
σ 0 ( 2π ) σ 2σ02
n n 2 1 2 0
0

Finalmente podemos afirmar que X é um estimador eficiente de µ, pois escrevemos


L ( µ ) como segue,
L = L1 × exp Θ {
ˆ .θ + θ
0 1 2 }

4.3.5 - Distribuição assintótica dos estimadores de máxima verossimilhança.

Frederico Cavalcanti INF005 49


Inferência Estatística
Ence

Os estimadores de máxima verossimilhança não são, em geral, não tendenciosos. No


exemplo 4.9 vimos que os EMV’s dos parâmetros µ e σ 2 de uma distribuição normal
são respectivamente X e M '2 .

Constatamos também que X é não tendencioso na estimação de µ , o mesmo não


ocorrendo com M '2 em relação a σ 2 . Este problema foi resolvido pelo teorema 4.1
através de uma simples transformação da estatística M '2 , gerando o estimador S2 , não
tendencioso, na estimação de σ 2 .

Em geral, se a distribuição de X satisfaz certas condições de regularidade, os


estimadores de máxima verossimilhança são consistentes ou então assintoticamente
consistentes quando lim B Θ
ˆ=0.

n →∞

O teorema abaixo, que não será demonstrado, estabelece uma distribuição assintótica
para estimadores de MV, quando o tamanho da amostra é suficientemente grande.

Teorema 4.5
Se ( X1 , X 2 ,..., X n ) é uma amostra de uma variável aleatória X com função de densidade
f(x) - ou função de probabilidade PX (x) - dependendo de um único parâmetro θ, então a
distribuição de probabilidades do estimador de máxima verossimilhança Θ̂ é
assintoticamente normal de parâmetros
E Θ ˆ =θ ,e ( )
( )
Var Θ
ˆ = 1
 ∂ ln f X (X, θ) 
2 ( )
ou Var Θ
ˆ = 1
 ∂ ln PX (X, θ) 
2
,respectivamente.
nE   nE  
 ∂θ   ∂θ 

Exemplo 4.21
Como vimos no exemplo 4.7, o EMV do parâmetro λ de uma distribuição de Poisson é
λ
X e E ( X ) = λ e Var ( X ) = .
n
Calculemos a variância mínima de um estimador não tendencioso para λ, dada pela
desigualdade de Cramér-Rao:
ln P(X) = −λ + X ln λ − ln(X!)
∂ ln P ( X ) X
= −1 +
∂λ λ
 X−λ  ˆ =λ
2

nE 
 λ  λ
n
 = 2 E (X − λ) =
2 n
λ
⇒ Var Θ
n
( )
De forma que X é um estimador eficiente de λ, e, para n suficientemente grande, X é
assintoticamente N(λ; λ n) , de acordo com o Teorema 4.5.

Frederico Cavalcanti INF005 50


Inferência Estatística
Ence
Exemplo 4.22
O estimador de máxima verossimilhança do parâmetro λ de uma população X com
distribuição exponencial é Λ
ˆ = 1 (vide exercício 4.2.2).
X
n
Se X é exponencial (λ), então ∑X
i =1
i tem distribuição Gama (λ,n) e por sua vez X tem

distribuição Gama(nλ,n), cuja função de densidade é


( nλ ) yn −1e− nλy
n

fX ( y) = y>0
Γ (n)
De maneira que a média de Λ
ˆ = 1 é calculada como segue,
X
ˆ ) = ( nλ )
n +∞
E (Λ
1 n −1 − nλy
Γ (n) 0 y ∫ y e dy

ˆ ) = ( nλ ) Γ ( n − 1) ⇒ E ( Λ
n

E (Λ ˆ ) = nλ
Γ ( n ) ( nλ ) n −1
n −1
Calculemos agora o segundo momento de Λ̂ :
( nλ ) +∞ 1 n −1 − nλy
n

( )
E Λ =
ˆ 2

Γ ( n ) ∫0 y 2
y e dy

ˆ 2 = ( nλ ) Γ ( n − 2 ) ⇒ E Λ
n
n 2λ 2
( )
E Λ
Γ ( n ) ( nλ ) n − 2
ˆ2 = ( )
( n − 1)( n − 2 )
De forma que a variância de Λ̂ é dada por:
n 2λ 2 n 2λ 2  
Var Λ
ˆ =( ) −
( n − 1)( n − 2 ) ( n − 1)2
⇒ Var Λ ( )
ˆ = λ 2  n2

 ( n − 1) ( n − 2 ) 
2

Notemos que o estimador Λ̂ é tendencioso na estimação de λ, isto é

ˆ = nλ ⇒ E Λ
( )
E Λ ( )
ˆ = λ + B Λˆ  ⇒ B Λˆ= λ .
n −1     n −1

Temos ainda que Λ̂ é assintoticamente não tendencioso visto que para n


suficientemente grande, B  Λ
ˆ  → 0 e conseqüentemente E  Λ

ˆ
  = λ.
Analisemos a variância quando n cresce indefinidamente,
 
   
( )  
2
n 1
lim Var Λ
ˆ = λ lim 
2
 = λ lim
2
 
 ( n − 1) ( n − 2 ) 
n →∞ n →∞ 2 n →∞ 2
 1 − 1  ( n − 2 ) 
  n  
 
 
lim Var Λ
n →∞
ˆ( ) = λ lim 
2
n →∞
 1
2


 1 − 1  ( n − 2 ) 
  n  

Frederico Cavalcanti INF005 51


Inferência Estatística
Ence
Observemos que, fixado um n suficientemente grande, para todo n ′ > n, o limite em
1
questão se simplifica, já que lim = 0 , e escrevemos
n →∞ n

ˆ = λ
( ) ˆ =λ
( )
2 2
Var Λ ou Var Λ
n−2 n
λ2
De forma que Λ̂ tem distribuição assintótica de média λ e variância .
n
Apliquemos agora, o Teorema 4.3, ao exemplo em questão,

ln f X (X) = ln λ − λX
∂ ln f X ( X ) 1
= −X
∂λ λ
 ∂ ln f X ( X ) 
2 2
 1 n
nE   = nE  X −  = 2
 ∂λ   λ λ
De acordo com o teorema citado, podemos dizer que Λ̂ é assintoticamente normal
λ2
com média λ e variância .
n

Frederico Cavalcanti INF005 52

Potrebbero piacerti anche