Sei sulla pagina 1di 6

UNIVERSIDADE FEDERAL DE SANTA MARIA – UFSM

DEPARTAMENTO DE ESTATÍSTICA – CCNE


CURSO – ESTATÍSTICA

PLANO DE AULA

PROFESSORES: Bruna Gregory Palm, Laís Helen Loose, Vinícius Scher


DATA: 28/08/2010
TEMA: Estimadores de Máxima Verossimilhança

OBJETIVOS: Fazer com que os colegas compreendam com exatidão o método de Máxima
Verossimilhança, entendendo todos os conceitos envolvidos na procura de um bom estimador

PROGRAMAÇÃO DA AULA: Inicialmente haverá a exposição de slides relacionados ao


Método de Máxima Verossimilhança, juntamente com a utilização da lousa para
demonstrações.

METODOLOGIA:
A aula será desenvolvida da seguinte forma:
-Apresentação do tema:
Introdução ao tema, com aplicações práticas para uma melhor compreensão por partes dos
colegas;
-Desenvolvimento:
A aula será desenvolvida por meio da organização do conhecimento, com apresentação e
discussão do conteúdo exposto, apresentados na forma de slides, e, além disso, a utilização
da lousa, para aula expositiva, introduzindo os conceitos básicos e a resolução de exemplos.
-Integração:
Envolver o aluno na aula, buscando sua participação, fazendo com que o mesmo participe do
processo de construção do conhecimento de forma ativa; Resolução de exercícios para o
aprofundamento e fixação do conteúdo.

RECURSOS:
- Lousa, slides (Data Show), exercícios.

DESFECHO:
Ao final da aula o aluno deve ser capaz de reconhecer e aplicar conceitos sobre o tema
estimadores de máxima verossimilhança apresentado em aula.
CONTEÚDO

Estimadores de Máxima Verossimilhança

A técnica de estimadores de máxima verossimilhança foi desenvolvida nos anos de 1920


pelo estatístico britânico Sir R. A. Fisher. Como o nome implica, o estimador será o valor do
parâmetro que maximize a função verossimilhança.
A partir dos anos 80, em função do desenvolvimento dos computadores pessoais de grande
potência, que o método de máxima verossimilhança começou a ser utilizado extensivamente em
econometria.
Este método permite a estimação dos parâmetros de modelos econométricos e a realização
de testes de hipóteses relativos a restrições lineares e não lineares do vetor de parâmetros, mas
para usar esta técnica, a distribuição da população tem que ser conhecida ou suposta.
O grande obstáculo quanto à utilização prática do método de máxima verossimilhança
consiste na freqüente incapacidade de obter-se uma solução explícita para a maioria dos
problemas em questão. Neste sentido, existe a necessidade de utilizar-se algum método de
otimização numérica para a obtenção dos parâmetros de interesse.
A grande importância do método de máxima verossimilhança consiste nas boas
propriedades assintóticas dos estimadores, que são consistentes e assintoticamente eficientes.
Para se ter uma melhor compreensão do método, podemos fazer um comparativo entre
probabilidade e verossimilhança; quando calculamos a probabilidade, possuímos um modelo com
parâmetros e conjunto de dados conhecidos, onde nosso interesse consiste em calcular a chance
desses dados ocorrerem, já na verossimilhança, temos um modelo com parâmetros desconhecidos
e novamente nosso conjunto de dados conhecido, mas dessa vez nosso interesse está na
estimação dos parâmetros e não na sua chance de ocorrência.

Definição 1. Seja ( X 1 ,..., X n ) uma amostra aleatória da variável aleatória X e sejam


( x1 ,..., x n ) os valores amostrais. Definiremos a função de verossimilhança L, como a seguinte
função da amostra e de :

L ( X 1 ,..., X n ;θ) = f ( X 1 ;θ). f ( X 2 ;θ)... f ( X n ;θ)

Se X for discreta, L( x1 ,..., x n ;θ) representará P[ X 1 = x1 ,..., X n = x n ]

Se X for contínua, L( x1 ,..., x n ;θ) representará a fdp conjunta de ( X 1 ,..., X n )

Definição 2. A estimativa de máxima verossimilhança de θ , isto é, θ , baseada em uma amostra


aleatória X 1 ,..., X n é aquele valor de que torna máxima L( X 1 ,..., X n ;θ) , considerada como
função de para uma dada amostra X 1 ,..., X n onde L é definida pela equação acima.

Para encontrar precisamos maximizar L o que em geral, é facilitado considerando

ln L ( X 1 ,..., X n ;θ) ,

visto que ln f ( x) é uma função crescente de f ( x ) .


O estimador de máxima verossimilhança será obtido pela resolução de


ln L( X 1 ,..., X n ; θ) = 0
∂θ

Propriedades das estimativas de máxima verossimilhança


a) A estimativa de MV pode ser tendenciosa. Muito freqüentemente, tal tendenciosidade
pode ser eliminada pela multiplicação por uma constante apropriada.
b) Sob condições bastante gerais, as estimativas de MV são coerentes. Isto é, se o
tamanho da amostra sobre a qual essas estimativas tenham sido calculadas for grande,
a estimativa de MV será “próxima” do valor do parâmetro a ser estimado.

Estimador de Máxima Verossimilhança da Distribuição Normal

Sejam X 1 ,... X n uma amostra aleatória da distribuição da variável aleatória X ~ N ( µ, σ 2 ) .


Neste caso, a função de verossimilhança é dada por
2 2 2
1  x1 − µ  1  x2 − µ  1  xn − µ 
1 − 
σ 
 1 − 
σ 
 1 − 
σ 

L(x1,...,xn; µ, σ2) = .e 2  . .e 2  .... .e 2 


σ 2π σ 2π σ 2π
Com Θ = {µ;−∞ < µ < ∞}
n 2
1  xi − µ 
 1  − 2∑
n
 
 σ 
=  .e i =1
 σ 2π 
2
1 n  xi −µ 

( ) −n −  
2 i =1  σ 
= σ 2π .e
aplicando logaritmo natural em ambos os lados, teremos:
2
1 n  xi − µ 

( ) ( )
−  
2 i =1  σ 
 x1,..., xn ; µ , σ 2 = −n ln σ 2π + ln e
2
n 1 n x −µ
= − n ln σ − ln 2π − ∑  i 
2 2 i =1  σ  (equação de verossimilhança)
fazendo a derivada parcial em relação a µ:
∂L  x −µ  σ 1
= 2. i . − 2 . −
∂µ  σ  σ 2
n
 x − µˆ  1
= ∑ i . = 0
i =1  σ σ
n

= ∑x
i =1
i − nµˆ = 0
n

∑x i
µ̂ = i =1

n
X
µ̂ =
n
fazendo a derivada parcial em relação a σ2:
∂L n n   xi − µ  ( xi − µ ) 1 
= − − ∑  2. . − . 
∂σ 2 σ i =1   σ  σ 2 2 
n n ( x − µ)
2
=− +∑ i 3 =0
σˆ i =1 σˆ
n n
(x − µ)
=∑ i 3
2

σˆ i =1 σˆ

σˆ = ∑
2
n
( xi − µ ) 2
i =1 n
σ2 é tendencioso, a qual pode ser eliminada através da multiplicação por uma
constante apropriada, o que é garantido através das propriedades da MV.

Estimador de Máxima Verossimilhança da Distribuição Bernoulli

Sejam X 1 ,..., X n uma amostra aleatória da variável aleatória X ~ Bernoulli (θ) . Nesse caso, a
função de verossimilhança de é dada por

f ( x;θ) =θ x .(1 −θ )
1−x
, x = 0,1
L( X 1 ,..., X n ;θ ) = θ x1 .(1 −θ ) .θ x2 .(1 −θ ) ....θ xn .(1 −θ )
1−x1 1−x2 1−xn

∑xi n

.(1 − θ ) ∑ i
(1−x )
=θ i =1
i =1

Com Θ = {θ; 0 <θ <1} .


n
Considerando k = ∑X
i =1
i = número total de sucessos, teremos:

= θ k .(1 −θ )
n −k

( X 1 ,..., X n ; θ ) = k ln θ + ( n − k ). ln (1 − θ )
Logo,
∂L k n − k
= +
∂θ θ 1 −θ

Se k = 0 ou n, encontramos diretamente, ao considerarmos a expressão de L,


que o valor máximo de L será atingido quando Ѳ = 0 ou 1, respectivamente. Para k ≠ 0
∂L k
ou n, faremos = 0 e encontraremos como sua solução θˆ = . Nesse caso
∂θ n
verificaremos que a estimativa de MV constitui uma estimativa não tendenciosa do
parâmetro procurado.
n

Comentário: ˆ k ∑x i
é a proporção de sucessos.
θ= = i =1
n n

Estimador de Máxima Verossimilhança da Distribuição Exponencial

Seja X exponencialmente distribuída com parâmetro λ . A função máxima verossimilhança de uma


amostra aleatória de tamanho n, X 1 , X 2 ,..., X n , é
n
n −λ ∑ xi
L(λ ) = ∏λe −λxi
=λ e n i =1

i =1
O logaritmo da verossimilhança é
n
ln L(λ ) = n ln λ − λ ∑ xi
i =1
Agora
d ln L(λ ) n n
= − ∑ xi
dλ λ i =1
e igualando esse último resultado a zero, obtemos
∧ n
λ = n / ∑ X i = 1/ X
i =1
Assim o estimador de máxima verossimilhança de λ é a recíproca da média amostral.

Exemplo: Temos uma caixa com bolas brancas e vermelhas. Sabe-se que a proporção de bolas
vermelhas na caixa é 1/3 ou 2/3. Portanto Θ = {1 / 3,2 / 3} . Para obtermos informações sobre , uma
amostra de n=3 bolas é observada com reposição e apresenta bola vermelha na primeira extração
e branca na segunda e na terceira extrações. Definindo

Para i =1,2,3 temos que a função de verossimilhança de associada à amostra observada é dada
por
L(θ ; x) = Pθ = [ X 1 = 1, X 2 = 0, X 3 = 0] = θ (1 − θ )(1 − θ ) = θ (1 − θ ) 2

Como

2
1  1  2  4
L ; x  =   =
 3  3 3
  27

E
2
 2  2 1 2
L ; x  =   =
 3  3 3 27
Temos que a estimativa de máxima verossimilhança de é dada por , pois

1  2 
L ; x  > L ; x 
3  3 

Propriedades dos Estimadores de Máxima Verossimilhança.

O Método de máxima verossimilhança é frequentemente o método de estimação que os


estatísticos preferem porque é geralmente fácil de usar e produz estimadores com boas
propriedades estatísticas,como segue:
Sob condições muito gerais e não restritivas, quando uma amostra de tamanho n for grande e se

Θ for um estimador de máxima verossimilhança do parâmetro θ , então

(1) Θ é um estimador aproximadamente não tendencioso para θ


[ E (Θ) ≅ θ ] ,


(2) A variância de Θ é aproximadamente tão pequena quanto a variância que poderia ser
obtida com qualquer outro estimador


(3) Θ tem uma distribuição normal aproximada.

Propriedade da Invariância

Seja estimador de máxima verossimilhança dos parâmetros Θ1 ,..., Θk . Então o


estimador de máxima verossimilhança de qualquer função h(Θ1 ,..., Θk ) desses parâmetros é a
mesma função dos estimadores .

Exemplo: No caso da distribuição normal, os estimadores de máxima verossimilhança de µ e σ 2


n

foram µ = X e
∑ (X i − X )2
. Para obter o estimador de máxima verossimilhança da função
σ2 = i =1

n
∧ ∧
h( µ, σ 2 ) = σ 2 = σ , substitua os estimadores µ e σ 2 na função h , resultando

12
∧ ∧
1 n 
σ = σ =  ∑ (X i − X )2 
2

 n i =1 

Logo, o estimador de máxima verossimilhança do desvio-padrão σ não é o desvio-padrão S da


amostra.

Complicações do uso da Estimação de Máxima Verossimilhança

Embora o método da máxima verossimilhança seja uma excelente técnica, algumas vezes
complicações aparecem durante o uso. Por exemplo, não é sempre fácil maximizar a função
dL (θ )
verossimilhança, porque as equações obtidas de = 0 podem ser difíceis de resolver. Além,

disso pode não ser sempre possível usar métodos de cálculo para determinar o máximo de L(θ) .

Potrebbero piacerti anche