Sei sulla pagina 1di 13

Curso DSc Concurso: EPE – Analista de Pesquisa Energética

Disciplina: Métodos Quantitativos Professor: Eduardo Campos

• Estimação Pontual

5. ESTIMAÇÃO Exemplo 5.1 - Seja o interesse em obter


alguma informação sobre esta turma,
PONTUAL E p.ex., a altura média dos alunos.

INTERVALAR Alunos da turma = universo em estudo.


Altura = característica de interesse.

População Parâmetro

Define-se população como a Um parâmetro é uma quantidade fixa


distribuição de probabilidade e desconhecida na população, sobre a
considerada adequada para a qual queremos obter informação.
característica de interesse.
No exemplo, o parâmetro de interesse é a
Uma suposição usual é que a característica de
altura média dos alunos, ou seja, a média da
interesse (no caso, a altura dos alunos) siga
distribuição das alturas, que denotamos por µ.
distribuição Normal ⇒ população Normal.

Exemplo 5.1 (cont.) - Em geral o universo A seleção destes n alunos, seguida do


em estudo é bastante amplo, não sendo registro das alturas, é um conjunto de
viável obter os valores da característica de experimentos aleatórios. O resultado de
interesse para todas as unidades (alunos). cada um destes experimentos pode ser
representado por uma variável aleatória.

Neste caso, devemos selecionar um Seja então: Xi = altura do i-ésimo


subconjunto de n alunos e registrar aluno selecionado, i = 1, 2, ..., n. Temos
as alturas de cada um deles. assim um conjunto de v.a.`s: X1, X2, ..., Xn.

1
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

Amostra Estimador

Amostra é um conjunto de v.a.`s: {X1, Estimador é uma função das v.a.`s da


X2, ..., Xn} que representa os valores amostra utilizada para obter um valor
da característica de interesse para as “plausível” para um parâmetro.
n unidades selecionadas do universo. O estimador “natural” para µ é:
n

∑X
o chapéu significa média da
Se X1, X2, ..., Xn são independentes, temos que estamos i amostra ou
estimando µ
uma Amostra Aleatória Simples ⇒ AAS. µˆ = X = i =1
. média
amostral
n

• Estimador x Estimativa
Distribuição Amostral
Quando substituímos no estimador os
valores observados de X1, X2, ..., Xn,
obtemos uma estimativa do parâmetro. A distribuição amostral de um estimador
é a sua distribuição de probabilidade.
Exemplo 5.1 (cont.) - Considere a amostra
observada de tamanho 5: x1 = 180, x2 = 175, Ela representa o comportamento dos valores
x3 = 187, x4 = 173 e x5 = 185 (cm). assumidos pelo estimador em amostras
repetidas ⇒ isto significa: considerando
5

∑x
A estimativa de µ é: µˆ = x =
i
i =1
= 180. todas as amostras de tamanho n possíveis.
5

Estimador Não Viciado O vício de θ̂ é dado por:

Um estimador não viciado é aquele


B(θˆ ) = E (θˆ ) − θ.
cujo valor esperado é igual ao valor
verdadeiro do parâmetro.
Do inglês: bias = vício.
Ou seja, um estimador θ̂ é não
viciado para um parâmetro θ se: Obs - vício = tendência = viés.
Estimador não viciado = não
E (θˆ ) = θ. tendencioso = não viesado.

2
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

Resultados importantes (já demonstrados):


Embora a ausência de vício seja uma
propriedade importante, ela não garante
que um estimador seja adequado.
A distribuição amostral de x é Normal.

A variância também é importante, pois


x é um estimador não viciado para µ. mede a dispersão em torno do parâmetro.

Qual dos estimadores propostos abaixo


parece melhor para estimar o parâmetro µ? Quanto menor a
variância, maior será:

distribuição de µˆ 1
P(µ − ε < µˆ < µ + ε),

distribuição de µˆ 2
para um ε arbitrário, > 0.
µ-ε µ µ+ε

• Erro Padrão
• Estimador Eficiente

O desvio padrão de um estimador


é denominado erro padrão (EP).
O estimador não viciado com menor
variância possível para um parâmetro θ
Já vimos que: é chamado estimador eficiente de θ.
σ 2 e assim: σ
V (X ) = EP ( X ) = .
n n

3
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

• Estimador Consistente Um estimador é consistente se uma


das condições a seguir é satisfeita:
Um estimador θ̂ é consistente se à
1) É não viciado e:
medida que o tamanho da amostra
aumenta, a distribuição amostral de θ̂ vai se Lim V(θˆ ) = 0.
concentrando cada vez mais em torno de θ. n →∞

assintoticamente
não viciado.
ou 2) É viciado, mas:
Tecnicamente, dizemos que θ̂ converge
em probabilidade para o parâmetro θ. Lim B(θˆ ) = 0 e Lim V(θˆ ) = 0.
n →∞ n →∞

• Lei dos Grandes Números • Estimação de σ2

O candidato natural para estimar a


X é um estimador consistente variância σ2 de uma população seria:
para a média populacional µ. n n

∑ (X − X ) ∑ X − nX
2 2 2
i i
σˆ * =
2 i =1
= i =1
.
Este importante resultado da estatística n n
é chamado Lei dos Grandes Números.
Problema:
Estimadores e suas Propriedades -
o estimador acima é viciado.
Prof. Eduardo Lima Campos.

• Estimador Não Viciado para σ2 Estimativas de variância e desvio padrão,


considerando a amostra do exemplo 5.1:

n n n n

∑ (X − X) 2
∑X 2
− nX 2 ∑ (x i − x)2 ∑x 2
i − nx 2
i i
σ̂ = s =
2 2 i =1
= i =1 =
S2 = i =1
= i =1
. n −1 n −1
n −1 n −1 (180) 2 + (175) 2 + (187) 2 + (173) 2 + (185) 2 − 5 * (180) 2
= 37.
4
Este estimador é chamado variância amostral.
S = S2 é chamado desvio padrão amostral.
σ̂ = s = 37 = 6,0828.

4
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

• Métodos de Estimação • Método da Máxima Verossimilhança

Nada foi dito até agora sobre como obter


Seja uma AAS observada {x1,x2,...,xn} de uma
bons estimadores para um parâmetro. Ou
população com parâmetro desconhecido θ.
seja, sobre métodos de estimação.

O estimador de máxima verossimilhança é


aquele que conduz ao valor de θ que tornaria
Estudaremos a seguir o método da máxima
máxima a probabilidade de obter essa amostra.
verossimilhança e o método dos momentos.

Exemplo 5.2 - Seja X1 uma AAS de Se fosse um problema de probabilidade,


tamanho 1 de uma população referenciada você calcularia P(X=x) para um dado valor
pela distribuição de Poisson, cujo parâmetro de λ (usando a fórmula do slide anterior).
é λ. A amostra observada foi x = 2.

Ache o EMV de λ. Mas o problema aqui é inverso:


Solução - se X ~ Poisson(λ):
temos x (amostra), no caso: x=2, e
λ x e− λ queremos saber qual o valor de λ.
P(X = x ) = ; x = 0,1,2,...; λ > 0.
x!

A probabilidade de que uma amostra P(X=x) encarada como função de λ:


como a do enunciado (x = 2) ocorra é:
0,3

λ 2e − λ
0,25

P(X = 2) = . 0,2

2! 0,15

0,1

0,05

Perceba que esta probabilidade é 0

uma função de λ, e não mais de x.


0,01
0,64
1,27
1,9
2,53
3,16
3,79
4,42
5,05
5,68
6,31
6,94
7,57
8,2
8,83
9,46
10,1
10,7
11,4
12
12,6
13,2
13,9
14,5

5
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

• Função de Verossimilhança Resolvendo o problema graficamente:

P(X=x), encarada como função de λ, é


0,3
máximo da função
0,25
chamada função de verossimilhança (do 0,2
inglês: “Likelihood”), representada por L(λ). 0,15

0,1 ponto de máximo


0,05

A idéia do método a ser apresentado é 0

buscar o valor de λ que maximiza L(λ).

0,01
0,64
1,27
1,9
2,53
3,16
3,79
4,42
5,05
5,68
6,31
6,94
7,57
8,2
8,83
9,46
10,1
10,7
11,4
12
12,6
13,2
13,9
14,5
Função de Verossimilhança:
E no caso de uma AAS de tamanho n>1?
O produto é por causa da
independência (AAS)
n
A idéia é a mesma, só que agora a função de P(X1 = x1 , X2 = x 2 ,...,Xn = x n ) = ∏ P(Xi = xi ),
verossimilhança é a distribuição conjunta i =1
da amostra, encarada como função de λ. ∀(x1,x2,...,xn).
L(θ)

Exemplo 5.2 (cont.) no caso de uma AAS • Função de Log-Verossimilhança


de tamanho n de uma população Poisson(λ):
n
Seja l(θ) = ln[L(θ)]. l(θ) é chamada
∑ xi função de log-verossimilhança.
λ i=1 e − nλ
L(λ ) = .
n O valor de θ que maximiza l(θ)
∏ x i!
i =1
é o mesmo que maximiza L(θ).

Nos casos práticos, é bem mais fácil derivar


Esta função deve ser
(e, portanto, maximizar) l(θ) do que L(θ).
maximizada em relação a λ.

6
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

Exemplo 5.2 (cont.) - função de


cuja derivada é:
log-verossimilhança para a Poisson:
n

 n xi 
∑ xi
 ∑ − nλ  l`(λ) = i =1
−n
λ e  n 
i=1
λ
l(λ) = ln n = ∑ x ln λ − nλ + c
   i =1 i 
 ∏ x i! 
 i =1 

n Logo, o estimador de máxima


Assim, temos que ∑ xi verossimilhança (EMV) é:
resolver a equação: l`(λ) = =1 − n = 0,
i
λ

n λˆ MV = X.
∑ xi
cuja solução é: λ = i =1
= x.
n

Método da Máxima Verossimilhança: Exercício (Resolvido) 5.1

1. Escrever a função de verossimilhança


Seja uma AAS de tamanho n
2. Escrever a função de log-verossimilhança
de uma população que segue uma
3. Derivar a função de log-verossimilhança distribuição exponencial, cujo
4. Igualar a derivada do passo 3 a zero, e parâmetro é λ.
resolver para o parâmetro de interesse
5. Aplicar a função encontrada em (4) à Obtenha o EMV de λ.
{X1,X2,...,Xn}, obtendo assim o EMV.

7
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

Solução: E a função de log-verossimilhança é:

 −λ ∑x   −λ ∑x 
n n

A função de densidade é: f(x) = λe-λx, x>0. l(λ) = ln λn e  = ln(λn ) + ln e =


i i
i =1 i=1

  
A função de verossimilhança segue    
n ln(λ ) − λ∑ x i .
a mesma lógica do caso discreto: n

i =1
n
L(λ) = ∏ f (x i ) = Derivando e igualando a zero :
i=1
n
−λ ∑xi n n n 1
l`( λ ) = − ∑ xi = 0 ⇔ λ = n = .
n

∏λe = λn e
−λx i i=1
. λ i =1
i=1 ∑ xi x i =1

Logo, o EMV é: Exercício (Resolvido) 5.2 - Seja uma AAS de


tamanho n de uma população Bernoulli(p).

Obtenha o EMV de p.
1
λˆ MV = .
X R:

p̂ MV = X.

EMV para estes e outros casos importantes:


Solução Resumida:
Bernoulli : p̂ MV = X.
n n
n ∑ xi ∑ (1−xi )
L(p) = ∏pxi (1 − p)1−xi = p i=1
(1- p) i=1
= Poisson : λˆ = X.
MV
i=1 1
n n Exponencial : λˆ MV = .
∑ xi n − ∑ xi X
⇒ l(p) = ∑ x i ln(p) +  n − ∑ xi ln(1- p).
n n
i=1 i=1
p (1- p)
i=1  i=1  1
Geométrica : p̂ MV = .
n
 n
 n n X
∑ xi  n − ∑ xi  ∑ xi − np ∑ xi
l`(p) = i=1 +  i=1  (−1) = i=1
n

p (1 − p) p(1 − p)
= 0 ⇔ p = i=1 .
n ∑ (X i −X ) 2
Normal : µˆ MV = X e σ 2MV = i =1
.
n

8
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

O que são “momentos” ?


• Método dos Momentos
Momentos (ordinários) populacionais:
E(X); E(X2); ...; E(Xk).
Vantagem: bem mais simples do que
o método da máxima verossimilhança Momentos (ordinários) Amostrais:
e, na maior parte dos casos práticos n n n
de interesse, leva ao mesmo resultado. ∑ Xi
i =1
∑ Xi2
i =1
∑X
i =1
k
i
; ;...; .
n n n

Método dos Momentos para EM para os casos mais importantes


Distribuições com 1 Parâmetro (envolvendo apenas 1 parâmetro)

No caso de distribuições com apenas 1 Bernoulli : p̂ MM = X.


parâmetro (ex., Poisson, exponencial,
Bernoulli, Geométrica), o estimador de Poisson : λˆ = X. MM
momentos (EM) é obtido igualando o 1
primeiro momento populacional ao Exponencial : λˆ MM = .
primeiro momento amostral - ou seja: X
1
Geométrica : p̂ MM = .
E(X) = X. X

Método dos Momentos para Estimadores de Momentos da Normal:


Distribuições com 2 Parâmetros

No caso de populações com 2 parâmetros µˆ MM = X


n
(ex.: Normal), o estimador de momentos
(EM) é obtido igualando os 2 primeiros ∑ (X i − X)2
momentos populacionais - E(X) e E(X2) σˆ 2MM = i =1

n
- aos respectivos momentos amostrais.

9
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

• Estimação Pontual x Intervalar R: Não.

Possivelmente haverá o
O que a estimativa de µ permite chamado erro de estimação:
concluir acerca do valor real de µ?
x − µ.

Podemos afirmar que µ é Este erro não é calculável, porém pode-se


igual à sua estimativa? calcular uma importante quantidade
denominada margem de erro.

• Margem de Erro Cálculo da Margem de Erro:

No problema da estimação da média µ de A margem de erro pode ser obtida


uma população Normal, seja ε > 0 tal que: como função do tamanho da amostra
n, considerando o seguinte resultado:
P(µ − ε < X < µ + ε) = (1 − α).
(alto, próximo de 1, em geral 0,95). σ2
X ~ N(µ, ).
ε é denominada margem de erro, e n
representa o valor máximo que o erro de
estimação assume, com probabilidade 1-α. O cálculo é apresentado no slide a seguir:

P(µ − ε < X < µ + ε) = (1 − α ) • Determinando o Tamanho


 (µ − ε) − µ (µ + ε) − µ  de uma Amostra
P <Z<  = (1 − α)
 σ/ n σ/ n  Na prática, o que se faz não é determinar
 −ε ε  a margem de erro ε em função de n, e sim
P <Z<  = (1 − α) o inverso: a partir de um valor de ε pré-
σ/ n σ/ n 
especificado, calcula-se o n necessário:
ε σ
= zα ⇒ ε = zα .
σ/ n 2 2 n z 2α σ 2
k tal que p(Z>k) = α/2, sendo Z ~ N(0,1). n= 2
.
ε2
O caso mais comum é α = 0,05 e k = 1,96.
Estimadores e suas Propriedades -
Prof. Eduardo Lima Campos.
Estimadores e suas Propriedades -
Prof. Eduardo Lima Campos.

10
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

• Tamanho da Amostra para


Estimar Proporções
Embora p seja desconhecido, a função
Estimar uma proporção significa estimar o p(1-p) possui um valor máximo: 0,25.
parâmetro p de uma população Bernoulli.
Assim σ2 = p(1-p), e a fórmula para n torna-se: Este ponto de máximo ocorre em p = 0,5.
z 2α p(1 − p)
. n= 2
Vejamos graficamente...
ε2
Problema: o valor de p é desconhecido!
(mas, neste caso, há uma forma de resolver)
Estimadores e suas Propriedades - Estimadores e suas Propriedades -
Prof. Eduardo Lima Campos. Prof. Eduardo Lima Campos.

Se utilizarmos o valor máximo


• Gráfico de f(p) = p(1-p) x p.
de p(1-p) na fórmula de n, obtemos:
0,3

0,25
z2 α Este valor é uma cota
n= 2
. superior para n.
f(P) = p*(1-p)


0,2 2
0,15

0,1

0,05 Se p for diferente de 0,5, a fórmula acima


p = 0,5 fornece um n maior que o necessário. Por
0
0
0,06
0,12
0,18
0,24

0,36
0,42
0,48
0,54

0,66
0,72
0,78
0,84

0,96
0,3

0,6

0,9

isso, este procedimento para dimensionar


p
Estimadores e suas Propriedades -
uma amostra é chamado de conservador.
Estimadores e suas Propriedades -
Prof. Eduardo Lima Campos. Prof. Eduardo Lima Campos.

Exemplo 5.3 - Qual o tamanho de amostra


necessário para estimar uma proporção p Intervalo de Confiança
com base em uma AAS, com margem de
erro (calculada para uma probabilidade Um intervalo de confiança (IC) é um
0,95) ε = 0,1(aproxime 1,96 por 2). intervalo numérico, construído a partir
da estimativa pontual, no qual
Solução: confiamos que o parâmetro esteja.

4 1 O “quanto” confiamos é determinado por uma


n≅ = 2 = 100.
4ε 2
ε quantidade denominada grau de confiança,
Estimadores e suas Propriedades -
Prof. Eduardo Lima Campos.
cujos valores usuais são 90%, 95% e 99%.

11
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

• IC p/ a Média µ de uma População Normal Usamos até aqui a distribuição de


(considerando σ conhecido) x quando σ2 é conhecida:

 σ σ
IC100(1−α )% (µ) =  x − z α ; x + zα . σ2
 2 n 2 n  X ~ N(µ, ).
grau de confiança do IC
n
(90, 95 ou 99 %).

k tal que p(Z>k) = α/2, sendo Z ~ N(0,1). Ocorre que, na prática, σ2 não é conhecida
Obs - Note que o IC, neste caso, é: e, portanto, terá que ser estimada.
[estimativa – ε; estimativa + ε]

Quando σ2 é desconhecida e • Distribuição da média amostral, quando o


utilizamos S no lugar de σ em: desvio padrão σ é desconhecido e estimado

X −µ X −µ
, T= ~ t n−1.
σ/ n S/ n

distribuição t de Student
a distribuição não é mais Normal. com n-1 graus de liberdade

• IC p/ a Média µ de uma População Normal


(considerando σ desconhecido e estimado)
Obs - se n for suficientemente grande (> 30),
 s s 
IC100(1−α )% (µ) =  x − t α ;x + t α . mesmo que o desvio padrão populacional seja
 n −1;
2 n n −1;
2 n  desconhecido, o IC baseado na distribuição
Normal costuma ser usado como aproximação.
T é uma v.a. com distribuição
t de Student com n-1 g.l..

t α é o valor k tal que: P(T>k) = α/2.


n−1;
2

12
Curso DSc Concurso: EPE – Analista de Pesquisa Energética
Disciplina: Métodos Quantitativos Professor: Eduardo Campos

Exemplo 5.4 - Na situação do exemplo Consultando a Tabela t:


5.1 (alturas dos alunos), considere a
amostra: x1 = 180, x2 = 175, x3 = 187,
x4 = 173 e x5 = 185. Ache o IC95%(µ).

Solução:
Da amostra: x = 180 e s = 6,0828.

O valor na tabela t deve ser procurado


para 4 graus de liberdade e α = 0,05. t 4;0,025 = 2,7764.

Substituindo na fórmula do IC, temos: • Intervalo de Confiança para


uma Proporção (Grandes Amostras)
 6,0828 6,0828  Seja p uma proporção populacional.
IC95% (µ) = 180 − 2,7764 ;180 + 2,7764
 5 5 
 p̂(1 − p̂) p̂(1 − p̂) 
IC100(1−α )% (p) = p̂ − z α ; p̂ + z α .
n 
= [172,45;187,55].
 2 n 2

Interpretação: temos 95% de confiança = ε, para o caso da estimação de uma proporção.


de que µ esteja no intervalo acima.
p̂ é a proporção que foi observada na amostra.

• IC para a Variância de Exemplo 5.5 - Uma amostra de 30 alunos


uma População Normal de uma universidade apresenta variância
amostral das notas: s2 = 132,7.
  Supondo que a população é normal,
 s2 s2 
IC 100(1−α)% (σ ) = (n − 1) 2 ; (n − 1) 2
2
. construa um IC de 95% para σ2.
 χ α χ  α 
 n −1,
2
n −1,
 2 
 1−  
Solução - os valores da qui-quadrado são:
valor k 2 na tabela valor k1 na tabela χ 229;0,975 = 16 e χ 229;0,025 = 45,7.
qui - quadrado tal que : qui - quadrado tal que :
α α  132,7 132,7 
P(X > k 2 ) = . P(X < k1 ) = . IC 95% (σ 2 ) =  29 ;2 9 = [84,21;240 ,52].
2 2  45,7 16 

13

Potrebbero piacerti anche