Sei sulla pagina 1di 15

ECONOMETRIA II: NOTAS DE AULA 1 MULTICOLINEARIDADE (Cap 10: Gujarati e Porter, 2011) 2

→ Violação da hipótese 6 (o número de observações deve ser maior do que

o número de parâmetros a serem estimados); da hipótese 7 (os regressores devem variar) e da hipótese 8 (ausência de colinearidade/multicolinearidade)

10.1 A natureza da multicolinearidade

Originalmente:

→ Relação (correlação) 3 linear exata/perfeita entre algumas ou todas as variáveis explicativas de um modelo de regressão.

Atualmente:

Refere-se

correlação já não é tão perfeita.

à

correlação

entre

as

variáveis

explicativas,

mas

essa

→ O modelo de Mínimos Quadrados Ordinários tem como um dos

pressupostos que nenhuma das variáveis explicativas é uma função linear das outras ↔ nenhuma variável é redundante. Quando esse pressuposto é violado, o processo de mínimos quadrados falha.

Dados econômicos para estimar relações econômicas são não-

experimentais (os dados não são resultantes de um experimento planejado). Quando os dados resultam de um experimento não planejado/não controlado,

muitas das variáveis econômicas podem caminhar juntas de modo sistemático (variáveis colineares).

Na presença de multicolinearidade, não há garantia de que os dados sejam ricos em informação, nem de que seja possível isolar as relações ou parâmetros econômicos de interesse.

Exemplo 1: Estimar o aumento da receita total (RT) de uma dada empresa decorrente da propaganda em jornais e revistas (jorn) e o aumento da receita total devido à propaganda em panfletos (panf). Suposição: ambas as propagandas ocorreram simultaneamente. RT t = β 1 + β 2 jorn t + β 3 panf t + u t

1 Estas notas de aula não substituem a leitura do livro.

2 Complementado por Hill; Griffhts; Judge (2010).

3 Correlação: relação mútua entre dois termos.

Intuitivamente: dificilmente os dados revelarão os efeitos separados de cada uma das formas de propaganda. Os dois tipos de despesas “caminham juntas” e pode ser difícil selecionar seus efeitos separadamente sobre a receita total.

Exemplo 2: Seja X 2 = renda familiar

X 3 = média de horas de estudo por dia X 4 = média de horas de estudo por semana X 3 e X 4 são perfeitamente colineares X 4 = 7X 3

Exemplo 3:

C i = β 1 + β 2 renda i + β 3 riqueza i + u i

Pode ocorrer que nos dados obtidos sobre renda e riqueza, as duas variáveis sejam altamente, se não perfeitamente, correlacionadas. Pessoas ricas, em geral, têm rendas maiores. Renda e riqueza são candidatas óbvias para explicar consumo, mas pode ser difícil isolar as influências separadas da renda e da riqueza sobre o consumo. Para avaliarmos os efeitos da riqueza e da renda sobre o consumo, o ideal seria ter um número suficiente de observações de indivíduos ricos com baixa renda e de indivíduos com alta renda e pouca riqueza.

Exemplo 4:

Sejam os seguintes dados hipotéticos

X2

X3

X3*

10

50

52

15

75

75

18

90

97

24

120

129

30

150

152

Nota-se que:

X 3 = 5X 2 Perfeita colinearidade entre X 2 e X 3

X 3 * = 5X 2 + vi ou imperfeita.

com vi = {2, 0, 7, 9, 2} → Colinearidade menos que exata

Abordagem algébrica da multicolinearidade:

No caso de uma regressão com k variáveis explicativas, X 1 , X 2 ,

se que há uma relação linear exata se:

λ 1 X 1 + λ 2 X 2 + λ 3 X 3 +

+ λ k X k = 0

(10.1.1)

, X k , diz-

Em que λ 1 , λ 2 , iguais a zero.

, λ k são constantes, tais que nem todas são simultaneamente

Atualmente, multicolinearidade é um termo usado num sentido mais amplo, pois inclui também o caso de multicolinearidade não tão perfeita.

λ 1 X 1 + λ 2 X 2 + λ 3 X 3 +

+ λ k X k

+ vi = 0

(10.1.2)

em que vi = termo de erro estocástico e X 1 = 1 (intercepto)

Qual é a diferença entre multicolinearidade perfeita e a multicolinearidade menos que perfeita?

Reescrevendo a equação (10.1.1), sendo λ2 ≠ 0

2 =

1

2

1

3

2

3

− ⋯ −

2

(10.1.3)

X 2 tem uma relação linear exata com outras variáveis. X 2 pode ser derivada de uma combinação linear de outras variáveis X.

Reescrevendo a equação (10.1.2), sendo λ2 ≠ 0:

2 = −

1

2 1

3

2

3

− ⋯ −

2

1

2

(10.1.4)

X 2 não é uma combinação linear exata de outras variáveis X, mas também é determinada por um termo de erro estocástico vi.

Abordagem da multicolinearidade via Diagrama de Venn ou Diagrama de Ballentine

Y = variável dependente

X 2 e X 3 são as variáveis independentes Os círculos representam as variações em cada variável.

É possível

sobreposição dos círculos.

entender

o

grau

de

multicolinearidade

pela

extensão

da

entender o grau de multicolinearidade pela extensão da Figura 10.1: Visão da multicolinearidade segundo o diagrama

Figura 10.1: Visão da multicolinearidade segundo o diagrama de Ballentine.

Relações lineares X relações não-lineares

A multicolinearidade é definida apenas como relações lineares entre as

variáveis X. Ela não descarta relações não lineares entre elas. Por exemplo,

considere o seguinte modelo de regressão *função de custo de produção):

Y i = β 0 + β 1 X i + β 2 X i 2 + β 3 X i 3 + u i

(10.1.5)

em que Y = custos de produção e X = produção. X 2 (produção ao quadrado)

e X 3 (produção ao cubo) são funcionalmente relacionadas a X i , mas a relação

é não linear.

Em termos estritos, modelos como a Equação (10.1.5) não violam a hipótese

de não multicolinearidade. Entretanto, em aplicações concretas, o coeficiente

de correlação medido em termos convencionais mostrará X i , X 2 i e X 3 i como altamente correlacionados, o que, como mostraremos, dificultará a estimação dos parâmetros da Equação (10.1.5) com maior precisão (isto é, com erros padrão menores).

Fontes de multicolinearidade:

1) Método utilizado na coleta de dados 2) Restrições ao modelo ou à população que está sendo amostrada 3) Má especificação do modelo 4) Um modelo sobredeterminado 5) Dados de séries temporais em que as variáveis explicativas têm uma tendência comum.

10.2 Estimação na presença de multicolinearidade perfeita

Por que o modelo clássico de regressão linear pressupõe que não há multicolinearidade entre os X´s?

Se a multicolinearidade é perfeita: os coeficientes das variáveis X são indeterminados e seus erros-padrão infinitos. O cálculo das estimativas dos parâmetros é, matematicamente, impossível.

Exemplo:

̂

yi =

2

2 +

̂

3

̂

3 +

(10.2.1)

̂

2

=

2

2 )(Ʃ 3

)−(Ʃ 3 )(Ʃ 2 3 )

2 )(Ʃ 3 )−(Ʃ 2 3 ) 2

2

2

(7.4.7)

Veja também a fórmula para estimar

3

̂ (Equação 7.4.8)

OBS.: o modelo e a fórmula estão na forma de desvio.

Suponha que x 3i = λ 2 em que λ = constante e λ ≠ 0.

Ao resolver, encontra-se que 2

̂ 0

=

0 que é uma expressão indeterminada.

Por que obtemos esse resultado? Lembre-se que 2 nos dá a variação do valor médio de Y quando X 2 varia por unidade, mantendo X 3 constante. Mas se X 2 e X 3 são perfeitamente colineares, não há como manter X 3 constante. À medida que X 2 muda, X 3 também muda pelo fator λ.

O que isto significa? Não há como distinguir as influências de X 2 e X 3 de

uma forma separada na amostra dada: X 2 e X 3 são indistinguíveis.

Esse problema é grave em econometria? Sim, pois o que queremos é isolar

os efeitos parciais de cada X sobre a variável dependente.

10.3

imperfeita

Estimação

na

presença

de

multicolinearidade

“alta”,

mas

Multicolinearidade perfeita é um caso extremo. Em geral, não há relação linear exata entre as variáveis X. Um caso intermediário ocorre quando se tem multicolinearidade imperfeita.

Voltando ao modelo de três variáveis no formato de desvio dado na Equação

(10.2.1):

̂

yi =

2

2 +

̂

3

̂

3 +

(10.2.1)

em vez da multicolinearidade exata, podemos ter:

3 = λ 2 + (10.3.1) em que λ ≠ 0 e vi é um termo de erro estocástico.

É

aleatório for muito pequeno (muito próximo de zero), retornamos ao problema de indeterminação.

̂ (Veja resultado da equação 10.3.2), mas se o termo

possível estimar

2

E se a multicolinearidade é menos que perfeita?

Os coeficientes de regressão das variáveis X, embora determinados possuem erros padrão grandes (em relação aos próprios coeficientes), o que significa que os coeficientes não podem ser estimados com grande precisão ou exatidão.

Resumindo:

Quando há forte relação entre as variáveis em uma amostra, há dificuldade de isolar os efeitos separados de variáveis explicativas individuais em um modelo.

→ Similarmente, quando os valores de uma variável explicativa não variam muito dentro da amostra de dados, ou seja, quando uma variável explicativa apresenta pequena variação, é difícil isolar seu impacto.

Portanto:

→ Quanto maior a variação em uma variável explicativa, maior é a precisão com que podemos estimar seu coeficiente.

→ Ausência de variação leva a uma imprecisão do estimador.

10.4 Multicolinearidade: muito barulho por nada?

Sob multicolinearidade imperfeita, os estimadores de MQO são melhor estimador linear não tendencioso (MELNT), mas com erros padrão altos. ** Melhor porque tem variância mínima, o que não quer dizer que a variância é pequena.

Dois problemas relacionados à amostra:

Multicolinearidade: situação em que ocorre uma relação perfeita ou quase perfeita entre as variáveis explicativas.

Micronumerosidade: poucas observações; tem relação com o tamanho da amostra.

Micronumerosidade exata: quando o número de observações é igual a zero. Não é possível obter as estimativas dos parâmetros.

Quase numerosidade: quando o número de observações mal excede o número de parâmetros a serem estimados.

A multicolinearidade é um fenômeno amostral (da regressão) no sentido de que, mesmo que as variáveis explicativas (X) não estejam relacionadas linearmente na população, elas podem estar relacionadas na amostra.

10.5 Consequências práticas da multicolinearidade

1. Estimadores de MQO são MELNT, mas com grandes variâncias, dificultando a precisão da estimativa.

A velocidade com a qual as variâncias e covariâncias aumentam pode ser obtida pelo Fator de Inflação da variância (FIV) ou da Tolerância (TOL)

=

1

(1− 2 )

(10.5.1)

1

TOL =

(10.5.5)

O FIV mostra como a variância de um estimador é inflada pela presença de multicolinearidade. Quando R 2 se aproxima de 1, o FIV se aproxima do infinito.

Se R 2 = 0,2 → FIV = 1/0,8 = 1,25 Se R 2 = 0,9 → FIV = 1/0,1 = 10 Se R 2 = 0,99 → FIV = 1/0,01 = 100

OBS.: O FIV pode ser utilizado para calcular a variância de uma estimativa de um parâmetro:

̂

( ) =

Se

multicolinearidade.

R 2

=

1

multicolinearidade

2 (

2

2 )

1

1

perfeita;

se

R 2

=

0

não

2. Com variâncias e covariâncias grandes, os intervalos de confiança tendem a aumentar, levando à aceitação da hipótese nula de que o verdadeiro coeficiente é zero.

Lembre que a fórmula do intervalo de confiança é:

̂

IC =

̂ ± /2 ( ) = 1 −

Assim, quanto maior o erro padrão (ep), maior a amplitude do intervalo de confiança.

3. Conforme (1) e (2) a razão

t

̂

̂

( = /( ) de

um ou

mais

coeficientes tende a ser estatisticamente não significativo.

4. Embora a razão t de um ou mais coeficientes seja estatisticamente não significativa, R 2 , a medida geral da qualidade do ajustamento pode ser muito alto.

5. Os estimadores de MQO e seus erros-padrão podem ser sensíveis a pequenas alterações nos dados (veja exemplos das tabelas 10.3 e 10.4)

10.6 Um exemplo ilustrativo

Consumo (Y) em função da renda (X 2 ) e da riqueza (X 3 )

Y i = β 1 + β 2 X 2i + β 3 X 3i + u i

Renda e riqueza são duas variáveis altamente, se não perfeitamente

correlacionadas.

Veja os dados da Tabela 10.5 e os resultados da estimação, conforme equação (10.6.1)

̂

=

24,7747 + 0,9415 2 − 0,0424 3

(10.6.1)

ep

(6,7525)

(0,8229)

(0,0807)

t

(3,6690)

(1,1442)

(-0,5261)

R 2 = 0,9635

F = 92,4019

N

= 10

gl = 7

T crítico = 2,365

F crítico = F 2,7,5% = 4,74

Quando temos um teste F significativo, mas com valores t de X 2 e X 3 individualmente não significativos, isso é um indício de que as duas variáveis estão tão correlacionadas que é impossível identificar o impacto individual

da renda ou da riqueza sobre o consumo.

A regressão (10.6.1) mostra que renda e riqueza juntas explicam cerca de

96% da variação na despesa de consumo e nenhum dos coeficientes angulares é, individualmente, estatisticamente significativo. Além disso, a variável riqueza não só é estatisticamente insignificante, mas também tem o sinal errado. A priori, pode-se esperar uma relação positiva entre consumo e riqueza. Embora os coeficientes sejam individualmente insignificantes, do ponto de vista estatístico, se testarmos a hipótese de que β 2 = β 3 = 0 simultaneamente, essa hipótese poderá ser rejeitada (Veja o resultado do teste F, altamente significativo).

Exemplo do que a multicolinearidade faz:

1) Test F significativo 2) Razões t individualmente não significativas para X 2 e X 3 3) O parâmetro de X 3 (riqueza) tem o sinal contrário ao esperado

Agora veja os resultados de três regressões:

Primeira: vamos regredir X 3 contra X 2 (riqueza contra a renda)

̂

T (0,256)

R 2 = 0,9979

= 7,545 + 10,191 2

(62,04)

3

(10.6.3)

Aqui há uma colinearidade quase perfeita entre X 2 e X 3 .

Segunda: regredindo Y contra X 2 (Consumo contra renda)

̂

=

24,454 + 0,509 2

(10.6.4)

t

(3,8128)

(14,2432)

R 2 = 0,9621

Agora a variável renda passa a ser significante, enquanto na equação (10.6.1) ela era não significativa estatisticamente.

Terceira regressão: regredindo Y contra X 3 (Consumo contra riqueza)

̂

=

24,41 + 0,0498 3

(10.6.5)

t

(3,551)

(13,29)

R 2 = 0,9567

Veja também que a riqueza tem um impacto significativo na despesa com consumo, enquanto na equação (10.6.1) não.

Conclusão: as equações (10.6.4) e (10.6.5.) mostram que excluir a variável altamente colinear contribui para tornar a outra variável estatisticamente significativa.

→ Com colinearidade alta, os testes dos regressores individuais não são confiáveis.

Agora vamos considerar um conjunto concreto de dados sobre gastos reais de consumo (C), renda pessoal real disponível (Yd), riqueza real (W) e taxa de juros real (I) para os Estados Unidos, no período de 1947-2000. Os dados brutos são apresentados na Tabela 10.7.

lnC t = β 1 + β 2 lnYd t + β 3 lnWt + β 4 It + u t

(10.6.6.)

̂

= −0,467711 + 0,804873 + 0,201270 − 0,002689

t

(-10,93343)

(45,99836)

(11,44060) (-3,529265)

p

(0,0000)

(0,0000)

(0,0000)

(0,0009)

N

= 54

R 2 = 0,99956

F = 37.832,59

Prob F = 0,0000

Os resultados mostram que todos os coeficientes estimados são altamente significativos, do ponto de vista estatístico, pois seus valores p são extremamente pequenos. Os coeficientes estimados são interpretados como

segue. A elasticidade da renda é aproximadamente 0,80, sugerindo que, mantendo as outras variáveis constantes, se a renda sobe em 1%, os gastos médios de consumo sobem cerca de 0,8%. O coeficiente de riqueza é aproximadamente 0,20, o que significa que, se a riqueza sobe em 1%, o consumo médio sobe apenas 0,2%, novamente mantendo-se as demais

variáveis constantes. O coeficiente da variável taxa de juros diz que, quando

esta sobe em um ponto percentual, a despesa de consumo cai em 0,26%,

ceteris paribus.

Todos os regressores têm sinais que atendem às expectativas anteriores, isto

é,

renda e riqueza têm ambas um impacto positivo no consumo, mas a taxa

de

juros tem impacto negativo.

Todos os coeficientes são significativos; os sinais dos coeficientes estimados estão corretos e R 2 alto. Aparentemente não há porque se preocupar com a multicolinearidade neste exemplo. Tudo o que podemos afirmar é que se houver, ela não é alta.

10.7 Detecção da multicolinearidade

Kmenta afirma:

→ Multicolinearidade é uma questão de grau

O problema não é ausência versus presença de multicolinearidade, mas o seu grau

→ É uma característica da amostra

→ Não se faz teste de multicolinearidade, mas sim teste para medir seu grau

Regras para detectar multicolinearidade (não há um método único):

1.R 2 alto, mas com poucas razões t significativas

Geralmente R 2 > 0,8, mesmo com teste F significativo. Este é o sintoma clássico da multicolinearidade.

2. Altas correlações entre pares de regressores

Se o coeficiente de correlação é maior que 0,8, é possível que a multicolinearidade seja um problema sério.

Altas correlações de ordem zero são condição suficiente, mas não necessária, para a existência da multicolinearidade, porque ela pode existir embora as correlações de ordem zero ou simples sejam comparativamente baixas (por exemplo, menores que 0,50).

OBS.: correlações de ordem zero = correlações simples.

3.Exame das correlações parciais: se o coeficiente de correlação entre a variável dependente e as independentes é alto, mas as correlações parciais entre a variável dependente e cada variável independente são baixos, pode indicar que uma dessas variáveis é supérflua.

4.Regressoes auxiliares (entre variáveis explicativas). Ver a Regra de Klein.

Uma vez que a multicolinearidade surge, porque um ou mais regressores são combinações lineares aproximadas ou exatas dos outros regressores, uma forma de descobrir qual variável X está relacionada a outras variáveis X é fazer a regressão de cada Xi contra as demais variáveis X e calcular o R 2 correspondente, que designamos como R 2 i ; cada uma dessas regressões é chamada regressão auxiliar, auxiliar em relação à principal regressão de Y contra os X.

Ver o teste F da equação (10.7.3). Se F calculado > Fcrítico, no nível de significância escolhido, considera-se que o Xi é colinear com os outros X; se não exceder o Fi crítico, diremos que não é colinear aos outros X e, neste caso, mantemos a variável no modelo. Se Fi for estatisticamente significativo, ainda teremos de decidir se o Xi em questão deve ser excluído do modelo.

Outra forma mais simples é aplicar a Regra de Klein: que sugere que a multicolinearidade só será um problema complicado se o R 2 obtido de uma

regressão auxiliar for maior que o R 2 geral, aquele obtido da regressão de Y contra todos os regressores.

5.Autovalores e índice condicional (IC)

→ Autovalores: valores obtidos por meio de softwares; a álgebra deste conceito está fora do escopo do livro; o autovalor é obtido da matriz (X´X).

A partir dos autovalores, obtém-se o número condicional (K)

á

=

í

= √ = á í

Regra: se IC > 30 → indícios de multicolinearidade grave Se 10 ≤ IC ≥ 30 → a multicolinearidade é moderada a grave

Se 100 ≤ K ≤ 1000 → Multicolinearidade moderada a forte Se K > 1000 → Multicolinearidade grave

Exemplo: se K = 49,53 ou IC = 7,04, tanto pelo número condicional como pelo índice condicional, não temos problema sério de multicolinearidade.

6.Tolerância (TOL) e Fator de Inflação da Variância (FIV)

Quanto maior o FIV, maior a colinearidade da variável. Regra prática: se o FIV de uma variável é maior do que 10 (o que ocorre se R 2 j > 0,9), essa variável é considerada altamente colinear. Exemplo:

Fator de inflação da variância

Variáveis

VIF

1/VIF

Renda agrícola Gini Escolaridade Renda não trabalho Permanente

5,40

0,185041

1,07

0,932037

4,38

0,228252

1,27

0,787108

1,56

0,641269

Média do VIF

2,74

Fonte: Elaboração própria com base nos dados da PNAD.

TOL = 1/FIV = 1/(1-R 2 j )

Regra para TOL: quanto mais próximo de zero, maior o grau de multicolinearidade da variável X com os demais regressores. Quanto mais próximo de 1, maior a evidencia de que X não é colinear com outros regressores.

7.Diagrarma de dispersão

Fig 10.4 (Diagrama de dispersão com base nos dados do exemplo 10.2)

(Diagrama de dispersão com base nos dados do exemplo 10.2) Os campos fora da diagonal principal

Os campos fora da diagonal principal mostram as intercorrelações entre as variáveis. Veja que riqueza (W) e renda (Yd) são altamente correlacionadas. Já a taxa de juros (I) não está correlacionada com as outras três variáveis.

10.8 Medidas corretivas

Não fazer nada: a multicolinearidade é um problema de deficiência dos dados e às vezes não temos escolha sobre os dados disponíveis para análise empírica.

Ou seguir alguns procedimentos práticos:

1.Informação a priori

2.Combinar dados de corte transversal e de séries temporais (dados em painel): fornecem dados mais informativos e menos colinearidade

3.Exclusão de uma variáveis (ou das variáveis) e viés de especificação

4.

proporcional

Transformação

das

variáveis:

primeira

diferença;

transformação

5.Dados adicionais ou novos: aumentar o tamanho da amostra (se possível); aumentar o número de variáveis

Veja o exemplo das equações (10.8.8) e (10.8.9), quando aumenta o tamanho da amostra, os sinais passam a ficar corretos e os coeficientes significativos.

6.Reduzindo a colinearidade nas regressões polinomiais 4 : neste caso há dificuldade para estimar de forma precisa os coeficientes angulares. Verificou-se que se essas variáveis forem usadas na forma de desvios em relação à média, a multicolinearidade se reduz.

7. Outros métodos: Análise de Fator; Componentes Principais

10.9 A multicolinearidade é uma mal necessário?

→ Se o único propósito da análise de regressão for a previsão ou o prognóstico, a multicolinearidade não é um problema grave, porque, quanto mais alto for o R 2 , melhor a previsão

→ Mas se o objetivo da análise não for apenas a previsão, mas também a

estimação confiável dos parâmetros, uma multicolinearidade acentuada será um problema, porque vimos que isso leva a erros padrão maiores dos estimadores

Quando a multicolinearidade não é um problema? Quando R 2 é alto e os coeficientes de regressão são individual, ente significativos.

Ver exemplo 10.10

4 Quando a variável independente aparece com vários expoentes.