Sei sulla pagina 1di 47

ECONOMETRÍA

Facultad de Ciencias
Económicas y Empresariales

3
REGRESIÓN LINEAL MÚLTIPLE II

José Alberto Mauricio

Departamento de Economía Cuantitativa

Internet - http://www.ucm.es/info/ecocuan/jam/ectrgr
COPYRIGHT  2012-2013 José Alberto Mauricio
E-mail: jamauri@ccee.ucm.es
Internet: http://www.ucm.es/info/ecocuan/jam

Este documento puede utilizarse exclusivamente como instrumento para la docencia de las asignaturas
ECONOMETRÍA
ECONOMETRÍA APLICADA
que se imparte en la Facultad de Ciencias Económicas y Empresariales de la Universidad Complutense de Madrid. No
se permite almacenar, reproducir o distribuir por medio alguno, ni tampoco utilizar este documento en cualquier
sentido, fuera de los términos mencionados anteriormente. La obtención de este documento (EctrGr-JAM-3.pdf) en la
dirección de Internet
http://www.ucm.es/info/ecocuan/jam/ectrgr
implica la aceptación de que su uso estará limitado a los términos anteriores.

Versión 2.0 - 4 de febrero de 2013

II
3

REGRESIÓN LINEAL MÚLTIPLE II

BIBLIOGRAFÍA
Wooldridge (2003), Capítulos 7, 8. Sección 9.4.
Heij, de Boer, Franses, Kloek, van Dijk (2004), Secciones 5.3, 5.4, 5.6.

III
CONTENIDO

3.1 Variables Explicativas Binarias ............................................................................... 1


Términos Constantes Distintos ................................................................................... 1
Pendientes Distintas .................................................................................................... 4
Extensiones ................................................................................................................. 6
3.2 Diagnosis de Residuos ........................................................................................... 10
Análisis Gráfico ......................................................................................................... 11
Observaciones Influyentes ........................................................................................ 15
3.3 Heteroscedasticidad ............................................................................................... 24
Consecuencias .......................................................................................................... 26
Utilización Adecuada de MCO .................................................................................. 27
Detección ................................................................................................................... 28
Mínimos Cuadrados Ponderados .............................................................................. 35
3.4 Recomendaciones Prácticas .................................................................................. 41

IV
3.1 Variables Explicativas Binarias

Las variables explicativas binarias se utilizan para clasicar todas las observaciones de una
muestra en dos o más categorías (grupos) exhaustivas y excluyentes en función de una
característica determinada, como en los dos ejemplos siguientes:

 Dividir una serie temporal en dos períodos para contrastar la estabilidad de los
parámetros de un modelo entre dichos períodos (cambio estructural).

 Dividir una sección cruzada en dos grupos (por ejemplo hombres y mujeres) para
contrastar la homogeneidad de los parámetros de un modelo entre dichos grupos.

TÉRMINOS CONSTANTES DISTINTOS

[MR.1] Y = b1 + b2 X + U .

[MNR.1.1] Y = b1 A DA + b1 B DB + b2 X + V , donde b1A , b1B son términos constantes


posiblemente distintos entre sí (Figura 1), y DA , DB son dos variables binarias.

ECONOMETRÍA PÁGINA 1
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.1 VARIABLES EXPLICATIVAS BINARIAS

FIGURA 1
MNR.1 - Términos Constantes Distintos - Pendientes Iguales

E A [ Y|X ] = β1A + β2 X
Y : VARIABLE DEPENDIENTE

α AB
β1A
Pendiente = β2

β1B
EB [ Y|X ] = β1B + β2 X

0
X : VARIABLE EXPLICATIVA

ECONOMETRÍA PÁGINA 2
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.1 VARIABLES EXPLICATIVAS BINARIAS

ìï 1 para observaciones del grupo A. ìï 1 para observaciones del grupo B .


DA º ïí DB º ïí
ïï 0 para el resto. ïï 0 para el resto.
î î

 DA + DB = 1 en cada observación (clasicación exhaustiva y excluyente).

 DB = 1 - DA (alternativamente, DA = 1 - DB ), por lo que [MNR.1.1] queda:

Y = b1 B + ( b1 A - b1 B )DA + b2 X + V , o bien:

[MNR.1.2] Y = b1 B + aAB DA + b2 X + V .

EA [Y | X = X * ] - EB [Y | X = X * ] = aAB = b1 A - b1 B .

El contraste de H 0 : b1 A = b1 B (  aAB = 0) frente a H 1 : b1 A =


/ b1 B (  aAB =
/ 0) es
un simple contraste de signicación individual en [MNR.1.2].

También valdrían alternativas unilaterales, como H 1 : b1 A > b1 B (  aAB > 0) , o bien


como H 1 : b1 A < b1 B (  aAB < 0).

ECONOMETRÍA PÁGINA 3
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.1 VARIABLES EXPLICATIVAS BINARIAS

La categoría (grupo) cuya variable binaria no aparece explícitamente en el modelo no


restringido se denomina la categoría base o de referencia.

PENDIENTES DISTINTAS

[MR.1] Y = b1 + b2 X + U .

[MNR.2.1] Y = b1 + b2 A ( DA X ) + b2 B ( DB X ) + V , donde b2 A , b2 B son dos pendientes


posiblemente distintas entre sí (Figura 2).

Como DB = 1 - DA (alternativamente, DA = 1 - DB ), [MNR.2.1] queda:

Y = b1 + b2 B X + ( b2 A - b2 B )( DA X ) + V o bien:

[MNR.2.2] Y = b1 + b2 B X + dAB ( DA X ) + V .

EA [Y | X = X * ] - EB [Y | X = X * ] = dAB X * = ( b2 A - b2 B )X * .

El contraste de H 0 : b2 A = b2 B (  dAB = 0) frente a H 1 : b2 A =


/ b2 B (  dAB =
/ 0) es
un simple contraste de signicación individual en [MNR.2.2].

ECONOMETRÍA PÁGINA 4
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.1 VARIABLES EXPLICATIVAS BINARIAS

FIGURA 2
MNR.2 - Términos Constantes Iguales - Pendientes Distintas
Y : VARIABLE DEPENDIENTE

E A [ Y|X ] = β1 + β2A X
Pendiente = β2A

δ AB X

Pendiente = β2B
β1
EB [ Y|X ] = β1 + β2B X

0
X : VARIABLE EXPLICATIVA

ECONOMETRÍA PÁGINA 5
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.1 VARIABLES EXPLICATIVAS BINARIAS

EXTENSIONES

Términos constantes y pendientes distintos

[MR.1] Y = b1 + b2 X + U .

[MNR.3.1] Y = b1 A DA + b1 B DB + b2 A ( DA X ) + b2 B ( DB X ) + V (Figura 3).

Como DB = 1 - DA (alternativamente, DA = 1 - DB ), [MNR.3.1] queda:

Y = b1 B + ( b1 A - b1 B )DA + b2 B X + ( b2 A - b2 B )( DA X ) + V o bien:

[MNR.3.2] Y = b1 B + aAB DA + b2 B X + dAB ( DA X ) + V .

EA [Y | X = X * ] - EB [Y | X = X * ] = aAB + dAB X * .

El modelo [MNR.3] es el modelo no restringido más general (el menos restringido), que
puede compararse con cualquiera de los modelos [MR.1], [MNR.1], [MNR.2], para contrastar
una gran variedad de hipótesis sobre la estabilidad (homogeneidad) de los parámetros entre
las dos categorías consideradas.

ECONOMETRÍA PÁGINA 6
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.1 VARIABLES EXPLICATIVAS BINARIAS

FIGURA 3
MNR.3 - Términos Constantes y Pendientes Distintos
Y : VARIABLE DEPENDIENTE

EB [ Y|X ] = β1B + β2B X


Pendiente = β2A

α AB + δ AB X Pendiente = β2B
β1B

β1A E A [ Y|X ] = β1A + β2A X

0
X : VARIABLE EXPLICATIVA

ECONOMETRÍA PÁGINA 7
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.1 VARIABLES EXPLICATIVAS BINARIAS

Por ejemplo, el contraste de H 0 : ( aAB , dAB )¢ = (0, 0)¢ frente a H 1 : ( aAB , dAB )¢ =
/ (0, 0)¢
en [MNR.3.2] (contraste de signicación conjunta de aAB y dAB ), es idéntico al Test de
Chow de ausencia de cambio estructural en un modelo RLS (que puede llevarse a cabo
comparando la SCR de [MNR.1] con la de [MNR.3]).

Más de dos grupos por característica

Los modelos [MNR.1.2], [MNR.2.2], [MNR.3.2], indican que para clasicar las observaciones
de una muestra en G grupos o categorías, es suciente incluir en un modelo G - 1 variables
binarias. El grupo cuya variable binaria no se incluye es el grupo base o de referencia.

Más de una característica

Para clasicar las observaciones de una muestra atendiendo a más de una característica, se
emplea un conjunto de variables binarias especíco para cada característica.

Cuando en un modelo se incluyen dos o más conjuntos de variables binarias, se puede


considerar la existencia de posibles interacciones entre las características correspondientes.

ECONOMETRÍA PÁGINA 8
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.1 VARIABLES EXPLICATIVAS BINARIAS

Ejemplo I: Estacionalidad - ST10-Ventas2.wf1

ln VENTAS = g1 + g 2 D2 + g 3 D 3 + g 4 D 4 + b1 ln ICAPC + b2 ln ICONF + U .


En particular, 100g 2 @ diferencia esperada en % entre las ventas del 2o y el 1er trimestre.

Ejemplo II: Interacciones - SC04-Salarios4.wf1


ln SLRPH = g1 + g 2 MUJER + g 3 ECIV
+ b1 EDUC + b2 EXLP + b3 EXLP 2 + U .
En particular, 100g 2 @ diferencia esperada en % entre los salarios de una mujer y de un
hombre con el mismo estado civil (independientemente de cuál sea éste).

ln SLRPH = g1 + g 2 MUJER + g 3 ECIV + g 4 ( MUJER ´ ECIV )


+ b1 EDUC + b2 EXLP + b3 EXLP 2 + U .
En particular, 100g 2 @ diferencia esperada en % entre los salarios de una mujer y de un
hombre ambos solteros (especícamente). Si g 4 = / 0 , la diferencia porcentual entre los
salarios esperados de una mujer y de un hombre depende de su estado civil.

ECONOMETRÍA PÁGINA 9
3.2 Diagnosis de Residuos

Complicated phenomena, in which several causes concurring, opposing, or quite independent of


each other, operate at once, so as to produce a compound effect, may be simplified by
subducting the effect of all the known causes, as well as the nature of the case permits, either by
deductive reasoning or by appeal to experience, and thus leaving, as it were, a residual
phenomenon to be explained. It is by this process, in fact, that science, in its present advanced
state, is chiefly promoted.
JOHN F.W. HERSCHEL
A Preliminary Discourse on the Study of Natural Philosophy 1830
Citado en Cook, R.D.; Weisberg, S. (1982), "Residuals and Influence in Regression", Chapman & Hall

Evaluar la abilidad de un modelo RLM estimado ( y = X bˆ + uˆ ) requiere comparar las


propiedades muestrales de sus residuos con las pautas teóricas de las perturbaciones
impuestas por las hipótesis del modelo especicado ( Y = X b + U ). Cualquier discrepancia
signicativa debe resolverse modicando el modelo en la dirección adecuada.

ECONOMETRÍA PÁGINA 10
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

ANÁLISIS GRÁFICO

 Las hipótesis E[U i X ] = 0 (exogeneidad estricta) y E[U i2 X ] = s 2 (homoscedasticidad)


sugieren que el nivel medio y la dispersión de los residuos deben ser constantes (en
particular, deben ser independientes de los datos sobre todas las variable explicativas).
Ambas hipótesis pueden contrastarse (informalmente) examinando grácos de dispersión
(nubes de puntos) de los residuos sobre las variables explicativas y/o los valores ajustados.
 Si el orden de las observaciones es relevante (series temporales), las dos hipótesis
anteriores y la hipótesis E[U i1U i2 X] = 0 (ausencia de autocorrelación) también pueden
contrastarse examinando un simple gráco ordenado (temporal) de los residuos.
 Con frecuencia, el incumplimiento de HC3-HC4 se debe a errores de especicación en el
conjunto de variables explicativas o en la forma funcional del modelo (Secciones 2.1, 2.5).
 La hipótesis de Normalidad (HC5) puede contrastarse con el histograma de los residuos.
 El examen de los grácos mencionados también ayuda a detectar observaciones atípicas
que pueden inuir notablemente en los resultados de la estimación de un modelo.

ECONOMETRÍA PÁGINA 11
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

FIGURA 4
Análisis Gráfico de Residuos I

Sin síntomas de mala especificación Variables Omitidas - Forma Funcional

2 2

1 1
RESIDUOS

RESIDUOS
0 0

-1 -1

Contrastes de Significación
-2 -2 RESET

-2 -1 0 1 2 -2 -1 0 1 2

VALORES AJUSTADOS VALORES AJUSTADOS

ECONOMETRÍA PÁGINA 12
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

FIGURA 5
Análisis Gráfico de Residuos II

Heteroscedasticidad Autocorrelación

2 2

1 1
RESIDUOS

RESIDUOS
0 0

-1 -1

Contrastes de ACF - PACF - Contrastes de


-2 Heteroscedasticidad -2 Autocorrelación

-2 -1 0 1 2 0 4 8 12 16 20

VALORES AJUSTADOS Nº DE ORDEN (TIEMPO)

ECONOMETRÍA PÁGINA 13
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

FIGURA 6
Análisis Gráfico de Residuos III

Residuos Normales Residuos No Normales


0.6
Estadístico de Jarque-Bera: RESIDUOS Estadístico de Jarque-Bera: RESIDUOS
Chi-Cuadrado(2) = 1.674 (0.4330) N(0.0,1.0) Chi-Cuadrado(2) = 190.256 (0.0000) N(1.7,1.9)
0.4
0.5

0.4 0.3

0.3
0.2

0.2

0.1
0.1

0.0 0.0
-3 -2 -1 0 1 2 3 -4 -2 0 2 4 6 8 10 12 14

ECONOMETRÍA PÁGINA 14
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

OBSERVACIONES INFLUYENTES
Una observación (punto muestral) es inuyente si los resultados de la estimación de un
modelo cambian notablemente al eliminar de la muestra dicha observación [Figuras 7-9]. En
la práctica, la presencia de una observación inuyente en una muestra puede deberse a:
 Un error en los datos que conforman dicha observación.
 La existencia de un punto muestral (una entidad o un momento) que es muy diferente
del resto en algún aspecto relevante.
Una observación inuyente del primer tipo debe corregirse (cuando es posible), o bien
eliminarse del análisis (cuando no es posible corregirla). Una observación inuyente del
segundo tipo no debe eliminarse de manera rutinaria:
 Siempre debe ser examinada para intentar explicar su carácter especial.
 Su presencia puede indicar algún error de especicación que debe ser corregido.
 Sólo debe eliminarse en casos sucientemente justicados (cuando hace referencia a una
entidad o a un momento que es especial por determinados motivos que carecen de interés
en el análisis, o cuando distorsiona las conclusiones generales del mismo).

ECONOMETRÍA PÁGINA 15
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

Caracterización de observaciones influyentes

 Una observación es atípica (outlier) cuando su dato de la variable dependiente destaca


sobre los datos de dicha variable en otras observaciones que son, por el contrario, similares
en cuanto a los datos de las variables explicativas. En general, una observación atípica es al
mismo tiempo una observación inuyente, que se maniesta a través de un valor grande
(atípico o anómalo) en el residuo correspondiente (Figura 7).

 Una observación es extrema o potencialmente inuyente (high-leverage point) cuando


sus datos de las variables explicativas destacan sobre los datos de dichas variables en el
resto de la muestra. Una observación extrema es inuyente cuando su dato de la variable
dependiente no destaca del resto de la muestra (Figura 8). A diferencia del caso anterior,
una observación extrema inuyente no suele tener asociado un residuo atípico.

 Una observación extrema cuyo dato de la variable dependiente sí destaca del resto de la
muestra, puede ser (Figura 9A) o no (Figura 9B) una observación inuyente; cuando sí lo
es, tampoco (como en el caso anterior) suele tener asociado un residuo atípico.

ECONOMETRÍA PÁGINA 16
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

FIGURA 7
Observaciones Atípicas

14 ˆ
Y1 = 5.812 + 0.096 X1 + U A 14 ˆ
Y1 = 4.094 + 0.357 X1 + U B
(2.211) (0.232) (0.691) (0.075)
12 R 2 = 0.021, N = 10. 12 R 2 = 0.762, N = 9.

10 10

8 8

6 6

4 û10 : residuo atípico 4

2 2

0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20

RLS de Y1 sobre X1 con los datos de la Tabla 1 RLS de Y1 sobre X1 con los datos de la Tabla 1
Muestra completa Sin la observación nº 10

ECONOMETRÍA PÁGINA 17
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

FIGURA 8
Observaciones Extremas I

14 ˆ
Y2 = 5.791 + 0.219X2 + U A 14 ˆ
Y2 = 2.347 + 0.734X2 + U B
(1.011) (0.129) (2.701) (0.397)
12 R 2 = 0.264, N = 10. 12 R 2 = 0.328, N = 9.

10 10

8 8

6 6

4 4

2 2

0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20

RLS de Y2 sobre X2 con los datos de la Tabla 1 RLS de Y2 sobre X2 con los datos de la Tabla 1
Muestra Completa Sin la observación nº 10

ECONOMETRÍA PÁGINA 18
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

FIGURA 9
Observaciones Extremas II

14 ˆ
Y3 = 12.065 - 0.719X2 + U A 14 ˆ
Y4 = 2.362 + 0.731X2 + U B
(1.587) (0.203) (0.899) (0.115)
12 R 2 = 0.611, N = 10. 12 R 2 = 0.835, N = 10.

10 10

8 8

6 6

4 4

2 2

0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20

RLS de Y3 sobre X2 con los datos de la Tabla 1 RLS de Y4 sobre X2 con los datos de la Tabla 1
Muestra Completa Muestra Completa

ECONOMETRÍA PÁGINA 19
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

TABLA 1
Datos utilizados en las Figuras 7 a 9 - Num03-ObsInf.wf1
Y1 Y2 Y3 Y4 X1 X2
1 8.3 6.6 6.6 6.6 10.8 6.0
2 6.0 5.7 5.7 5.7 6.6 6.6
3 6.7 7.3 7.3 7.3 9.0 7.6
4 7.7 8.5 8.5 8.5 9.6 6.5
5 8.1 8.8 8.8 8.8 11.3 7.8
6 8.5 7.0 7.0 7.0 13.5 7.0
7 5.9 8.0 8.0 8.0 5.8 7.5
8 5.4 7.5 7.5 7.5 4.0 6.5
9 8.3 6.4 6.4 6.4 8.0 5.4
10 2.0* 8.5 1.0* 12.6* 12.4 14.0*

Observación: Estimar un modelo [M] eliminando una observación [I] es (casi) equivalente a estimar con la muestra
completa el modelo [M]¢ que resulta de añadir a [M] una variable binaria [B] denida para la observación [I]. El
contraste de signicación de [B] en [M]¢ puede interpretarse como un contraste de inuencia de la observación [I].

Detección de observaciones influyentes


 Observaciones atípicas - Grácos de residuos.

ECONOMETRÍA PÁGINA 20
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

 Observaciones extremas - Grado de inuencia potencial (leverage):

hii = xi¢ ( X ¢X )-1 xi (i = 1, ..., N )  0 £ hii £ 1 (i = 1, ..., N ), å iN=1 hii = K . [1]


Observación I: hii es el elemento en la i -ésima posición de la diagonal principal de la matriz H º X( X ¢X )-1 X ¢
ˆ = Hy ]. En un modelo RLS:
[llamada a veces "matriz sombrero" (hat matrix) porque convierte a y en ŷ : y
1 ( x - x )2
hii = + N i 2
(i = 1, ..., N ).
N (
å i =1 i x - x )
En general, un valor destacado de hii (por ejemplo, hii > 2K
N
) implica que los datos de las variables explicativas en la
i -ésima observación destacan al compararlos con la media de los datos de dichas variables en la muestra completa.

 Observaciones inuyentes en general - Estadístico o Distancia de Cook:

1 é uˆi ù 2 é hii ù
Di = ´ê ú ´ê ú (i = 1, ..., N ). [2]
K ëê sˆ 1 - hii úû ë 1 - hii û

Observación II: En Di se combina información sobre el posible carácter atípico (a través del residuo uˆi ) y/o extremo
(a través del grado de inuencia potencial hii ) de cada observación muestral. La distancia Di es una medida de la
diferencia entre las estimaciones de los parámetros de un modelo obtenidas con la muestra completa y las obtenidas
sin la i -ésima observación (o, equivalentemente, entre los valores ajustados asociados con ambas estimaciones). Por lo
tanto, un valor destacado de Di [por ejemplo, mayor que el valor crítico del 5% de una F (K , N - K ) ] suele implicar
que la i -ésima observación muestral es una observación inuyente.

ECONOMETRÍA PÁGINA 21
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

FIGURA 10
Ejemplo - Detección de Observaciones Influyentes I

1.0 70
3
7 60
2 0.8
50
1

LEVERAGE
RESIDUOS

0.6
40

COOK
0
0.4 30
-1 5
4 20
-2 0.2
19 10
-3
0.0 0
-3 -2 -1 0 1 2 3 1 5 10 15 20 1 5 10 15 20

VALORES AJUSTADOS Nº OBSERVACIÓN Nº OBSERVACIÓN

Observación I: Los tres grácos de la Figura 10 se han elaborado a partir de la estimación de la RLM (con término
constante) de Y sobre X2, X3, X4, X5, con los datos del archivo SC10-NYRivers.wf1 [ver Chatterjee, S.; Hadi, A.S. (2006),
Regression Analysis by Example (4th Ed.), Wiley (p. 10)]. El cálculo de los grados de inuencia potencial (LEVERAGE)
y de los estadísticos de Cook (COOK) se ha llevado a cabo con el programa del archivo PRG03-OBIN.prg para EViews.
Observación II: Para otras medidas de inuencia, ver la Figura 11 y el artículo de Peña, D. y Yohai, V.J. (1995), The
Detection of Influential Subsets in Linear Regression by Using an Influence Matrix, J. R. Statist. Soc. B, 57, 145-156.

ECONOMETRÍA PÁGINA 22
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.2 DIAGNOSIS DE RESIDUOS

FIGURA 11
Ejemplo - Detección de Observaciones Influyentes II

.6 2.4
7
5
2.0 3 .5 2.0

8
.4 1.6
1.6
6

COOK

HADI
.3 1.2
Y

1.2
.2 0.8

4
.1 0.4
0.8

.0 0.0
0.0 0.5 1.0 1.5 2.0 2.5 3.0 1 5 10 15 20 1 5 10 15 20

X5 Nº OBSERVACIÓN Nº OBSERVACIÓN

Observación: Los tres grácos de la Figura 11 se han elaborado a partir de la estimación de la RLS de Y sobre X5 con
los datos del archivo SC10-NYRivers.wf1. Los estadísticos de Cook (COOK) y las medidas de inuencia de Hadi (HADI)
[Chatterjee y Hadi (2006), Sec. 4.8-4.10] se han calculado con el programa del archivo PRG03-OBIN.prg para EViews. La
medida de inuencia de Hadi (que puede ayudar a detectar observaciones inuyentes enmascaradas) es
é hii ù é K ù éê uˆi2 ù
ú (i = 1, ..., N ).
Hi = ê ú+ ê ú´
ëê 1 - hii ûú ë 1 - hii û ëê SCR - uˆi2 ú
û

ECONOMETRÍA PÁGINA 23
3.3 Heteroscedasticidad

Denición: Varianza no constante en las perturbaciones de un modelo.

FIGURA 12
Gráficos indicativos de Heteroscedasticidad en un modelo RLS

240 2
VARIABLE DEPENDIENTE

200
1

RESIDUOS
160
0
120

-1
80

40 -2

200 400 600 800 1000 -2 -1 0 1 2

VARIABLE EXPLICATIVA VARIABLE EXPLICATIVA

ECONOMETRÍA PÁGINA 24
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

Modelo estadístico RLS para los datos de la Fig. 12 con heteroscedasticidad proporcional:

Yi = b1 + b2 X i + U i , con E[U i X ] = 0, [3]


Var[U i X] = s 2Xi (i = 1, ..., N ). [4]
 E[Yi X ] = b1 + b2X i , Var[Yi X ] = s 2X i (i = 1, ..., N ) . [5]

 Una causa frecuente de la heteroscedasticidad es la existencia de alguna relación entre la


dispersión de la variable dependiente y los valores de alguna(s) variable(s) explicativa(s).

 La presencia de perturbaciones heteroscedásticas siempre debe considerarse cuando se


pretende elaborar un modelo con datos de sección cruzada.

Modelo estadístico RLM con heteroscedasticidad general:

Yi = Xi¢ b + U i , con E[U i X ] = 0, [6]


Var[U i X ] = s 2 ω(Xi ) (i = 1, ..., N ), [7]

donde ω(Xi ) > 0 para todo i = 1, ..., N .

ECONOMETRÍA PÁGINA 25
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

CONSECUENCIAS

El modelo RLM [6]-[7] puede escribirse como


Y = Xb + U , con E[ U | X ] = 0 , [8]
Var[ U | X ] ( = E[ UU ¢ | X ]) = s 2 W , [9]
donde si ωi º ω(Xi ), entonces W es la matriz diagonal no escalar siguiente:

é ω1 0  0 ù
ê ú
ê 0 ω2  0 ú
W = êê ú =
ú / I. [10]
ê     ú
ê ú
 ωN ú
ëê
0 0
û
Remplazando en el modelo RLM clásico HC4 por [9]-[10], puede comprobarse que
ˆW ] = b,
E[ b
[11]
ˆ W ] = s 2 ( X ¢X )-1 X ¢WX ( X ¢X )-1 =
Var[ b / s 2 ( X ¢X )-1 .

ECONOMETRÍA PÁGINA 26
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

ˆ W (Sección 2.4), remplazar [i] en HA4 por la hipótesis


Observación: En relación con las propiedades asintóticas de b
ˆ W sigue siendo un estimador CAN
de que Var[U i | Xi ] ( = E[U i2 | Xi ]) = s 2 ω( Xi ) ( i = 1, 2, ..., N ), implica que b
de b , pero ahora con
ˆW ] =
VarAs[ b Q-1 SQ-1 (donde Q º E[ Xi Xi¢ ] , S º lim { N1 Var[ X ¢U ]} = E[U i2 Xi Xi¢ ] =
1
/ s 2 Q ).
N
ˆW ] =
ˆ W ] = b , pero VarAs[ b
Por lo tanto, plim[ b
2
/ sN Q-1 .

Ningún resultado de la RLM basado en la expresión s 2 ( X ¢X )-1 para Var[ b̂ W ] es


aplicable ahora (por ejemplo, el Teorema de Gauss-Markov). Además, cualquier cálculo
basado en la estimación sˆ2 ( X ¢X )-1 de la matriz de covarianzas (exacta o asintótica) de
ˆ W es incorrecto (por ejemplo, los errores estándar habituales de los estimadores MCO).
b

UTILIZACIÓN ADECUADA DE MCO

El Estimador de White es un estimador robusto (consistente) de VarAs[ b ˆ W ] frente a


cualquier tipo de heteroscedasticidad (con independencia de la forma de ω(Xi ) en [7]):

ˆ b
VarAs[ ˆW ] = 1 ˆ -1 S
Q ˆWQ
ˆ -1 , [12]
N

ˆ º
Q 1 åiN=1 Xi Xi¢ = 1 ˆW º
X ¢X, S 1 åiN=1 Uˆi 2 Xi Xi¢ . [13]
N N N -K

ECONOMETRÍA PÁGINA 27
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

Ejemplo: Con los datos del archivo SC01-Viviendas.wf1, estimar la RLM de PRECIO sobre FINCAM2, SUPM2, NDORM, y
comparar los errores estándar calculados de la manera habitual con los calculados utilizando el Estimador de White.

DETECCIÓN

Además de los grácos de residuos considerados en la Sección 3.2, los contrastes que se
mencionan a continuación pueden resultar útiles para detectar heteroscedasticidad.

Contraste de Goldfeld-Quandt

La heteroscedasticidad implica que las perturbaciones asociadas con algunas observaciones


muestrales tienen mayor varianza que las asociadas con otras observaciones.

GQ.1 Dividir la muestra en dos partes de N 1 y N 2 observaciones, respectivamente, de


manera que [i] N 1 y N 2 sean aproximadamente iguales, y [ii] las observaciones cuya
varianza es potencialmente mayor (menor) queden incluidas en la primera (segunda) parte.

GQ.2 Calcular las estimaciones ŝ12 y ŝ22 con la primera y con la segunda parte de la
muestra, respectivamente. Si las perturbaciones son homoscedásticas (heteroscedásticas), el
estadístico de Goldfeld-Quandt FGQ º sˆ12 / sˆ22 tendrá un valor pequeño (grande).

ECONOMETRÍA PÁGINA 28
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

GQ.3 Si a * = Pr[ F ( N 1 - K , N 2 - K ) ³ FGQ ] es sucientemente pequeño (grande),


rechazar (no rechazar) la hipótesis nula (homoscedasticidad) en favor de la hipótesis
alternativa (heteroscedasticidad).

Ejemplo - ST06-Trigo.wf1 - Parte I

 Para prever la producción anual de trigo en una zona determinada de Australia, se


plantea la estimación de un modelo de regresión del tipo

Qt = b1 + b2 Pt + b3Tt + U t (t = 1, ..., 26),

donde Qt es la cantidad de trigo producida durante el año t, Pt es el precio del trigo en el


año t, Tt es una tendencia lineal determinista (que se espera sirva para recoger mejoras
tecnológicas en la producción de trigo), y U t es una perturbación aleatoria que incluye,
entre otros factores, las condiciones climatológicas generales a lo largo del año t (para las
cuales no es obvio qué variable observable se podría utilizar).

 A partir del año t = 14 se empieza a sembrar una nueva variedad de trigo cuyo
rendimiento es menos sensible a variaciones en las condiciones climatológicas; el

ECONOMETRÍA PÁGINA 29
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

rendimiento medio es similar al de la variedad anterior, pero la variabilidad del rendimiento


de la nueva variedad es menor porque depende menos de las condiciones climatológicas.

 Por lo tanto, en el modelo planteado se supone que E[U t ] = 0 (t = 1, ..., 26) , pero, al
mismo tiempo, Var[U t ] = s12 (t = 1, ..., 13) y Var[U t ] = s22 (t = 14, ..., 26) , con s12 > s22 .

 En la Tabla 2 se muestra el modelo estimado por MCO con la muestra completa.

 El contraste de Goldfeld-Quandt puede llevarse a cabo con las siguientes instrucciones


para EViews:
SMPL 1 13
EQUATION M1.LS Q C P T
SMPL 14 26
EQUATION M2.LS Q C P T
SCALAR FGQ = M1.@SE^2 / M2.@SE^2
SCALAR PV = 1 - @CFDIST( FGQ, 10, 10 )

 En este caso, FGQ = 11.10902 ( a* = 0.00036 ), por lo que se rechaza claramente la


hipótesis de homoscedasticidad.

ECONOMETRÍA PÁGINA 30
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

TABLA 2
Modelo estimado por MCO con los datos del archivo ST06-Trigo.wf1
3
Dependent Variable: Q
Method: Least Squares
Sample: 1 26 2
Included observations: 26

RESIDUOS MCO
Variable Coefficient Std. Error t-Statistic Prob. 1
C 139.9009 23.21761 6.025639 0.0000
P 19.54050 17.41501 1.122049 0.2734 0
T 3.639084 1.417651 2.566982 0.0172
R-squared 0.808885 Mean dependent var 233.4231 -1
Adjusted R-squared 0.792267 S.D. dependent var 43.80837
S.E. of regression 19.96687 Akaike info criterion 8.934193
-2
Sum squared resid 9169.549 Schwarz criterion 9.079358
Log likelihood -113.1445 F-statistic 48.67332
Durbin-Watson stat 1.454224 Prob(F-statistic) 0.000000 -3
1 3 6 9 12 15 18 21 24 26

Otro Ejemplo I: Con los datos del archivo SC09-Alimentación.wf1, [i] estimar la RLS de GALIM sobre INGR (gasto medio en
alimentación e ingresos medios semanales a lo largo de un año en una muestra de 40 familias), [ii] dibujar los residuos
frente a la variable explicativa (ver Figura 12), [iii] llevar a cabo un contraste de Goldfeld-Quandt [los datos ya están
ordenados de mayor a menor según la serie INGR; el resultado es FGQ = 3.34958 ( a * = 0.00697 ) ], y [iv] explicar por
qué es razonable la presencia de heteroscedasticidad en un modelo para estos datos (ver la segunda parte de [5]).

ECONOMETRÍA PÁGINA 31
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

Contraste de Breusch-Pagan

Cuando Var[U i X ] = s 2 ω(Xi ) (i = 1, ..., N ) (un caso muy frecuente en la práctica), una
forma funcional sencilla para ω(Xi ) es

ω(Xi ) = δ1 + δ2X i 2 + ... + δK X iK .

BP.1 Estimar la RLM [6] por MCO y guardar los residuos uˆ1 , uˆ2 , ..., uˆN .

BP.2 Estimar por MCO la regresión auxiliar (con término constante) de uˆi2 sobre
2 (el coeciente de determinación de esta regresión auxiliar).
x i 2 , ..., x iK y guardar el RBP

BP.3 Calcular BP = N ´ RBP 2 y a * = Pr[ c 2 ( K - 1) ³ BP ]; alternativamente, calcular el


estadístico F para el contraste de signicación global en la regresión auxiliar anterior,
2
FBP = N -K RBP ,
K -1 1-R 2
BP

y a* = Pr[ F ( K - 1, N - K ) ³ FBP ]. En ambos casos, si a* es sucientemente pequeño


(grande), rechazar (no rechazar) la hipótesis nula de homoscedasticidad.

ECONOMETRÍA PÁGINA 32
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

2
Observación: El estadístico de Breusch-Pagan ( BP = N ´ RBP ) es un estadístico de los multiplicadores de Lagrange
(LM) del tipo que se menciona al nal de la Sección 2.4. En este caso, el estadístico LM se utiliza para contrastar la
signicación global en la regresión auxiliar del paso BP.2. El uso de estadísticos LM en relación con determinadas
regresiones auxiliares es muy frecuente como instrumento de diagnosis de un modelo estimado.

Ejemplo - SC01-Viviendas.wf1

TABLA 3
Modelos estimados por MCO con los datos del archivo SC01-Viviendas.wf1
M1 - Dependent Variable: PRECIO M2 - Dependent Variable: LOG( PRECIO )
Method: Least Squares Method: Least Squares
Sample: 1 88 Sample: 1 88
Included observations: 88 Included observations: 88
Variable Coefficient Std. Error t-Statistic Prob. Variable Coefficient Std. Error t-Statistic Prob.
C -21.77031 29.47504 -0.738601 0.4622 C 0.765971 0.440114 1.740395 0.0855
FINCAM2 0.022257 0.006912 3.220096 0.0018 LOG( FINCAM2 ) 0.167967 0.038281 4.387714 0.0000
SUPM2 1.321573 0.142486 9.275093 0.0000 LOG( SUPM2 ) 0.700232 0.092865 7.540306 0.0000
NDORM 13.85252 9.010145 1.537436 0.1279 NDORM 0.036958 0.027531 1.342415 0.1831
R-squared 0.672362 Mean dependent var 293.5460 R-squared 0.642965 Mean dependent var 5.633180
Adjusted R-squared 0.660661 S.D. dependent var 102.7134 Adjusted R-squared 0.630214 S.D. dependent var 0.303573
S.E. of regression 59.83348 Akaike info criterion 11.06540 S.E. of regression 0.184603 Akaike info criterion -0.496833
Sum squared resid 300723.8 Schwarz criterion 11.17800 Sum squared resid 2.862563 Schwarz criterion -0.384227
Log likelihood -482.8775 F-statistic 57.46023 Log likelihood 25.86066 F-statistic 50.42374
Durbin-Watson stat 2.109796 Prob(F-statistic) 0.000000 Durbin-Watson stat 2.088996 Prob(F-statistic) 0.000000

ECONOMETRÍA PÁGINA 33
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

 Modelo M1 (sin logaritmos) - Estimación y contraste de Breusch-Pagan con EViews:


EQUATION M1.LS PRECIO C FINCAM2 SUPM2 NDORM
M1.MAKERESID RES1
EQUATION AUXBP1.LS RES1^2 C FINCAM2 SUPM2 NDORM
SCALAR BP1 = AUXBP1.@REGOBS * AUXBP1.@R2
SCALAR PV1 = 1 - @CCHISQ( BP1, AUXBP1.@NCOEF – 1 )
En este caso, BP = 14.0924 ( a* = 0.0028), FBP = 5.3389 ( a* = 0.0020), por lo que en M1
se rechaza la hipótesis nula de homoscedasticidad.

 Modelo M2 (con logaritmos) - Estimación y contraste de Breusch-Pagan con EViews:


EQUATION M2.LS LOG( PRECIO ) C LOG( FINCAM2 ) LOG( SUPM2 ) NDORM
M2.MAKERESID RES2
EQUATION AUXBP2.LS RES2^2 C LOG( FINCAM2 ) LOG( SUPM2 ) NDORM
SCALAR BP2 = AUXBP2.@REGOBS * AUXBP2.@R2
SCALAR PV2 = 1 - @CCHISQ( BP2, AUXBP2.@NCOEF – 1 )
En este caso, BP = 4.2232 ( a* = 0.2383), FBP = 1.4115 ( a* = 0.2451), por lo que en M2
no se rechaza la hipótesis nula de homoscedasticidad  El logaritmo neperiano en la
variable dependiente de un modelo suele reducir notablemente la heteroscedasticidad.

ECONOMETRÍA PÁGINA 34
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

Contraste de White
Wooldridge (2003), Sección 8.3. Aplicar a los dos modelos estimados en el ejemplo anterior.

MÍNIMOS CUADRADOS PONDERADOS


 Modelo original con heteroscedasticidad:

Yi = b1 + b2 Xi 2 + ... + bK XiK + U i , con E[U i X ] = 0, [14]


Var[U i X ] = s 2 ωi (i = 1, ..., N ). [15]

 Modelo transformado sin heteroscedasticidad:


Yi 1 Xi 2 XiK Ui é Ui ù
= b1 + b2 + ... + bK + , con E ê X ú = 0, [16]
ωi ωi ωi ωi ωi êë ωi úû
é U ù 1
Var ê i X ú = ´ Var [ U i X ] = s 2 (i = 1, ..., N ). [17]
ë ωi û ωi

 En el modelo transformado los parámetros son los mismos y se interpretan exactamente


de la misma manera que en el modelo original.

ECONOMETRÍA PÁGINA 35
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

 El estimador MCO de b º [ b1 , b2 , ..., bK ] ¢ en el modelo transformado [16]-[17] se


denomina el estimador de Mínimos Cuadrados Ponderados (MCP) de b .
Observación I: El estimador MCP debe su nombre a que es el estimador asociado con la estimación de b que resulta
de minimizar con respecto a b º [ b1 , b2 , ..., bK ] ¢ la función
2 2
SCRP( b ) º å iN=1 [ pi (yi - b1 - b2 x i 2 - ... - bK x iK ) ] º å iN=1 [ pi (yi - xi¢ b ) ] ,

donde pi º 1/ ωi (i = 1, ..., N ) . En SCRP(b), cada residuo ordinario (yi - xi¢ b ) recibe una ponderación que es
inversamente proporcional a la variabilidad (dispersión) de la distribución de probabilidad condicional de Yi . De esta
manera se aprovecha la heteroscedasticidad para obtener un estimador de b más preciso (informativo) que el
estimador MCO (que pondera a todas las observaciones por igual).
Observación II: El modelo transformado [16]-[17] puede escribirse como
( PY ) = ( PX )b + ( PU ), con E[ PU | X ] = 0,
Var[ PU | X ] ( = E[ PUU ¢P ¢ | X ]) = s 2 I,
P º Diag[ p1 , ..., pN ] º Diag éê ω
1 , ..., 1 ù ¢ -1 (ver [8]-[10]).
ë 1 ωN ûú  PP = W
Si el modelo original satisface todas las hipótesis clásicas, excepto por la presencia de heteroscedasticidad, entonces el
modelo transformado satisface HC1-HC5. Por lo tanto, la manera óptima de hacer inferencia sobre b consiste en
aplicar toda la teoría MCO al modelo transformado. En particular, el estimador MCP de b es
 W = ( X ¢P ¢ PX )-1 X ¢P ¢ PY = ( X ¢W-1 X )-1 X ¢W-1 Y , con
b
 W ] = b , Var[ b
E[ b  W ] = s 2 ( X ¢W-1 X )-1 .

ECONOMETRÍA PÁGINA 36
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

 El problema práctico de todo lo anterior reside en que, salvo en casos excepcionales, no


es posible conocer exactamente la forma de ωi º ω(Xi ) en todo i = 1, …, N, por lo que
aplicar MCP en la práctica requiere utilizar estimaciones de ω1 , ..., ωN .

 Un estimador MCP de b denido a través de algún estimador de ω º [ ω1 , ..., ωN ] ¢ en


vez de a través del verdadero valor de ω (generalmente desconocido), se denomina un
estimador de MCP Factibles (MCPF).

 Un estimador MCPF no es, en general, insesgado (ni, por lo tanto, eciente) porque
utiliza un estimador de ω en lugar de su verdadero valor. No obstante, si el estimador
utilizado de ω es un estimador adecuado (consistente), entonces el estimador MCPF es
consistente y asintóticamente relativamente más eciente que el estimador MCO.

Ejemplo - ST06-Trigo.wf1 - Parte II

 El modelo de la Tabla 2 se puede estimar por MCPF estimando una varianza para cada
uno de los dos grupos de observaciones: sˆ12 (t = 1, ..., 13) y sˆ22 (t = 14, ..., 26). Estas
estimaciones pueden ser las mismas que las utilizadas en el contraste de Goldfeld-Quandt.

ECONOMETRÍA PÁGINA 37
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

ˆ t = sˆ12 (t = 1, ..., 13) , ω


 En tal caso, ω ˆ t = sˆ22 (t = 14, ..., 26) . Con EViews:
SMPL 1 13
GENR OMEGA = M1.@SE^2
SMPL 14 26
GENR OMEGA = M2.@SE^2
SMPL 1 26

 Para estimar por MCP(F) con EViews: [i] seleccionar Options en la ventana Equation
Specification del modelo que se quiera estimar, [ii] marcar la casilla a la izquierda de
Weighted LS/TSLS, y [iii] escribir el nombre de la serie de ponderaciones en la celda a la
derecha de Weight: [OMEGA^(–0.5) en este ejemplo]. Ver Tabla 4 y comparar con Tabla 2.
Otro Ejemplo II (ver Otro Ejemplo I bajo la Tabla 2): Con los datos del archivo SC09-Alimentación.wf1, estimar por MCPF la
RLS de GALIM sobre INGR con la serie de ponderaciones INGR^(–0.5) (de manera que en este ejemplo se estima la serie
ω º [ ω1 , ..., ωN ]¢ simplemente como ω̂i = x i (i = 1, ..., N ) ; ver [4]). Comparar con la estimación por MCO.

Estimación General por MCPF

Wooldridge (2003), Sección 8.4. Observar con atención que diferencias notables entre las
estimaciones MCO y MCPF suelen indicar la presencia de algún error de especicación.

ECONOMETRÍA PÁGINA 38
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

TABLA 4
Modelo estimado por MCPF con los datos del archivo ST06-Trigo.wf1
Dependent Variable: Q
Method: Least Squares
Sample: 1 26
Included observations: 26
Weighting series: OMEGA^(-0.5)
Variable Coefficient Std. Error t-Statistic Prob.
C 138.0541 12.82098 10.76783 0.0000
P 21.71975 8.923946 2.433873 0.0231
T 3.283438 0.822638 3.991354 0.0006
Weighted Statistics
R-squared 0.995003 Mean dependent var 249.4558
Adjusted R-squared 0.994568 S.D. dependent var 160.7768
S.E. of regression 11.84953 Akaike info criterion 7.890620
Sum squared resid 3229.460 Schwarz criterion 8.035785
Log likelihood -99.57806 F-statistic 84.25644
Durbin-Watson stat 1.520419 Prob(F-statistic) 0.000000
Unweighted Statistics
R-squared 0.806086 Mean dependent var 233.4231
Adjusted R-squared 0.789224 S.D. dependent var 43.80837
S.E. of regression 20.11257 Sum squared resid 9303.857
Durbin-Watson stat 1.425144

En la sección Weighted Least Squares del sistema de ayuda de EViews se explica con detalle cómo se calculan
y a qué se refieren todas las cantidades que figuran en esta tabla.

ECONOMETRÍA PÁGINA 39
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.3 HETEROSCEDASTICIDAD

Observación: Si MCPF hace uso de un estimador inadecuado de ω º [ ω1 , ..., ωN ]¢ , entonces MCPF es CAN pero su
varianza asintótica no es necesariamente menor que la de MCO. En la práctica, para decidir si ω ˆ º [ω ˆ N ]¢ es
ˆ 1 , ..., ω
* 
una estimación adecuada, examinar los residuos "estandarizados" ui º ( y i - x i¢ b )/ ω
ˆ i ( i = 1, ..., N ) : si ω̂ es una
estimación adecuada de ω , entonces los residuos estandarizados no deben mostrar signos de heteroscedasticidad.

TABLA 5
Residuos del Modelo estimado por MCPF de la Tabla 4
3 3

RESIDUOS ESTANDARIZADOS
2 2
RESIDUOS MCPF

1 1

0 0

-1 -1

-2 -2

-3 -3
1 3 6 9 12 15 18 21 24 26 1 3 6 9 12 15 18 21 24 26

ECONOMETRÍA PÁGINA 40
3.4 Recomendaciones Prácticas

A la hora de elaborar un modelo RLM, prestar especial atención al contenido del conjunto
de variables explicativas y a la forma funcional de la relación entre la variable dependiente
y las variables explicativas.

Fundamentar ambos aspectos en (quizás) algún modelo teórico y (sobre todo) en el sentido
común y en un análisis detallado de las características muestrales de los datos disponibles.

En general, comenzar con un modelo sencillo pero sensato para, en su caso, enriquecerlo
paso a paso (bottom-up/specific-to-general approach). Aunque puede presentar ciertos
inconvenientes, este enfoque suele ser preferible al opuesto (top-down/general-to-specific
approach), que parte de una premisa esencialmente irrealizable (un modelo "correcto").

Recordar que la omisión de variables explicativas relevantes puede llevar a la estimación de


relaciones espurias (MCO sesgado e inconsistente), mientras que la inclusión de variables
irrelevantes "sólo" puede implicar pérdida de precisión (MCO ineciente).

ECONOMETRÍA PÁGINA 41
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.4 RECOMENDACIONES PRÁCTICAS

Analizar la posible presencia de multicolinealidad y de observaciones inuyentes en los


datos, cuyas consecuencias pueden distorsionar notablemente las conclusiones derivadas de
cualquier modelo estimado.

En todo caso, recordar que la señal más evidente de una mala especicación o de alguna
deciencia en los datos suele ser la obtención de estimaciones con valores y/o signos
chocantes. [Más detalles en Kennedy, P. (2002), "Oh, No! I Got the Wrong Sign! What
Should I Do?", Simon Fraser University, Dept. of Economics Discussion Papers, 02-3.]

Como ayuda para especicar un modelo, pueden ser de utilidad algunos procedimientos
formales (contrastes de signicación, coecientes de determinación, criterios de información
y de evaluación de previsiones, RESET), pero nunca como criterios únicos y fundamentales.

Recordar la diferencia entre signicación estadística y signicación teórica y/o práctica.

Evaluar la posible presencia de heteroscedasticidad (o, en su caso, de autocorrelación) sólo


a partir de un modelo "razonablemente bien especicado", estimado con unos datos que no
presenten deciencias notables.

ECONOMETRÍA PÁGINA 42
3 · REGRESIÓN LINEAL MÚLTIPLE II 3.4 RECOMENDACIONES PRÁCTICAS

Observación I: En un contraste de heteroscedasticidad, interpretar el rechazo de H 0 (homoscedasticidad) como


evidencia de heteroscedasticidad es correcto siempre que las restantes hipótesis del modelo considerado (especialmente
las hipótesis de regresores exógenos y ausencia de autocorrelación) sean válidas. En particular, si HA3 no es válida
(de manera que E[Yi | Xi ] =/ Xi¢ b debido a algún error de especicación), entonces puede rechazarse H 0 aún cuando
Var[U i | Xi ] sea constante (en este caso, además, tanto MCO como MCPF son inconsistentes). Por ejemplo, si se
omite algún término cuadrático en el lado derecho del modelo, o si se omite el logaritmo en el lado izquierdo cuando
debería haberse utilizado, entonces un contraste de heteroscedasticidad puede resultar signicativo. Por lo tanto, es
recomendable contrastar primero la especicación del modelo (dado que la inconsistencia se considera más grave que
la ineciencia), y después, una vez resuelto cualquier error de especicación (que provoca inconsistencia), considerar la
posible heteroscedasticidad (que sólo provoca ineciencia).

Observación II: En presencia sólo de heteroscedasticidad, MCO y MCPF son ambos CAN. Por su parte, la eciencia
asintótica relativa de MCPF se basa en que: [i] el tamaño muestral sea sucientemente grande, y [ii] la estimación de
la heteroscedasticidad sea "adecuada". Si [ii] falla, MCPF aún es CAN, pero su varianza asintótica ya no es
necesariamente menor que la de MCO. Además, con muestras cortas, incluso si [ii] es aceptable, la aproximación
asintótica puede funcionar peor para MCPF que para MCO, dado que MCPF requiere estimar más parámetros que
MCO. En todo caso, MCPF puede ser una alternativa "razonable" a MCO (con muestras "razonablemente" grandes)
cuando la heteroscedasticidad puede estimarse "razonablemente" bien.

Cuestiones para estudio personal utilizando el manual de la asignatura


Contrastes de Heteroscedasticidad de White - Estimación General por MCPF

ECONOMETRÍA PÁGINA 43

Potrebbero piacerti anche