Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
MULTICOLINEALIDAD
TRABAJO ENCARGADO
PUNO - PERÚ
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
Contenido
1. INTRODUCCIÓN. ..................................................................................................................................................... 2
2. NATURALEZA DE LA MULTICOLINEALIDAD............................................................................................................ 2
3. ¿ES LA MULTICOLINEALIDAD NECESARIAMENTE MALA?........................................................................................ 4
4. CONSECUENCIAS DE LA MULTICOLINEALIDAD ....................................................................................................... 5
5. DETECCIÓN DE LA MULTICOLINEALIDAD. ............................................................................................................ 5
5.1. Una R2 elevada pero pocas razones t significativas. ....................................................................................... 5
5.2. Altas correlaciones entre parejas de regresoras. ............................................................................................ 6
5.3. Examen de las correlaciones parciales. ........................................................................................................... 6
5.4. Regresiones auxiliares. .................................................................................................................................... 7
5.5. Valores propios e índice de condición............................................................................................................. 7
5.6. Tolerancia y factor de inflación de la varianza. ............................................................................................... 7
5.7. Diagrama de dispersión. ................................................................................................................................. 8
6. MEDIDAS CORRECTIVAS........................................................................................................................................ 10
6.1. No hacer nada ............................................................................................................................................... 10
6.2. Procedimientos de reglas practicas .............................................................................................................. 10
7. EJEMPLO DE APLICACIÓN ..................................................................................................................................... 13
8. RESUMEN Y CONCLUSIONES ................................................................................................................................. 16
9. BIBLIOGRAFÍA. ...................................................................................................................................................... 17
1
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
Multicolinealidad
1. INTRODUCCIÓN.
Uno de los supuestos básicos del modelo lineal general y=Xβ+u establece que las variables explicativas
son linealmente independientes. Este supuesto asegura que la matriz X de orden N×k tiene un rango igual
a k, su determinante difiere de cero y su inversa puede calcularse mediante el método de la matriz
adjunta. En definitiva, el supuesto de ausencia de multicolinealidad garantiza que el sistema de
ecuaciones normales es un sistema de Cramer, que siempre admite una solución unica y que é stá viene
dada por el estimador de mínimos cuadrados.
2. NATURALEZA DE LA MULTICOLINEALIDAD
El término multicolinealidad se atribuye a Ragnar Frisch. Originalmente, designaba una relación lineal
“perfecta” o exacta entre algunas o todas las variables explicativas de un modelo de regresión. Para la
regresión con k variables que incluye las variables explicativas X1, X2, . . . , Xk
(donde X1 = 1 para todas las observaciones de forma que den cabida al término del intercepto), se dice
que existe una relación lineal exacta si se satisface la siguiente condición:
λ1 X1 + λ2 X2 + · · · + λk Xk = 0 (10.1.1)
donde λ1, λ2,. . . , λk, son constantes tales que no todas son simultáneamente iguales a cero. Hoy en día,
sin embargo, el término multicolinealidad incluye el caso de multicolinealidad
perfecta, como lo indica (10.1.1) y también el caso en el cual hay X variables intercorrelacionadas pero no
en forma perfecta, de la siguiente manera:
λ1 X1 + λ2 X2 + · · · + λ2 Xk + vi = 0 (10.1.2)
2
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
FIGURA 10.1
Gráfico de Ballentine de Y Y
multicolinealidad.
X3 X2
X2 X3
Y Y
X2
X3
X3 X2 X3 X2
¿Por qué supone el modelo clásico de regresión lineal que no hay multicolinealidad entre las X? El
razonamiento es el siguiente: Si la multicolinealidad es perfecta en el sentido de (10.1.1), los
coeficientes de regresión de las variables X son indeterminados, y sus errores estándar, infinitos. Si
la multicolinealidad es menos que perfecta, como sucede en (10.1.2), los coeficientes de regresión,
aunque sean determinados, poseen grandes errores estándar (en relación con los coeficientes
mismos), lo cual significa que los coeficientes no pueden ser estimados con gran precisión o
exactitud. Las pruebas de estas afirmaciones se presentan en las siguientes secciones.
Especificación del modelo. Por ejemplo, la adición de términos polinomiales a un modelo de regresión,
en especial cuando el rango de la variable X es pequeño.
3
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
Un modelo sobredeterminado. Esto sucede cuando el modelo tiene más variables explicativas que
el número de observaciones. Esto puede suceder en investigación médica, donde en ocasiones hay
un número reducido de pacientes sobre quienes se reúne información respecto de un gran número
de variables.
¿Y en series de tiempo? puede ser que las regresoras del modelo compartan una tendencia común;
es decir, que todas aumenten o disminuyan a lo largo del tiempo. Por tanto, en la regresión del gasto
de consumo sobre el ingreso, la riqueza y la población, las regresoras ingreso, riqueza y población tal
vez todas crezcan con el tiempo a una tasa aproximadamente igual, con lo cual se presentaría la
colinealidad entre dichas variables.
Por tanto, si en una regresión estimada se encuentra que X2 = 2X3 aproximadamente, entonces, en
una muestra futura para pronosticar Y, X2 también debe ser aproximadamente igual a 2X3, condición
difícil de cumplir en la práctica en cuyo caso la predicción será cada vez más incierta. Más aún, si el
objetivo del análisis no es sólo la predicción sino también la estimación confiable de los parámetros, la
presencia de una alta multicolinealidad puede ser un problema porque, como vimos, genera grandes
errores estándar en los estimadores.
Sin embargo, existen situaciones en las cuales la multicolinealidad puede no representar un problema
grave. Es el caso en el cual se tiene una R2 elevada y los coeficientes de regresión son significativos
individualmente como lo demuestran los altos valores t. Aun así, los diagnósticos de multicolinealidad,
por ejemplo el índice de condición, indican que los datos presentan colinealidad grave.
Esto sucede si los coeficientes individuales resultan estar numéricamente muy por encima del valor
verdadero, de forma que el efecto siga visible, a pesar de los errores estándar inflados y/o debido a
que el valor verdadero es en sí mismo tan grande que, aunque se obtenga una estimación
subestimada, continúe siendo significativa.
4
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
4. CONSECUENCIAS DE LA MULTICOLINEALIDAD
En los casos de casi o alta multicolinealidad es probable que se presenten las siguientes
consecuencias:
Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas grandes que
dificultan la estimación precisa.
Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho más amplios, lo
cual propicia una aceptación más fácil de la “hipótesis nula cero” (es decir, que el verdadero
coeficiente poblacional es cero).
También debido a la consecuencia 1, la razón t de uno o más coeficientes tiende a ser
estadísticamente no significativa.
Aunque la razón t de uno o más coeficientes sea estadísticamente no significativa, R2, la
medida global de bondad de ajuste, puede ser muy alta.
Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los
datos.
5. DETECCIÓN DE LA MULTICOLINEALIDAD.
Por consiguiente, no es necesario “llevar a cabo pruebas sobre multicolinealidad”, pero, si se desea,
es posible medir su grado en cualquier muestra determinada.
Como la multicolinealidad es en esencia un fenómeno de tipo muestral que surge de información sobre
todo no experimental recopilada en la mayoría de las ciencias sociales, no hay un método único para
detectarla o medir su fuerza. Lo que se tiene en realidad son ciertas reglas prácticas, algunas
informales y otras formales, pero todas reglas prácticas. Consideremos algunas de ellas.
5
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
parciales de pendiente son simultáneamente iguales a cero, pero las pruebas t individuales mostrarán
que ningún coeficiente parcial de pendiente, o muy pocos, son estadísticamente diferentes de cero.
Aunque este diagnóstico es razonable, su desventaja es que “es demasiado fuerte, en el sentido de
que la multicolinealidad se considera dañina únicamente cuando no se puede separar la totalidad de
las influencias de las variables explicativas sobre Y ”.
Otra regla práctica recomendable consiste en observar el coeficiente de correlación de orden cero o
entre dos regresoras. Si éste es alto, digamos, superior a 0.8, la multicolinealidad es un problema
grave. La desventaja con este criterio es que, aunque las altas correlaciones de orden cero pueden
sugerir la presencia de colinealidad, no es necesario que dichas correlaciones sean altas para tener
colinealidad en un determinado caso específico. En términos un poco técnicos: las correlaciones de
orden cero elevadas son una condición suficiente pero no necesaria para la existencia de
multicolinealidad, debido a que puede existir a pesar de que las correlaciones de orden cero o
correlaciones simples sean comparativamente bajas (es decir, inferiores a 0.50). Para apreciar esta
relación, suponga un modelo con cuatro variables:
Yi = β1 + β2 X2i + β3 X 3i + β4 X4i + ui
y suponga que
X4i = λ2 X2i + λ3 X3i
donde λ2 y λ3 son constantes, sin ser los dos iguales a cero. Obvio, X4 es una combinación lineal
exacta de X2 y X3, que da R2= 1.
Por consiguiente, en los modelos donde hay más de dos variables explicativas, la correlación
simple o de orden cero no proporciona una guía infalible sobre la presencia de multicolinealidad.
Claro que si sólo existen dos variables explicativas, bastarán las correlaciones de orden cero.
Si bien puede ser útil un estudio de correlaciones parciales, nada garantiza que proporcionen una guía
infalible sobre multicolinealidad, pues puede suceder que tanto R2 como todas las correlaciones
parciales sean lo bastante altas. Sin embargo, y tal vez más importante, C. Robert Wichers mostró20
que la prueba de correlación parcial de Farrar-Glauber es ineficaz en el sentido de que una
determinada correlación parcial puede ser compatible con diferentes patrones de multicolinealidad.
La prueba de Farrar-Glauber también recibió fuertes críticas de T. Krishna Kumar,21 John O’Hagan y
Brendan McCabe.
6
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
Como la multicolinealidad surge porque una o más de las regresoras son combinaciones lineales
exactas o aproximadas de las demás regresoras, una forma de determinar cuál variable X está
relacionada con las demás variables X es efectuar la regresión de cada Xi sobre las variables X
restantes y calcular la R2 correspondiente, que se designa R2 i cada una de estas regresiones se
denomina regresión auxiliar, auxiliar a la regresión princi- pal de Y sobre las X. Así, conforme a la
relación entre F y R2 establecida, la variable sigue la distribución F con k − 2 y n − k + 1 gl. En la
ecuación (), n representa el tamaño de la muestra, k representa el número de variables explicativas
incluyendo el intercepto.
Mediante EViews y Stata podemos calcular los valores propios y el índice de condición para
diagnosticar la multicolinealidad. No analizare- mos aquí el tema de los valores propios, pues
implicaría abordar temas de álgebra matricial, fuera del alcance de este libro. Sin embargo, a partir
de estos valores propios puede derivarse lo que se conoce como número de condición k, definido
como:
Entonces tenemos esta regla práctica: Si k está entre l00 y 1 000, existe una multicolinealidad que
va de moderada a fuerte, mientras que si excede de 1 000, existe multicolinealidad grave. De otro
modo, si el IC ( = raíz(k)) está entre 10 y 30, hay multicolinealidad entre moderada y fuerte, y
si excede de 30, una multicolinealidad grave.
7
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
regla práctica, si el FIV de una variable es superior a 10 (esto sucede si R2 excede de 0.90), se dice
que esa variable es muy colineal.
Desde luego, puede utilizarse TOLj como medida de la multicolinealidad, en vista de su estrecha
conexión con FIVj. Mientras más cerca esté TOLj de cero, mayor será el grado de colinealidad de
esa variable respecto de las demás regresoras. Por otra parte, mientras más cerca esté TOLj de 1,
mayor será la evidencia de que Xj no es colineal con las demás regresoras.
Es una buena práctica usar un diagrama de dispersión para ver cómo se relacionan las diversas
variables de un modelo de regresión. La figura presenta el diagrama de dispersión. Se trata de un
diagrama de cuatro por cuatro cuadros porque hay cuatro variables en el modelo, una variable
dependiente (C) y tres variables explicativas: ingreso personal disponible real (Yd), riqueza real
(W) y tasa de interés real (I).
8
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
Como la función de diagrama de dispersión se incluye ahora en varios programas estadísticos, este
diagnóstico debe tomarse en consideración junto con los que estudiamos antes. No obstante, hay
que recordar que las correlaciones simples entre parejas de variables pueden no ser un indi-
cador definitivo de colinealidad, como ya señalamos.
Para concluir la detección de la multicolinealidad, reiteramos que los diversos métodos son
en esencia “expediciones de pesca”, pues no puede decirse cuáles funcionan en una aplica- ción
particular. Sin embargo, no se puede hacer mucho al respecto, pues la multicolinealidad es un
problema específico de una muestra dada sobre la cual el investigador puede no tener mucho
control, sobre todo si los datos son no experimentales por naturaleza, como es lo común para los
investigadores de las ciencias sociales.
9
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
6. MEDIDAS CORRECTIVAS.
Y∗= β1 + β2 ln Pt + ut
donde Y ∗ = ln Y − ˆ β3 ln I, es decir, Y ∗ representa ese valor de Y después de eliminarle
el efecto del ingreso. Ahora se puede obtener una estimación de la elasticidad precio β2
de la regresión anterior.
10
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
Si el modelo verdadero es
Yi = β1 + β2X2i + β3X3i + ui
se demuestra que.
E(b12) = β2 + β3b32
11
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
12
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
7. EJEMPLO DE APLICACIÓN
Los datos se reproducen en la tabla 1, y son series de tiempo de 1947 a 1962, donde Y = número de
personas con trabajo (en miles), X1 = índice implícito de deflación de precios para el PIB, X2 = PIB (en
millones de dólares), X3 = número de desempleados (en miles), X4 = número de personas enlis- tadas en
las fuerzas armadas, X5 = población no institucionalizada mayor de 14 años de edad y X6 = año (igual a
1 para 1947, 2 para 1948 y 16 para 1962).
Tabla 1.
Suponga que nuestro objetivo es predecir Y con base en las seis variables X. Mediante el software EViews6
obtenemos los siguientes resultados de la regresión:
Variable dependiente: Y
Muestra: 1947-1962
13
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
A primera vista, dichos resultados sugieren que se tiene un problema de colinealidad, pues el valor R2 es muy
alto; sin embargo, unas cuantas variables son estadísticamente no significativas (X1, X2 y X5), lo cual constituye
un síntoma característico de multicolinealidad. Para arrojar más luz a este problema, en la tabla 2 se presentan
las intercorrelaciones entre las seis regresoras.
Tabla 2.
Esta tabla suministra lo que se llama matriz de correlación. En la tabla, las entradas de la diagonal principal
(las que van desde la esquina superior izquierda hacia la esquina inferior de- recha) suministran la correlación
de una variable consigo misma, la cual por definición siempre es 1; además, las entradas fuera de la diagonal
principal son las parejas de correlaciones entre las variables X. El primer renglón de esta tabla proporciona la
correlación de X1 con las otras variables X. Por ejemplo, 0.991589 es la correlación entre X1 y X2; 0.620633 es la
correlación entre X1 y X3, y así sucesivamente.
Como se ve, varias de estas correlaciones a pares son muy altas, lo cual sugiere que quizá haya un grave
problema de colinealidad. Por supuesto, debe recordarse la advertencia anterior de que tales correlaciones a
pares tal vez sean una condición suficiente, pero no necesaria, para la multicolinealidad.
Con objeto de aclarar más la naturaleza del problema de la multicolinealidad, observe las regresiones
auxiliares; es decir, la regresión de cada variable X sobre las restantes variables X. Para ahorrar espacio, se
presentarán sólo los valores R2 obtenidos con base en esas regresiones, las cuales se listan en la tabla 3.
14
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
Como los valores R2 de las regresiones auxiliares son muy altos (con la posible excepción de la regresión de X4)
sobre las restantes variables X, al parecer existe un grave problema de colinealidad. La misma información
se obtiene a partir de los factores de tolerancia. Como ya mencionamos, mientras más cercano a cero esté
el factor de tolerancia, mayor será la evidencia de colinealidad.
Al aplicar la regla práctica de Klein observamos que los valores R2 obtenidos de las regresiones auxiliares
exceden el valor general R2 (es decir, el que se obtuvo de la regresión de Y sobre todas las variables X), que
es igual a 0.9954, en 3 de 6 regresiones auxiliares, lo cual de nuevo sugiere que sin duda los datos Longley
están plagados del problema de multicolinealidad.
Ya observamos que los estimadores de MCO y sus errores estándar son sensibles a los pequeños cambios en
los datos.
Ahora que establecimos que existe un problema de multicolinealidad, ¿qué acciones correctivas pueden
llevarse a cabo? Reconsidere el modelo original. En primer lugar, el PIB puede expresarse no en términos
nominales, sino en términos reales, lo cual se realiza al dividir el PIB nominal entre el índice de deflación del
precio implícito. En segundo lugar, en vista de que la población no institucional mayor de 14 años aumenta
con el tiempo debido al crecimiento natural de la población, estará muy correlacionada con el tiempo, la
variable X6 del modelo. Por tanto, en lugar de conservar esas dos variables, mantenemos la variable X5 y
desechamos X6. En tercer lugar, no hay ninguna razón de peso para incluir X3, el número de personas
desempleadas; quizá la tasa de desempleo fuese una mejor medida de las condiciones del mercado de
trabajo; sin embargo, no hay ningún dato al respecto. Por consiguiente, eliminamos la variable X3. Con estos
cambios obtenemos los siguientes resultados de la regresión (PIBR = PIB real):
Variable dependiente: Y
Muestra: 1947-1962
Aunque R2 disminuyó un poco en comparación con la R2 original, aún es muy alta. Ahora todos los coeficientes
estimados son significativos y sus signos tienen sentido desde el punto de vista económico.
15
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
8. RESUMEN Y CONCLUSIONES
1. Un supuesto del modelo clásico de regresión lineal es que no haya multicolinealidad entre las
variables explicativas, las X. Interpretada en términos generales, la multicolinealidad se refiere a
una situación en la cual existe una relación lineal exacta o aproximadamente exacta entre las
variables X.
2. Las consecuencias de la multicolinealidad son las siguientes: si existe colinealidad perfecta entre
las X, sus coeficientes de regresión son indeterminados y sus errores estándar no están definidos.
Si la colinealidad es alta pero no perfecta, es posible la estimación de los coeficien- tes de regresión,
pero sus errores estándar tienden a ser grandes. Como resultado, los valores poblacionales de los
coeficientes no pueden estimarse en forma precisa; sin embargo, si el objetivo es estimar
combinaciones lineales de estos coeficientes, las funciones estimables, esto se logra aun en
presencia de multicolinealidad perfecta.
3. Aunque no hay métodos seguros para detectar la colinealidad, existen diversos indicadores,
como los siguientes:
a) El signo más claro de multicolinealidad es cuando R2 es muy alta pero ninguno de los
coeficientes de regresión es estadísticamente significativo con base en la prueba t
convencional. Este caso es, por supuesto, extremo.
b) En los modelos con apenas dos variables explicativas, puede tenerse una idea relativamente
buena de la colinealidad mediante el examen del coeficiente de correlación de orden cero, o
simple, entre las dos variables. Si esta correlación es alta, la multicolinealidad suele ser la
culpable.
c) Sin embargo, los coeficientes de correlación de orden cero pueden ser malos indicadores en
modelos con más de dos variables X, pues es posible tener correlaciones bajas de orden cero y
encontrar aún alta multicolinealidad. En estas situaciones puede ser necesario examinar los
coeficientes de correlación parcial.
d) Si R2 es alta pero las correlaciones parciales son bajas, la multicolinealidad es una posibilidad.
Aquí hay una o más variables que pueden ser superfluas. Pero si R2 es alta y las correlaciones
parciales también son altas, la multicolinealidad puede no ser fácilmente detectable.
También, como señalan C. Robert Wichers, Krishna Kumar, John O’Hagan y Brendan McCabe,
hay algunos problemas estadísticos con la prueba de correlación parcial sugerida por Farrar y
Glauber.
e) Por consiguiente, se puede hacer la regresión de cada variable Xi sobre las variables X
f) restantes en el modelo y encontrar los coeficientes de determinación correspondientes
16
UNIVERSIDAD NACIONAL DEL ALTIPLANO
FACULTAD DE INGENIERÍA ESTADÍSTICA E INFORMÁTICA
prácticas, algunas de las cuales son las siguientes: 1) utilizar información obtenida a priori o
externa al modelo, 2) combinar información de corte transversal y de series de tiempo,
omitir una variable si es muy colineal, 4) transformar los datos y 5) obtener datos adiciona- les o
nuevos. Naturalmente, saber qué regla funciona en la práctica depende de la naturaleza de la
información y de la gravedad del problema de colinealidad.
9. BIBLIOGRAFÍA.
17