Sei sulla pagina 1di 8

UNIVERSIDAD CENTROAMERICANA JOSE SIMEON CAAS FACULTAD DE CIENCIAS ECONOMICAS Y EMPRESARIALES LICENCIATURA EN ECONOMIA

RESUMEN MULTICOLINEALIDAD

Materia: Econometra Docente: Mario Cesar Snchez Instructor: Diana Carolina Castro

Alumna: Diana Cecilia Cabrera Hernndez

00230811

24 de octubre de 2013

Multicolinealidad
El supuesto 8 del modelo clsico de regresin lineal (MCRL) plantea que no existe multicolinealidad entre las regresoras incluidas en el modelo de regresin. El trmino multicolinealidad se atribuye a Ragnar Frisch. Originalmente, designaba una relacin lineal perfecta o exacta entre algunas o todas las variables explicativas de un modelo de regresin. Es una relacin lineal exacta si se satisface la siguiente condicin:

el trmino multicolinealidad incluye el caso de multicolinealidad perfecta, como lo indica la relacin anterior y tambin el caso en el cual hay X variables intercorrelacionadas pero no en forma perfecta, de la siguiente manera:

Para apreciar la diferencia entre multicolinealidad perfecta y multicolinealidad menos que perfecta suponga, por ejemplo, que 2 0. Entonces, la primera relacin se escribe como:

Donde se muestra la forma como X2 est exactamente relacionada de manera lineal con otras variables, o cmo se deriva de una combinacin lineal de otras variables X. En esta situacin, el coeficiente de correlacin entre la variable X2 y la combinacin lineal del lado derecho, est obligado a ser igual a uno. En forma similar, si 20, la ecuacin 2 se escribe como:

Lo cual muestra que X2 no es una combinacin lineal exacta de otras X porque est determinada tambin por el trmino de error estocstico vi. El mtodo algebraico anterior para el problema de la multicolinealidad se expresa concisamente mediante un diagrama de Ballentin, en donde la figura de los crculos Y, X2 y X3 representan las variaciones en Y (la variable dependiente) y en X2 y X3 (las variables explicativas). El grado de colinealidad se mide por la magnitud de la interseccin (rea sombreada) de los crculos X2 y X3.

La multicolinealidad, como la definimos, se refiere slo a relaciones lineales entre las variables X. Este concepto no aplica a las relaciones no lineales entre ellas. Por ejemplo, considere el siguiente modelo de regresin:

Sin embargo, en aplicaciones concretas, el coeficiente de correlacin medido de forma convencional demostrar que Xi, X2 y X3 estn altamente correlacionadas, lo cual, como mostraremos, dificultar estimar los parmetros de con mayor precisin (es decir, con errores estndar pequeos). Si la multicolinealidad es perfecta en el sentido de los coeficientes de regresin de las variables X son indeterminados, y sus errores estndar, infinitos. Si la multicolinealidad es menos que perfecta, como sucede en los coeficientes de regresin, aunque sean determinados, poseen grandes errores estndar (en relacin con los coeficientes mismos), lo cual significa que los coeficientes no pueden ser estimados con gran precisin o exactitud. Factores que causan la multicolinealidad Las consecuencias de la multicolinealidad son las siguientes: si existe colinealidad perfecta entre las X, sus coeficientes de regresin son indeterminados y sus errores estndar no estn definidos. Si la colinealidad es alta pero no perfecta, es posible la estimacin de los coeficientes de regresin, pero sus errores estndar tienden a ser grandes. Como resultado, los valores poblacionales de los coeficientes no pueden estimarse en forma precisa; sin embargo, si el objetivo es estimar combinaciones lineales de estos coeficientes, las funciones estimables, esto se logra aun en presencia de multicolinealidad perfecta.

1. 2. 3. 4.

El mtodo de recoleccin de informacin. Restricciones en el modelo o en la poblacin objeto de muestreo Especificacin del modelo. Un modelo sobre determinado.

Otra razn para la multicolinealidad, sobre todo en los datos de series de tiempo, puede ser que las regresoras del modelo compartan una tendencia comn; es decir, que todas aumenten o disminuyan a lo largo del tiempo. Si se satisfacen los supuestos del modelo clsico, los estimadores de MCO de los coeficientes de regresin son MELI (o MEI, si se aade el supuesto de normalidad); puede demostrarse que, aunque la multicolinealidad sea muy alta, como en el caso de casi multicolinealidad, los estimadores de MCO conservarn la propiedad MELI. Christopher Achen comenta al respecto a los inconvenientes de multicolinealidad: En el estudio de la metodologa en ocasiones se preocupa porque las variables independientes estn correlacionadas: el llamado problema de multicolinealidad. Sin embargo, la multicolinealidad no viola los supuestos bsicos de la regresin. Se presentarn estimaciones consistentes e insesgadas y sus errores estndar se estimarn en la forma correcta. El nico efecto de la multicolinealidad tiene que ver con la dificultad de obtener los coeficientes estimados con errores estndar pequeos. Sin embargo, se presenta el mismo problema al contar con un nmero reducido de observaciones o al tener variables independientes con varianzas pequeas. Para referirse a la importancia del tamao de la muestra, Goldberger acu el trmino micronumerosidad, como contraparte del extico nombre polislabo de multicolinealidad. De acuerdo con Goldberger, la micronumerosidad exacta (la contraparte de multicolinealidad exacta) surge cuando n, el tamao de la muestra, es cero, en cuyo caso es imposible cualquier clase de estimacin. La casi micronumerosidad, igual que la casi multicolinealidad, surge cuando el nmero de observaciones escasamente excede al nmero de parmetros que se va a estimar. Leamer, Achen y Goldberger estn en lo correcto al lamentar la falta de atencin al problema del tamao de la muestra, lo mismo que al problema de multicolinealidad. Por desgracia, en el trabajo aplicado que comprende informacin secundaria (es decir, informacin recopilada por alguna institucin), es posible que un investigador por s solo no pueda hacer gran cosa sobre el tamao de la informacin muestral, y quiz deba enfrentar la estimacin de problemas lo bastante importantes para justificar su tratamiento [por ejemplo, la multicolinealidad] como una violacin del modelo CRL *clsico de regresin lineal+.

Primero, es cierto que aun en el caso de casi multicolinealidad los estimadores de MCO son insesgados. Pero el insesgamiento es una propiedad multimuestral o de muestreo repetido. Esto significa que, si mantenemos fijos los valores de X, si obtenemos muestras repetidas y calculamos los estimadores de MCO para cada una de esas muestras, el promedio de los valores muestrales se aproximar a los verdaderos valores poblacionales de los estimadores a medida que aumenta el nmero de las muestras. Segundo, tambin es cierto que la colinealidad no destruye la propiedad de varianza mnima: en la clase de los estimadores lineales insesgados, los estimadores de MCO tienen varianza mnima; es decir, son eficientes. Pero esto no significa que la varianza de un estimador de MCO necesariamente sea pequea. Tercero, la multicolinealidad es en esencia un fenmeno (de regresin) muestral en el sentido en que, aunque las variables X no estn linealmente relacionadas en la poblacin, pueden estarlo en la muestra particular disponible; la muestra puede no ser lo bastante rica para acomodar todas las variables X en el anlisis. Consecuencias prcticas de la multicolinealidad 1. Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas grandes que dificultan la estimacin precisa. 2. Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho ms amplios, lo cual propicia una aceptacin ms fcil de la hiptesis nula cero (es decir, que el verdadero coeficiente poblacional es cero). 3. Tambin debido a la consecuencia 1, la razn t de uno o ms coeficientes tiende a ser estadsticamente no significativa. 4. Aunque la razn t de uno o ms coeficientes sea estadsticamente no significativa, R2, la medida global de bondad de ajuste, puede ser muy alta. 5. Los estimadores de MCO y sus errores estndar son sensibles a pequeos cambios en los datos. Advertencia de Kmenta: 1. La multicolinealidad es una cuestin de grado y no de clase. La distincin importante no es entre presencia o ausencia de multicolinealidad, sino entre sus diferentes grados. 2. Como la multicolinealidad se refiere a la condicin de las variables explicativas que son no estocsticas por supuestos, es una caracterstica de la muestra y no de la poblacin. Por consiguiente, no es necesario llevar a cabo pruebas sobre multicolinealidad, pero, si se desea, es posible medir su grado en cualquier muestra determinada.

Como la multicolinealidad es en esencia un fenmeno de tipo muestral que surge de informacin sobre todo no experimental recopilada en la mayora de las ciencias sociales, para detectarla o medir su fuerza, lo que se tiene en realidad son ciertas reglas prcticas, algunas informales y otras formales, pero todas reglas prcticas. Aunque no hay mtodos seguros para detectar la colinealidad, existen diversos indicadores, como los siguientes: a) Una R2 elevada pero pocas razones t significativas. El signo ms claro de multicolinealidad es cuando R2 es muy alta pero ninguno de los coeficientes de regresin es estadsticamente significativo con base en la prueba t convencional. b) Altas correlaciones entre parejas de regresoras. En los modelos con apenas dos variables explicativas, puede tenerse una idea relativamente buena de la colinealidad mediante el examen del coeficiente de correlacin de orden cero, o simple, entre las dos variables. Si esta correlacin es alta, la multicolinealidad suele ser la culpable. c) Examen de las correlaciones parciales. Sin embargo, los coeficientes de correlacin de orden cero pueden ser malos indicadores en modelos con ms de dos variables X, pues es posible tener correlaciones bajas de orden cero y encontrar an alta multicolinealidad. En estas situaciones puede ser necesario examinar los coeficientes de correlacin parcial. d) Regresiones auxiliares. Si R2 es alta pero las correlaciones parciales son bajas, la multicolinealidad es una posibilidad. Aqu hay una o ms variables que pueden ser superfluas. Pero si R2 es alta y las correlaciones parciales tambin son altas, la multicolinealidad puede no ser fcilmente detectable. Tambin, como sealan C. Robert Wichers, Krishna Kumar, John OHagan y Brendan McCabe, hay algunos problemas estadsticos con la prueba de correlacin parcial sugerida por Farrar y Glauber. Regla prctica de Klein, que sugiere que la multicolinealidad puede ser un problema complicado solamente si la R2 obtenida de una regresin auxiliar es mayor que la R2 global, es decir, si se obtiene de la regresin de Y sobre todas las regresoras. e) Valores propios e ndice de condicin. Por consiguiente, se puede hacer la regresin de cada variable Xi sobre las variables X restantes en el modelo y encontrar los coeficientes de determinacin correspondientes R2. Una R2 elevada sugerira que Xi est muy correlacionado con el resto de las X. As, se puede eliminar esa Xi del modelo siempre y cuando no conduzca a un sesgo de especificacin grave.

f) Tolerancia y factor de inflacin de la varianza. La velocidad con que se incrementan las varianzas y covarianzas se ve con el factor inflacionario de la varianza (FIV), muestra la forma como la varianza de un estimador se infla por la presencia de la multicolinealidad. A medida que r 2 se acerca a 1, el FIV se acerca a infinito. Es decir, a medida que el grado de colinealidad aumenta, la varianza de un estimador tambin y, en el lmite, se vuelve infinita. Se define como:

El inverso del FIV se conoce como tolerancia (TOL). Es decir:

g) Diagrama de dispersin. Es una buena prctica usar un diagrama de dispersin para ver cmo se relacionan las diversas variables de un modelo de regresin. En la deteccin de la multicolinealidad, no puede decirse cules mtodos funcionan en una aplicacin particular. Sin embargo, no se puede hacer mucho al respecto, pues la multicolinealidad es un problema especfico de una muestra dada sobre la cual el investigador puede no tener mucho control, sobre todo si los datos son no experimentales por naturaleza. Medidas correctivas La deteccin de multicolinealidad es la mitad de la batalla. La otra mitad es hallar la forma de deshacerse del problema. Nuevamente, no existen mtodos seguros, slo unas cuantas reglas prcticas, algunas de las cuales son las siguientes: 1) No hacer nada, Blanchard expresa La multicolinealidad es la voluntad de Dios, no un problema con los MCO ni con la tcnica estadstica en general, la multicolinealidad es en esencia un problema de deficiencia de datos. 2) utilizar informacin obtenida a priori o externa al modelo, 3) combinar informacin de corte transversal y de series de tiempo, 4) omitir una variable si es muy colineal, 5) transformar los datos 6) obtener datos adicionales o nuevos. Naturalmente, saber qu regla funciona en la prctica depende de la naturaleza de la informacin y de la gravedad del problema de colinealidad. Mencionamos el papel de la multicolinealidad en la prediccin y sealamos que, a menos que la estructura colineal contine en muestras futuras, es peligroso utilizar

para fines de proyeccin una regresin estimada que haya sido contaminada por la multicolinealidad. la micronumerosidad,o pequeez del tamao de la muestra, de acuerdo con Goldberger: Cuando un artculo de investigacin acusa la presencia de multicolinealidad, se debe de observar si esa queja sera convincente si se sustituyera el concepto de micronumerosidad por el de multicolinealidad . l sugiere que el lector es quien debe decidir cun pequea puede ser n, el nmero de observaciones, antes de concluir que se tiene un problema de muestra pequea, de la misma forma que decide cun alto es un valor de R2 en una regresin auxiliar antes de declarar que el problema de colinealidad es muy grave.

Potrebbero piacerti anche