Sei sulla pagina 1di 5

Gonzalo apoya la aditividad: Los 4 supuestos de la regresion lineal

Publicado el marzo 18, 2015por Juan Carlos Saravia Drago

Estimados todos, bienvenidos a otro captulo de Stats SOS. En el post de hoy vern que hemos cambiado un poco. Un amigo seguidor
de la pgina me insisti en ser participe en uno de los posts. Por ello, nuestro amigo Gonzalo participar junto conmigo en el
episodio de hoy.
Como bien dice el ttulo, la aventura de hoy est relacionada con la regresin lineal. En este caso, veremos cules son los supuestos
que se necesitan para ejecutar una regresin lineal mltiple.
Primero que todo, en sencillo, una regresin lineal mltiple es un anlisis de regresin donde se busca relacionar
mltiples variables de intervalo o nominales (Variables independientes) con otra variable ms (Variable
dependiente). En otras palabras, es una extensin de la regresin lineal simple, los que no recuerdan qu es esto, siempre pueden ir
a este post que los puede ayudar. Por otro lado, para los que no recuerdan qu es una variable de intervalo o nominal, siempre
pueden ir a este post.
Nota importante: Este post no va a tratar de la regresin mltiple en su totalidad. Hemos decidido con Gonzalo, que es mejor
separar los supuestos de la regresin y el anlisis en s para evitar hacer un post demasiado largo.
Muy bien! Vamos a lo nuestro!
La regresin mltiple tiene 4 supuestos importantes que hay que seguir para hacer un anlisis preciso y no sesgado:
1) Normalidad
2) Relacin lineal
3) Aditividad y Multicolinealidad
4) Homocedasticidad
Un tema importante, el punto 1 y el 2, se revisan o se prueban antes de hacer la regresin final, mientras que el 3 y 4, por lo
general se prueban despus que se hizo la regresin lineal.
Normalidad:
Esto se refiere a que todos nuestros datos, tanto nuestras variables independientes as como nuestra variable dependiente, tienen
que tener puntajes que estn distribuidos normalmente. Ms especficamente los residuos (error) de estos puntajes
deben tener una distribucin normal. Por qu es importante esto? La regresin es un anlisis lineal y por ello, trabaja con
relaciones lineales. Cuando los errores de las variables tienen distribucin no normal, pueden afectar las relaciones y la significancia
(Qu es eso? Ver post). Por qu se enfocan en los errores y no la medicin en s? Porque en una regresin lineal tambin es posible
poner variables dicotmicas (sexo) y estas no tienen una distribucin normal (Williams, Grajales, & Kurkiewicz, 2013).
Excelente! Sigamos avanzando! Este fue el calentamiento, pero estoy seguro que todo ir bien.
Relacin lineal
Este segundo supuesto est dirigido a la relacin entre las variable independientes y dependiente. La relacin entre cada
variable independiente con la variable dependiente debe ser lineal. En otras palabras, y como bien conocemos, debe haber una
correlacin entre las variables independientes y la dependiente. Qu era una correlacin o relacin? Muy sencillo! Este
post les puede dar indicios de qu es una correlacin entre dos variables. Ojo, pestaa y ceja: los anlisis de correlacin se deben

hacer antes de la regresin para poder saber qu variables tienen relacin con la que deseamos medir. Por qu? Porque este anlisis
previo nos permitir saber qu variables incluimos en nuestro modelo de regresin.
Siguen ac? Est todo bien? Me imagino que s, sigamos adelante como siempre!
Additividad y multicolinealidad
La aditividad se refiere a que el modelo de regresin lineal es aditivo. Qu cosa? Qu diablos es aditivo? Bueno, muy sencillo, que
cada variable independiente por s sola, suma a la explicacin de la variable dependiente. En otras palabras, no hay
relacin entre las variables independientes. Si hubiera relacin entre las variables independientes de nuestro modelo,
tendramos un problema. Nuestra dificultad, tiene nombre y se llama multicolinealidad. Mero problema, con las justas lo puedo
pronunciar! Qu significa esto? La multicolinealidad es cuando dos variables independientes estn relacionadas. Por
qu es un problema?
Por una razn sencilla: Si hay relacin entre dos variables entonces son muy parecidas y por ello tener las dos no aporta nada a
explicar mejor nuestra variable dependiente. Les pongo un ejemplo, imagnense que tenemos un album de figuritas del mundial y slo
nos faltan dos. Si compramos unas figuritas en la tienda y nos vienen dos iguales y entre ellas est una de las que nos faltaba, esto
no nos va a permitir llenar el album. Lo mismo pasa con la multicolinealidad, dos variables independientes muy relacionadas que
parecen iguales no nos ayudarn a explicar ms nuestra variable dependiente o a llenar el lbum.
Cmo se revisa si hay la terrible multicolinealidad? Muy sencillo! Existen dos maneras: a) Previo a hacer nuestro modelo de
regresin mltiple analizar con una correlacin de Pearson (ver post), para ver si hay relacin fuerte entre nuestras variables
independientes. b) Durante el anlisis estadstico de regresin mltiple se le puede pedir al programa,diagnsticos de
multicolinealidad. Antes que se lancen encima de mi y del pobre Gonzalo sobre esto y pregunten por qu no hay un post de ello?
No se preocupen! Luego de este post, escribir un post sobre Multicolinealidad profundizando un poco ms esto.
. Esta es
ms una introduccin a este punto.
En el caso del post de multicolinealidad, nuestro amigo Gonzalo no va a poder acompaarnos porque seguro resumir sus actividades
de salvar el mundo y proponer polticas pblicas. Pero yo seguir aqu acompandolos en nuestra aventura
.

Homocedasticidad
Muy bien! Llegamos a la recta final! Qu diablos es la homocedasticidad? Muy sencillo! La homocedasticidad es cuando la
varianza de los errores de medicin de nuestro anlisis es igual para todas las variables independientes. Qu era varianza? No
hay problema, aqu un pequeo recordatorio de lo que es una varianza. A su vez, cundo esta varianza es diferente entre las
diferentes variables independientes tenemos un problema de Heterocedasticidad. Segn algunos autores, esto puede ser un gran
problema! Qu miedo! Por qu? La Heterocedasticidad puede arruinar nuestros resultados y hacernos caer en un error. En cul?
Podramos asumir que algo est relacionado cuando en realidad no lo est. Se acuerdan cmo se llama esto? Los que no, no hay
problema, pueden ir a este post para refrescar la mente (Tabachnick, & Fidell, 1996, 2001). Los que s se acuerdan, estoy seguro que
saben el tipo de error al que nos referimos.
As como la Multicolinealidad, hay una manera de revisar si existe Homocedasticidad en nuestros datos. En este caso, no vamos a
comentar la ruta que hay que seguir porque lo veremos en la regresin mltiple. Lo que s les podemos contar es que se revisa
un grfico, y si la varianza del error de nuestras variables independientes est relacionada con la varianza que predice
nuestra variable dependiente estamos fregados. Porque hay Heterocedasticidad, el error no debe estar relacionado con
nuestra capacidad para predecir nuestra variable dependiente. Para mayor referencia pueden ver Osborne y Waters, (2002).

Potrebbero piacerti anche