Sei sulla pagina 1di 8

AUTOCORRELACION

DEFINICIN: Es la correlacin entre miembros de series de observaciones ordenadas en el tiempo (como en informacin de series de tiempo) o en el espacio (como en informacin de corte transversal). En el contexto de regresin el modelo clsico de regresin lineal supone que no existe tal autocorrelacin en las perturbaciones ui. E(ui,uj)=0 i=j

Expresando en forma sencilla el modelo clsico supone que el termino de perturbacin relacionado con una observacin cualquiera no esta influenciado por el termino perturbacin relacionado con cualquier otra observacin. Por ejemplo si se esta tratando con informacin trimestral de series de tiempo para efectuar una regresin de la produccin sobre los insumos trabajo y capital y si por ejemplo hay una huelga laboral que afecta la produccin en un trimestre no hay ra!n para pensar que esta interrupcin afectara la produccin del trimestre siguiente. Es decir si la produccin es inferior este trimestre no hay ra!n para esperar que esta sea baja en el siguiente trimestre. En forma similar si se esta tratando con informacin de corte transversal que involucra la regresin del gasto de consumo familiar sobre el ingreso familiar no se espera que el efecto de un incremento en el ingreso de una familia sobre su gasto de consuma incida sobre el gasto de consumo de otra. "in embargo si tal dependencia existe se tiene autocorrelacin. "imblicamente E(ui uj)#$%%%%%%%.i & j En esta situacin la interrupcin ocasionada por una huelga este trimestre puede afectar muy fcilmente la produccin del siguiente trimestre o los incrementos del gasto de consumo de una familia pueden inducir muy fcilmente a otra familia a aumentar su gasto de consumo para no quedarse atrs de la primera. 'ntes de encontrar la ra!n de la existencia de la autocorrelacin es esencial aclarar algunos aspectos de terminolog(a. 'unque hoy en d(a es practica com)n tratar como sinnimos los t*rminos autocorrelacin y correlacin serial algunos autores prefieren diferenciar los dos t*rminos. Por ejemplo +intner define autocorrelacin como ,correlacin re!agada de una serie dada consigo mismo re!agada por un n)mero de unidades de tiempo- mientras que reserva el t*rmino correlacin serial para ,correlacin re!agada entre dos t*rminos diferentes-. 's( la correlacin entre dos series de tiempo tales como u1,u2, ,u10 y u2,u3, ,u11, donde la primera es igual a la ultima re!agada un periodo de tiempo tales como u1,u2, ,u10 y v2,v3, ,v11, donde u y v son dos series de tiempo diferentes se denomina correlacin serial. 'unque la distincin entre los dos t*rminos puede ser de utilidad y lo consideraremos como sinnimos. "e pueden visuali!ar algunos de los patrones ra!onables de autocorrelacin y de no autocorrelacin los cuales estn dados en las siguientes figuras. En la fig. ... a ../ se muestra que hay un patrn distinguible entre las u. En la fig. ... muestra un patrn c(clico0 las fig. ..1 y ..2 sugieren una tendencia lineal hacia arriba o hacia abajo en las perturbaciones0 y la fig. ../ indica que tantos t*rminos de tendencia lineal como de tendencia cuadrtica estn presentes en las perturbaciones. "olamente la fig. ..3 indica que no hay patrn sistemtico apoyando el supuesto de no autocorrelacin del modelo clsico de regresin lineal.

u,u

u,u

tiempo $ u,u

tiempo u,u

Fig.1.1

Fig.1.2

u,u

u,u

tiempo u,u

tiempo u,u

Fig.1.3 u,u

Fig.1.4

tiempo

Fig.1.5

2.- CAUSA DE AUTOCORRELACION


2.1.- INERCIA: 4omo bien se sabe las series de tiempo tales como el P56 los (ndices de precio la produccin el empleo y el desempleo presentan ciclos (econmicos). Empe!ando del fondo de la recesin cuando se inicia la recuperacin econmica la mayor(a de estas series se empie!an a moverse hacia arriba entonces el valor de una serie en un punto del tiempo es mayor que su valor anterior por ejemplo un aumento en la tasa de inter*s o en los impuestos o ambos.

2.2 SESGO DE ESPECIFICACION: Caso De Variables E !l"i#as: En el anlisis emp(rico el investigador frecuentemente empie!a con un modelo de regresin ra!onable que puede no ser el mas perfecto despu*s del anlisis de regresin el investigador har(a el examen ,post7mortem- para encontrar si los resultados estn de acuerdo con las expectativas a priori. 8e no ser as( se iniciara la cirug(a. Por ejemplo el investigador puede graficar los residuales ui obtenidos de la regresin ajustada y puede observar patrones tales como los presentados en las figuras ... a ../. Estos residuales (que son aproximaciones de las ui) pueden sugerir que algunas variables que fueron originalmente candidatas pero que no estuvieron incluidas en el modelo por una diversidad de ra!ones deben ser incluidas. 9recuentemente la inclusin de tales variables elimina el patrn de correlacin observado entre los residuales. Por ejemplo supngase que se tiene en el siguiente modelo de demanda: Yt=B1+B2X2t+B3X3t+B4X4t+ut $ %2.2.a& 2.'. FENO(ENO DE LA TELARA)A: ;a oferta de muchos productos agr(colas refleja este fenmeno donde dicha oferta reacciona al precio con re!ago de un periodo de tiempo debido a que la implementacin de las decisiones de oferta toma tiempo (periodo de gestacin) por lo tanto los agricultores estn influenciados por el precio prevaleciente del a<o anterior y su funcin de oferta es: ofertat=B1+B2Pt-1t+ut $ %2.'.a& "uponiendo que al final del periodo t el precio Pt resulta ser inferior a Pt-1 . es muy probable que los agricultores desean producir en el periodo t+1 menos de lo produjeron en el periodo t. =bviamente en esta situacin no se espera que las perturbaciones ui sean aleatorias porque si los agricultores producen excedentes en el a<o t, es probable que redu!can su produccin en t+1 y as( sucesivamente conduciendo a un patrn de telara<a. 2.*. RE+AGOS: En una regresin de series de tiempo en el gasto de consumo sobre el ingreso no es extra<o encontrar que el gasto de consumo en el periodo actual dependa entre otras cosas del gasto de consumo del periodo anterior. Es decir una autoregresin porque una de las variables explicativas es el valor re!agado de la variable dependiente. 2.,. (ANIPULACION DE DATOS: En el anlisis emp(rico los datos simples son frecuentemente manipulados. Por ejemplo en las regresiones de series de tiempo que contienen informacin trimestral esa informacin generalmente se deriva de informacin mensual agregando simplemente las informaciones de 2 meses y dividiendo la suma por 2. 8icho procedimiento de promediar cifras introduce cierto suavi!amiento de datos al eliminar las fluctuaciones en la informacin mensual. Por consiguiente la grafica trimestral aparece mucho mas suave que la grafica anali!ado mensualmente y este suavi!amiento puede inducir a un patrn sistemtico en las perturbaciones introduciendo con esto autocorrelacin. ESTI(ACION (CO EN PRESENCIA DE AUTOCORRELACION: >?u* les sucede a los estimadores @4= y a sus varian!as si se introduce autocorrelacin en las perturbaciones suponiendo que E(ui,uj)=0 (i=j) pero se conservan todos los dems supuestos del modelo clsicoA Bna ve! mas se vuelve al modelo de regresin con dos variables para explicar las ideas bsicas aqu( contenidas a saber Yt=B1+B2Xt+ut, donde t denota los datos u observaciones en el tiempo t0 que se esta tratando con series de informacin de series de tiempo. Para orientar el camino se tiene que suponer el mecanismo que generan las ut, ya que E(ut,ut+s)=0 (s=0) siendo muy general como supuesto para ser de alguna utilidad practica. 4omo punto de partida o primera estimacin se puede suponer que las perturbaciones se generan de la sgte manera.

ut=ut+t -1<<1 ... (3.1.a) 8onde es el coeficiente de autocovarian!a y donde t es la perturbacin estocstica establecida de tal forma que satisface los supuestos @4= estndar. E%t& - . /ar%t& - s 1 !o/%t ,t+s& - .s - . ' la ecuacin (2...a) se le conoce como autorregresivo de primer orden de CarDov y generalmente se denota como 'E(.). El nombre autorregresivo es apropiado porque puede ser interpretado como la regresin de ut sobre su propio re!ago un periodo0 es de primer orden porque solamente ut y su valor pasado estn involucrados0 es decir el re!ago mximo es .. "i el modelo fuera ut=1ut+ 2ut 2+ !t seria un 'E(1) ESTI(ADOR (ELI EN PRESENCIA DE AUTOCORRELACION "uponiendo el proceso 'E(.) es posible demostrar que el estimador @E;F de " 1 esta dada por la sgte expresin:
#$% 1 =

(&
i =1

'

&t . )( y t y t . )
' t

(&
=1

+$

&t . )

8onde c es un factor de correccion que puede ser ignorado en la practica0 observamos que el sub(ndice t varia ahora de t & 1 a t & n. y su varian!a esta dada por: 1 +( #$% ar 1 = ' 1 ( &t &t . )
t =1

8onde 8 es un factor de correccin que tambi*n puede ser ignorado en la practica. #$% El estimador " 1 , como lo sugiere el super(ndice se obtiene por el m*todo de @4G. 'l cual se incorpora directamente cualquier informacin adicional que tengamos en el proceso de estimacin mediante la transformacin de variables mientras que en @4= dicha informacin no se tiene en consideracin directamente. 4omo podemos ver el estimador @4G de " 1 '. CONSECUENCIAS DE UTILI+AR (CO EN PRESENCIA DE AUTOCORRELACION: 4omo en el caso de la heteroscedasticidad en presencia de autocorrelacin los estimadores @4= contin)an siendo lineales7insesgados al igual que consistentes pero dejan de ser eficientes. '.1 ESTI(ACIN (CO PER(ITIENDO LA AUTOCORRELACIN: 4omo se menciono 1 no es @E;F y aun si se fuera a usar ar( 1 ) )*. es probable que los intervalos de confian!a derivados de all( sean mas amplios que aquellos basados en el procedimiento @4G. 4omo lo indica Hmenta es probable que este sea el resultado aun si el tama<o de la muestra se incrementa indefinidamente es decir 1 no es asintoticamente eficiente. ;a implicacin de este halla!go para la prueba de hiptesis es clara: Es probable que se declare un coeficiente estad(sticamente no significativo aunque en realidad pueda serlo el cual puede verse claramente en la fig. (2.1.a) que muestran intervalos de confian!a al I3J @4= 7'E(.) y @4G suponiendo que el verdadero 1 =0 considerando una estimacin particular de 1 . Por ejemplo b 1 . Puesto que ! 1 cae en el intervalo de confian!a @4= se puede aceptar la hiptesis de que el verdadero 1 es cero con un I3J de confian!a0 pero si fu*ramos a utili!ar el intervalo de confian!a @4G (correcto) se podr(a recha!ar la hiptesis nula de que el verdadero 1 es cero ya que b 1 cae dentro de la regin de recha!o.

'.2 ESTI(ACION (CO IGNORANDO LA AUTOCORRELACION: Es potencialmente grave si no se utili!a 1 , sino que tambi*n se continua utili!ando var (
1

)=

los supuestos usuales del modelo clsico se mantienen. "urgirn errores por las siguientes ra!ones: u1 7 Es probable que la varian!a residual 1 = t subestime la verdadera 1 . ( ' 1) 7 4omo resultado es probable que se subestime E 1 . 7 'un si E 1 no esta subestimada var ( 1 ) puede subestimar var ( 1 ) )*. su varian!a autocorrelacin aun cuando esta es ineficiente comparada con var ( 1 ) #$% . 7 Por lo tanto las pruebas de significancia t y 9 usuales dejan de ser validas y de ser aplicada es probable que condu!can a conclusiones errneas sobre la significancia estad(stica de los coeficientes de regresin estimados.

&

1 t

, con lo cual se ignora completamente el problema de autocorrelacin0 se cree que

56 = 0

0 1$ter a"o a" 234 +,1$ter a"o a" 234 +,. Para esta!"e#er i$ter a"os %e #o$fia$&a ' (ro!ar )i(*tesis %e!e uti"i&arse +,- ' $o +,., au$ #ua$%o "os esti/a%ores %eri a%os %e este u"ti/o sea$ i$ses0a%os ' #o$siste$tes. DETECCION DE LA AUTOCORRELACION: ;a autocorrelacin potencialmente es un problema grave y ciertas medidas son apropiadas0 pero antes de hacer algo es esencial si existe autocorrelacin en una situacin dada. (01o#o 2ra3i!o Eecordando que el supuesto de autocorrelacin del modelo clsico se relaciona con las perturbaciones poblacionales ut, las cuales no pueden ser observadas directamente. Por lo cual disponemos de valores aproximados que pueden obtenerse a partir del procedimiento usual @4=. Pr"eba #e 4la ra!5as6 'l observar un grafico con residuales negativos posteriormente positivos y luego negativos0 si los residuales serian puramente aleatorios >seria posible observar tal patrnA Fntuitivamente parece poco probable. Esta intuicin puede verificarse mediante la llamada 7r"eba #e 4Las Ra!5as6 conocida tambi*n algunas veces como la 7r"eba #e Gear8 una prueba no

parametrica para explicar esta prueba se anotan simplemente los signos el numero de signos iguales consecutivos representan una racha y la longitud de la misma como el numero de elementos (sea K o 7). "i existe muchas rachas llamaremos autocorrelacin negativa caso contrario llamamos autocorrelacin positiva. PRUE9A # DE DUR9IN :ATSON ;a prueba mas conocida para detectar correlacion serial es la desarrollada por el estadisticos 8urbin y Latson. El cual se define %=

(u
t =1

t ='

ut . ) 1
1 t

u
t =1

t ='

que es la ra!n de la suma de las diferencias al cuadrado de residuales susecivos sobre la "E4. 'bservamos que en el numerador del estadistico d el numero de observaciones es n7. porque una observacin se pierde al obtener la diferencias consecutivas . una gran ventaja del estadistico d es que esta basado en los residuales estimados que aparecen sistemati!ados en los anlisis de regresion. 8ebido a esta ventaja es frecuente incluir al estadistico d de 8urbin Latson. En los informes de anlisis de regresion junto con otros estadisticos como el E 1 el E 1 ajustado las ra!ones etc. 'unque el estadistico d es utili!ado en forma sistemati!ada es importante anotar los supuestos en los cuales se basa: .. El modelo de regresin incluye el termino de intercepto. "i dicho termino no esta presente como es el caso de la regresin a trav*s del origen es esencial efectuar nuevamente la regresin incluyendo el termino del intercepto para obtener la "E4. 1. las variables explicativas M son no estocsticas es decir son fijas en muestreo repetido. 2. las perturbaciones u t se genera mediante el esquema autorregresivo de primer orden ut=ut-1+t /. el modelo de regresin no incluye valor re!agado de la variable independiente como una de las variables explicativas. Por tanto la prueba es inexplicable a modelos del siguiente tipo: Yt=B1+B2X2t+B3X3t+7+B8X8t+ Yt-1+ut donde Yt-1 es el valor de N re!agado un periodo. +ales modelos se conocen como modelos autorregresivos. 3. 5o hay observaciones faltantes en los datos. Por tanto en nuestra regresin de salarios productividad para el periodo .IO$7.II. si por alguna ra!n faltaran las observaciones por ejemplo para .IO2 y .IP1 el estad(stico % no permitir la ausencia de tales observaciones. El muestreo exacto o la distribucin de probabilidad del estad(stico d es dif(cil de derivar porque como la han demostrado 8urbin y Latson depende de la forma compleja de los valores presentes de M en una muestra dada. N puede ser entendida porque % es calculada a partir de ut los cuales dependen de las M dadas. ' diferencia de las pruebas t 9 o M 1 no hay un valor )nico critico que lleve al recha!o o a la aceptacin de la hiptesis nula por no haber correlacin serial de primer orden en las perturbaciones ut sin embargo 8urban y Latson tuvieron *xito al encontrar un limite inferior 9: y un limite superior 9; tales que si el valor d calculado cae por afuera de estos valores cr(ticos puede tomarse una decisin con respecto a la presencia de correlacin serial positiva o negativa. 'dems estos limites solo dependen del numero de observaciones $ y del numero de variables explicativas y no dependen de los valores qye adquieren estas variables explicativas. Estos limites para n de O

a 1$$ y hasta 1$ variables explicativas han sido tabulados por 8urbin y Latson y son reproducidos en al ap*ndice 8. El procedimento de prueba aplicado puede explicarse con la fig. siguiente la cual muestra que loos limites de d son $ y /. y pueden establecerse expandiendo. %&

1 t

+ u t1. + u t u t .

puesto que ut1 y u t1 difieren solo en una observacin estos son . 1 1 aproximadamente iguales por consiguiente haciendo u t . & u t puede escribirse como: u t u t . ) d & 1(.7 u t1 donde & significa aproximadamente. u t u t . & u t1

1 t

como el coeficiente de autocorrelacin muestral de primer orden un estimador de es posible expresar como: % = 2(1- ) pero puesto que 7.Q& Q& . implica que : $Q& % Q& / estos son los limites de d0 cualquier valor d estimado debe caer dentro de estos limites.

Eechcese 50 evidencia de auto correlacin positiva

Tona de inde7 cision 5o se rechace 50 o 50 o ambas

Tona de inde7 cision

Eechcese 50 evidencia de auto correlacin negativa

% 4- %: 4

%:

%;

4- %;

(EDIDAS RE(EDIALES Puesto que en presencia de correlacin serial los estimadores @4= son ineficientes es esencial buscar medidas rem*diales. El remedio depende del conocimiento que se tenga sobre la naturale!a de la interdependencia entre las perturbaciones. "e distinguen dos situaciones: cuando la estructura de 'utocorrelacin es conocida y cuando no lo es. C"a;#o la es1r"!1"ra #e A"1o!orrela!i<; es !o;o!i#a. Puesto que las perturbaciones ut $o so$ o!ser a!"es, la naturale!a de la correlacin serial es frecuentemente un asunto de especulacin o de exigencias practicas. En la practica usualmente se supone que las ut siguen el esquema autorregresivo de primer orden a saber: ut=ut-1+t donde RSQ.y donde las t siguen los supuestos @4= de valor esperado cero varian!a constante y 'utocorrelacin. "i suponemos la valide! de ut=ut-1+t el problemas de correlacin serial puede ser resuelto satisfactoriamente si se conoce el coeficiente de 'utocorrelacin para ver esto se tiene en cuenta al modelo con dos variables.

Yt=B1+B2Xt+ut En el tiempo t as( como tambi*n en el tiempo t7.. por lo tanto: Yt-1=B1+B2Xt-1+ut @ultiplicando por ambos lados obtenemos: Yt-1= B1+ B2Xt-1+ ut-1 y restando con la ecuacin inicial obtenemos: (Yt - Yt-1) = B1 (1- ) + B2Xt - B2Xt-1+ (ut - ut-1) & B1 (1- ) + B2 (Xt -Xt-1)+t puesto que @48 satisface todos los supuestos @4= se puede proceder a aplicar @4= sobre las variables transformadas y obtener estimadores con todas las propiedades optimas0 es decir @E;F. Eeali!ar la regresion es equivalente a utili!ar los m(nimos cuadrados generali!ando (@4G). C"a;#o ;o es !o;o!i#a 'unque la regresin en diferencias generali!adas es aplicacin sencilla esta regresin generalmente es dif(cil de efectuar en la practica porque raramente se conoce. Por consiguiente se requiere dise<ar m*todos alternativos: (01o#o #e la 7ri=era #i3ere;!ia. Puesto que se encuentra entre $ y K7. se puede partir de dos posiciones extremas. En un extremo se puede suponer que &$ es decir no hay correlacin serial y en el otro extremo se puede considerar que &K7.: una 'utocorrelacin positiva o negativa perfecta. 4uando se efect)a una regresin generalmente se supone que no hay correlacin y luego dejamos que otra prueba demuestre el supuesto.

Potrebbero piacerti anche