Sei sulla pagina 1di 28

Curso: Macroeconometria

Tema: Quiebre Estructural, procesos MA, y


ARMA

Profesor: Mg. Juan Manuel Rivas Castillo


Outline

1. Quiebre Estructural
2. MA
3. ARMA
Quiebre Estructural
Andrews, D., Zivot, E. 1992. the unit-root hypothesis.
Journal of Business and Economic Statistics 10, 251-70.
Zivot-Andrews test for sales, 1991q4-1998q2
Min breakpoint at 1997q1

-6

Breakpoint t-statistics
-6.5

-7

-7.5

-8
1990q1 1992q3 1995q1 1997q3 2000q1
t

Ho: La serie presenta una raíz unitaria con quiebre


. zandrews sales, graph

Zivot-Andrews unit root test for sales

Allowing for break in intercept

Lag selection via TTest: lags of D.sales included = 1

Minimum t-statistic -7.817 at 1997q1 (obs 29)

Critical values: 1%: -5.34 5%: -4.80 10%: -4.58

Ahora pensemos en el siguiente modelo:


Base de datos del consumo de gasolina y precios para el
periodo 1960-1995 (Fuente: Análisis Econométrico-
William Greene)

reg lngpop lnpg lnpnc lnpuc year


Source | SS df MS Number of obs = 36
-------------+------------------------------ F( 4, 31) = 140.60
Model | 2.05302888 4 .51325722 Prob > F = 0.0000
Residual | .113162165 31 .003650392 R-squared = 0.9478
-------------+------------------------------ Adj R-squared = 0.9410
Total | 2.16619104 35 .061891173 Root MSE = .06042

------------------------------------------------------------------------------
lngpop | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnpg | .0903026 .0578356 1.56 0.129 -.0276539 .208259
lnpnc | -.9537504 .226923 -4.20 0.000 -1.416563 -.490938
lnpuc | .0191098 .1463052 0.13 0.897 -.2792816 .3175013
year | .0491613 .0042717 11.51 0.000 .0404491 .0578734
_cons | -91.47425 8.400045 -10.89 0.000 -108.6063 -74.34224
------------------------------------------------------------------------------
scatter g pg, mlabel(year) c(L) lc(red)

300
1995
1994
1989 1993
1988 1990
1992
1987
1986 1991
1978
250

1977 1979 1985


1976 1984
1973 1983
1975
1972 1974 1980 1982 1981
1971
1970
200
g

1969
1968
1967
1966
1965
150

1964
1963
1962
1961
1960
100

1 2 3 4
pg
Test Cusum

El Test Cusum toma la suma acumulada de los residuos


recursivos y gráfica su valor contra una banda superior
y la banda inferior r
que son las bandas para un intervalo de confianza al 95%
(a=0.948)
tsset year, y
cusum6 lngpop lnpg lnpnc lnpuc year, cs(cusum) lw(lower) uw(upper)
CUSUM lower
upper

0 0

CUSUM

1966 1995
year

scatter cusum year, mlabel(year) || line lower year || line upper


year
20
10
1968
1967
1966 1970
19691971
1972
1973 1976
1977

0
1975
1974 1978
1979
1980
1981
1982
1983
1984
1985

-10
1986
1987
1988
1989
1990

-20
1991
1992
1993
1994
1995
-30

1960 1970 1980 1990 2000


year

CUSUM lower
upper

Para probar la significancia individual del quiebre


observado, procedemos de la siguiente forma:
reg lngpop lnpg lnpnc lnpuc year if year <1989

Source | SS df MS Number of obs = 29


-------------+------------------------------ F( 4, 24) = 269.03
Model | 1.54810955 4 .387027389 Prob > F = 0.0000
Residual | .034526393 24 .0014386 R-squared = 0.9782
-------------+------------------------------ Adj R-squared = 0.9745
Total | 1.58263595 28 .056522712 Root MSE = .03793

------------------------------------------------------------------------------
lngpop | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnpg | -.0830649 .0446494 -1.86 0.075 -.1752167 .0090868
lnpnc | -.2501158 .1752066 -1.43 0.166 -.6117246 .1114929
lnpuc | -.3365635 .1059405 -3.18 0.004 -.555214 -.1179129
year | .0600739 .0030718 19.56 0.000 .0537339 .0664139
_cons | -112.9735 6.043383 -18.69 0.000 -125.4464 -100.5006
------------------------------------------------------------------------------

reg lngpop lnpg lnpnc lnpuc year if year >=1989


Source | SS df MS Number of obs = 7
-------------+------------------------------ F( 4, 2) = 7.60
Model | .004632135 4 .001158034 Prob > F = 0.1197
Residual | .00030484 2 .00015242 R-squared = 0.9383
-------------+------------------------------ Adj R-squared = 0.8148
Total | .004936975 6 .000822829 Root MSE = .01235

------------------------------------------------------------------------------
lngpop | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
lnpg | .0732959 .1768227 0.41 0.719 -.6875109 .8341027
lnpnc | -.5156304 .523494 -0.98 0.428 -2.768043 1.736782
lnpuc | .550505 .1709171 3.22 0.084 -.184892 1.285902
year | -.0033782 .0137596 -0.25 0.829 -.0625811 .0558247
_cons | 11.96934 26.85416 0.45 0.699 -103.5748 127.5135
------------------------------------------------------------------------------
. .

. .

Ho: los coeficientes son los mismos en ambos periodos.

Test de Chow
Tests of Equality Between Sets of Coefficients in Two
Linear Regressions
Gregory C. Chow
Econometrica
Vol. 28, No. 3 (Jul., 1960), pp. 591-605

webuse income, clear


regress inc edu exp if male

Source | SS df MS Number of obs = 110


-------------+------------------------------ F( 2, 107) = 20.05
Model | 639.919043 2 319.959521 Prob > F = 0.0000
Residual | 1707.31485 107 15.9562136 R-squared = 0.2726
-------------+------------------------------ Adj R-squared = 0.2590
Total | 2347.2339 109 21.5342559 Root MSE = 3.9945

------------------------------------------------------------------------------
inc | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
edu | 1.841002 .383369 4.80 0.000 1.081018 2.600986
exp | 1.590727 .3569439 4.46 0.000 .8831278 2.298327
_cons | 1.783822 .3818906 4.67 0.000 1.026769 2.540876
------------------------------------------------------------------------------

estimates store Male

regress inc edu exp if !male

Source | SS df MS Number of obs = 167


-------------+------------------------------ F( 2, 164) = 43.30
Model | 1418.47853 2 709.239266 Prob > F = 0.0000
Residual | 2686.09306 164 16.3786162 R-squared = 0.3456
-------------+------------------------------ Adj R-squared = 0.3376
Total | 4104.57159 166 24.7263349 Root MSE = 4.0471

------------------------------------------------------------------------------
inc | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
edu | 2.475213 .3160483 7.83 0.000 1.851165 3.099261
exp | 1.354081 .3043211 4.45 0.000 .7531885 1.954974
_cons | 1.250719 .3132966 3.99 0.000 .6321043 1.869334
------------------------------------------------------------------------------

estimates store Female

suest Male Female

Simultaneous results for Male, Female

Number of obs = 277

------------------------------------------------------------------------------
| Robust
| Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
Male_mean |
edu | 1.841002 .3911029 4.71 0.000 1.074454 2.607549
exp | 1.590727 .3320187 4.79 0.000 .9399827 2.241472
_cons | 1.783822 .3829948 4.66 0.000 1.033166 2.534478
-------------+----------------------------------------------------------------
Male_lnvar |
_cons | 2.769848 .1328349 20.85 0.000 2.509497 3.0302
-------------+----------------------------------------------------------------
Female_mean |
edu | 2.475213 .3093986 8.00 0.000 1.868803 3.081623
exp | 1.354081 .2982058 4.54 0.000 .7696084 1.938554
_cons | 1.250719 .3122779 4.01 0.000 .638666 1.862773
-------------+----------------------------------------------------------------
Female_lnvar |
_cons | 2.795977 .0976384 28.64 0.000 2.604609 2.987344
------------------------------------------------------------------------------

A. Probamos si todos los coeficientes son inguales (incluido los


interceptos)

test [Male_mean = Female_mean], constant coef


( 1) [Male_mean]edu - [Female_mean]edu = 0
( 2) [Male_mean]exp - [Female_mean]exp = 0
( 3) [Male_mean]_cons - [Female_mean]_cons = 0

chi2( 3) = 2.99
Prob > chi2 = 0.3933
B. Probamos si todos los coeficientes son iguales, excepto el
intercepto

test [Male_mean = Female_mean], coef


( 1) [Male_mean]edu - [Female_mean]edu = 0
( 2) [Male_mean]exp - [Female_mean]exp = 0

chi2( 2) = 1.79
Prob > chi2 = 0.4082

Medias Móviles

Es un proceso que esta dado por:


Sea la transormaciónr de Yule Walker, se tiene que:

Ya que los momentos muestrales en un proceso MA no


dependen del tiempo este proceso es estacionario

Ejemplo: sea el siguiente proceso MA(1)


Encuentre el valor del correlograma

Sea el siguiente proceso MA

ARMA
Un proceso ARMA(p,q) incluye una parte autoregresiva
como una de medias móviles, expresándose el proceso de
la siguiente manera:

El proceso es estacionario si todas las raíces del


polinomio del rezago se encuentran fuera del círculo
unitario.

Modelos que fueron popularizados por Box and Jenkins.

El principal problema que surge es determinar los rezagos


p y q
El segundo problema es el de determinar el grado de
diferenciación de la variable a modelar para volverla
estacionaria.

Tener en cuenta_

Con un proceso MA(q) un sock en el tiempo t, no afecta


el comportamiento de la serie en periodos futuros; sin
embargo, un proceso AR(p) el efecto del shock decae
gradualmente sobre el tiempo (FAS y FAP)

Para seleccionar un modelo empleamos:

) + 2N
BIC= ) + N ln(T)

Donde N el número de parámetros empleados y T es el


número de Observaciones.

Ojo:

Los modelos ARIMA(p,d,q) ajustan un proceso


autoregresivo y de medias móviles en d diferencias.

Debemos tener en cuenta que si una serie:


 Tiene tendencia, tomaremos diferencias regulares
hasta que desaparezca.
 Es heteroscedástica, se tomaran logaritmos
 Es estacional (SARIMA), tomaremos diferencias
estacionales

Predicción
Los modelos ARMA son bastante empleados para realizar
predicciones.

El modelo se comporta mejor cuando las predicciones son


para lapsos cortos de tiempo.

Una buena predicción requiere como mínimo 50 datos (y


mucho más si tenemos datos estacionales)

Luego de haber encontrado nuestro mejor modelo ARMA


se requiere realizar predicciones dentro (in sample) y
fuera de la muestra (out sample)
Debemos tener en cuenta que el mejor predictor es aquel
que genera el menor error cuadrático medio. Para ello se
puede emplear las siguientes fórmulas:

Raíz del ECM

Error Absoluto Medio:


Media Absoluta del Porcentaje de Error:

Coeficiente de desigualdad de Theil:

(Cuando la UTHEIL es cero estamos hablando de un


ajuste perfecto)

Potrebbero piacerti anche