Sei sulla pagina 1di 140

UNIVERSIDAD NACIONAL DE PIURA

FACULTAD DE ECONOMIA
DEPARTAMENTO ACADEMICO DE ECONOMIA
CAPITULO I

MODELOS MULTIECUACIONALES

1. EVALUACIÓN DE MODELOS MULTIECUACIONALES

1.1. EXOGENEIDAD

En términos generales:

1º Variable Endógena es aquella cuyo comportamiento pretendemos estimar.

2º Variable exógena es aquella cuyos valores se toman como datos para analizar
el comportamiento de las endógenas.

Para seleccionar variables exógenas se considera el criterio siguiente:

DEPARTAMENTAL Se consideran como exógenas aquellas que están


total o parcialmente al margen del sistema (Clima,
población, política, tecnología)

CAUSAL Se consideran exógenas aquellas que no están


influidas por las endógenas.

Según Koopmans (1950) la definición estadística de exogeneidad debe ser


más estricta que la definición teórica.

DEFINICIÓN I: En un sistema con variables retardadas se considera como


estadísticamente exógenas además de las anteriores las que
cumplan las siguientes condiciones:

1º Que sólo intervengan en las ecuaciones estructurales con algún nivel de


retardo.

2º Que aún interviniendo sin ningún nivel de retardo, estás sólo dependan de
variables estrictamente exógenas o de variables retardadas.

DEFINICIÓN ESTADÍSTICA: Partimos de la definición de un sistema completo


como:

X 1t = α 11 * X 1t + α 21 * X 2 t +...+α rt * X rt + u1t
X it = α 1i * X 1t + α 2i * X 2 t +...+α ri * X rt + uit
X rt = α 1r * X 1t + α 2 r * X 2 t +...+α rr * X rt + urt
2
y presentando una función de distribución conjunta de las perturbaciones aleatorias
independiente para cada periodo t, así:

f t (u1 ,L, ui Lur )


En un sistema sin variables retardadas se considera como estadísticamente
exógenas aquellas variables cuya función de distribución es independiente de las
variables exógenas. Es decir:

1º El conjunto de variables endógenas no intervienen en las ecuaciones de las


endógenas.

2º Las funciones de distribución de las perturbaciones aleatorias son


independientes.

3º El Jacobiano del conjunto de perturbaciones aleatorias con respecto al total de


variables presenta valores nulos en las perturbaciones correspondientes a las
variables exógenas con respecto a las variables endógenas.

Por lo general, se distinguen dos conceptos de exogeneidad:

1º Predeterminación Una variable es predeterminada en una ecuación


específica si es independiente de los errores
contemporáneo y futuro en tal ecuación. Es decir:
E ( X t ut + m ) = 0 ; E ( X t ut ) = 0 ; E ( X t ut −n ) ≠ 0.

2º Exogeneidad Estricta Una variable es estrictamente exógena si es


independiente de los contemporáneo, futuro y
pasado en la ecuación relevante. Es decir:
E ( X t u t + m ) = 0 ; E ( X t ut ) = 0 ; E ( X t ut −n ) = 0.

Para explicar estos conceptos es preciso considerar un modelo con variables


rezagadas; así:
Yt = α 1 X t + β 11Yt −1 + β 12 X t −1 + u1t
X t = α 2Yt + β 21Yt −1 + β 22 X t −1 + u 2t

u1t y u2 t son mutua y serialmente independientes.

En la primera ecuación, si α 2 = 0 entonces X t está predeterminada para Yt .

Considerando la segunda ecuación, si α 2 = 0 y β 21 = 0 entonces X t es


estrictamente exógena para Yt . Si β 21 ≠ 0 entonces X t depende de u1,t1 por medio
3
de Yt −1 .

En los modelos no dinámicos y sin correlación serial en los errores, no es


necesario hacer esta distinción.

Engle, Hendry y Richard sugieren tres conceptos adicionales:

1º Exogeneidad débil.- una variable X t es débilmente exógena para estimar un


conjunto de parámetros si la inferencia sobre condicional
en X t no supone una pérdida de información. Es una
condición requerida para la estimación eficiente.

Ejemplo: Yt y X t tienen una distribución normal bivariada, existen cinco


parámetros: u1 , u 2 , σ 11 , σ 22 , σ 12 . Es posible transformarlos
mediante una transformación unívoca en (α , β , σ 2 ) y (u 2 , σ 22 ) .
Ambos conjuntos son separados, por lo tanto, para estimar
(α , β , σ 2 ) no es necesario información de (u 2 , σ 22 ) .
2º Superexogeneidad.- Si X t es débilmente exógena y los parámetros en la
distribución conjunta de Yt y X t permanecen sin cambios
ante las variaciones en la distribución marginal de X t . Es
una condición requerida para propósitos de política.

Ejemplo: Si modificamos u 22 y σ 22 (parámetros en la distribución


marginal de X t se producen cambios en (α , β , σ 2 ) , entonces no
es superexógena.

3º Exogeneidad fuerte.- Si X t es débilmente exógena y no está precedida


por ninguna de las variables endógenas del
sistema.

Ejemplo: Se tiene el modelo:


Yt = β X t + u1t
X t = α 1 X t −1 + α 2Yt −1 + u 2t

(u1t , u 2t ) se distribuye normal bivariada y son serialmente independientes,


Vat (u1t ) = σ 11 , Vat (u 2t ) = σ 22 y Covat (u1t u 2t ) = σ 12 .

Si α 12 = 0 entonces X t es débilmente exógena debido a que la


distribución marginal de X t no involucra a β ni a σ 11 .

Pero la segunda ecuación demuestra que Yt precede a X t , es decir, X t


4
depende de Yt −1 ; por lo tanto, X t no es fuertemente exógena.

La definición de Engle, Hendry y Richard es en términos de un


concepto llamado causalidad de Granger. Así:

"Si X t es débilmente exógena y no es causada en el sentido de Granger por


ninguna de las variables endógenas del sistema, entonces se define como
fuertemente exógena".

1.2. PRUEBA DE EXOGENEIDAD

El enfoque de la Fundación Cowles para ecuaciones simultáneas sostiene el


punto de vista de que no es posible probar la causalidad y la exogeneidad.

Tenemos un modelo de ecuaciones simultáneas con tres variables endógenas


Y1 , Y2 , Y3 y tres variables exógenas Z 1 , Z 2 , Z 3 .

Supongamos que la primera ecuación del modelo es:


Y1t = β 2Y2t + β 3Y3t + α 1 Z 1t + u1t

se quiere probar si es posible tratar a Y2 y Y3 como exógenas para la estimación de


esta ecuación.

Para probar esta hipótesis seguimos el siguiente procedimiento:

1º Obtenemos los valores predichos de Y2 y Y3 , a partir de las ecuaciones en la


forma reducida para estas últimas.

2º Luego se estima el modelo:


Y1t = β 2Y2 t + β 3Y3t + α 1 Z 1t + γ 2Yˆ2 t + γ 3Yˆ3t + u1t

empleando mínimos cuadrados ordinarios.

3º Se realiza la prueba de Wald para probar la hipótesis:


H0 :γ 2 = γ 3 = 0
H1 : γ 2 ≠ γ 3 ≠ 0

si se acepta la hipótesis nula entonces Y2 y Y3 si pueden tratarse como


exógenas en la estimación de la ecuación; y si se rechaza la hipótesis nula
entonces Y2 y Y3 no pueden tratarse como exógenas en la estimación de la
ecuación.

Se tiene el modelo siguiente:


5
DDt = α 1 + α 2 I t + α 3 ENCt + α 4 DDt −1 + u1t
I t = β 1 + β 2 DDt + β 3 INFt + u 2t
INFt = δ 1 + δ 2 DDt + δ 3 CIN t + u 3t

Verificaremos que las variables DD e INF se pueden tratar cono exógenas en


la segunda ecuación, se tiene el procedimiento siguiente:

1º Estimamos la forma reducida de DD e INF y obtenemos los valores predichos


estáticos de DD e INF, nos da:

Dependent Variable: DD
Method: Least Squares
Sample: 1992:02 1997:12
Included observations: 71
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 37.82578 11.54381 3.276716 0.0017
DD(-1) 0.686693 0.087386 7.858146 0.0000
ENC -0.400755 0.206661 -1.939190 0.0567
CIN 0.038788 0.010386 3.734700 0.0004
============================================================
R-squared 0.848166 Mean dependent var 207.9296
============================================================

DDF
================================================================================
Modified: 1992:02 1997:12 // frdd.fit ddf
1992:01 NA 144.7520 146.4577 147.9097 153.1752 151.2739
1992:07 155.2140 164.7869 156.9519 154.5775 156.8674 157.9472
1993:01 171.6747 164.1451 170.1863 164.5127 158.1686 153.1212
1993:07 164.9365 178.5399 164.1107 167.7566 173.7750 173.9148
1994:01 194.8023 180.7786 182.7720 188.9755 178.1305 179.3825
1994:07 185.6961 219.4566 196.9213 200.7219 201.4028 200.8673
1995:01 239.0520 215.7034 224.6584 236.4655 225.9911 219.8976
1995:07 225.4408 247.7038 230.3212 234.5356 234.8269 230.6908
1996:01 258.3213 233.7957 230.7273 237.7114 241.8207 242.2752
1996:07 236.4521 250.4778 238.3640 235.9629 235.6657 237.1514
1997:01 260.8767 241.0755 244.8116 257.7485 259.6422 261.2410
1997:07 253.4000 279.0850 267.5338 260.7541 266.3076 261.8484
================================================================================

Dependent Variable: INF


Method: Least Squares
Sample: 1992:02 1997:12
Included observations: 71
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 5.239088 0.542312 9.660657 0.0000
DD(-1) -0.019710 0.004105 -4.801078 0.0000
ENC 0.053570 0.009709 5.517762 0.0000
CIN -0.001711 0.000488 -3.507769 0.0008
============================================================
R-squared 0.687070 Mean dependent var 1.652113
============================================================
6
INFF
================================================================================
Modified: 1992:02 1997:12 // frinf.fit inff
1992:01 3.500000 4.008865 3.872067 3.424886 3.545896 3.490536
1992:07 2.875449 3.159742 3.740656 3.466783 3.676729 2.952576
1993:01 3.270704 2.953143 3.007627 3.047820 3.690561 3.643172
1993:07 2.353319 2.372938 2.984426 2.271774 2.434575 1.733955
1994:01 1.423582 1.805801 1.524053 1.334873 1.867048 1.901173
1994:07 2.005350 0.926592 1.317732 1.282110 1.420033 1.150795
1995:01 0.215221 0.944469 0.608405 0.371529 1.193807 1.102860
1995:07 1.269565 0.729651 1.096230 1.045941 1.129630 1.238353
1996:01 0.811535 1.334264 1.524015 0.831504 0.646067 0.558532
1996:07 1.241294 0.626075 1.364197 0.873296 1.130797 1.108127
1997:01 0.471394 1.091477 1.313852 0.135472 -0.091280 -0.022570
1997:07 0.575497 -0.462633 0.228249 0.256949 0.207520 0.663370
================================================================================

2º Se estima el modelo extendido, obteniéndose:


Dependent Variable: I
Method: Least Squares
Sample: 1992:02 1997:12
Included observations: 71
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 26.54475 15.14426 1.752793 0.0843
DD 0.003468 0.050426 0.068765 0.9454
INF 2.088850 1.073380 1.946050 0.0559
DDF -0.042697 0.076812 -0.555866 0.5802
INFF 2.607720 2.241078 1.163601 0.2488
============================================================
R-squared 0.525173 Mean dependent var 26.14704
============================================================

3º Realizamos la prueba de Wald para probar la hipótesis:


H0 :γ 4 = γ 5 = 0
H1 : γ 4 ≠ γ 5 ≠ 0

El Eviews da el resultado siguiente:


Wald Test:
Equation: MEI
====================================================
Null Hypothesis C(4)=0
C(5)=0
====================================================
F-statistic 2.252994 Probability 0.113108
Chi-square 4.505988 Probability 0.105084
====================================================

se realiza la comparación:
F = 2.252994 < 3.1357193449 = F(0.95, 2 , 66 )

se acepta la hipótesis nula, es decir, las variables DD e INF pueden tratarse


como exógenas en la segunda ecuación.
7

1.3. CAUSALIDAD DE GRANGER

En algunas oportunidades es importante determinar si cambios en una variable


causa cambios en otra variable.

El test de causalidad de Granger nos ayuda a determinar si de acuerdo a los


datos (no la teoría) existe una variable cuyos cambios anteceden cambios en otra
variable. Es importante que las series sean estacionarias para evitar el riesgo de
obtener relaciones espurias, y en caso de no cumplir con esta característica es
necesario aplicar alguna transformación para convertirlas en estacionarias,
asumiendo que al hacerlo se mantienen las relaciones de causalidad.

Granger se basa en la premisa de que el futuro no puede provocar el presente o


el pasado.

Si un evento A ocurre después de un evento B, se sabe que A no puede


provocar a B. Al mismo tiempo, si A ocurre antes de B, esto no necesariamente
implica que A provoque a B.

Consideremos dos series de tiempo (Yt y X t ) , la serie X t fracasa en la


causalidad de Granger de Yt si en una regresión de Yt sobre las Y rezagadas y las X
rezagadas los coeficientes de esta última son cero. Es decir, la hipótesis es:
H 0 : β i = 0(i = 1,2,..., k )
H1 : βi ≠ 0

y se estima el siguiente modelo:


k k
Yt = ∑ α i Y t − i + ∑ β i X t − i + u t
i =1 i =1
si se acepta la hipótesis nula, entonces X t fracasa en causar a Yt , siendo K arbitrario.
Si se rechaza la hipótesis nula, es decir X causa Y, entonces cambios en X deben
preceder en el tiempo a cambios en Y.

La prueba de causalidad de Granger asume que la información relevante para


la predicción de las variables Yt y X t está contenida únicamente en los datos de
series de tiempo sobre estas variables.

El test dependerá de m (el # de rezagos) y este es arbitrario, es decir uno


puede especificar el número de rezagos. Y el resultado de pronto se vería afectado.
Entonces uno debería efectuar los tests con diferentes rezagos y asegurarse que la
conclusión del test no se afecte por el número de rezagos.

Para ver lo que hace la prueba de Granger, consideremos el siguiente modelo:


8
Yt = α 1 X t + β 11Yt −1 + β 12 X t −1 + u1t
X t = α 2Yt + β 21Yt −1 + β 22 X t −1 + u 2t

escribamos la forma reducida del modelo:


Yt = π 11Yt −1 + π 12 X t −1 + v1t
X t = π 21Yt −1 + π 22 X t −1 + v 2t

para la no causalidad de Granger se requiere que π 21 = 0 . En cambio, para que X t


sea predeterminada de Yt debe cumplirse que α 2 = 0 . Para que X t sea estrictamente
exógena para Yt se requiere que α 2 = 0 y β 21 = 0 .

Sabemos que:
α 2 β 11 + β 21
π 21 =
1 − α 1α 2
entonces π 21 = 0 no implica que α 2 = 0 y β 21 = 0 . Por lo tanto, la prueba de
causalidad de Granger no equivale a la prueba de predeterminación ni a la prueba de
exogeneidad estricta.

1.4. EVALUACIÓN

Mucho de lo establecido para modelos uniecuacionales es directamente


aplicable con la inmediata generalización que supone trabajar con g ecuaciones en
lugar de con una sola.

La diferencia conceptual al analizar los errores en modelos multiecuacionales,


respecto al caso de ecuación única, reside en que ahora los errores en la variable
endógena de una ecuación no pueden asignarse directamente a un defectuoso
funcionamiento de la misma, sino que frecuentemente vendrán inducidos por errores
en otras ecuaciones conexas con la que estamos estudiando.

El proceso de evolución se realiza ecuación por ecuación y siguiendo los


mismo criterios que en la evaluación de un modelo multiecuacional; es decir, el
criterio económico, criterio estadístico y criterio econométrico.

1.4.1. CRITERIO ECONÓMICO

Consiste en contrastar si los resultados de la estimación cumplen con las


restricciones impuestas por la teoría económica.

La evaluación consiste en verificar si las categorías de signo y tamaño son los


que la teoría exige. Por lo tanto, existen sólo dos alternativas:

A.- Los parámetros estimados tengan el tamaño y el signo que la teoría señala, o
9
B.- los parámetros estimados no posean las características que la teoría espera.

Tenemos el modelo de determinación de la renta siguiente:


CPt = α 0 + α 1 PBI t + u1t
IBt = β 0 + β 1 (PBI t − PBI t −1 ) + β 2 TIBt + u 2t
PBI t = CPt + IBt + GGt

La teoría económica determina que:


0 < α1 < 1 β1 > 0 β2 < 0

Los resultados econométricos de la estimación del modelo son:

Dependent Variable: CP
Method: Two-Stage Least Squares
Sample(adjusted): 1950:2 1985:4
Included observations: 143 after adjusting endpoints
Instrument list: C PBI(-1) TIB GG
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C -142.1103 10.13736 -14.01848 0.0000
PBI 0.673290 0.004185 160.8802 0.0000
============================================================
R-squared 0.994587 Mean dependent var 1416.052
Adjusted R-squared 0.994549 S.D. dependent var 484.8804
S.E. of regression 35.79936 Sum squared resid 180704.8
F-statistic 25882.43 Durbin-Watson stat 0.165631
Prob(F-statistic) 0.000000
============================================================

Dependent Variable: IB
Method: Two-Stage Least Squares
Sample(adjusted): 1950:2 1985:4
Included observations: 143 after adjusting endpoints
Instrument list: C PBI(-1) TIB GG
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 61.22132 48.49890 1.262324 0.2089
PBI-PBI(-1) 7.496991 1.826459 4.104659 0.0001
TIB 35.78810 5.098588 7.019217 0.0000
============================================================
R-squared -1.225633 Mean dependent var 385.1077
Adjusted R-squared -1.257428 S.D. dependent var 130.6596
S.E. of regression 196.3126 Sum squared resid 5395412.
F-statistic 29.63298 Durbin-Watson stat 1.342052
Prob(F-statistic) 0.000000
============================================================

La función consumo personal presenta correcto el signo y tamaño del


parámetro, mientras la función inversión bruta presenta un signo correcto y el otro
cambiado.
10
1.4.2. CRITERIO ESTADÍSTICO (CRITERIO DE PRIMER ORDEN)

Consiste en someter a los parámetros estimados a una serie de test o exámenes


para determinar su grado de confiabilidad o certeza.

La investigación aplicada ha centrado todos estos exámenes en el uso del


siguiente procedimiento:

A.- Test o Prueba de Hipótesis: Pueden ser pruebas individuales o conjuntas,


dentro de las cuales se encuentran las pruebas de significancia. La regla de
decisión es: Si el estadístico calculado supera al valor de la tabla se rechaza la
hipótesis nula, es decir, el estadístico calculado cae en la región crítica.
B.- Test de Bondad de Ajuste: de un modelo estimado a través del coeficiente de
determinación (R2): El coeficiente de determinación nos indica la proporción
o porcentaje de variación total en la variable dependiente que ha sido
explicada por los cambios de las variables explicativas del modelo.

PRUEBA DE SIGNIFICANCIA INDIVIDUAL:

En la función de consumo personal, la propensión marginal a consumir es


significativa al 5% (0.0000); mientras que en la función de inversión bruta, el
acelerador y el coeficiente de la tasa de interés son significativos al 5 % (0.0001 y
0.0000 respectivamente).

PRUEBA DE SIGNIFICANCIA GLOBAL:

La función de consumo personal e inversión bruta en conjunto son estadísticamente


significativas al 5 % (0.000000 y 0.000000 respectivamente).

PRUEBA DE BONDAD DE AJUSTE:

En la función de consumo personal es aceptable y significa que el 99.4587 %


de la variancia del consumo personal es explicada por las variaciones del PBI y en la
función de inversión bruta no se puede interpretar el resultado porque nos sale
negativo.

TEST DE BONDAD DE AJUSTE DEL MODELO MULTIECUACIONAL

Conceptualmente, no es fácil disponer de una medida única integradora de la


bondad de un modelo multiecuacional en su conjunto. Se ha propuesto el coeficiente
de Determinación de Dhrymes, que se define:

G σ y2
R =∑R
2 2
h G
h

h =1
∑σ
h =1
2
yh
11

La crítica a este coeficiente se sustenta en que un modelo multiecuacional no


es simplemente una unión de ecuaciones individuales, sino que cobra un carácter
unitario que exige una evaluación también global.

Incluso aunque todas las ecuaciones individuales se ajusten bien a los datos y
sean estadísticamente significativos, no tendremos la garantía de que en su conjunto,
cuando sea simulado, reproduzca aquellas mismas series en forma ajustada.

En el ejemplo del modelo de determinación de la renta, el coeficiente de


determinación del modelo es positivo aunque el coeficiente de determinación de la
función de inversión bruta es negativo, el coeficiente de determinación de Dhrymes
se obtiene de la siguiente forma:

⎛ 484.88042 ⎞ ⎛ 130.6596 2 ⎞
R = 0.994587⎜⎜
2

2 ⎟
+ 1.225633⎜ 484.8804 2 + 130.6596 2 ⎟⎟

⎝ 484.8804 + 130.6596 ⎠
2
⎝ ⎠
R 2 = 0.844284

1.4.3. CRITERIO ECONOMÉTRICO (CRITERIO DE SEGUNDO ORDEN)

Corresponde a determinar si todos los supuestos del modelo se han cumplido


de manera satisfactoria. Hay que detectar si existe un alto grado de multicolinealidad,
heterocedasticidad, autocorrelación, observaciones atípicas, normalidad y estabilidad
parametrica.

MULTICOLINEALIDAD:

La multicolinealidad es una cuestión de grado, no de existencia. La decisión


importante no es entre presencia y ausencia, sino entre los distintos grados de
multicolinealidad.

La regla de Klein en su versión de correlaciones indica que existe un alto


grado de multicolinealidad si:
rX i X j > RY

donde rX i X j es el coeficiente de correlación simple entre dos regresores cualquiera y


RY es el coeficiente de correlación múltiple de la ecuación, o la raíz cuadrada de su
coeficiente de determinación. O en su versión más empleada, si al menos una
correlación entre regresores supera a una correlación de uno de los regresores con la
endógena.

La matriz de correlaciones de las variables del modelo son:


12
Correlation Matrix
================================================
PBI-PBI(-1) IB TIB
================================================
PBI-PBI(-1) 1.000000 0.210195 -0.043968
IB 0.210195 1.000000 0.821177
TIB -0.043968 0.821177 1.000000
================================================

La función de consumo personal no presenta multicolinealidad. La primera y


segunda versión de Klein no se puede aplicar para la función de inversión bruta por
tener un coeficiente de determinación negativo. La tercera versión de Klein nos
indica que existe un bajo grado de multicolinealidad.

HETEROCEDASTICIDAD:

La hipótesis nula es la existencia de homocedasticidad, es decir no existencia


de heterocedasticidad. Esta hipótesis se verificará en los siguientes tests:

1º WHITE SIMPLIFICADO.- No requiere especificar la forma que puede


adoptar la heterocedasticidad. Abrimos la estimación del modelo original
(para cada una de las ecuaciones), luego ejecutamos la siguiente instrucción:

View ⇒ Residual Tests ⇒ White Heteroskedasticity (no cross terms) y el


computador nos muestra el resultado.

En nuestro caso para la primera ecuación es:

White Heteroskedasticity Test:


============================================================
F-statistic 4.476687 Probability 0.013045
Obs*R-squared 8.595526 Probability 0.013599
============================================================

Para la segunda ecuación da:


White Heteroskedasticity Test:
============================================================
F-statistic 264.9849 Probability 0.000000
Obs*R-squared 126.5267 Probability 0.000000
============================================================

Según la probabilidad del estadístico TR2 se acepta la hipótesis


alternativa en ambos casos a un nivel de significancia del 5 %; es decir, existe
heterocedasticidad en la función de consumo personal e inversión bruta.

2º WHITE GENERAL.- No requiere especificar la forma que puede adoptar la


heterocedasticidad. Se abre la estimación del modelo original (para cada una
de las ecuaciones), luego ejecutamos la siguiente instrucción:

View ⇒ Residual Tests ⇒ White Heteroskedasticity (cross terms) y el


13
computador nos muestra para la primera ecuación:

White Heteroskedasticity Test:


============================================================
F-statistic 4.476687 Probability 0.013045
Obs*R-squared 8.595526 Probability 0.013599
============================================================

Para la segunda ecuación da:

White Heteroskedasticity Test:


============================================================
F-statistic 245.2174 Probability 0.000000
Obs*R-squared 128.6275 Probability 0.000000
============================================================

Observando la probabilidad del estadístico TR2 se acepta la hipótesis


alternativa en ambos casos a un nivel de significancia del 5 %; es decir, existe
heterocedasticidad en la función de consumo personal e inversión bruta.

3º HETEROCEDASTICIDAD CONDICIONAL AUTORREGRESIVA.- Se ha


elegido que el modelo autorregresivo de heterocedasticidad es de primer
orden. Después de abrir la estimación del modelo original ejecutamos la
siguiente instrucción:

View ⇒ Residual Tests ⇒ Arch LM Test ⇒ 1 ⇒ OK y se obtiene para la


primera ecuación:

ARCH Test:
============================================================
F-statistic 334.3676 Probability 0.000000
Obs*R-squared 100.0916 Probability 0.000000
============================================================

El resultado de la segunda ecuación es:

ARCH Test:
============================================================
F-statistic 2.054933 Probability 0.153943
Obs*R-squared 2.054138 Probability 0.151793
============================================================

Observando la probabilidad del estadístico TR2 se acepta la hipótesis


alternativa en la primera ecuación a un nivel de significancia del 1 %; es decir,
existe heterocedasticidad condicional autorregresiva de orden uno en la
función de consumo personal. En la función de inversión bruta existe
homocedatsicidad.

Ahora, se comprobará heterocedasticidad de segundo orden; siendo los


resultados de la primera ecuación:
14

ARCH Test:
============================================================
F-statistic 179.5448 Probability 0.000000
Obs*R-squared 101.8561 Probability 0.000000
============================================================

En la segunda ecuación se obtiene:

ARCH Test:
============================================================
F-statistic 6.139587 Probability 0.002790
Obs*R-squared 11.52098 Probability 0.003150
============================================================

De acuerdo a la probabilidad del estadístico TR2 se acepta la hipótesis


alternativa en ambos casos a un nivel de significancia del 1 %; es decir, existe
heterocedasticidad condicional autorregresiva de orden dos en ambas
funciones.

AUTOCORRELACION:

La hipótesis nula es la no existencia de autocorrelación de orden p, es decir


ausencia de autocorrelación de orden p. Esta hipótesis se comprobará en los
siguientes tests:

1º DURBIN - WATSON.- Comprobamos ausencia de autocorrelación de primer


orden, por lo tanto, utilizamos el estadístico Durbin-Watson que se tiene en la
estimación de la primera ecuación, luego buscamos en la tabla de Durbin -
Watson a un nivel de significancia del 5 %, la cota superior e inferior para 143
observaciones y una variable explicativa (excluyendo el intercepto); a
continuación aplicamos la regla correspondiente:

0 01
.4
165631
24 3 1{
.72 11
.2
73
46 2
DW dL dU

Como el DW es inferior a la cota inferior entonces se rechaza la


hipótesis nula, es decir, existe autocorrelación positiva de primer orden.

Para la segunda ecuación utilizamos el estadístico Durbin-Watson de la


estimación, luego buscamos en la tabla de Durbin - Watson a un nivel de
significancia del 5 %, la cota superior e inferior para 143 observaciones y dos
variables explicativas; a continuación aplicamos la regla correspondiente:

0 11
.4
342052
24 3 11
.2
706
3 1{
.76 2
DW dL dU

El valor del DW es inferior a la cota inferior entonces se rechaza la


15
hipótesis nula, es decir, existe autocorrelación positiva de primer orden.

2º BREUSCH - GODFREY (LM).- Comprobaremos que no existe


autocorrelación de primer orden. Abrimos la estimación del modelo original y
se ejecuta la siguiente instrucción:

View ⇒ Residual Tests ⇒ Serial Correlation LM Test ⇒ 1 ⇒ OK y el


EVIEWS nos muestra el siguiente resultado de la primera ecuación:

Breusch-Godfrey Serial Correlation LM Test:


============================================================
F-statistic 737.9106 Probability 0.000000
Obs*R-squared 115.9041 Probability 0.000000
============================================================

Y nos muestra el siguiente resultado para la segunda ecuación:

Breusch-Godfrey Serial Correlation LM Test:


============================================================
Obs*R-squared 15.37167 Probability 0.000088
============================================================

Según la probabilidad del estadístico TR2 se acepta la hipótesis


alternativa en ambas funciones a un nivel de significancia del 1 %; es decir,
existe autocorrelación de primer orden en la función de consumo personal y
en la función de inversión bruta.

A continuación, se verificará autocorrelación de segundo orden;


obteniéndose para la primera ecuación:

Breusch-Godfrey Serial Correlation LM Test:


============================================================
F-statistic 379.6381 Probability 0.000000
Obs*R-squared 116.7076 Probability 0.000000
============================================================

Obtenemos para la segunda ecuación:

Breusch-Godfrey Serial Correlation LM Test:


============================================================
Obs*R-squared 15.39034 Probability 0.000455
============================================================

Observando la probabilidad del estadístico TR2 se acepta la hipótesis


alternativa en ambas funciones a un nivel de significancia del 1 %; es decir,
existe autocorrelación de segundo orden en las funciones de consumo e
inversión bruta.

3º BOX – PIERCE.- Verificaremos que no existe autocorrelación de primer


orden y segundo orden. Abrimos la estimación del modelo original y se
ejecuta el siguiente comando:
16

View ⇒ Residual Tests ⇒ Correlogram –Q- Statistics ⇒ 2 ⇒ OK y el


EVIEWS y el computador nos da el siguiente resultado para la primera
ecuación:

Correlogram of Residuals
==============================================================
Sample: 1950:2 1985:4
Included observations: 143
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
.|*******| .|*******| 1 0.899 0.899 118.09 0.000
.|****** | *|. | 2 0.778-0.160 207.14 0.000
==============================================================

Se tiene:
H 0 : ρ1 = 0
H 1 : ρ1 ≠ 0

comparamos:
QBP = 143 * 0.899 2 = 115.572743 > 3.84 = χ (20.95,1)

Se rechaza la hipótesis nula al nivel de significancia del 5 %; es decir,


existe autocorrelación de primer orden en la función de consumo personal.

Para verificar segundo orden, tenemos:


H 0 : ρ1 = ρ 2 = 0
H 1 : ρ1 ≠ ρ 2 ≠ 0

calculamos:
( )
QBP = 143 * 0.899 2 + 0.778 2 = 202.128355 > 5.99 = χ (20.95, 2 )

Se rechaza la hipótesis nula al nivel de significancia del 5 %; es decir,


existe autocorrelación de segundo orden en la función de consumo personal.

A partir de la segunda ecuación se obtiene:

Correlogram of Residuals
==============================================================
Sample: 1950:2 1985:4
Included observations: 143
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
.|** | .|** | 1 0.327 0.327 15.655 0.000
.|* | .|. | 2 0.117 0.011 17.665 0.000
==============================================================
17
Se tiene:
H 0 : ρ1 = 0
H 1 : ρ1 ≠ 0

comparamos:
QBP = 143 * 0.327 2 = 15.290847 > 3.84 = χ (20.95,1)

Se rechaza la hipótesis nula al nivel de significancia del 5 %; es decir,


existe autocorrelación de primer orden en la función de inversión bruta.

Para verificar segundo orden, tenemos:


H 0 : ρ1 = ρ 2 = 0
H 1 : ρ1 ≠ ρ 2 ≠ 0

calculamos:
( )
QBP = 143 * 0.327 2 + 0.117 2 = 17.248374 > 5.99 = χ (20.95, 2 )

Se rechaza la hipótesis nula al nivel de significancia del 5 %; es decir,


existe autocorrelación de segundo orden en la función de inversión bruta.

NORMALIDAD:

Se plantea la siguiente hipótesis:


H0 : u ≈ Ν
H1 : u ≠ Ν

se utiliza el estadístico Jarque - Bera, cuya fórmula es:


N−K⎛ 2 1 2⎞
JB = ⎜ S + (K − 3) ⎟
6 ⎝ 4 ⎠

se tiene la siguiente regla de decisión:


JB < 5.99 = χ (20.95, 2 )

entonces, a un nivel de significancia del 5 % lo residuos se aproximan a una


distribución normal.

El test de normalidad lo obtenemos de la siguiente forma para la primera


ecuación:

Abris EQ1 ⇒ View ⇒ Residual Tests ⇒ Histogram-Normality Test ⇒ OK,


obteniéndose el siguiente resultado:
18

14
Series: Residuals
12 Sample 1950:2 1985:4
Observations 143
10
Mean 1.02E-12
Median -3.450644
8
Maximum 101.6454
Minimum -73.31450
6 Std. Dev. 35.67308
Skewness 0.333192
4 Kurtosis 3.135286

2 Jarque-Bera 2.754957
Probability 0.252214
0
-60 -40 -20 0 20 40 60 80 100

a un nivel de significancia del 5 % lo residuos se aproximan a una distribución


normal.

El test de normalidad se obtiene de la siguiente forma para la segunda


ecuación:

Abris EQ2 ⇒ View ⇒ Residual Tests ⇒ Histogram-Normality Test ⇒ OK,


obteniéndose el resultado siguiente:

30
Series: Residuals
Sample 1950:2 1985:4
25 Observations 143

20 Mean 4.84E-14
Median -9.054948
Maximum 764.3070
15
Minimum -643.3132
Std. Dev. 194.9253
10 Skewness 0.233754
Kurtosis 5.681904
5
Jarque-Bera 44.15825
Probability 0.000000
0
-600 -400 -200 0 200 400 600 800

entonces, a un nivel de significancia del 1 % lo residuos no se aproximan a una


distribución normal.

PRUEBA DE ESTABILIDAD DE LOS PARAMETROS:

Asumimos en el test de Chow como punto de quiebre 1995:2 y en la función


consumo personal nos da:

Chow Breakpoint Test: 1975:2


============================================================
F-statistic 74.94903 Probability 0.000000
============================================================

Observando la probabilidad, concluimos que rechazanos la hipótesis nula; es


decir, existe cambio estructural.
19

Consideramos como punto de quiebre 1980:2, en la función inversión bruta


resulta:
Chow Breakpoint Test: 1980:2
============================================================
F-statistic 0.396361 Probability 0.755822
============================================================

Observando la probabilidad, concluimos que aceptamos la hipótesis nula; es


decir, no existe cambio estructural.

2. SIMULACIÓN

Para simular los efectos de valores alternativos en diferentes variables o


parámetros, es preciso disponer de una cierta solución del modelo que la haga
factible en un contexto de simultaneidad de las diferentes ecuaciones.

La simulación más habitual es la que supone cuantificar los efectos sobre las
endógenas de valores alternativos para las variables exógenas del modelo. Si los
datos de las variables exógenas son históricos se tiene una simulación ex - post o
histórica; en cambio, si los datos de las variables exógenas son supuestos para el
futuro se trata de una simulación ex - ante.

Es posible realizar otras simulaciones que correspondan a variaciones en los


términos de error de cada ecuación (factores adicionales) o incluso retoques en
algunos de los parámetros (ajuste y afinado).

2.1. OBJETIVOS

Los objetivos de la simulación pueden ser:

1º La evaluación del modelo y la evaluación de la capacidad predictiva del


modelo.

2º La predicción, se trata de determinar los valores de las variables endógenas


del modelo en base a los valores de las variables exógenas.

3º La comparación de políticas alternativas, en base a diferentes escenarios se


puede determinar los diferentes efectos de las políticas y poder elegir la más
conveniente.

4º El análisis de las condiciones dinámicas del modelo, consiste en determinar la


estabilidad del modelo.
20

2.2. TIPOS

Se tienen los siguientes tipos de simulación:

1º Simulación Residual.- Para cada ecuación en forma aislada, se da tanto a las


exógenas como a las endógenas explicativas sus valores reales y se
comprueban los errores de cada ecuación y las identidades. Es útil realizarla
para comprobar que no existen errores de transcripción, redondeo en los
valores de los parámetros, etc., en el modelo definitivamente seleccionado. Es
decir:
yˆ 1t = α 1 + α 2 y 2t + α 3 y1t −1 + α 4 x t

2º Simulación Estática.- Se consideran valores reales en las variables


explicativas, excepto las endógenas corrientes de cada ecuación, que se
determinan por el propio modelo en forma conjunta. Sirve para un análisis del
funcionamiento período a período del modelo, puede conseguirse trabajando
simultáneamente con todas las ecuaciones, pero sin conexión dinámica.
Tenemos:
yˆ1t = α 1 + α 2 yˆ 2t + α 3 y1t −1 + α 4 xt

Resultados satisfactorios no garantizan el que el modelo no se


desestabilice o presente errores importantes después de varios periodos de
funcionamiento, ya que en este tipo de simulación, en cada nuevo periodo se
sustituyen las endógenas desplazadas por sus valores reales y no por los de
solución del modelo para periodos anteriores.

3º Simulación Dinámica.- La solución es simultánea para todas las ecuaciones y


sólo se suministra datos (reales del pasado o supuestos) para las exógenas y el
valor inicial de partida de las endógenas. Esta es la que permite contrastar la
estabilidad del modelo y la calidad de sus predicciones. Sería:
yˆ1t = α 1 + α 2 yˆ 2 t + α 3 yˆ1t −1 + α 4 xt

4º Simulación Estocástica.- Se trabaja con las distribuciones de probabilidad


tanto de los parámetros como del término de error. Nos permite establecer el
grado de incertidumbre sobre los efectos estimados de una determinada
política.

2.3. SOLUCIÓN DEL MODELO

La mayor o menor complejidad en la solución del modelo dependerá de la


propia forma en que la simultaneidad se manifieste, de la inclusión o no de
ecuaciones dinámicas, de la posible coexistencia de relaciones no lineales junto a
otras lineales y del tamaño del modelo.
21

La existencia de variables endógenas desplazadas en el modelo, la forma


reducida ya no nos permite una solución inmediata del modelo, dado que la
simultaneidad afecta también a las variables endógenas desplazadas y no de todas las
variables predeterminadas como se hace en la forma reducida.

Theil y Boot propusieron a estos efectos la denominada Forma Final del


modelo, donde las variables endógenas corrientes quedan expresadas en función de
sólo las exógenas (corrientes y desplazadas), mediante un proceso de eliminación
repetitiva de todas las variables endógenas desplazadas en la forma reducida.

La forma reducida del modelo es:


YY = ∏ X t + Vt

Descomponemos la forma reducida, considerando el desdoblamiento de ∏ de


la forma siguiente:

∏0 ⇒ término independiente.
∏0 ⇒ endógenas desplazadas.
∏0 ⇒ exógenas corrientes.
∏0 ⇒ exógenas desplazadas.

Asumimos que sólo existen variables desplazadas un período, entonces la


forma reducida se expresa:
Yt = ∏ 0 + ∏1 Yt −1 + ∏ 2 Z t + ∏ 3 Z t −1 + Vt
donde Z t sólo incluye las exógenas corrientes del modelo.

Si no existen variables desplazadas, es decir:


Yt = ∏ 0 + ∏ 2 Z t + Vt
entonces la forma final del modelo y la forma reducida del modelo coinciden.

Reemplazando Yt −1 en la forma reducida nos da:


Yt = ∏ 0 + ∏1 (∏ 0 + ∏1 Yt − 2 + ∏ 2 Z t −1 + ∏ 3 Z t − 2 + Vt −1 ) + ∏ 2 Z t + ∏ 3 Z t −1 + Vt

simplificando, tenemos:
Yt = ∏ 0 (I + ∏1 ) + ∏12 Yt −2 + ∏ 2 Z t + (∏ 2 ∏1 + ∏ 3 )Z t −1 + ∏1 ∏ 3 Z t −2 + (Vt + ∏1 Vt −1 )

Repitiendo el proceso s veces, resulta:


( )
Yt = ∏ 0 I + ∏1 + ∏12 +... + ∏1s + ∏1s +1 Yt −s −1 + ∏ 2 Z t + (∏ 2 ∏1 + ∏ 3 )Z t −1 + ... +
(∏ 2 ∏1 + ∏ 3 ) ∏1s−1 Z t −s + ∏1s ∏ 3 Z t −s−1 + (Vt + ∏1 Vt −1 + ∏12 Vt −2 + ... + ∏1s Vt −s )
22

Cuando s crece indefinidamente supondremos que ∏ 1s → 0 . Luego se anula


los coeficientes de Z t −s −1 e Yt −s −1 .

La suma de matrices del término independiente es:


S = I + ∏ 1 + ∏ 12 +... + ∏ 1s

como se trata de una progresión geométrica infinita, nos da igual:


I
= (I − ∏ 1 )
−1
lím
s →∞
S=
I − ∏1

La forma final del modelo puede resumirse:


∞ ∞
Yt = ∏ 0 (I − ∏1 ) + ∏ 2 Z t + ∑ (∏ 2 ∏1 + ∏ 3 ) ∏ Z t − r + ∑ ∏1r Vt − r
−1 r −1
1
r =1 r =1

Esta expresión recoge los siguientes efectos denominados:

1º Multiplicador de impacto.- recoge el efecto inmediato que cualquier cambio


en la variable exógena tiene sobre la variable endógena. En este modelo es
∏2.
.

2º Multiplicador dinámico.- recoge el efecto según pasa uno, dos, ... , s períodos
que cualquier cambio en la variable exógena tienen sobre la variable
endógena. En este modelo son:
(∏ 2 ∏ 1 + ∏ 3 ) ; (∏ 2 ∏ 1 + ∏ 3 ) ∏ 1 ; (∏ 2 ∏ 1 + ∏ 3 ) ∏ 12 ; ...

3º Multiplicador total a largo plazo.- viene a ser la suma de todos los


multiplicadores. Tenemos:
MLP = ∏ 2 +(∏ 2 ∏1 + ∏ 3 ) + (∏ 2 ∏1 + ∏ 3 )∏1 +(∏ 2 ∏1 + ∏ 3 )∏12 +...

sacando factor común, nos queda:


(
MLP = ∏ 2 + (∏ 2 ∏1 + ∏ 3 ) I + ∏1 + ∏12 +... )
reemplazando la suma del término independiente da:
MLP = ∏ 2 + (∏ 2 ∏1 + ∏ 3 )(I − ∏1 )
−1

simplificando tenemos:
MLP = (∏ 2 + ∏ 3 )(I − ∏ 1 )
−1
23

En caso de trabajar con variaciones en porcentaje tanto de las variables


exógenas como de las variables endógenas, podemos hablar en forma equivalente de
elasticidad impacto, elasticidad dinámica y elasticidad total a largo plazo.

Si no existen variables rezagadas (endógenas y exógenas), los coeficientes de


la forma reducida son directamente los multiplicadores de impacto y son los únicos
multiplicadores en el tiempo y coinciden con los multiplicadores totales.

En modelos que incluyen relaciones no lineales o son de un tamaño que


resulta incómodo seguir todo este proceso y se busca una solución al modelo
mediante algún algoritmo de resolución por tanteo de sistema de ecuaciones,
frecuentemente alguna variante del algoritmo de Gauss - Seidel.

2.4. CONDICIONES DE ESTABILIDAD DE UN MODELO DINÁMICO

Para poder alcanzar la forma final es necesario que se cumplan ciertas


condiciones de convergencia en relación con las matrices de parámetros de las
endógenas desplazadas.

La estabilidad del modelo la entendemos en el sentido de que tienda a una


nueva solución de equilibrio después de que se haya provocado un cambio inicial en
uno o varios de los valores de las exógenas.

Para el caso de un modelo de G ecuaciones simultáneas con variables


endógenas retardadas hasta s periodos, podríamos expresar el conjunto de ecuaciones
dinámicas fundamentales como una ecuación en diferencias vectoriales con
coeficientes consistentes del tipo:
A0 YT′ + A1YT′−1 + A2 YT′− 2 + ..... + AS YT′− S = G (t )

donde,

Yt′−r ⇒ vector de las variables endógenas (1xG) que se han transpuesto a


efectos de post multiplicar la matriz de coeficientes.

Ar ⇒ matriz de los coeficientes de todas las variables endógenas (GxG) para


cada retardo establecido r ( r = 0, 1, .., s) en las diferentes ecuaciones
del modelo.

G (t ) ⇒ incluye a todas las variables exógenas desplazadas, corrientes y


término de error para las G ecuaciones.

Dhrymes comprobó que la ecuación en diferencias vectoriales de orden s


puede reducirse a una de sólo primer orden; por lo tanto:
Yt − AYt −1 = 0
24

la solución de prueba es:


Yt = cλt

donde,

c ⇒ vector de G componentes.
λ ⇒ escalar.

Sustituyendo la solución de prueba en la ecuación en diferencias vectoriales


de primer orden, da:
cλt − Acλt −1 = 0
(λI − A)cλt −1 = 0
La solución trivial es:
λ t −1 = 0 ⇒ Yt = 0

nos exige resolver:


(λI − A)c = 0
la resolución de esta ecuación supone el cálculo del vector c y la raíz característica 8,
siendo precisamente λI − A = 0 la ecuación característica.

Para el conjunto de los G pares de raíces características y vectores


característicos asociados (λ h , c h ) de A, puede establecerse la solución general de la
parte homogénea como:
G
Yt = ∑ d h c h λth
H

h =1

donde,
dh ⇒ debe cumplir el conjunto de condiciones iniciales.

También se puede expresar:


⎡λ1t 0 ... 0 ⎤ ⎡ d1 ⎤
⎢ ⎥⎢ ⎥
0 λt2 ... 0 ⎥ ⎢ d 2 ⎥
Yt H = CA′d = [c1 c2 ... cG ]⎢
⎢ ... ... ... ... ⎥ ⎢ ... ⎥
⎢ ⎥⎢ ⎥
⎢⎣ 0 0 ... λtG ⎥⎦ ⎣d G ⎦
25

Si la condición inicial es Y0 = Y0 , reemplazando en la expresión anterior nos


da:
Y0 = CA 0 d = Cd ⇒ d = C −1Y0

si es que C es no singular.

La solución particular se obtiene de sustituir el valor de d en la expresión


anterior, resultando:
Yt H = CA t C −1Y0

cuyo límite, cuando t tiende a infinito, se anulará siempre que las raíces
características sean en valor absoluto inferiores a la unidad; es decir:
λh < 1 h = 1,2,..., G

2.5. EJEMPLO

Consideremos el modelo de determinación de la renta:


CPt = α 0 + α 1 PBI t + u1t
IBt = β 0 + β 1 (PBI t − PBI t −1 ) + β 2 TIBt + u 2t
PBI t = CPt + IBt + GGt

Calculemos la forma reducida del modelo:


−1
⎡ 1 0 − 0.673290⎤ ⎡− 142.1103 0 0 0⎤
FR = ⎢⎢ 0 1 − 7.496991⎥⎥ ⎢ 61.22132 − 7.496991 35.78810 0⎥
⎢ ⎥
⎢⎣− 1 − 1 1 ⎥⎦ ⎢⎣ 0 0 0 1⎥⎦

la forma reducida nos da:


⎡− 134.5148 0.703968 − 3.360504 − 0.093900⎤
FR = ⎢⎢ 145.7960 0.341597 − 1.630667 − 1.045565 ⎥⎥
⎢⎣ 11.28115 1.045565 − 4.991170 − 1.039465 ⎥⎦

Derivemos la forma final de la función consumo personal, se parte de la forma


reducida siguiente:
CPt = π 1 + π 2 PBI t −1 + π 3TIBt + π 4 GGt + v1t
IBt = π 5 + π 6 PBI t −1 + π 7TIBt + π 8 GGt + v2t
PBI t = π 9 + π 10 PBI t −1 + π 11TIBt + π 12 GGt + v3t
26

en la función consumo personal sustituimos la variable endógena rezagada por su


correspondiente forma reducida, así:
CPt = π 1 + π 2 (π 9 + π 10 PBI t −2 + π 11TIBt −1 + π 12 GGt −1 + v3t −1 ) + π 3TIBt + π 4 GGt + v1t

nos queda:
CPt = π 1 + π 2π 9 + π 2π 10 PBI t −2 + π 3TIBt + π 2π 11TIBt −1 + π 4 GGt + π 2π 12 GGt −1 + v1t + π 2 v3t −1

Realizamos la segunda sustitución, resultando:


CPt = π 1 + π 2π 9 + π 2π 10 (π 9 + π 10 PBI t −3 + π 11TIBt −2 + π 12 GGt − 2 + v3t − 2 ) + π 3TIBt
+ π 2π 11TIBt −1 + π 4 GGt + π 2π 12 GGt −1 + v1t + π 2 v3t −1

CPt = (π 1 + π 2π 9 + π 2π 10π 9 ) + π 2π 102 PBI t −3 + π 3TIBt + π 2π 11TIBt −1 + π 2π 10π 11TIBt −2


+ π 4 GGt + π 2π 12 GGt −1 + π 2π 10π 12 GGt −2 + (v1t + π 2 v3t −1 + π 2π 10 v3t − 2 )

Generalizando a l sustituciones:
l l
CPt = (π 1 + π 2π 9 ∑ π 10 ) + π 2π PBI t −l −1 + π 3TIBt + π 2π 11 ∑ π 10i −1TIBt −i + π 4 GGt
i −1 l
10
i =1 i =1
l l
+ π 2π 12 ∑ π 10i −1GGt −i + (v1t + π 2 ∑ π 10i −1v3t −l )
i =1 i =1

Si π 10 < 1 entonces la forma final de la función consumo personal es:


π 2π 9 ∞ ∞ ∞
CPt = (π 1 + ) + π 3TIBt + π 2π 11 ∑ π i −1TIBt −i + π 4 GGt + π 2π 12 ∑ π i −1GGt −i + (v1t + π 2 ∑ π i −1v3t −l )
1 − π 10 i =1
10
i =1
10
i =1
10

para nuestro caso no se tiene forma final de la función de consumo personal porque
no se cumple la condición.

Calculemos los multiplicadores de impacto:


MITIB = π 3 = −3.360504
MIGG = π 4 = −0.093900

Obtengamos los multiplicadores dinámicos:


MD1RIB = π 2 π 11 = 0.703968(4.99117) = −3.513624
MD2 RIB = π 2 π 11π 10 = 0.703968(4.99117)(1.045565) = −3.673722
.......
MD1RGG = π 2 π 12 = 0.703968(−0.139465) = −0.098179
MD2 RGG = π 2 π 12 π 10 = 0.703968(−0.139465)(1.045565) = −0.102652
........
27

Por último, calculamos lo multiplicadores totales, a saber:


MTIB = π 3 + π 2π 11 + π 2π 11π 10 + π 2π 11π 102 + ... = π 3 + π 2π 11 (1 + π 10 + π 102 + ...) = ∞
MTGG = π 4 + π 2π 12 + π 2π 12π 10 + π 2π 12π 102 + ... = π 4 + π 2π 12 (1 + π 10 + π 102 + ...) = ∞

Deduciremos la condición de estabilidad del modelo:

⎡1 0 0⎤ ⎡ CPt ⎤ ⎡0 0 π 2 ⎤ ⎡ CPt −1 ⎤ ⎡ π 1 + π 3TIBt + π 4 GGt + v1t ⎤


⎢0 1 0⎥ ⎢ IB ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ ⎥⎢ t ⎥ − ⎢0 0 π 6 ⎥ ⎢ IBt −1 ⎥ = ⎢ π 3 + π 7TIBt + π 8GGt + v2t ⎥
⎢⎣0 0 1⎥⎦ ⎢⎣ PBI ⎥ ⎢⎣0 0 π 10 ⎥⎦ ⎢⎣ PBI t −1 ⎥⎦ ⎢⎣π 1 + π 11TIBt + π 124 GGt + v3t ⎥⎦
⎦ 142
14243 4 434 144444244444 3
I A 0

aplicando la ecuación característica, tenemos:


⎡1 0 0 ⎤ ⎡0 0 π 2 ⎤
⎢0 1 0 ⎥ λ − ⎢0 0 π ⎥ = 0
⎢ ⎥ ⎢ 6 ⎥

⎢⎣0 0 1⎥⎦ ⎢⎣0 0 π 10 ⎥⎦


λ 0 −π2
0 λ −π6 =0
0 0 λ − π 10
λ2 (λ − π 10 ) = 0

se obtienen las raíces características siguientes:


λ2 = 0 ⇒ λ1 = λ2 = 0
λ − π 10 = 0 ⇒ λ3 = π 10

para que el modelo sea estable debe cumplirse que λ i < 1 . En el modelo de la
determinación de la renta no se cumple porque π 10 > 1 , por lo tanto el modelo no es
estable.

El procedimiento para realizar simulación en Eviews es el siguiente:

1º La estimación del modelo tiene que realizarse mediante un sistema de


ecuaciones; es decir debe tener un icono con el nombre de SYS1.

2º Se tiene que crear un modelo siguiendo los siguientes pasos:

Abrir SYS1 ⇒ Procs ⇒ Make Model ⇒ y el computador nos muestra el


modelo con el valor de los coeficientes estimados ⇒ Name ⇒ aparece
28

Model1 ⇒ OK.

3º El Eviews realiza las siguientes simulaciones, a saber:

1.- Estructural (Structural), considera el modelo original excluyendo los


términos autoregresivos y de promedio móvil, si el modelo los tiene en
su especificación.

2.- Predicción (Fit each equation), es una simulación estática y


considerando que cada ecuación actúa sola, es decir, como si se trata de
un modelo uniecuacional.

3.- Simulación Estática (Static Solution), de acuerdo a la definición que se


realizó antes.

4.- Simulación dinámica (Dynamic Solution), conforme al concepto


desarrollado anteriormente.

Las instrucciones que se siguen para realizar la simulación son:

Abrir Model1 ⇒ Procs ⇒ Solve ⇒ hay que elegir el tipo de simulación y el


rango de la simulación ⇒ Name ⇒ aparece en la ventana de trabajo un
icono con el nombre de la variables endógena agregándole la letra F.

Simularemos para le periodo 1997:07 – 1997:12 en el modelo siguiente:


DDt = α 1 + α 2 I t + α 3 ENCt + α 4 DDt −1 + u1t
I t = β 1 + β 2 DDt + β 3 INFt + u 2t
INFt = δ 1 + δ 2 DDt + δ 3 CIN t + u 3t

se abre el sistema y se genera en eviews el modelo siguiente:

ASSIGN @ALL F1
DD=160.6313558-2.403032846*I+0.1805237945*ENC+0.4840412947*DD(-1)
I=30.60088905-0.05913999321*DD+4.50263825*INF
INF=7.828404177-0.03281394227*DD+0.0004975424753*CIN

solucionamos el modelo para el periodo 1997:07 – 1997:12 y el eviews nos da:


=================================================
obs DDF1 IF1 INFF1
=================================================
1997:07 242.0579 20.00421 0.825882
1997:08 237.2451 21.15004 1.017152
1997:09 235.8924 21.34454 1.042580
1997:10 233.0783 21.96511 1.143442
1997:11 231.3531 22.30405 1.196059
1997:12 232.2516 22.21368 1.187791
=================================================
29

2.6. CRITERIOS PARA EVALUAR LA CAPACIDAD PREDICTIVA DE UN


MODELO

El poder predictivo de un modelo se evalúa de distintas formas, a saber:

1º GRÁFICA

La más simple es comparar los valores reales que se producen en el


futuro con los que fueron estimados con el modelo. De forma gráfica se
presentan estas parejas de puntos (Y$F , YF ) en el diagrama predicción
realización.
ìf

ìf = Yf

Yf

Los puntos situados sobre la bisectriz de los cuadrantes 1 y 3


corresponden a predicciones perfectas; aquellos puntos del primer cuadrante
situados por debajo de esta recta corresponden a predicciones superiores a los
valores verdaderos, y los que aparecen encima, a predicciones por debajo de
los valores reales.

2º COEFICIENTE DE JANUS

Este coeficiente se define:

1 T+H
∑ ( )
2
Yf − Y$f
H f = T +1 S 2f
J2 = =
1 T S e$2

T t =1
( Yt − Y$t )
2

comparando el poder predictivo del modelo con el ajuste, ya que el


denominador es la varianza residual. Si el poder predictivo se conserva como
en el pasado será J = 1 , y si aumenta será J < 1 ; un valor ó J > 1 ,
2 2 2
30

indica pérdida de poder adquisitivo.

3º RAÍZ DEL ERROR CUADRÁTICO MEDIO (RECM)

Se define como:

1 T+ H 2
RECM = ∑ e$
H t = T +1 t

Tiene las mismas unidades de medición que las series reportadas. La


función de pérdida implícita con el RCEM es cuadrática, entonces la pérdida
asociada con un error aumenta en proporción con el cuadrado del error.

La desventaja de esta medida es que es una medición absoluta, que


depende de las unidades de medida.

4º ERROR ABSOLUTO MEDIO (EMA)

Se define como:

T+ H

∑ e$t
t = T +1
EMA =
H
Esta medida es apropiada siempre que la función de pérdida es
lineal y simétrica

5º MEDIA DEL VALOR ABSOLUTO DEL ERROR PORCENTUAL (EPMA)

Se define como:

1 T + H e$t
EPMA = ∑
H t = T +1 Yt

Es similar al EMA, excepto que es una medida relativa. Presenta un


sesgo que favorece a los pronósticos que se encuentran por debajo de los
valores reportados.

Indica qué proporción del error verdadero estimado es error de


predicción.
31

6º RAÍZ CUADRADA RELATIVA DEL ERROR MEDIO (RCREM)

Se define como:

1 T + H e$t2
RCREM = ∑
H t = T +1 Yt

Es similar a RECM, excepto que es adimensional. Presenta un sesgo


que favorece a los pronósticos que se encuentran por debajo del valor
reportado. Considerar el resultado satisfactorio si tiene un valor inferior a tres.

7º COEFICIENTE DE DESIGUALDAD DE THEIL

Denominado U de Theil (1961), se define:

1 T+H
∑ (Yt − Y$t ) 2
H t = T +1
U=
1 T+ H $ 2 1 T+H 2
∑Y +
H t = T +1 t
∑Y
H t = T +1 t

no está influenciado por problemas de escala. U oscila entre 0 y 1.

Si U tiende a cero, el modelo puede ser utilizado para predecir dado


que sus pronósticos serán fiables.

Si U tiende a uno, el modelo no sirve para predecir sus pronósticos no


son reales.

El U de Theil se descompone:

SESGO + VARIANZA + COVARIANZA = 1

1º Sesgo (Bias Proportion) indica la presencia de algún error


sistemático. El sesgo debe ser cero,
en caso contrario el pronóstico no es
el más confiable.

2º Varianza(Variance Proportion) indica la habilidad del pronóstico


para replicar el comportamiento de
la variable real observada. Si esta
proporción es grande significa que el
modelo posee menor capacidad para
replicar el comportamiento de la
32

serie.

3º Covarianza (Covariance Proportion) si esta medida es alta significa


que el modelo predice bien,
pues el error de la predicción
se haría pequeño.

Si alguna o varias ecuaciones estructurales no son identificables, y por lo tanto


no se estiman, para realizar predicciones de las G variables endógenas se sustituyen
las ecuaciones no identificables por las estimaciones de las correspondientes
ecuaciones reducidas.

Para la evaluación de la capacidad predictiva del modelo tenemos:

GRÁFICA

300 23.0

22.5
280
22.0

21.5
260
21.0

20.5
240

20.0

220 19.5
97:07 97:08 97:09 97:10 97:11 97:12 97:07 97:08 97:09 97:10 97:11 97:12

DD DDF1 I IF1

300
1.4

1.2
280
1.0
DDF1

0.8 260

0.6

0.4 240

0.2
220
0.0 220 240 260 280 300
97:07 97:08 97:09 97:10 97:11 97:12

INF INFF1 DD
33

23
1.2

1.0
22
0.8

INFF1
21
IF1

0.6

0.4
20
0.2

19 0.0
19 20 21 22 23 0.0 0.2 0.4 0.6 0.8 1.0 1.2

I INF

Los gráficos nos sugieren que hay mejor predicción en la variable I, luego en la
variable DD y por último en la variable INF.

ESTADÍSTICOS

En eviews se sigue las instrucciones siguientes:

1º COEFICIENTE DE JANUS.-

SMPL 1997:07 1997:12


SCALAR NDD = @SUMSQ(DD-DDF1)/6 = 1223.18519502
SCALAR NI = @SUMSQ(I-IF1)/6 = 0.191246394734
SCALAR NINF = @SUMSQ(INF-INFF1)/6 = 0.609459872245

SMPL 1992:02 1997:06


SCALAR DDD = @SUMSQ(DD-DDF)/65 = 2285.10304411
SCALAR DI = @SUMSQ(I-IF)/65 = 122.82160389
SCALAR DINF = @SUMSQ(INF-INFF)/65 = 2.49422475826

SCALAR J2DD = NDD/DDD = 0.535286668219


SCALAR J2I = NI/DI = 0.00155710712674
SCALAR J2INF = NINF/DINF = 0.24434841737

SMPL 1997:07 1997:12

El modelo predice bien porque los coeficientes Janus son menores a 1.

2º ERROR ABSOLUTO MEDIO.-

GENR EMADD = @SUM(ABS(DD-DDF1))/6 = 31.68694


GENR EMAI = @SUM(ABS(I-IF1))/6 = 0.367363
34

GENR EMAINF = @SUM(ABS(INF-INFF1))/6 = 0.702151

3º MEDIA DEL VALOR ABSOLUTO DEL ERROR PORCENTUAL.-

GENR EPMADD = @SUM(ABS(DD-DDF1)/DD)/6 = 0.116265


GENR EPMAI = @SUM(ABS(I-IF1)/I)/6 = 0.017210
GENR EPMAINF = @SUM(ABS(INF-INFF1)/I)/6 = 3.875138

El modelo para las variables DD e I predice bien porque los estadísticos son
pequeños.

4º RAIZ CUADRADA RELATIVA DEL ERROR MEDIO.-

GENR RCREMDD = SQR(@SUM((DD-DDF1)^2/DD)/6) = 2.091169


GENR RCREMI = SQR(@SUM((I-IF1)^2/I)/6) = 0.094746
GENR RCREMINF = SQR(@SUM((INF-INFF1)^2/I)/6) = 1.924288

El modelo predice bien porque los estadísticos son menores a 3.

5º RAIZ DEL ERROR CUADRATICO MEDIO

GENR RECMDD = SQR(@SUMSQ(DD-DDF1)/6) = 34.97406


GENR RECMI = SQR(@SUMSQ(I-IF1)/6) = 0.437317
GENR RECMINF = SQR(@SUMSQ(INF-INFF1)/6) = 0.780679

6º COEFICIENTE DE DESIGUALDAD DE THEIL

GENR UDD = SQR(@SUMSQ(DD-DDF1)/6) / (SQR(@SUMSQ(DD)/6) +


SQR(@SUMSQ(DDF1)/6)) = 0.069569

GENR UI = SQR(@SUMSQ(I-IF1)/6) / (SQR(@SUMSQ(I)/6) +


SQR(@SUMSQ(IF1)/6)) = 0.010225

GENR UINF = SQR(@SUMSQ(INF-IINFF1)/6) / (SQR(@SUMSQ(INF)/6)


+ SQR(@SUMSQ(INFF1)/6)) = 0.513630

El modelo predice bien para las variables DD e I porque los estadísticos son
menores a 0.10.
CAPITULO II

SERIES DE TIEMPO

1º INTRODUCCIÓN

La mayoría de las empresas y agentes económicos precisan realizar


predicciones sobre el comportamiento de su evolución y del entorno donde actúan.

Estas predicciones se utilizan para tomar decisiones operativas y, a veces,


estratégicas.

El conocimiento de acontecimientos futuros estará obviamente afectado de un


alto grado de incertidumbre, lo que implica la utilización de probabilidades asociadas
al proceso de predicción, y de modelos estadísticos y econométricos.

1.1. REGRESIÓN ESPURIA

Este problema surge porque si las dos series de tiempo involucradas presentan
tendencias fuertes (movimientos sostenidos hacia arriba o hacia abajo), el alto R2
observado se debe a la presencia de la tendencia y no a la verdadera relación entre las
dos. Por consiguiente es muy importante averiguar si la relación entre las variables
económicas es verdadera o es espuria.

Como lo han sugerido Granger y Newbold : una buena regla práctica para
sospechar que la regresión estimada sufre de regresión espuria es que R2 > D-W.

Cuando las series de tiempo son no estacionarias, no se debe depender de los


valores "t" estimados. Si las series de tiempo están cointegradas, entonces los
resultados de la regresión estimada pueden no ser espurios y las pruebas "t" y "F"
usuales son válidas. Como lo afirma Granger: "Una prueba de cointegración puede ser
considerada como una prueba previa para evitar situaciones de regresión espuria".

Por ejemplo: Se tiene las series anuales (1936-1972) del PNB nominal en
Estados Unidos (datos en miles de millones de dólares), y de la Incidencia del
melanoma en la población masculina (datos ajustados de edad) en el estado de
Connecticut. 800

6 700
5
600
800
4
500
GNP

600 3
400
2
400 300
1
200
200 0
100
0 1 2 3 4 5 6
0
1940 1945 1950 1955 1960 1965 1970 MELANOMA

GNP MELANOMA

Observando los gráficos, ambas series mantienen una relación lineal.


Conceptualmente resulta absurdo relacionarlas.

Dependent Variable: GNP


Method: Least Squares
Simple: 1936 1972
Included observations: 37

Variable Coefficient Std. Error t-Statistic Prob.

C 118.5659 23.72897 4.996675 0.0000


MELAMONA 118.9808 7.814147 15.22633 0.0000

R-squared 0.868836 Mean dependent var 443.6730


Adjusted R-squared 0.865088 S.D. dependent var 171.4417
Log likelihood -204.7517 F-statistic 231.8413
Durbin-Watson stat 0.879122 Prob(F-statistic) 0.000000

La estimación de una regresión en donde el PNB actúa como variable endógena


y la incidencia de melanoma como variable explicativa nos muestra que:
* Todos los coeficientes son estadísticamente significativos, y el R2 (86.7%) es
muy elevado.
* El coeficiente estimado implica que, si aumentara la incidencia de melanoma en
un caso, cabría esperar un aumento del PNB de 119.000 millones de dólares.

Si relacionamos las variables en primeras diferencias, la tendencia suele


desaparecer y, con ella, la relación espúrea.
60

60
40
40
20 20
D(GNP)

2.0 0
0
1.5 -20
-40 -20
1.0
-60
-40
0.5

0.0 -60
-0.5 0.0 0.5 1.0 1.5 2.0
-0.5
D(MELAMONA)
1940 1945 1950 1955 1960 1965 1970

D(MELANOMA) D(GNP)

Dependent Variable: D(GNP)


Method: Least Squares
Sample (adjusted): 1937 1972
Included observations: 36 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 16.56841 3.179332 5.211287 0.0000


D(MELAMONA) 0.706295 6.585765 0.107246 0.9152

R-squared 0.000338 Mean dependent var 16.65278


Log likelihood -155.0594 F-statistic 0.011502
Durbin-Watson stat 1.262415 Prob(F-statistic) 0.915224
Consecuentemente, la relación de regresión entre las variables transformadas no
resulta significativa

1.2. TIPOS DE PREDICCIONES

Según el horizonte de predicción se clasifican:

1º Inmediato, hasta 3 mese, para decisiones operativas, control presupuestario. Por


ejemplo: gestión de inventarios en establecimientos detallistas.

2º Corto Plazo de 3 a 12 meses, para tomar las decisiones operativas, control


presupuestario o decisiones de compra. Por ejemplo: Compra de bienes de
temporada para venta al por menor.

3º Medio Plazo, comprendidas entre 1 y 3 años, para las decisiones estratégicas.


Por ejemplo: Leasing de plantas y equipos, formación de empleados para
nuevos procesos.

4º Largo Plazo, de 3 a 10 años, para las decisiones estratégicas incluyendo las de


expansión. Por ejemplo: investigación y desarrollo, compra de activos,
adquisiciones y absorciones.

5º Muy Largo Plazo, mayor a 10 años, para las decisiones estratégicas incluyendo
aquellas de cambio de las características principales de la empresa. Por
ejemplo: predicción tecnológica en apoyo de investigación y desarrollo y
planificación estratégica.

1.3. CLASIFICACIÓN DE LAS TÉCNICAS DE PREVISIÓN

1º Históricas, la evolución de una magnitud tiene inercia temporal, lo que permite


construir un modelo basado en el análisis de series temporales.

2º Causales, se basa en la interrelación entre varias variables; en un modelo


econométrico o en un modelo de variables latentes, algunas magnitudes son
causa de las variaciones de otras, y se pueden usar como predictores.

3º Otros, como las encuestas de opinión a expertos, método Delphi, previsiones


por consumo y otras técnicas subjetivas.

1.4. TIPO DE PREVISIÓN DE LOS MODELOS

Según a las situaciones a las que se aplican tenemos:

1º Medios Escasos:

Corto Plazo.- La técnica de alisado exponencial, Medias móviles, Modelos


Naïve y Desestacionalización.
Medio Plazo.- Ajuste de tendencia.
Largo plazo.- Curva en S.

2º Medios Normales:

Corto Plazo.- ARIMA univariante, análisis de intervención, X-11 ARIMA y


Funciones de transferencia.
Medio Plazo.- Modelos econométricos uniecuacionales, modelos
econométricos de pequeño tamaño y Modelos VAR.
Largo plazo.- Modelos con cambio estructural.

3º Medios Altamente Profesionalizados:

Corto Plazo.- Análisis espectral, Modelos dinámicos y Filtros.


Medio Plazo.- Modelos multiecuacionales de gran tamaño, Simulación y
Input/Output.
Largo plazo.- Modelos con cambio estructural y Escenarios.

1.5. ANÁLISIS DE SERIES TEMPORALES

Una serie temporal está formada por un conjunto de observaciones medidas a


lo largo del tiempo. Es frecuente que se observen varias magnitudes simultáneamente,
en cuyo caso se tiene una serie temporal multivariante.

1.6. OBJETIVO DEL ANÁLISIS DE UNA SERIE TEMPORAL

El objetivo básico perseguido al realizar el análisis de una serie temporal es la


predicción, es decir, la extrapolación de valores futuros de la serie a partir de los datos
disponibles.

Otro objetivo es la modelización, o conocimiento de la estructura temporal del


proceso generador de los datos.

Un último objetivo es la actuación externa o control, sobre el sistema a partir de


las predicciones sucesivas (éste es el caso típico de un proceso de control de calidad
industrial o de servicios).

1.7. FORMAS DE ANÁLISIS DE UNA SERIE TEMPORAL

Una serie temporal se puede analizar:

1º En el dominio del tiempo, consiste en construir un modelo econométrico


dependiente del tiempo.

2º En el dominio de las frecuencias, o análisis espectral, trata sobre la detección


de posibles componentes cíclicos y de la aportación que realizan las distintas
frecuencias en la variabilidad de la serie. El análisis espectral no persigue la
construcción de modelos de predicción, sino simplemente investigar la
estructura interna del proceso estocástico generador de una serie.
1.8. MÉTODOS USADOS EN EL DOMINIO DEL TIEMPO

El análisis en el dominio temporal se realiza generalmente usando dos tipos de


técnicas:

1º Los métodos clásicos, como los de regresión, alisado exponencial, o medias


móviles, empleados si el número de observaciones es pequeño (hasta 40).

2º Los métodos de Box y Jenkins o utilización de modelos ARIMA, si se dispone


de suficiente material estadístico. Existen otros modelos derivados o
relacionados con esta metodología.

1.9. TIPOS DE MODELOS DE SERIES TEMPORALES

En el enfoque inicialmente propuesto por Box y Jenkins, se suelen dividir cinco


clases de modelos con un grado creciente de complejidad y que pueden denominarse:

1º Univariante,

Se enlaza con la más clásica tradición de tratamiento aislado de una


serie temporal, cuya evolución se explica por los valores pasados de dicha serie
y un cierto término de error. Es decir:

Φ ( Β )Yt = Θ ( Β ) ut

2º Función de transferencia,

La función de transferencia del filtro es el cociente de los dos


polinomiales de retardos definidos, , de la siguiente forma:
Θ (Β )
Φ (Β )

Θ (Β )
Yt = u
Φ (Β ) t
Con los mismos polinomiales de retardos definidos, de orden p y q,
entonces puede definirse el modelo (simple) de función de transferencia, con
ruido, como:
K ω j (Β ) Θ (Β )
Yt = ∑j =1 δ ( Β ) jt Φ ( Β ) ut
X +
j

donde Yt puede interpretarse, a su vez, como la salida de dos filtros lineales,


uno sobre la variable de input y otro sobre la componente de ruido.
Generalizando al caso de más de una variable explicativa, con K
cocientes distintos de polinomiales de retardos, uno por cada input; es:

ω (Β ) Θ (Β )
Yt = Xt + u
δ (Β ) Φ (Β ) t

3º Intervención,

Cuando en el modelo de función de transferencia las variables X jt son


ficticias.

4º Multivariantes,

Se trata de modelos de varias variables de salida, considerando que


todos los polinomiales pueden ser distintos (tanto en orden como en valor de
H ( Β ) Z t = F ( Β )U t
los parámetros) la expresión formal matricial condensada es:
representando m ecuaciones en retardos sobre las m series temporales con
retardos también en m variables de error.

Puede considerarse que los polinomiales en posiciones de diagonal


principal comienzan con la unidad, mientras que los restantes comienzan con
una potencia de Β ; entonces cada uno de las ecuaciones se entiende que
.
explica el comportamiento de cada una de las variables Z jt

5º Funciones de transferencia mutlivariante,

Obtenido como generalización del modelo de función de transferencia


para un output único.

Una posible expresión consiste en definir, para K variables de input


(exógenas) y G variables output (endógenas), la matriz V ( Β ) de G x K
ϖ ij ( Β )
polinomiales del tipo , así como las matrices m x n de polinomiales
δij ( Β )
Φ ( Β ) y Θ ( Β ) para los términos de error, con lo que:

Yt = V ( Β ) X t + Φ ( Β ) Θ ( Β )U t
−1

2º ANÁLISIS BÁSICO DE UNA SERIE DE TIEMPO

Definimos una serie temporal como un conjunto de mediciones de un


determinado fenómeno repetidas de forma homogénea con una frecuencia
determinada. De forma genérica podemos representar una serie temporal de T
observaciones como:
Yt = (Y1 , Y2 ,......, YT )

Una primera aproximación al análisis de las series se puede conseguir mediante


1 T
las medidas clásicas de posición: la media, Yt = ∑ Yt y la desviación típica,
T t =1

DesYt =
1 T
∑ (Yt − Y )2 .
T t =1

Habitualmente las series económicas presentan una evolución generalmente


creciente en el tiempo que hace que la media sea un valor poco representativo como se
observa en el gráfico.
2,800

2,400

2,000

1,600

1,200

800

400
1950 1955 1960 1965 1970 1975 1980 1985

CP @MEAN(CP,"1950q1 1988q1")

En el contexto de las series económicas es frecuente acudir al análisis de su dinámica


temporal para obtener una descripción más adecuada del fenómeno.

El cálculo de tasas de variación suele ser el procedimiento más habitual para


analizar la dinámica de las series económicas. El planteamiento más simple de una
tasa de variación, expresada en % es el siguiente:

Yt − Yt −1  Y 
%∆Yt = *100 =  t − 1 *100
Yt −1  Yt −1 
Cuando estamos analizando series temporales de frecuencia superior al año
podemos calcular distintas tasas de crecimiento alternativas.

Mensual Trimestral
 Y   Y 
Sobre el periodo anterior ∆11Yt =  t − 1 *100 ∆11Yt =  t − 1 *100
 Yt −1   Yt −1 
Sobre el mismo periodo  Y   Yt 
anterior ∆1 Yt =  t − 1 *100 ∆1Yt =  − 1 *100
12 4
del año
(interanuales)  Yt −12   Yt − 4 
Las tasas interanuales presentan un comportamiento mas suavizado y
representan el movimiento tendencial de la variable, mientras que las tasas sobre el
periodo anterior recogen la dinámica más reciente y son más volátiles.
8

4
6
2
4
0
2
-2
0

-2

-4
1950 1955 1960 1965 1970 1975 1980 1985

TPA TPAA

Para muchas aplicaciones econométricas es frecuente utilizar la transformación


logarítmica. Esta transformación no altera las propiedades dinámicas de la serie y
8.0
reduce la volatilidad de la misma.
3000

2500 7.6 CP LOG(CP)


Mean 1493.913 7.244159
2000
7.2 Std. Dev. 528.3112 0.366872
1500
Ratio Des./Media 35.36 % 5.06 %
6.8 Observations 149 149
1000

6.4
500
1955 1960 1965 1970 1975 1980 1985

CP LOG(CP)

Si calculamos las diferencias de una serie transformada en logaritmos


obtenemos un valor similar a la tasa de variación.

-1

-2

-3
1955 1960 1965 1970 1975 1980 1985

(LOG(CP)-LOG(CP(-1)))*100 TPA

La transformación de Box-Cox se define como:


Wt = B − C (Yt ) = Yt λ para − 2 ≤ λ ≤ 2
Se tiene los valores siguientes:
 Yt2 λ=2 
 2 
 Y t λ = 0,5 
Ln(Yt ) para λ=0 
 1 
 λ = −0,5
Wt =  2 Y 
t
 1 
 λ = −1 
 Yt 
 1 
 2
λ = −2 
 Yt 

Graficando tenemos:
1/SQR(CP)
CP^2 SQR(CP) .040
7000000 52
.036
6000000 48

5000000 44 .032

4000000 40 .028

3000000 36 .024
2000000 32
.020
1000000 28
.016
0 24 1955 1960 1965 1970 1975 1980 1985
1955 1960 1965 1970 1975 1980 1985 1955 1960 1965 1970 1975 1980 1985

LOG(CP) 1/CP
1/CP^2
8.0 .0014
.0000020
7.8
.0012
7.6 .0000016

7.4 .0010
.0000012
7.2 .0008

7.0 .0000008
.0006
6.8
.0004 .0000004
6.6

6.4 .0002
1955 1960 1965 1970 1975 1980 1985 .0000000
1955 1960 1965 1970 1975 1980 1985
1955 1960 1965 1970 1975 1980 1985

3º ANÁLISIS PRIMARIO DE UNA SERIE DE TIEMPO

Sobre una serie temporal Yt podemos identificar una serie de componentes


básicos que se denominan respectivamente como:

1º TENDENCIA: Tt Movimientos de larga duración que se mantienen durante


todo el periodo de observación.

2º CICLO: Ct Oscilaciones alrededor de la tendencia producidos por períodos


alternativos de prosperidad y depresión.

3º ESTACIONALIDAD: St Movimiento que se produce, dentro de un periodo


anual, por motivos no estrictamente económicos (climáticos, sociales, etc.).

4º IRREGULARIDAD: It Movimientos erráticos generados por causas ajenas al


fenómeno económico y no repetidos en el tiempo.

Otra forma de agrupar los componentes es:

1º Deterministico ⇒ Tendencia, Estacionalidad.


2º Modelable ⇒ Es posible hacer un modelo para reproducir una estructura.
El componente modelable es estocástico.

3º Irregulares ⇒ Error, no se puede modelar ni deterministicamente ni


estocásticamente.

Podemos plantear diferentes esquemas alternativos de descomposición de una


serie temporal:

1º ADITIVO:
Yt = Tt + Ct + St + I t

2º MULTIPLICATIVO:
Yt = Tt * Ct * St * I t

3º MIXTO:
Yt = Tt * (1 + Ct ) * (1 + St ) + I t

Generalmente, el proceso de descomposición de una serie se realiza, en el


enfoque clásico, mediante un proceso secuencial de identificación y separación de
componentes.

Por regla general el orden en el que se van identificando los sucesivos


componentes es el siguiente (para estructura aditiva):

1º Estacionalidad Sˆt = f (Yt ) Yt1 = Yt − Sˆt


2º Tendencia Tˆt = f (Yt1 ) Yt 2 = Yt1 − Tˆt

3º Ciclo Cˆ t = f (Yt 2 )

4º Componente irregular I t = Yt 2 − Cˆ t

3.1. DESESTACIONALIZACIÓN

Es frecuente antes de aplicar un proceso de desestacionalización realizar un


análisis de LABORALIDAD y efecto PASCUA (Semana Santa).

* LABORALIDAD: Corrección de los datos originales en función del número de días


laborables de cada mes. Por ejemplo, una serie mensual se puede
homogeneizar a meses de 30 días, multiplicando los datos de
enero por 30/31, los de febrero por 30/28 o por 30/29 si el año es
bisiesto, etc. En este tratamiento previo, se aconseja realizar un
gráfico temporal de la serie.

* Efecto PASCUA: Corrección que se aplica a los meses de Abril o Marzo en función
de las fechas de Semana Santa.
A las series de las que se han eliminado estos efectos se les denomina SERIES
CORREGIDAS DE CALENDARIO.

Las series temporales de datos económicos presentan generalmente


características estacionales cuando se observan a una frecuencia inferior a la anual, ya
sea mediante datos trimestrales, mensuales, bimestrales o semanales.

Estas características se deben a que las decisiones tomadas por los agentes
económicos en un determinado trimestre (bimestre, mes, o semana) del año puede
estar correlacionado con las decisiones tomadas en el mismo trimestre (bimestre, mes
o semana) de otros años.

La identificación del elemento estacional es importante cuando el objetivo es


explicar el comportamiento de la variable endógena, dado que una parte de las
fluctuaciones de esta se manifiesta por el solo hecho de encontrarse en una época del
año.

También es importante cuando el objetivo es predecir, puesto que las


diferencias estacionales motivan que aun siendo idénticos los valores de las variables
exógenas en cada parte del año se deberá predecir diferentes valores para la variable
endógena.

Este fenómeno se puede detectar:

1º GRÁFICO DE BARRAS.- Nos interesa observar los picos que se dan en la


serie y si estos picos se repiten todos los años, podemos concluir que existe
estacionalidad.

Realizando el gráfico del Producto Bruto Interno Agrícola y del


Consumo Personal Real:
PBIA CP
70 820

60 800

780
50

760
40
740
30
720

20 700
92M01 92M07 93M01 93M07 94M01 1950 1951 1952 1953

Observando los gráficos se concluye que el Producto Bruto Interno


Agrícola presenta indicios de estacionalidad porque presenta picos que se
repiten en enero y octubre de cada año; en cambio, en el Consumo Personal
Real no presenta indicios de estacionalidad porque los picos no se repiten.
2º LINEAS APILADAS.- Nos interesa observar el comportamiento de cada mes
o trimestre, si el comportamiento es diferente, entonces existe estacionalidad.

Realizando el gráfico del Producto Bruto Interno Agrícola y del


Consumo Personal Real:
CP by Season
PBIA by Season 2800
70
2400

60
2000

50 1600

40 1200

800
30

400
Q1 Q2 Q3 Q4
20
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
CP Means by Season
Means by Season

Observando los gráficos se concluye que el Consumo Personal Real no


presenta estacionalidad y el Producto Bruto Interno agrícola si presenta
estacionalidad.

3º LINEAS SEPARADAS.- Nos interesa observar el comportamiento de cada


mes o trimestre, si el comportamiento es diferente, entonces existe
estacionalidad.

Realizando el gráfico del Producto Bruto Interno Agrícola y del


Consumo Personal Real:
PBIA by Season
70 CP by Season
2800
Jan
60 Feb 2400
Mar
Apr
50 2000
May
Jun Q1
Jul 1600 Q2
40 Q3
Aug Q4
Sep 1200
30 Oct
Nov 800
Dec
20 400
1992 1993 1994 1950 1955 1960 1965 1970 1975 1980 1985

Observando los gráficos se concluye que el Consumo Personal Real no


presenta estacionalidad y el Producto Bruto Interno agrícola si presenta
estacionalidad.

4º CORRELOGRAMA.-

Para analizar la estacionalidad de una serie introduciremos un concepto


de gran interés en el análisis de series temporales: la función de
autocorrelación.

La función de autocorrelación mide la correlación entre los valores de la


serie distanciados un lapso de tiempo k.
La función de autocorrelación es el conjunto de coeficientes de
autocorrelación rk desde 1 hasta un máximo que no puede exceder la mitad de
los valores observados, y es de gran importancia para estudiar la estacionalidad
de la serie, ya que si ésta existe, los valores separados entre sí por intervalos
iguales al periodo estacional deben estar correlacionados de alguna forma. Es
decir que el coeficiente de autocorrelación para un retardo igual al periodo
estacional debe ser significativamente diferente de 0.

Debemos obtener el correlograma considerando 25 retardos si la serie es


mensual, 9 retardos si la serie es trimestral, etc.. Se tiene que observar los picos
que se dan en el correlograma y si estos picos se repiten en el mismo periodo
en los siguientes años, podemos concluir que existe estacionalidad.

El correlograma del Producto Bruto Interno Agrícola se obtiene


siguiendo la instrucción siguiente:
Abrir el PBIA ⇒ View ⇒ Correlogram... ⇒ se marca level y se escribe
25 lag ⇒ OK y se muestra el siguiente resultado para el PBIA:

Sample: 1992M01 1995M12


Included observations: 30

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

. |***** | . |***** | 1 0.672 0.672 14.927 0.000


. |**. | ***| . | 2 0.234 -0.396 16.798 0.000
. *| . | .**| . | 3 -0.150 -0.222 17.596 0.001
***| . | . *| . | 4 -0.350 -0.069 22.131 0.000
***| . | . *| . | 5 -0.408 -0.141 28.534 0.000
***| . | .**| . | 6 -0.398 -0.199 34.869 0.000
***| . | . *| . | 7 -0.330 -0.127 39.414 0.000
.**| . | . *| . | 8 -0.247 -0.177 42.085 0.000
. | . | . |* . | 9 -0.024 0.160 42.112 0.000
. |**. | . |* . | 10 0.246 0.127 45.015 0.000
. |*** | . |* . | 11 0.458 0.115 55.594 0.000
. |**** | . | . | 12 0.484 0.031 68.113 0.000
. |*** | . | . | 13 0.330 0.001 74.278 0.000
. |* . | . | . | 14 0.095 -0.000 74.816 0.000
. *| . | . | . | 15 -0.133 -0.022 75.956 0.000
.**| . | . | . | 16 -0.245 0.045 80.088 0.000
.**| . | . | . | 17 -0.291 -0.023 86.322 0.000
.**| . | . | . | 18 -0.264 0.030 91.891 0.000
. *| . | . |* . | 19 -0.141 0.164 93.636 0.000
. | . | . *| . | 20 -0.027 -0.066 93.705 0.000
. | . | .**| . | 21 0.017 -0.216 93.735 0.000
. | . | . *| . | 22 0.047 -0.067 94.000 0.000
. | . | . *| . | 23 0.041 -0.186 94.235 0.000
. | . | . *| . | 24 0.000 -0.176 94.235 0.000
. | . | . | . | 25 0.000 0.033 94.235 0.000

Si observamos el correlograma del producto bruto interno agrícola se


visualiza que el pico del retardo 5 se repite en el retardo 17, por lo tanto,
podemos concluir que el producto bruto interno agrícola es estacional.

El correlograma del Consumo Personal Real se obtiene siguiendo la


instrucción siguiente:

Abrir el CP ⇒ View ⇒ Correlogram... ⇒ se marca level y se escribe 9


lag ⇒ OK y se muestra el siguiente resultado para el CP:
Sample: 1950Q1 1988Q1
Included observations: 153

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|*******| .|*******| 1 0.955 0.955 142.33 0.000


.|*******| .|. | 2 0.911 -0.014 272.69 0.000
.|*******| .|. | 3 0.868 -0.014 391.73 0.000
.|****** | .|. | 4 0.825 -0.012 500.15 0.000
.|****** | .|. | 5 0.786 0.008 599.06 0.000
.|****** | .|. | 6 0.747 -0.010 689.07 0.000
.|***** | .|. | 7 0.711 0.006 771.12 0.000
.|***** | .|. | 8 0.677 0.008 846.07 0.000
.|***** | .|. | 9 0.645 0.008 914.68 0.000

El comportamiento del coeficiente de autocorrelación del consumo


personal real no presenta picos, por lo tanto, concluimos que el consumo
personal real no es estacional.

Los métodos para cuantificar la estacionalidad y desestacionalizar la


serie son:

1º REGRESIÓN CON VARIABLES DUMMY.-

En el método de regresión se utiliza una serie de variables mudas para


capturar los efectos estacionales:
Yt = β 0 + β 1 D1 + ..... + β k Dk + γYt −1 + ε t

donde cada variable Di toma valores 1 en el período que ésta representa (p. e.,
enero de cada año) y cero en cualquier otro período. El modelo puede ser
extendido para incluir otras variables explicativas o un proceso más complejo
(aunque estacionario) para el error (p. e., un ARMA).

En la medida en que los coeficientes β i sean estadísticamente


significativos, habrá componentes estacionales. Consecuentemente, la serie
desestacionalizada Yt SE se calcula como:
Yt SE = Yt − β 0 − β1 D1 − ..... − β k Dk
donde β i son los parámetros estimados para cada componente estacional que
resulten significativos.

Como es evidente, al modelar la estacionalidad de esta manera se asume


que el efecto estacional sea determinístico (o constante en valor esperado), es
decir, que en cada año el cambio en la variable por razones estacionales sea
exactamente el mismo. Ello no es un supuesto adecuado para muchas de las
variables económicas debido a que el comportamiento estacional se determina
por numerosas y muy heterogéneas fuentes, lo que sugiere que éste sea
modelado como una variable aleatoria.

El uso de variables mudas para modelar estacionalidad en un análisis de


regresión presenta el problema de inducir correlaciones espurias entre las
variables, en tanto que su uso para predecir variables en modelos de series de
tiempo (p.e., ARIMA, VAR) produce predicciones fuera de muestra que son de
peor calidad que las que se obtienen de otros métodos (X-11 o la variación en
x-períodos), en especial en modelos multivariados.

No obstante, este método satisface algunas características que son


deseables en cualquier método de remoción de estacionalidad: que se preserve
el promedio de la serie original, que los componentes estacionales sean
ortogonales entre sí, y que al aplicar el método a la serie desestacionalizada no
se obtengan nuevos factores estacionales (idempotencia).

Aplicando este método a la serie Consumo personal real tenemos:

Dependent Variable: CP
Method: Least Squares
Sample (adjusted): 1950Q2 1988Q1
Included observations: 152 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 0.940573 3.380101 0.278268 0.7812


@SEAS(1) 2.577797 2.784144 0.925885 0.3560
@SEAS(2) 1.529906 2.784490 0.549438 0.5835
@SEAS(3) 4.609948 2.784212 1.655746 0.0999
CP(-1) 1.006017 0.001863 539.9100 0.0000

R-squared 0.999496 Mean dependent var 1479.040

En la regresión ninguna de las variables dummy son significativas, por


lo tanto el consumo personal real no presenta estacionalidad.

En GRETL se obtiene el mismo resultado:


Modelo 1: MCO, usando las observaciones 1950:2-1988:1 (T = 152)
Variable dependiente: CP
Coeficiente Desv. Típica Estadístico t Valor p
Const 0,940573 3,3801 0,2783 0,78120
dq1 2,5778 2,78414 0,9259 0,35602
dq2 1,52991 2,78449 0,5494 0,58354
dq3 4,60995 2,78421 1,6557 0,09991 *
CP_1 1,00602 0,0018633 539,9100 <0,00001 ***
Media de la vble. dep. 1479,040 D.T. de la vble. dep. 533,5063
Suma de cuad. residuos 21648,89 D.T. de la regresión 12,13554
R-cuadrado 0,999496 R-cuadrado corregido 0,999483
F(4, 147) 72922,06 Valor p (de F) 3,0e-241
Log-verosimilitud -592,5497 Criterio de Akaike 1195,099
Criterio de Schwarz 1210,219 Crit. de Hannan-Quinn 1201,241
Rho 0,147941 h de Durbin 1,818406

Aplicándolo en Eviews para Producto bruto interno agrícola resulta:

Dependent Variable: PBIA


Method: Least Squares
Sample (adjusted): 1992M02 1994M06
Included observations: 29 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C -11.66865 3.817922 -3.056282 0.0075


@SEAS(1) -3.149474 1.741879 -1.808090 0.0894
@SEAS(2) 4.600756 1.631591 2.819797 0.0123
@SEAS(3) 1.089949 1.591708 0.684767 0.5033
@SEAS(4) 8.744458 1.611761 5.425405 0.0001
@SEAS(5) 5.446288 2.162990 2.517944 0.0228
@SEAS(6) -4.584691 3.175343 -1.443841 0.1681
@SEAS(7) -8.288786 3.077233 -2.693585 0.0160
@SEAS(8) -21.88337 3.103516 -7.051155 0.0000
@SEAS(9) -9.241514 1.983766 -4.658570 0.0003
@SEAS(10) -4.739175 1.756342 -2.698321 0.0158
@SEAS(11) 2.503367 1.757713 1.424218 0.1736
PBIA(-1) 1.402257 0.122378 11.45837 0.0000

R-squared 0.986385 Mean dependent var 37.99448

En la regresión, siete de las variables dummy son significativas, por lo


tanto el Producto bruto interno agrícola presenta estacionalidad. Entonces se
aplica el método aditivo para desestacionalizar.

2º MEDIA MÓVIL.- Se desestacionaliza transformando la serie original en la que


las nuevas observaciones para cada periodo son un promedio de las
observaciones originales. El orden de la media móvil indica el número de
observaciones a promediar.
Mensuales Orden 12 Trimestrales Orden 4

1 11 1 3
Sin centrar MM 12Yt = ∑ Yt −r
12 r =0
MM 4Yt = ∑ Yt −r
4 r =0

1 +6 1 +2
MMc12Yt = ∑ ωYt −r
12 r = −6
MMc 4Yt = ∑ ωYt −r
4 r = −2
Centrada
Con ω = 0.5 para r=-6 y Con ω = 0,5 para r = -2 y +2
+6 y ω = 1 el resto. y ω = 1 el resto.

Aplicando la media móvil sin centrar al consumo personal real nos daría
los siguientes factores estacionales:

En el Eviews se sigue la instrucción siguiente:

Genr mvscp = @movav(cp,4) y se obtiene la serie desestacionalizada


empleando la media móvil sin centrar.

Genr mvccp = (0.5*cp(-2)+cp(-1)+cp+cp(+1)+0.5*cp(+2))/4 y se obtiene la


serie desestacionalizada empleando la media móvil central.

En Gretl se sigue la instrucción siguiente:


Marcamos CP ⇒ Variable ⇒ Filtrar ⇒ Media Móvil simple ⇒ marcar
serie suavizada ⇒ Aceptar, para obtener la media móvil sin centrar.

Marcamos CP ⇒ Variable ⇒ Filtrar ⇒ Media Móvil simple ⇒ marcar


centrada y serie suavizada ⇒ Aceptar, para obtener la media móvil centrada.
3º RATIO DE MEDIO MÓVIL.- Los pasos para obtener el ratio de promedio
móvil son:

1) Se calcula el promedio móvil central de Yt como:


 0.5Yt + 6 + Yt + 5 + ...+ Yt + ...+ Yt − 5 + 0.5Yt − 6
 mensual
X t =  0.5Y + Y + 12 Yt + Yt −1 + 0.5Yt − 2
 t+2 t +1
trimestral
 4

2) Se considera el ratio:

Yt
rt =
Xt
3) ( )
Calculamos el índice estacional i m como el promedio del ratio de promedio
móvil para ese mes o trimestre en el periodo analizado.

1) El factor estacional es el ratio entre el índice estacional y la media


geométrica de los índices estacionales, así:

 im
 12 i i ...i mensuales
 1 2 12
s=  im
 trimestres
 4 i1i2 i3i4

En el Eviews se sigue la instrucción siguiente:

Abrir el CP ⇒ Proc ⇒ Seasonal Adjusment ⇒ se marca Ratio to moving


average - Multiplicative ⇒ OK y se muestra el siguiente resultado para el
CP:
Sample: 1950Q1 1988Q1
Included observations: 153
Ratio to Moving Average
Original Series: CP
Adjusted Series: CPSA

Scaling Factors:

1 1.000019
2 0.999470
3 1.000848
4 0.999663

4º DIFERENCIA DE PROMEDIO MÓVIL.- Los pasos para obtener la diferencia


de promedio móvil son:

1.- Se calcula el promedio móvil central de Yt como:

 0.5Yt + 6 + Yt + 5 + ...+ Yt + ...+ Yt − 5 + 0.5Yt − 6


 mensual
X t =  0.5Y + Y + 12 Yt + Yt −1 + 0.5Yt − 2
 t+2 t +1
trimestral
 4
2.- Se considera la diferencia:
d t = Yt − X t

3.- Calculamos el índice estacional


(i ) como el promedio de la diferencia
m
de promedio móvil para ese mes o trimestre en el periodo analizado.

4.- El factor estacional es la diferencia entre el índice estacional y el


promedio de los índices estacionales, así:
sj = ij − i

En el Eviews se sigue la instrucción siguiente:

Abrir el CP ⇒ Proc ⇒ Seasonal Adjusment ⇒ Difference from moving


average - Additive ⇒ OK y se muestra el siguiente resultado para el CP:

Sample: 1950Q1 1988Q1


Included observations: 153
Difference from Moving Average
Original Series: CP
Adjusted Series: CPSA1

Scaling Factors:

1 -0.132086
2 -0.941545
3 1.444906
4 -0.371275

5º ALISADO.- Las técnicas de alisado exponencial se utilizan en situaciones en


las que existen pocos datos (muestra pequeña), y si es necesario ir actualizando
el modelo empleado cada vez que se obtiene un nuevo dato. Son muy simples
en su aplicación pero limitados.

El Modelo de Holt-Winters, para series con tendencia polinomial, ciclo


estacional y componente aleatoria, tanto para tipo aditivo como multiplicativo.

El Alisado exponencial estacional con triple parámetro (Holt-Winters


estacional-multiplicativo) es:

Yˆt = α * t + (1 − α )* Yˆt −1 + bt −1
Y
st − s
( )
t (
b = β * Yˆ − Yˆ + (1 − β )* b
t t −1 ) t −1

+ (1 − δ )st − s
Yt
st = δ
Yˆt

La predicción es:
( )
Yˆt + k = Yˆt + bt * k * st − s + k

Válido para series con tendencia lineal y estacionalidad. El factor


estacional no es fijo en el ajuste a periodo muestral.
En el Eviews se sigue la instrucción siguiente:

Abrir el PBIA ⇒ Proc ⇒ Exponential Smoothing ⇒ Holt-Winters


Multiplicativo ⇒ OK y se muestra el siguiente resultado:
Sample: 1992M01 1994M06
Included observations: 30
Method: Holt-Winters Multiplicative Seasonal
Original Series: PBIA
Forecast Series: PBIASM

Parameters: Alpha 0.8700


Beta 1.0000
Gamma 0.0000
Sum of Squared Residuals 42.98890
Root Mean Squared Error 1.197065

End of Period Levels: Mean 49.38024


Trend 4.217104
Seasonals: 1993M07 1.406998
1993M08 1.032589
1993M09 0.865693
1993M10 0.758299
1993M11 0.807855
1993M12 0.810340
1994M01 0.735470
1994M02 0.848620
1994M03 0.874647
1994M04 1.113844
1994M05 1.338879
1994M06 1.406765

El Alisado exponencial estacional con triple parámetro (Holt-Winters


estacional-aditivo) es:
Yˆ = α * (Y − s ) + (1 − α )* Yˆ + b
t t t −s ( t −1 t −1 )
( )
bt = β * Yˆt − Yˆt −1 + (1 − β )* bt −1
t (
s = δ * Y − Yˆ + (1 − δ )s
t t ) t −s

La predicción es:

Yˆt + k = Yˆt + bt * k + st − s + k

Válido para series con tendencia lineal y estacionalidad. El factor


estacional no es fijo en el ajuste a periodo muestral.

En el Eviews se sigue la instrucción siguiente:


Abrir el PBIA ⇒ Proc ⇒ Exponential Smoothing ⇒ Holt-Winters
Aditivo ⇒ OK y se muestra el siguiente resultado:

Sample: 1992M01 1994M06


Included observations: 30
Method: Holt-Winters Additive Seasonal
Original Series: PBIA
Forecast Series: PBIASM1

Parameters: Alpha 0.9400


Beta 1.0000
Gamma 0.0000
Sum of Squared Residuals 54.46170
Root Mean Squared Error 1.347364

End of Period Levels: Mean 54.92442


Trend 6.410787
Seasonals: 1993M07 14.64229
1993M08 1.253542
1993M09 -4.815208
1993M10 -8.758958
1993M11 -6.982708
1993M12 -6.931458
1994M01 -9.250208
1994M02 -5.313958
1994M03 -4.442708
1994M04 4.013542
1994M05 12.04479
1994M06 14.54104

6º METODO X11.- Un procedimiento de estimación de los componentes de una


serie temporal es el desarrollo por J. Siskin en la Oficina del Censo de los
Estados Unidos.

Este programa X11 se usa en numerosos organismos públicos, así como


en el sector financiero, y permite ajustar series mensuales y trimestrales
mediante el método aditivo, multiplicativo y mixto. Incluye numerosas
opciones para tener en cuenta las fiestas, los días no laborables, e incluso para
detectar y corregir automáticamente los datos anormales.

Los resultados que muestra el método son:

a.- Estimación de la tendencia.


b.- Determinación de unos coeficientes estacionales.
c.- Estimación de la componente aleatoria, y
d.- Varios contrastes para detectar la estacionalidad.

Dispone de numerosas opciones, en las que se proporcionan muy


variadas y extensas tablas relativas a las componentes, en las distintas fases de
la estimación, ya que el procedimiento realiza varias iteraciones antes de
estimar finalmente las componentes del modelo, incluido el modelo ARIMA
para la componente aleatoria.

En unas iteraciones iniciales, se estiman las componentes de la serie y se


corrigen los datos en función de los días laborables (si se elige esta opción). Se
identifican las observaciones extremas o anormales, y así se llega a unas
estimaciones finales de las componentes.

En la primera iteración, con una media móvil centrada de amplitud 12,


se obtiene una estimación inicial de la tendencia y ciclo, eliminando variación
estacional e irregular, que se estiman por diferencia o por cociente según el tipo
de modelo.

En la segunda etapa, se aplican medias móviles a la serie que incluye las


componentes estacionales y la irregular, para estimar esta última, y se obtiene
también su desviación típica mensual. De esta forma se estiman y corrigen los
valores extremos, y con una nueva media móvil se estima la componente
estacional. Los índices estacionales se usan para obtener una primera
aproximación de la serie desestacionalizada, a partir de la cual, y mediante una
media móvil ponderada, se obtienen una segunda estimación de las
componentes agregadas de tendencia y ciclo no estacional.

El mismo procedimiento se utiliza para obtener una segunda estimación


de la serie desestacionalizada y de la componente irregular, que es de nuevo
corregida en sus valores extremos o anormales.

En una tercera y última iteración, se estiman finalmente los índices


estacionales, y las componentes irregular y tendencial.

En el Eviews se tiene:

T representa la tendencia de la serie y los ciclos no estacionales.


S componente estacional.
I componente aleatoria o irregular.

En el Eviews se sigue la instrucción siguiente:

Abrir el CP ⇒ Proc ⇒ Seasonal Adjusment ⇒ X11 (Historical) ⇒


Census X11-Multiplicative y se escribe en Factor: FEM ⇒ OK.
7º CENSUS X12-ARIMA.- es un programa de código abierto creado por el U.S.
Census Bureau. Este es un programa de corrección estacional que incorpora
algunas mejoras con respecto al programa X11-ARIMA (Statistics Canada)
como el desarrollo de nuevas medidas de identificación de modelos y de
diagnóstico de ajustes.

Además es un programa de reajuste estacional. También el Census X12-


ARIMA es un método basado en promedios móviles, los cuales se sustentan en
el dominio del tiempo o en el de frecuencias. Census X12-ARIMA logra el
ajuste estacional con el desarrollo de un sistema de los factores que explican la
variación estacional en una serie.

En años recientes, el Census X12-ARIMA ha adquirido relevancia en


vista de que entre sus innovaciones se encuentran procedimientos basados en
modelos (“model based”) como el Seats, el cual supone un modelo ARIMA
para cada uno de los componentes de la serie de tiempo de interés.
Específicamente, considera los modelos RegARIMA, los cuales son modelos
de regresión cuyos errores siguen un proceso ARIMA. Por lo anterior, este
programa es muy utilizado en varios bancos centrales, así como en varias
oficinas de estadística como la de la Unión Europea (Eurostat) y la de Perú.

En el Eviews se sigue la instrucción siguiente:

Abrir el CP ⇒ Proc ⇒ Seasonal Adjusment ⇒ Census X12 ⇒ se


marca Multiplicative, Final seasonally adjusted serie y Final seasonal factors
⇒ OK.
8º TRAMO/SEATS.- las siglas de Tramo significan “Time Series Regression with
ARIMA Noise, Missing Observations, and Outliers” y las de Seats “Signal
Extraction in ARIMA Time Series”. Estos programas (que normalmente se
usan juntos) han sido desarrollados por Víctor Gómez y Agustín Maravall del
Banco de España.

Tramo es un programa para estimar y pronosticar modelos de regresión


con errores posiblemente no estacionarios como los ARIMA (Autoregressive
Integrated Moving Average) y cualquier serie de observaciones ausentes,
también identifica y corrige observaciones atípicas como por ejemplo: el efecto
Pascua, Calendario y el relacionado a formas de variables de intervención. El
programa es eficiente en el ajuste estacional de series, y más en la extracción de
señales estocásticas. El ajuste de la serie con el programa Tramo, corresponde
al procedimiento que realizaba SCA (Scientific Computing Associates).

Seats es un programa para la estimación de los componentes no


observados en series temporales, siguiendo el método “basado en modelos
ARIMA”. Se estima y se obtienen predicciones de la tendencia, el componente
estacional, el componente irregular y los componentes cíclicos. Además se
obtienen los estimadores con error cuadrático medio mínimo (ECMM) de los
componentes, así como sus predicciones también. Seats puede usarse para un
análisis profundo de series o para aplicaciones rutinarias masivas. La
estimación que realiza Seats corresponde a la metodología que llevaba a cabo
X11- ARIMA.

Citando la descripción de Tramo/Seats dada en el sitio Web del Banco


de España1, “Los programas están dirigidos fundamentalmente al análisis de
series temporales económicas y sociales, de frecuencia mensual o más baja.
Aunque están estructurados para satisfacer las necesidades de un analista
experto, pueden utilizarse también de forma totalmente automática. Sus
principales aplicaciones son predicción, ajuste estacional, detección y
corrección de observaciones atípicas, estimación de efectos especiales, y
control de calidad de los datos”.

En conjunto, Tramo/Seats realiza la estimación ARIMA y la


descomposición en componentes aditivos o multiplicativos; por lo que Tramo
hace la estimación, mientras que Seats hace la descomposición. Asimismo se
recomienda el uso de este programa para obtener un buen punto de partida al
ajustar alguna serie.

En el Eviews se sigue la instrucción siguiente:

Abrir el CP ⇒ Proc ⇒ Seasonal Adjusment ⇒ Tramo/Seats ⇒ se


marca Seasonally adjusted y seasonal factor ⇒ OK.
3.2. TENDENCIA

Es un movimiento de larga duración que se mantiene durante el período de


observación. Una primera idea sobre la presencia de tendencia en la serie la
obtendremos en su representación gráfica.

En general es difícil diferenciar entre el componente tendencial y el cíclico y,


habitualmente, se obtienen de forma conjunta eliminando de la serie
desestacionalizada el componente irregular, obteniéndose una nueva serie denominada
de CICLO-TENDENCIA.

Se tiene los métodos siguientes:

1º MEDIA MÓVIL CENTRADA.- Una forma sencilla de eliminar el componente


irregular consiste en calcular una media móvil centrada de orden bajo (p.e. 3)
sobre la serie previamente desestacionalizada.
1 +1 SE
Yt CT = ∑ Yt − s
3 s = −1

El componente irregular se obtendría por diferencia (método aditivo)


entre la serie desestacionalizada y la de Ciclo-Tendencia, así:
Yt I = Yt SE − Yt CT

En el Eviews se sigue la instrucción siguiente:

Genr mvc3cp = (cp(-1)+cp+cp(+1))/3 y se obtiene el ciclo-tendencia siguiente:


Modified: 1950Q1 1988Q1 // mvc3cp = (cp(-1)+cp+cp(+1))/3
1950Q1 NA 730.8333 740.3667 749.9000
1951Q1 745.0667 747.5000 746.8000 751.6000
1952Q1 758.3667 765.1667 776.9333 787.5000
1953Q1 797.8333 802.2000 803.3667 804.5000
1954Q1 808.2333 816.2333 827.9667 841.6333
1955Q1 855.5667 867.4667 879.9333 888.6000

2º FUNCIONES DE TIEMPO.- se obtiene la nueva serie de componente


tendencial ajustando los datos observados a una especificación en función del
tiempo, calculándose los parámetros de la función de tiempo forma que se
minimicen las diferencias cuadráticas entre la serie original y la estimada. Es
decir:
Y = Yˆ 2 = f (t , β ) β / Min(Y − Yˆ 2 ) 2
t t t t

Se pueden plantear distintas especificaciones de la función:

Lineal
60
Lineal 50

Yt = a + b * t 40
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 1516 17 18 19 20

Parábola
Parábola 150

Yt = a + b * t + c * t 2 100

50

0
1 2 3 4 5 6 7 8 9 10 1112 13 1415 1617 18 1920

Exponencial
200
Exponencial Yt = a * b t 150

Ln(Yt ) = c + d * t
100
50
0
1 2 3 4 5 6 7 8 9 1011 1213 1415 16 1718 1920

Potencial
200
Potencial
Yt = a * t b
150
100

Ln(Yt ) = c + d * Ln(t ) 50
0
1 2 3 4 5 6 7 8 9 10 1112 1314 1516 1718 1920

En Eviews se escribe la instrucción siguiente:

LS CP C @TREND LINEAL
LS CP C @TREND @TREND^2 PARÁBOLA
LS LOG(CP) C @TREND EXPONENCIAL
LS LOG(CP) C LOG(@TREND) POTENCIAL

Se obtiene el resultado siguiente:

Variable CP
Included Observation 153
Yt = 689.46 +6.6505*t Yt = 716.86 *
Equation Yt = 551.89 +11.976*t
+0.03458*t**2 (1.0085**t)
R-Squared 0.982551 0.995333 0.993978
R-Square Adjusted 0.999980 0.999990 0.961511
Sum Square Error
(SSE)
760146.960164 203307.057636 0.024479

Adicionalmente tenemos los modelos que incorporan un componente


cíclico, como:

1.- Modelo de tendencia senoidal simple.-

El modelo es:

 2πt   2πt   2πt   2πt 


Yt = α 0 + α1t + α 2 sen  + α 3 cos  + α 4 tsen  + α 5 t cos  + ut
 w  w  w  w

donde w es el número de observaciones en un año.

En Eviews, primero hay que generar el ángulo, así:


GENR O = (2*3.14159*@TREND)/12
GENR O = (2*3.14159*@TREND)/4
y a continuación se escribe la instrucción siguiente:
LS CP C @TREND @SIN(O) @COS(O) @TREND*@SIN(O) @TREND*@COS(O)

Resulta:

Dependent Variable: CP
Method: Least Squares
Sample: 1950Q1 1988Q1
Included observations: 153

Variable Coefficient Std. Error t-Statistic Prob.

C 563.7933 11.56697 48.74167 0.0000


@TREND 11.97613 0.131602 91.00294 0.0000
@SIN(O) 6.007610 16.48854 0.364351 0.7161
@COS(O) 2.679173 16.22456 0.165131 0.8691
@TREND*@SIN(O) -0.080349 0.187892 -0.427635 0.6695
@TREND*@COS(O) -0.020915 0.184291 -0.113487 0.9098
R-squared 0.982576 Mean dependent var 1474.026
Adjusted R-squared 0.981984 S.D. dependent var 535.3530
S.E. of regression 71.85795 Akaike info criterion 11.42569
Sum squared resid 759044.1 Schwarz criterion 11.54453
Log likelihood -868.0650 F-statistic 1657.947
Durbin-Watson stat 0.033761 Prob(F-statistic) 0.000000

2.- Modelo de tendencia senoidal cuadrático.-

El modelo es:
 2πt   2πt   2πt 
Yt = α 0 + α1t + α 2 t 2 + α 3 sen  + α 4 cos  + α5tsen  +
 w  w  w
 2πt   2πt   2πt 
α 6 t cos  + α 7 t 2 sen  + α8 t 2 cos  + ut
 w  w  w
donde w es el número de observaciones en un año.

En Eviews, primero hay que generar el ángulo, así:


GENR O = (2*3.14159*@TREND)/12
GENR O = (2*3.14159*@TREND)/4
y a continuación se escribe la instrucción siguiente:
LS CP C @TREND @TREND^2 @SIN(O) @COS(O) @TREND*@SIN(O)
@TREND*@COS(O) @TREND^2*@SIN(O) @TREND^2*@COS(O)

Obteniendo:
Dependent Variable: CP
Method: Least Squares
Sample: 1950Q1 1988Q1
Included observations: 153

Variable Coefficient Std. Error t-Statistic Prob.

C 696.2372 9.007112 77.29860 0.0000


@TREND 6.716405 0.273801 24.53023 0.0000
@TREND^2 0.034602 0.001744 19.84635 0.0000
@SIN(O) 0.011491 12.93618 0.000888 0.9993
@COS(O) -1.803156 12.52636 -0.143949 0.8857
@TREND*@SIN(O) 0.018841 0.393081 0.047933 0.9618
@TREND*@COS(O) 0.086830 0.380987 0.227907 0.8200
@TREND^2*@SIN(O) -0.000200 0.002504 -0.079986 0.9364
@TREND^2*@COS(O) -0.000709 0.002425 -0.292256 0.7705

R-squared 0.995339 Mean dependent var 1474.026


Adjusted R-squared 0.995080 S.D. dependent var 535.3530
S.E. of regression 37.55118 Akaike info criterion 10.14631
Sum squared resid 203053.1 Schwarz criterion 10.32457
Log likelihood -767.1926 F-statistic 3843.774
Durbin-Watson stat 0.104706 Prob(F-statistic) 0.000000
3º ALISADO.- Las técnicas de alisado exponencial se utilizan en situaciones en
las que existen pocos datos, y si es necesario ir actualizando el modelo
empleado cada vez que se obtiene un nuevo dato. Son muy simples en su
aplicación pero limitados.

Alisado exponencial simple:

Yˆt = α * Yt + (1 − α )* Yˆt −1
N −1
Yˆt = α * ∑ (1 − α ) Yt − s
s

s =0

Predicción:
Yˆt + k = Yˆt ∀k > 0
Válido para series sin tendencia. La predicción no aporta información
adicional.

En el Eviews se sigue la instrucción siguiente:


Abrir el PBIA ⇒ Proc ⇒ Exponential Smoothing ⇒ Single ⇒ OK y se
muestra el siguiente resultado:
Sample: 1992M01 1994M06
Included observations: 30
Method: Single Exponential
Original Series: PBIA
Forecast Series: PBIASM

Parameters: Alpha 0.9990


Sum of Squared Residuals 1345.407
Root Mean Squared Error 6.696782

End of Period Levels: Mean 69.42131

Alisado exponencial doble (Brown):


( )
Yˆt1 = α * Yt + (1 − α )* Yˆt1
Yˆ = α * Yˆ 1 + (1 − α )* Yˆ
t t t −1

Predicción:

 αk  ˆ 1  αk  ˆ
Yˆt + k =  2 +  * Yt − 1 +  * Yt =
 (1 − α )   (1 − α ) 

=  2 * Yˆt1 − Yˆt +
α
(1 − α )
( ) 
Yˆt1 − Yˆt k 
 

Válido para series con tendencia lineal. La predicción es una recta con
( )
ordenada en el origen 2 * Yˆt1 − Yˆt y pendiente α Yˆt1 − Yˆt (1 − α ).
En el Eviews se sigue la instrucción siguiente:
Abrir el PBIA ⇒ Proc ⇒ Exponential Smoothing ⇒ Double ⇒
OK y se muestra el siguiente resultado:
Sample: 1992M01 1994M06
Included observations: 30
Method: Double Exponential
Original Series: PBIA
Forecast Series: PBIASM

Parameters: Alpha 0.8560


Sum of Squared Residuals 1320.795
Root Mean Squared Error 6.635247

End of Period Levels: Mean 69.53286


Trend 10.11279

El Alisado exponencial lineal con doble parámetro (Holt-Winters) es:


(
Yˆt = α * Yt + (1 − α )* Yˆt −1 + bt −1 )
t (
b = β * Yˆ − Yˆ + (1 − β )* b
t t −1 ) t −1

Los valores iniciales pueden ser:


Yˆ1 = Y1 ; b1 = 0

Yˆ2 = Y2 ; b2 = (Y2 − Y1 )
La predicción es:
Yˆt + k = Yˆt + bt * k

Válido para series con tendencia lineal. La predicción es una recta con
ordenada en el origen Yˆt1 y pendiente bt .

En el Eviews se sigue la instrucción siguiente:


Abrir el PBIA ⇒ Proc ⇒ Exponential Smoothing ⇒ Holt-Winters-No
Seasonal ⇒ OK y se muestra el siguiente resultado:
Sample: 1992M01 1994M06
Included observations: 30
Method: Holt-Winters No Seasonal
Original Series: PBIA
Forecast Series: PBIASM

Parameters: Alpha 1.0000


Beta 0.8100
Sum of Squared Residuals 1002.241
Root Mean Squared Error 5.779969

End of Period Levels: Mean 69.43000


Trend 9.713274
4º FILTRADO DE SERIES.- los medios más utilizados para detectar y eliminar la
tendencia de una serie se basan en la aplicación de filtros a los datos. Un filtro
no es más que una función matemática que aplicada a los valores de la serie
produce una nueva serie con unas características determinadas.

Según Baxter y King, un método óptimo de extracción de ciclos


económicos debe cumplir con 6 objetivos:

• El filtro debe extraer un rango específico de periodicidades, sin variar sus


propiedades inherentes (la varianza, correlaciones y otras medidas
exploratorias de los datos).
• No debe producir un movimiento de fase (es decir, que no altere las
relaciones temporales de las series a ninguna frecuencia). Este aspecto y el
anterior definen un promedio móvil ideal, con ponderaciones simétricas
para rezagos y adelantos.
• El método debe ser una aproximación óptima de un filtro ideal. Esto se
puede determinar midiendo la diferencia de los resultados obtenidos con un
filtro ideal y uno aproximado.
• La aplicación de un filtro debe producir una serie de tiempo estacionaria
cuando se aplica a cifras que presentan tendencia.
• El método debe ser independiente de la longitud de la serie.
• El método debe ser operacional, esto es, de fácil aplicación y uso.

Los requisitos para el filtro ideal conllevan el establecer un equilibrio


entre el estimar un filtro óptimo, lo cual implica agregar la mayor cantidad de
rezagos y adelantos como explicativos de una variable y el perder
observaciones al inicio y al final del período, lo cual reduce la cantidad de datos
para el análisis. Los autores recomiendan utilizar como mínimo 6 años cuando
se trabaja con datos trimestrales y anuales.

En la actualidad existen dos filtros:

1.- HODRICK-PRESCOTT.- partiendo del supuesto de que la serie está


compuesta por un componente tendencial más un componente cíclico, se
obtiene la nueva serie de componente tendencial que sea “lo mas suave
posible” (penalizándose con el parámetro λ la volatilidad de la nueva
serie) y que minimize las diferencias cuadráticas frente a la serie
original. Tendríamos:

( ) (( ) ( ))
N N
Min∑ Yt1 − Yˆt 2 + λ ∑ Yˆt+21 − Yˆt 2 − Yˆt 2 − Yˆt −21
2 2
Tt = Yˆt 2 /
t =1 t =2

Los propios autores proponen unos valores de λ para cada tipo de


series: Anual = 100, Trimestral =:1600 y Mensual =14400.

En términos matriciales podemos expresar el problema de


minimización como:
Min (Y − Yˆ 2 )' (Y − Yˆ 2 ) + λ ( AYˆ 2 )′( AYˆ 2 )
t t t t t t
Donde:
1 − 2 1 0 0 L 0 0 0 Yˆ12 
0 1 − 2 1  
 0 L 0 0 0 Yˆ22 
AYˆt 2 = 0 0 1 −2 1 L 0 0 0 * Yˆ32 
   
M M M M M O M M M  M 
0 0 0 0 0 L 1 −2 1 Yˆn2 

Igualando a cero la primera derivada y despejando la serie Yt 2


obtenemos:
Yˆt 2 = ( I + λA′A) −1Yt1

Posee una serie de características ideales según los criterios de


Baxter y King, por ejemplo:
• Como el filtro es simétrico, no produce movimientos de fase.
• Aproxima bien a un filtro ideal cuando se utiliza un λ = 1600 para
datos trimestrales.
• Produce series estacionarias, cuando éstas están integradas hasta el
orden cuarto.
• El método es operacional.

Adolece de los problemas siguientes:

• Las ponderaciones van a depender del tiempo, por lo que el filtro


dejará de ser independiente del largo de la serie.
• Por construcción el filtro no perderá ningún dato al inicio o al final
de la serie. Sin embargo, las propiedades de la serie filtrada en
puntos iniciales y finales es significativamente distinta de un filtro
ideal, no así en los valores intermedios de la misma.
• Se relaciona con la elección un tanto arbitraria del parámetro λ .
Para datos con periodicidad anual es una mala aproximación de un
filtro ideal, por cuanto incluye comportamientos cíclicos que debería
omitir y viceversa. Para datos anuales no existe consenso y la
utilización del parámetro de suavización va desde λ = 10 hasta λ=
400.

En el Eviews se sigue la instrucción siguiente:

Abrir CP ⇒ Proc ⇒ Hodrick-Prescott Filter ⇒ OK y se muestra


el siguiente resultado:
Hodrick-Prescott Filter (lambda=1600)
3000

2500

2000

80 1500

1000
40
500
0

-40

-80
1950 1955 1960 1965 1970 1975 1980 1985

CP Trend Cycle

2.- BAXTER-KING.- su objetivo es encontrar un método útil para medir


ciclos económicos y que éste sea óptimo, por ejemplo, que cumpla con
las especificaciones sobre ciclos asignadas por el investigador.

Su procedimiento se resume en dos pasos: primero se mide el


ciclo, para lo cual el investigador debe especificar ciertas características
del mismo y posteriormente se le aísla, aplicando promedios móviles a
los datos.

Desarrolla 3 tipos de filtro lineal: “low-pass”, “high-pass” y


“bandpass”.

Un filtro de tipo “low-pass” sólo retendrá los componentes que se


mueven lento en los datos, esto es, que se producen con frecuencias muy
bajas. Entre menor sea la frecuencia mayor va a ser la cantidad de
períodos que abarca un ciclo.

Un filtro de tipo “high-pass” equivale a una frecuencia


relativamente alta, por lo que se espera que incluya elementos más
frecuentes de la serie, como los irregulares o estacionales.

El filtro band-pass son los períodos mínimo y máximo a incluir en


el ciclo, es un tipo de construcción de promedios móviles que aísla los
componentes periódicos de una serie de tiempo económica que cae en
una banda de frecuencias específica.

La cantidad de rezagos a incluir en el filtro es muy importante,


por cuanto estos definen la precisión de los ponderadores. Según Baxter
y King, no existe un número ideal de rezagos, pero sí ocurre que entre
más rezagos se incorporen en el promedio móvil, mejor será la
aproximación con el filtro ideal, a costa de una mayor pérdida de datos
por encima y por debajo del valor de interés, aspecto que cobra mayor
importancia al final de la serie. Por ello, la elección de k dependerá en
gran medida de la cantidad de datos disponibles y de lo necesario que
sea aproximar el filtro al ideal.

Este filtro cumple con la mayoría de las características:


• es simétrico, por lo que no produce movimientos de fase.
• aproxima relativamente bien un filtro ideal.
• produce series estacionarias.
• es un método operacional.
• es superior a otros en la medida que permite introducir la definición
del investigador del ciclo económico y no produce variación en las
propiedades de la variable al final de las series.

Habrá una pérdida de datos al inicio y al final de la serie igual a


dos veces la cantidad de rezagos que el investigador incluya.

Se recomienda utilizar los siguientes valores de parámetros:


Series anuales upper =2 lower =8 nma =3 arpad =1
Series trimestrales upper =2 lower =32 nma =12 arpad =4
Series mensuales upper =2 lower =96 nma =12 arpad=12

Donde:
Upper: número de períodos mínimos que se incluirán en el filtro,
correspondientes a frecuencias altas.
Lower: número de períodos máximos que se incluirán en el filtro,
correspondientes a frecuencias bajas.
Nma: número de promedios móviles (o rezagos ) del filtro.
Arpad: número de parámetros autorregresivos que se utilizarán para
sustituir los valores que se pierden al final de la serie, por la
aplicación de un promedio móvil truncado.

En el Eviews se sigue la instrucción siguiente:


Abrir CP ⇒ Proc ⇒ Frecuency Filter ⇒ Fixed length symmetric
(Baxter-King), lag = 12, low = 2, high = 32 ⇒ OK y se muestra el
siguiente resultado:

Fixed length symmetric (Baxter-King) filter Frequency Response Function


3000 1.2

2500 1.0

2000 0.8
80
1500
0.6
40 1000
0.4
0 500
0.2

-40 0.0

-80 -0.2
1950 1955 1960 1965 1970 1975 1980 1985 .0 .1 .2 .3 .4 .5
cycles/period
CP Non-cyclical Cycle Actual Ideal

3.- CHRISTIANO Y FITZGERALD.- es una variante al filtro Baxter-King,


derivan una aproximación óptima cuando la representación de los datos
tiene raíz unitaria o es estacionario alrededor de una tendencia.
Asimismo, desarrollan una variante cuyas ponderaciones son diferentes
para cada observación (asimétricas), la cual puede usarse para toda la
muestra ya que no hay pérdida de observaciones.
Este filtro de banda está basado en el proceso de generación de
los datos, el cual suponen que sigue un paseo aleatorio o Random Walk
(RW). Aun el caso que esta representación no sea verdadera, utilizando
datos macroeconómicos para EE.UU., los autores referidos encuentran
que el desempeño es satisfactorio.

Este filtro presenta ventajas cuando el interés es extraer


componentes para datos de baja frecuencias (donde la elección adecuada
de λ puede ser un problema) y estimar la tendencia y el ciclo en tiempo
real, o sea hasta la última observación. No obstante y al igual que el
filtro Baster-King, la variante de Christiano-Fitzgerald no invalida el
filtro Hodrick-Prescott particularmente para el análisis estadístico del
ciclo y los componentes de alta frecuencia para datos trimestrales.

En el Eviews se sigue la instrucción siguiente:


Abrir CP ⇒ Proc ⇒ Frecuency Filter ⇒ Fixed length symmetric
(Ghristiano-Fitzgerald), lag = 12, low = 2, high = 32, I(1)-random walk
⇒ OK y se muestra el siguiente resultado:

Fixed length symmetric (Christiano-Fitzgerald) filter Frequency Response Function


3000 1.2

2500
1.0
2000
80 0.8
1500
40 0.6
1000

0 500 0.4

-40 0.2

-80 0.0
1950 1955 1960 1965 1970 1975 1980 1985 .0 .1 .2 .3 .4 .5
cycles/period
CP Non-cyclical Cycle Actual Ideal

3.3. CICLO

Para extraer y predecir el componente cíclico se utiliza el ajuste de funciones


periódicas.

Una función periódica es aquella que repite sus valores en el tiempo cada p
periodos y puede venir expresada como:
1,5

 2πp 
1

Yt = A * cos +θ  0,5 A
0

 N  -0,5 1
-1
8 15 22 29 36 43 50 57 64 71 78 85 92 99
T

-1,5

donde: DESFASE = PI/2


1,5
1

A amplitud de la oscilación. 0,5


0
P período. -0,5 1 8 15 22 29 36 43 50 57 64 71 78 85 92 99

θ
-1
desfase. -1,5

N número total de observaciones.


A efectos de ajustar y predecir series cíclicas podemos utilizar la expresión
alternativa:
Yt = α * cos(ω0 * p * t ) + β * sen(ω0 * p * t )
ω0 es lo que se denomina frecuencia básica y es igual a 2 * π / N .

Paso 1: Identificar el número de máximos (mínimos) cíclicos p y construir las series:


COSPt = cos(2 * 3.1416 / N * p * t ) y SENPt = sen(2 * 3.1416 / N * p * t )

Paso 2: Ajustar mediante regresión el modelo:


Yt = β1 * COSPt + β 2 * SENPt

Paso 3: Calcular los errores (residuos) y si tienen comportamiento cíclico repetir el


proceso añadiendo nuevos términos al modelo.

Para determinar el valor del periodo p, podríamos utilizar, como primera


aproximación, el número de máximos (o mínimos) locales que presenta la serie a
analizar.

4º ANÁLISIS EN EL DOMINIO DE FRECUENCIAS

Una función periódica se repite transcurrido T (período), por lo tanto presentará


la máxima correlación con el retardo T y sus múltiplos enteros. Puede demostrarse que
la autocorrelación de una función periódica es periódica, del mismo período que dicha
función. Veamos los gráficos:
COS(2*PI*@TREND/(200/10)) FUNCION DE AUTOCORRELACION
1.5 1.5

1.0 1.0

0.5 0.5

0.0 0.0

-0.5 -0.5

-1.0 -1.0

-1.5 -1.5
20 40 60 80 100 120 140 160 180 200 -40 -20 0 20 40

Para visualizar la periodicidad de una serie, tenemos:

1.- EL PERIODOGRAMA.- se asimila a un “sintonizador” de un receptor de


radio, así, la serie que observamos sería la señal emitida por una radio y el
periodograma no sería más que el dial que busca en que frecuencia se “oye”
mejor la señal emitida.

“Modelo” que sigue la serie observada:


k
Yt = ∑ ( a p cos ω i t + bi sen ω i t ) + ε t
i =1
Asumimos que las frecuencias, ω i , denominadas Frecuencias de Fourier
son:
2πpi  N si N es par 
ωi = pi = 1,..., k 
k = (N − 1)2

N 
 2
si N es impar 

Los parámetros, a y b, se pueden estimar por MCO o bien, de forma


directa como:
N N
N Yt 2
aˆ p =
2
∑ Y cos pω t
t o
aˆ 0 = ∑ bˆ p = ∑ Y sen pω t
t o
N t =1 t =1 N N t =1

Se calcula el periodograma I(w):

(a 2p + b p2 )
I (ω p ) =
2ω 0
El periodograma mide aportaciones a la varianza total de la serie de
componentes periódicos de una frecuencia determinada (w). Si el periodograma
presenta un “pico” en una frecuencia, indica que dicha frecuencia tiene mayor
“importancia” en la serie que el resto.

De izquierda. a derecha. aumenta la frecuencia (disminuye el período):


0.0 1.5
1.5
1.0
-0.2
1.0
0.5
-0.4 0.5
0.0
0.0
-0.6
-0.5
-0.5
-0.8
-1.0
-1.0
-1.0 -1.5
20 40 60 80 100 120 140 160 180 200 -1.5
20 40 60 80 100 120 140 160 180 200

Tendencia Ciclo – Estacionalidad (Ciclo anual) Irregular

0
0 50 100 150
El periodograma está basado en una herramienta matemática
denominada Transformada de Fourier, según la cual una serie, que cumpla
determinados requisitos, puede descomponerse como suma de un número finito
o infinito de frecuencias. Del mismo modo, a partir de la representación
frecuencial puede recuperarse la serie original a través de la Transformada
Inversa de Fourier.

Las series periódicas presenta un periodograma discreto, es decir, solo


existe "masa" espectral en aquellas frecuencias contenidas en la serie, siendo
éstas un número discreto.
1.5 20

1.0
15
0.5

PERDG
0.0 10

-0.5
5
-1.0

0
-1.5
0 50 100 150
20 40 60 80 100 120 140 160 180 200

FREC

Las series aperiódicas presentan un periodograma continúo, es decir,


existe "masa" en un "infinito" número de frecuencias.
100
12000

80 10000

8000
60
PERDG

6000
40
4000

20 2000

0
0
0 50 100 150
20 40 60 80 100 120 140 160 180 200
FREC

Las series estocásticas presentan densidad espectral en un rango


continúo de frecuencias.
3 1.4

2 1.2

1.0
1
PERDG

0.8
0
0.6

-1 0.4

-2 0.2

0.0
-3 0 50 100 150
20 40 60 80 100 120 140 160 180 200
FREC

2.- EL ESPECTRO.- o densidad espectral se define para procesos estocásticos


estacionarios como la transformada de Fourier de la función de autocovarianza
(teorema de Wiener-Khintchine). Su estimador “natural” es el periodograma,
antes visto. Como hemos comprobado es un instrumento adecuado para la
detección de procesos periódicos puros, sin embargo en el caso de procesos
estocásticos presenta serias limitaciones, las más importantes son la
inconsistencia y la correlación asintóticamente nula entre ordenadas del
periodograma. Esto implica que no converja al verdadero “espectro” cuando la
muestra se amplia y que el periodograma muestre un comportamiento errático.
Los métodos paramétricos, parten de suponer “conocido” el PGD, y
modelizado en general a través de un proceso ARMA, a partir del cual se puede
recuperar una estimación del espectro.

Si la serie observada responde a un modelo ARMA (p,q):


Yt + a1Yt −1 + a 2Yt − 2 + ... + a p Yt − p = ε t + b1ε t −1 + b2 ε t − 2 + ... + bq ε t − q

El espectro equivale a:
1 + b1e −iω + b2 e −i 2ω + ... + bq e −iqω
2
σ ε2 −π ≤ ω ≤ π
hY (ω ) =
1 + a1e −iω + a 2 e −i 2ω + ... + a p e −ipω
2

5º PROCESO ESTOCÁSTICO

Siempre que estudiamos el comportamiento de una variable aleatoria a lo largo


del tiempo, estamos ante un proceso estocástico. En general, trabajamos con procesos
estocásticos en cualquier caso en que intentamos ajustar un modelo teórico que nos
permita hacer predicciones del comportamiento futuro de un proceso.

Si podemos encontrar patrones de regularidad en diferentes secciones de una


serie temporal, podremos también describirlas mediante modelos basados en
distribuciones de probabilidad.

Tenemos las definiciones siguientes:


1.- La secuencia ordenada de variables aleatorias X(t) y su distribución de
probabilidad asociada.
2.- Es el modelo matemático para una serie temporal.
3.- Es una colección {Yt; t = 1, 2, ……, T} de variables aleatorias ordenadas en el
tiempo. {Yt; t ∈ T} es un proceso continuo si −∞ < t < ∞. Si T is finito, {Yt}
es un proceso discreto.

Cualquier serie de tiempo puede ser generada por un proceso estocástico o


aleatorio; y un conjunto concreto de información, puede ser considerado como una
realización (particular) del proceso estocástico subyacente. La distinción entre un
proceso estocástico y su realización es semejante o la distinción entre la información
de corte transversal poblacional y muestral.

PROCESO ESTOCÁSTICO ESTACIONARIO

Un Proceso Estocástico Discreto (PED) es una sucesión de variables aleatorias


{yt} , donde t= -4, ..., -2, -1, 0, 1, 2, ... 4. Dos ejemplos de PED podrían ser: El ruido
blanco y el camino aleatorio.

Consideremos el PED {y-4, ...y1,...yT,...,y4} y centrémonos en dos de sus


miembros: yt y yt-k. Este PED se denomina “estacionario” de un tipo particular si
determinadas propiedades estocásticas de yt y yt-k no dependen de t y t-k (su ubicación
absoluta en la secuencia) pero dependen sólo de k (su separación relativa en la
secuencia).

Se tiene los tipos de estacionariedad siguiente:

1.- Estricta: Se verifica si las distribuciones de yt y yt-k (conjunta y marginal) no


dependen de t pero sólo de k.

Un proceso estocástico es estacionario en sentido estricto


cuando su función de distribución conjunta es invariante respecto a un
desplazamiento en el tiempo.

Considerando que t1; t2; .... ; tk corresponden a periodos


sucesivos de tiempo que denominamos como t; t + 1;.. ; t + k, entonces:
f ( y t ; yt +1 ;...; yt + k ) = f ( y t + m ; yt +1+ m ;...; yt + k + m )

2.-Débil: Se verifica cuando los dos primeros momentos de yt y yt-k dependen


posiblemente de k pero no de t, i.e. E(yt) = E(yt-k) y Var(yt) = Var(yt-k)
y Cov(ytyt-k) depende posiblemente de k pero no de t.
E [Yt ] = µY
Var (Yt ) = σ Y2

( ) (
COV Yt1 , Yt2 = E  Yt1 − µY )(Y t2 )
− µY  = λ ( t1 − t2 )
En el caso que las series sean estacionarias en el sentido débil, se podrán
modelar a través de un conjunto de especificaciones conocidas como los modelos AR,
MA y ARMA. El objetivo de los mismos es explicar el componente cíclico de la serie
(o su componente estacionario) a través de su pasado por medio de diferentes tipos de
relaciones.

Una serie de tiempo es estacionaria si su distribución es constante a lo largo del


tiempo; para muchas aplicaciones prácticas es suficiente considerar la llamada
estacionariedad débil, esto es, cuando la media y la varianza de la serie son constantes
a lo largo del tiempo. Muchas de las series de tiempo que se analizan en Econometría
no cumplen con esta condición, cuando tienen una tendencia.

5º PRUEBA DE ESTACIONARIEDAD

Existen varias pruebas para verificar estacionariedad y se clasifican en los tipos


siguiente:

5.1. MÉTODO DE BOX - JENKINS

El procedimiento para verificar estacionariedad de la serie es:


1º El examen visual de la trayectoria de la serie a lo largo del tiempo puede dar
una idea de si es o no estacionaria en media. Si existe algún valor en torno al
cual la serie va oscilando pero sin alejarse de forma permanente de dicho valor,
entonces se puede considerar que la serie es estacionaria en media.
2º Si los coeficientes de AC no decaen rápidamente sería un indicio claro de que
la serie es no estacionaria.
3º El primer coeficiente de PAC es significativo (es decir, mayor o igual a 0.9)
entonces la serie es no estacionaria.

Si la serie es no estacionaria, la serie debería someterse a la primera diferencia,


y se volvería a analizar siguiendo los pasos anteriores. De esta forma se continuaría
hasta obtener una serie diferenciada de orden d. En la práctica, es suficiente con tomar
d = 1 o d = 2 para obtener una serie estacionaria en media.

EJEMPLO

1º Si observamos el ploteo del consumo personal agregado real se visualiza que no


oscila alrededor de su media, por lo tanto es no estacionaria.
2800

2400

2000

1600

1200

800

400
1950 1955 1960 1965 1970 1975 1980 1985

CP @MEAN(CP,"1950q1 1988q1")

2º Según el correlograma del consumo personal agregado real cae lentamente, por
lo tanto no es estacionaria.
Abrir la serie ⇒ View ⇒ Correlogram... ⇒ se marca nivel y se escribe
12 lag ⇒ OK y se muestra el siguiente resultado:

Sample: 1950Q1 1988Q1


Included observations: 153

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|*******| .|*******| 1 0.955 0.955 142.33 0.000


.|*******| .|. | 2 0.911 -0.014 272.69 0.000
.|*******| .|. | 3 0.868 -0.014 391.73 0.000
.|****** | .|. | 4 0.825 -0.012 500.15 0.000
.|****** | .|. | 5 0.786 0.008 599.06 0.000
.|****** | .|. | 6 0.747 -0.010 689.07 0.000
.|***** | .|. | 7 0.711 0.006 771.12 0.000
.|***** | .|. | 8 0.677 0.008 846.07 0.000
.|***** | .|. | 9 0.645 0.008 914.68 0.000
.|***** | .|. | 10 0.616 0.011 977.69 0.000
.|**** | .|. | 11 0.590 0.012 1035.8 0.000
.|**** | .|. | 12 0.565 0.010 1089.5 0.000

3º Examinando el primer coeficiente de autocorrelación parcial del consumo


personal agregado real es significativo (0.955 > 0.9), entonces el ingreso
personal disponible no es estacionario.

Como el consumo personal agregado real no es estacionario, tenemos que


examinar la primera diferencia de la serie y repetir el procedimiento de Box-Jenkins.

1º Si observamos el ploteo de la primera diferencia del consumo personal


agregado real se visualiza que oscila alrededor de su media, por lo tanto es
estacionaria.
60

40

20

-20

-40

-60
1950 1955 1960 1965 1970 1975 1980 1985

D(CP) @MEAN(D(CP),"1950q1 1988q1")

2º Obtenemos el correlograma de la primera diferencia del consumo personal


agregado real se obtiene siguiendo la instrucción siguiente:
Abrir la serie⇒ View ⇒ Correlogram... ⇒ se marca 1st difference y se
escribe 12 lag ⇒ OK y se muestra el siguiente resultado:

Sample: 1950Q1 1988Q1


Included observations: 152

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|** | .|** | 1 0.204 0.204 6.4803 0.011


.|** | .|* | 2 0.223 0.189 14.251 0.001
.|** | .|* | 3 0.217 0.153 21.681 0.000
.|* | .|* | 4 0.165 0.075 26.010 0.000
.|. | *|. | 5 0.021 -0.089 26.082 0.000
.|* | .|. | 6 0.077 0.013 27.021 0.000
.|. | .|. | 7 0.049 0.010 27.408 0.000
*|. | **|. | 8 -0.151 -0.193 31.104 0.000
.|. | .|. | 9 0.018 0.058 31.156 0.000
.|. | .|. | 10 -0.011 0.023 31.176 0.001
.|. | .|. | 11 -0.023 0.021 31.267 0.001
*|. | .|. | 12 -0.072 -0.046 32.134 0.001

De la observación del gráfico podemos deducir que la primera diferencia del


consumo personal agregado real es estacionaria.

3º Examinando el primer coeficiente de autocorrelación parcial de la primera


diferencia del consumo personal agregado real no es significativo (0.204 < 0.9),
entonces la primera diferencia del consumo personal agregado real es
estacionaria.
Por lo tanto, la primera diferencia del consumo personal agregado real es
estacionaria.

5.2. PRUEBA DE RAÍZ UNITARIA

Las series de tiempo no estacionarias que presentan raíces unitarias son un caso
muy especial de las series no estacionarias, tanto por su frecuencia en economía como
por lo que se conoce de sus propiedades estadísticas; en los últimos años se ha
realizado una gran cantidad de trabajos para el diseño de pruebas de hipótesis de que
una serie tiene raíces unitarias.

Consideremos el siguiente modelo:


donde u es el término de error estocástico que sigue los supuestos clásicos, a saber:
Yt = Yt − 1 + ut (1)
tiene media cero, varianza constante ( σ 2
) y no está autocorrelacionada; es decir, el
término de error es ruido blanco.

Y
Si el coeficiente de t − 1 es en realidad igual a 1, surge lo que se conoce como
el problema de raíz unitaria, o sea, una situación de no estacionariedad. En
econometría, una serie de tiempo que tiene una raíz unitaria se conoce como un
camino aleatorio. Por lo tanto, se estima la regresión:

Yt = ρYt −1 + ut (2)
y se encuentra que
ρ=1 , entonces se dice que la variable estocástica
Yt tiene una
raíz unitaria.

5.2.1. DICKEY FULLER NORMAL

De modo que podemos contrastar la hipótesis de no estacionareidad probando


la hipótesis nula ρ = 1 contra la alternativa |ρ| < 1 o simplemente ρ < 1.

Si restamos
Yt − 1 en ambos miembros de la ecuación (2), queda:

Yt − Yt − 1 = ρYt − 1 − Yt − 1 + ut
y sacando factor común, resulta:

∆Yt = (ρ − 1)Yt − 1 + ut
∆Yt = δYt − 1 + ut

Entonces, tendríamos la siguiente implicación con la prueba de hipótesis:


H0 : ρ = 1 ⇒ H0 : δ = 0
H0 : ρ < 1 ⇒ H0 : δ < 0
Cuando las series en una regresión no son estacionarias, el uso del estadístico t
para contrastar hipótesis δ = 0 es inadecuado pues este no sigue la distribución t
Student. Esta tabla es limitada, pero Mac Kinnon preparó tablas más extensas, que
están incorporadas en el Eviews.

Además de probar si una serie es una caminata aleatoria, Dickey y Fuller


desarrollaron también valores críticos para la presencia de una caminata aleatoria con
desplazamiento y con tendencia determinística, es decir bajo tres distintas hipótesis
nulas:
∆Yt = δYt −1 + ε t
∆Yt = α 0 + δYt −1 + ε t
∆Yt = α 0 + δYt −1 + α 2 t + ε t

Series como Yt , las cuales se convierten en estacionarias después de tomar la


primera diferencia, se conocen como integradas de orden 1 y se designa como I(1).
Las series estacionarias son series integradas de orden 0, I(0).

En general, si una serie debe ser diferenciada d veces para alcanzar


estacionaridad se dice que es integrada de orden d o I(d).

5.2.2. DICKEY FULLER AUMENTADO

Al realizar la prueba de DF se supuso que el término de error ε t no estaba


correlacionado.

Dickey y Fuller, Said y Dickey (1984), Phillips y Perron (1988) y otros,


desarrollaron modificaciones de las pruebas de Dickey y Fuller cuando ε t , no es
ruido blanco. Se conocen con el nombre de pruebas “aumentadas” de Dickey y
Fuller.

No todos los procesos de series de tiempo pueden ser representadas por un


proceso autoregresivo de primer orden. Considerando un proceso autoregresivo de
orden p, como:
yt = α 0 + α 1 yt −1 + α 2 yt −2 +....+ α p yt − p + ξ t

α p yt − p +1
adicionando y sustrayendo el término , nos resulta:
p

∆yt = α 0 + δyt −1 + ∑ β i ∆yt −i +1 + ξ t


i =2
donde,
 p
 p
δ = −1 − ∑ α i  y βi = ∑α j .
 i =1  j =i

Donde
ξt es un término de error puro con ruido blanco. El número de términos de
diferencia rezagados que se debe incluir, con frecuencia se determina de manera
empírica, siendo la idea incluir los términos suficientes para que el término de error
no esté serialmente relacionado.

Considerando las tres posibilidades tenemos:


p
∆yt = δyt −1 + ∑ β i ∆yt −i +1 + ξ t
i =2
p

∆yt = α 0 + δyt −1 + ∑ β i ∆yt −i +1 + ξ t


i =2
p

∆yt = α 0 + δyt −1 + ∑ β i ∆yt −i +1 + α 2 t + ξ t


i =2

En la DFA se sigue probando δ = 0 y además esta prueba sigue la misma


distribución asintótica que el estadístico DF, por lo que se puede utilizar los mismos
valores críticos.

Para elegir p se tiene los siguientes criterios:

1) Incluir retardos de Yt hasta que el error sea ruido blanco.


2) Incluir retardos de Yt significativos.
3) Utilizar AIC, SBC, etc. (“information criteria”), para elegir p.

Sin embargo, la prueba de Dickey-Fuller es frágil siempre hay que utilizar


información adicional (inspección visual de la serie, sentido común, historia, teoría)
antes de aceptar o rechazar lo que sugiere la prueba de Dickey-Fuller

Si hay variables innecesarias en la regresión, es más difícil rechazar la hipótesis


nula (existencia de raíz unitaria) cuando en realidad es δ < 0 . Por consiguiente,
existen tres pruebas:

1) Sin la constante y sin el término de tendencia.


2) Con la constante pero sin el término de tendencia.
3) Con la constante y el término de tendencia.

5.2.3. PRUEBA DE PHILLIPS - PERRON

Phillips y Perron (1988) proponen una alternativa (no paramétrico) método de


control de la correlación serial cuando se realiza la prueba de raíz unitaria. Al igual
que la prueba ADF, la prueba PP es una prueba de hipótesis sobre
ρ = 1 en la
ecuación:
∆Yt = α + δ Yt −1 + β t + ε t
y modifica el t del coeficiente δ de modo que la correlación serial no afecta la
distribución asintótica de la prueba estadística. La prueba PP se basa en la
estadística:
~
1

tδ = tˆδ  0  −
( ( ))
 γ  2 T ( f 0 − γ 0 ) se δˆ
1
 f0  2 f0 2 s

()
donde se δˆ es el error estándar de coeficiente δ , s es el error estándar de la
regresión de la prueba, γ 0 es una estimación consistente de la varianza del error
(calculado como (T − k )s 2 / T , donde k es el número de regresores) y f 0 es un
estimador del espectro residual en la frecuencia cero.

Hay dos opciones que usted tendrá que hacer para realizar la prueba PP. En
primer lugar, debe decidir si incluir una constante, una constante y una tendencia en
el tiempo lineal, o ninguno, en la regresión de la prueba. En segundo lugar, usted
tendrá que elegir un método para estimar f 0 . Eviews apoya estimadores para f 0
basados en el núcleo basado en suma-de-covarianzas, o sobre estimación de la
densidad espectral autorregresivos.

La distribución asintótica de la relación de PP es la misma que la de la


estadística de ADF.

La hipótesis nula del test de Phillips-Perron es la trayectoria de raíz unitaria con


tendencia y la alternativa la estacionariedad con tendencia, si el valor t-Student
asociado al coeficiente de Yt −1 es mayor en valor absoluto al valor crítico de
MacKinnon, se rechaza la hipótesis de existencia de raíz. La distribución asintótica
de la prueba PP es la misma que la prueba DFA.

5.2.4. PRUEBA DE DICKEY – FULLER CON ELIMINACION DE LA


TENDENCIA (DFGLS)

En los test anteriores, se puede optar por incluir una constante, o una constante
y una tendencia en el tiempo lineal, en la prueba de regresión ADF. Para estos dos
casos, el ERS (1996) proponen una simple modificación de las pruebas de ADF en el
que los datos son sin tendencias a fin de que las variables explicativas son "sacadas"
de los datos antes de ejecutar la prueba de regresión.

ERS define una cuasi-diferencia de Yt que depende del valor que representa la
alternativa punto concreto contra el que deseamos probar la hipótesis nula:
 Yt if t = 1
D (Yt a ) = 
Yt − aYt −1 if t > 1

Se considera una regresión de MCO de la cuasi-diferenciada de datos D(Yt a )


sobre la cuasi-diferenciados D (X t a ), es decir:

D (Yt a ) = D ( X t a ) δ (a ) + ε t

que X t contiene ya sea una constante, o una constante y la tendencia, y δˆ(a ) son las
estimaciones de MCO de esta regresión.

Todo lo que necesitamos ahora es un valor para a . ERS recomienda el uso de


a = a , cuando:
 1 − 7 if X t = {1}
a= T
1 − 13.5 T if X t = {1, t}

Definimos ahora el GLS sin tendencia de datos Yt d , utilizando las estimaciones


relacionadas con a :
Yt d = Yt − X t′δˆ (a )

Entonces la prueba DFGLS consiste en calcular la ecuación siguiente:


∆Yt d = αYt d−1 + β 1 ∆Yt d−1 + ..... + β p ∆Yt d− p + υ t

Si bien el DFGLS que es el ratio t sigue una distribución de Dickey-Fuller, en


el caso de única constante, la distribución asintótica es diferente cuando se incluyen
tanto una constante y tendencia. ERS simula los valores críticos de la estadística de
prueba en este escenario para T = {50,100,200, ∞}. La hipótesis nula es rechazada por
los valores que caen por debajo de estos valores críticos.

5.2.5. PRUEBA DE KWIATKOWSKI, PHILLIPS, SCHMIDT, Y SHIN (KPSS)

La prueba KPSS (1992) difiere de las otras pruebas de raíz unitaria, en que la
serie se supone que es estacionaria bajo la hipótesis nula. La estadística KPSS se
basa en el los residuos de la regresión de MCO de Yt en las variables exógenas X t :
Yt = X t′δ + ut

El estadístico LM es definido como:


( )
T
LM = ∑ S (t ) / T 2 f 0
2

t =1

donde f 0 , es un estimador del espectro residual en la frecuencia cero y en caso de


S (t ) es una función residual acumulativa:
t
S (t ) = ∑ uˆr
r =1

sobre la base de los residuos uˆt = Yt − X t′δˆ(0) . Se señala que el estimador de δ


utilizado en este cálculo difiere del estimador δ utilizado para GLS con eliminación
de la tendencia, ya que se basa en una regresión con los datos originales y no en la
cuasi-datos diferenciados.

Para especificar la prueba KPSS, debe especificar el conjunto de regresores


exógenos X t y un método para la estimación de f 0 . Los valores reportados crítico
para la estadística de prueba LM se basan en los resultados presentados en KPSS
asintótica.

5.2.6. PRUEBA DE ELLIOT, ROTHENBERG, AND STOCK POINT OPTIMAL


(ERS)

El estudio del punto óptimo de ERS se basa en la cuasi-regresión de


diferenciación que se define:

D (Yt a ) = D (X t a ) δ (a ) + ε t


Definir los residuos de la ecuación como εˆt (a ) = D (Yt a ) − D (X t a ) δˆ(a ) , y dejar
T
que SSR(a ) = ∑ εˆt2 (a ) sea la suma de los residuos al cuadrado. El ERS (posible) el
t =1

punto óptimo de la estadística de prueba de la hipótesis nula que a = 1 frente a la


alternativa que a = a , es definido como:
PT = (SSR(a ) − a SSR(1))
f0

donde f 0 , es un estimador del espectro residual en la frecuencia cero.

Para calcular la prueba de ERS, debe especificar el conjunto de regresores


exógenos X t y un método para estimar f 0 . Los valores críticos para la estadística de
prueba ERS se calculan por interpolación de los resultados de la simulación prevista
por el ERS para T = {50,100,200, ∞}.

5.2.7. PRUEBA DE NG Y PERRON (NP)

Ng y Perron (2001) construye cuatro pruebas estadísticas que se basan en los


datos del GLS sin tendencia Yt d . Estas pruebas estadísticas modifican las formas del
estadístico Phillips y Perron Z a y Z t , el estadístico Bhargava (1986) R1 y el
estadístico ERS punto óptimo. En primer lugar, definimos el término:
κ = ∑ (Yt −d1 ) / T 2
T
2

t =2

Las estadísticas modificadas puede escribirse como:


(
MZ ad = T −1 YTd( ) 2
)
− f 0 / (2κ )
MZ = MZ a × MSB
t
d

MSB = (κ / f 0 )
1
2

(
 c 2κ − c T −1 YTd 2 / f 0 ( )) if X t = {1}
MP =  2
( ( ))
d

 c κ + (1 − c )T −1 YTd / f 0 if X t = {1, t}
T 2

donde:
 −7 if X t = {1}
c =
− 13.5 if X t = {1, t }

Las pruebas NP requieren una especificación para X t y la elección de un


método para la estimación de f 0 .

5.2.8. CRÍTICAS DE LAS PRUEBAS DE RAÍZ UNITARIA

Existen varias pruebas de raíz unitaria porque difieren en el tamaño y potencia


de dichas pruebas.

Por tamaño de la prueba se quiere entender el nivel de significancia (es decir, la


probabilidad de cometer error de tipo I) y por potencia de una prueba se entiende la
probabilidad de rechazar la hipótesis nula cuando es falsa.

La potencia de una prueba se calcula restando la probabilidad de un error de


tipo II de uno.

La mayoría de las pruebas del tipo DF tienen poco poder; es decir, tienden
aceptar la nulidad de la raíz unitaria con más frecuencia de la que se garantiza. En
otras palabras, estas pruebas pudieran encontrar una raíz unitaria, aunque ésta no
exista.

Perron (1989) sostuvo que los tradicionales test de raíz unitaria (Dickey-Fuller,
Dickey-Fuller Aumentado y Phillips-Perron) tenían poco poder para diferenciar una
trayectoria de raíz unitaria de una estacionaria cuando había cambio estructural. En
consecuencia, como estos test estaban sesgados hacia el no rechazo de la hipótesis
nula de raíz unitaria, a menudo se rechazaba incorrectamente la hipótesis alternativa
de estacionariedad. Perron encontró, por ejemplo, que las series de agregados
macroeconómicos y financieros utilizados por Nelson y Plosser (1982) eran en su
mayoría estacionarias con cambio estructural, en oposición a lo que los citados
autores señalaban.

5.2.9. EJERCICIO

Considerando el consumo personal agregado real y observando su ploteo con la


media, deducimos que tiene tendencia e intercepto, además consideramos cuatro
rezagos y el criterio Schwarz para elegir el retardo óptimo.
Se obtiene los resultados siguientes:

¿Existe Raíz
Estadístico Valor crítico Unitaria?
Tipo de Test
t 1%/5% Nivel de significancia
1% 5%
NIVELES
Hipótesis Nula: Existe raíz unitaria (no estacionaria)
Dickey-Fuller Aumentado (ADF) -1.117406 -4.019561 / -3.439658 SI SI
Elliott-Rothenberg-Stock (DF-GLS) -0.809523 -3.520000 / -2.980000 SI SI
Phillips-Perron (PP) -1.451289 -4.019561 / -3.439658 SI SI
Elliott-Rothenberg-Stock punto óptimo. 94.95858 4.148700 / 5.650600 NO NO
Hipótesis Nula: No existe raíz unitaria (estacionaria)
Kwiatkowski-Phillips-Schmidt-Shin 0.289358 0.216000 / 0.146000 SI SI

Por lo tanto, el consumo personal agregado real es no estacionaria, es decir,


tiene raíz unitaria. Ahora debemos seguir el mismo procedimiento con la primera
diferencia.

Observando el ploteo de la primera diferencia del consumo personal agregado


real con su media, concluimos que no tiene tendencia y si tiene intercepto
(t=11.78070 > 2), además consideramos cuatro rezagos y el criterio Schwarz para
elegir el retardo óptimo.

Obtenemos los siguientes resultados:

¿Existe Raíz
Estadístico Valor crítico Unitaria?
Tipo de Test
t 1%/5% Nivel de significancia
1% 5%
PRIMERA DIFERENCIA
Hipótesis Nula: Existe raíz unitaria (no estacionaria)
Dickey-Fuller Aumentado (ADF) -4.625715 -3.474567 / -2.880853 NO NO
Elliott-Rothenberg-Stock (DF-GLS) -4.546566 -2.580574 / -1.942982 NO NO
Phillips-Perron (PP) -10.75407 -3.473967 / -2.880591 NO NO
Elliott-Rothenberg-Stock punto óptimo. 0.935116 1.929200 / 3.141200 SI SI
Hipótesis Nula: No existe raíz unitaria (estacionaria)
Kwiatkowski-Phillips-Schmidt-Shin 0.496796 0.739000 / 0.463000 NO NO

Por lo tanto, la primera diferencia del consumo personal agregado real es


estacionaria, es decir, el consumo personal agregado real es integrado de orden uno.

6º CAMBIO ESTRUCTURAL

Nos interesa evaluar la presencia de un cambio en alguno de los elementos


determinísticos que caracterizan a la serie: el intercepto, y/o la tendencia. Es decir,
tenemos los modelos siguientes:
Yt = α 0 + α 1 Dt + u t
Yt = α 0 + α 1t + α 2 Dt t + u t
Yt = α .0 + α 1 Dt + α 2 t + α 3 Dt t + u t

Zivot y Andrews (1992) elaboraron un test en la que la fecha del punto de


quiebre era determinada endógenamente. Con esta finalidad se desarrollo un programa
preparado para E-Views , correspondiente al test de Z&A, realizado de manera
secuencial, esto último se refiere a que el programa evalúa la posible presencia de
quiebre estructural en cada observación de la serie analizada (genera variables
Dummy a partir de la 75ava observación y termina en la observación N-75).

Zivot & Andrews elaboraron un test en el que se diferencia una trayectoria de


raíz unitaria de una estacionaria cuando había cambio estructural, debido a que los
tradicionales test ADF y PP estaban sesgados hacia el no rechazo de la hipótesis nula
de raíz unitaria, puesto que a menudo se rechazaba incorrectamente la hipótesis
alternativa de estacionariedad. La hipótesis nula es la presencia de raíz unitaria con
tendencia y la alternativa, la de estacionariedad con tendencia y cambio estructural (en
el nivel y/o pendiente).

Zivot y Andrews presentan un gráfico F con tres líneas: La línea roja (FT)
muestra el resultado del test F aplicado secuencialmente, para posibles quiebres en
tendencia, la línea verde (FM), muestra el mismo test, pero para posibles quiebres en
media, la línea azul (F) es el test F, para ambos casos; se observa la línea que alcanza
valores más altos, por lo que podemos concluir que existe evidencia de un POSIBLE
quiebre (en tendencia, media o ambos), o dicho de otra forma, si existe quiebre en la
serie (y no raíz unitaria), este sería quiebre (en tendencia, media o ambos) y estaría
alrededor de tal observación.

Asimismo, se presentan tres gráficos en la que se plotean por un lado, la


trayecoria de la distribución t o t’s de Zivot, y por el otro los valores de la distribución
t crítico; si el valor t-Zivot cruza los valores críticos (VCRIT), existe suficiente
evidencia estadística para rechazar la hipótesis nula de raíz unitaria, por lo que la(s)
serie(s) evaluadas muestra una trayectoria de raíz unitaria. Contrariamente, si la
distribución de valores t Zivot no cruza el t crítico, no existe evidencia para rechazar la
hipótesis nula de raíz unitaria (no estacionariedad).

6.1. EJERCICIO

Considerando el consumo personal agregado real y aplicando el programa de


Zivot y Andrews, nos da el resultado siguiente:
GRÁFICO N°01 GRÁFICO N°02
18000 -1

16000
-2
14000

12000
-3
10000

8000
-4
6000

4000 -5
25 50 75 100 125 150 30 40 50 60 70 80 90 100 110 120 130

F FT FM ZIVOTM VCRITM

GRÁFICO N°03 GRÁFICO N°04


-1.5 -2.0

-2.4
-2.0
-2.8
-2.5
-3.2

-3.0 -3.6

-4.0
-3.5
-4.4
-4.0
-4.8

-4.5 -5.2
30 40 50 60 70 80 90 100 110 120 130 30 40 50 60 70 80 90 100 110 120 130

ZIVOTT VCRITT ZIVOT VCRIT


Como se aprecia en el gráfico N° 01, existe un posible quiebre estructural en
tendencia y en los otros tres gráficos, los valores t Zivot no cruzan el t crítico, no existe
evidencia para rechazar la hipótesis nula de raíz unitaria (no estacionariedad).

7º MODELOS UNIVARIANTES DE SERIES DE TIEMPO

La serie temporal es explicada por los valores pasados de dicha serie y un


cierto término de error y su pasado.

Se asume que la perturbación es generada por un proceso de ruido blanco, es


decir:

E ( ε t ) = 0 , Var ( ε t ) = σ 2ε , Cov ( ε t ε t − k ) = 0 ∀ k ≠ 0.

Tenemos los siguientes modelos:

1º Modelo de Media Móvil de orden q.-

Y
El proceso t queda descrito completamente por una suma ponderada de
los errores actuales y pasados. Es decir, cada observación de la serie es
generada por una media ponderada de perturbaciones aleatorias con un retardo
de q periodos. Escribimos el modelo MA(q) así:

Yt = u + ε t − θ 1ε t − 1 − θ 2 ε t − 2 −.....− θ q ε t − q

en forma simplificada es:

Yt = u + θ ( B)ε t
donde B es un operador de cambio hacia atrás (impone un retardo temporal de
un periodo cada vez que se aplica a una variable).

Este proceso señala que la influencia sobre la variable


Yt es
esencialmente por errores.

La media del proceso es el intercepto (


E (Yt ) = u ) y la varianza es:
Var (Yt ) = σ 2ε (1 + θ12 + θ 22 +.....+ θ q2 )

Si
Yt es la realización de un proceso aleatorio estacionario, es preciso
q
que la ∑θ
i =1
i
2
sea convergente a medida que q llega a ser infinitamente grande,

entonces los θ i son cada vez menores a medida que aumenta i. Esto implica
que si el proceso es estacionario su función de autocorrelación
ρ k decrece a
medida que aumenta k.

1.1. MA(1)

Yt = u + ε t − θ1ε t −1

las características del proceso son:

E(Yt ) = u γ 0 = σ ε2 (1 + θ12 )
γ 1 = −θ1σ ε2 γ K = 0 ∀ K > 1.

θ1 < 1
siendo la condición de invertibilidad . La función de
autocorrelación es:
−θ1
ρ1 = ρK = 0 ∀K
∀ > 1.
1 + θ12

y la función de autocorrelación parcial es:

ρ *
=
(− θ ) (1 − θ )
1
K 2
1
K
1 − θ 2 K+ 2

presenta un decrecimiento exponencial porque


. Los
θ1 < 1
correlogramas
elogramas de un proceso de promedio móvil de primer orden son:
1.2. MA(2)
      1-1  2-22

las características del proceso son:


E(Yt ) = u γ 0 = σ 2ε (1 + θ 12 + θ 22 )
γ 1 = − θ 1 (1 − θ 2 )σ 2ε γ 2 = − θ 2 σ 2ε
γK = 0 ∀ K > 2.

siendo la condición de invertibilidad:

θ 2 + θ1 < 1 θ2 − θ1 < 1 θ2 < 1

La función de autocorrelación es:


− θ 1 (1 − θ 2 ) −θ2
ρ1 = ρ2 =
1+ θ 1 + θ 2
2 2
1+ θ 12 + θ 22
ρK = 0 ∀ K > 2.

Los correlogramas de un proceso de promedio móvil de segundo


orden son:

La función de autocorrelación se anula para retardos superiores a


q, mientras que la función de autocorrelación parcial presenta un
decrecimiento rápido de tipo exponencial y / o sinusoidal.
2º Modelo de Autoregresivo de orden p.-

El proceso
Yt depende de una suma ponderada de sus valores pasados y
Y
de un término de error. Es decir, la observación actual ( t ) es generada por
una media ponderada de observaciones anteriores que se remontan p periodos
en el pasado, junto con una perturbación aleatoria correspondiente al periodo
actual. El modelo AR(p) sería:
Yt = δ + φ 1Yt −1 + φ 2Yt −2 +.....+ φ pYt −

en forma simplificada es:

φ ( B)Yt = δ + ε t
donde B es un operador de cambio hacia atrás (impone un retardo temporal de
un periodo cada vez que se aplica a una variable).

Los valores anteriores, pueden estar incluyendo los factores


tendenciales, cíclicos, y / o estacionales de la serie.

La media del proceso es:

δ
u = E (Yt ) =
1 − φ 1 − φ 2 −.....− φ p
p

∑φ
i =1
i
Para que la media del proceso sea finita es necesario que la sea
diferente a uno.

2.1. AR(1)

Yt = δ + φ1Yt −1 + ε t
las características del proceso son:
δ σ ε2
u= γ0 =
1 − φ1 1 − φ12
γ 1 = φ1γ 0 γ 2 = φ12γ 0 ......... γ K = φ1Kγ 0

siendo la condición de estacionariedad . La función de


φ1 < 1
autocorrelación es:
ρ k = φ1K

y la función de autocorrelación parcial es:


ρ1* = φ1
ρK* = 0 ∀ K = 2, 3,

Los correlogramas de un proceso autorregresivo de primer orden


son:

2.2. AR(2):

Yt = δ + φ 1Yt −1 + φ 2 Yt − 2 + ε t

las características del proceso son:

δ
u= γ 0 = φ 1γ 1 + φ 2 γ 2 + σ 2ε
1− φ 1 − φ 2
γ 1 = φ 1γ K−1+φ 2 γ K− 2 ∀K > 0

siendo la condición de estacionariedad:


φ2 + φ1 < 1 φ2 − φ1 < 1 φ2 < 1

La funcción de autocorrelación es:


φ1
ρ1 = ρ K = φ 1ρ K −1 + φ 2ρ K− 2 ∀ K >1
1− φ 2

y la función de autocorrelación parcial es:


φ1
ρ 1* = ρ *2 = φ 2 ρ *K = 0 ∀ K>2
1− φ 2
La función de autocorrelación presenta un decrecimiento rápido
de tipo geométrico puro, y geométrico con alteración de signos,
sinusoidal o mezcla de varios tipos, mientras que la función de
autocorrelación parcial se anula para retardos superiores a dos.

Los correlogramas de un proceso autorregresivo de segundo


orden son:

El proceso tiene una memoria infinita, es decir, el valor actual del


proceso ( Yt ) depende de todos los valores pasados, aunque el grado de
esta dependencia disminuye con el tiempo.
Para cualquier proceso autoregresivo estacionario, sea del orden
que sea, existe un proceso de media móvil de orden infinito equivalente.

3º Modelo de Autoregresivo de Media Móvil de orden (p,q).-

En estos modelos el proceso Yt es una función tanto de los errores


pasados como de sus valores pasados, así como de un término de error
correspondiente al periodo presente. Es decir, la observación actual ( Yt ) es
generada por una media ponderada de observaciones anteriores que se
remontan p periodos en el pasado y una media ponderada de perturbaciones
aleatorias con un retardo de q periodos, junto con una perturbación aleatoria
correspondiente al periodo actual. El modelo ARMA(p,q) se escribe:
Yt = δ + φ 1Yt − 1 + φ 2Yt − 2 + .....+ φ pYt − p + ε t − θ 1ε t − 1 − θ 2 ε t − 2 − .....− θ q ε t − q

en forma simplificada es:


φ ( B)Yt = δ + θ ( B)ε t

donde B es un operador de cambio hacia atrás (impone un retardo temporal de


un periodo cada vez que se aplica a una variable).

La media del proceso es:


δ
u = E (Yt ) =
1 − φ 1 − φ 2 −.....− φ p

P
Para que la media del proceso sea finita es necesario que la ∑φ
i =1
i sea
diferente a uno.

ARMA(1,1)
Yt = δ + φ 1Yt −1 + ε t − θ 1ε t −1

las características del proceso son:


δ 1 + θ 12 − 2φ 1θ 1 2
u= γ0 = σε
1− φ 1 1 − φ 12
γ 1 = φ 1γ 0 - θ 1σ 2ε γ K = φ 1γ k − 1 ∀K >1

siendo la condición de estacionariedad φ1 < 1 y θ1 < 1 . La función de


autocorrelación es:

ρ1 =
(1 − φ 1θ 1 )(φ 1 − θ 1 ) ρ K = φ 1ρ K−1 ∀ K > 1
1 + θ 12 − 2φ 1θ 1

Tanto la función de autocorrelación y la función de autocorrelación


parcial presenta a los primeros valores iniciales que no tienen un patrón fijo y
van seguidos de una mezcla de oscilaciones sinusoidales y / o exponenciales
amortiguadas.

El proceso tiene una memoria infinita, es decir, el valor actual del


proceso ( Yt ) depende hasta el periodo q de ambos procesos (media móvil y
autoregresivo) y después del retardo q solamente depende del proceso
autoregresivo.

4º PROCESO ESTOCÁSTICO NO ESTACIONARIO

En la práctica, muchas de las series temporales con las que trabajamos


son no estacionarias, de forma que las características del error se modifican con
el transcurso del tiempo. Recordemos que la serie no estacionaria se puede
transformar en estacionaria diferenciándola una o varias veces.

4.1. MODELOS ARIMA

Un proceso integrado es aquel que puede convertirse en estacionario


aplicando diferencias. Así, por ejemplo, un camino aleatorio sería un proceso
integrado de orden 1 (I(1)), ya que puede convertirse en estacionario tomando
primeras diferencias.

Definimos el orden de integración de un proceso como el número de


diferencias que debemos aplicarle para convertirlo en estacionario.

En el contexto de las series económicas los órdenes de integración más


frecuentes son 1 ó 2 I(1) ó I(2). En algunas ocasiones las diferencias deben
aplicarse sobre el valor estacional.

Tenemos los siguientes modelos:

1º Modelo Integrado de Media Móvil de orden (0,d,q).-

El proceso ∆d Yt queda descrito completamente por una suma


ponderada de los errores actuales y pasados. Es decir, cada observación
de la serie diferenciada es generada por una media ponderada de
perturbaciones aleatorias con un retardo de q periodos.

Escribimos el modelo IMA(0,d,q) así:


∆ d Yt = u + ε t − θ 1ε t −1 − θ 2 ε t − 2 − .....− θ q ε t − q

en forma simplificada es:


∆ d Yt = u + θ ( B)ε t

donde B es un operador de cambio hacia atrás (impone un retardo


temporal de un periodo cada vez que se aplica a una variable).
2º Modelo de Autoregresivo Integrado de orden (p,d,0).-

El proceso ∆d Yt depende de una suma ponderada de sus valores


pasados y de un término de error. Es decir, la observación actual ( ∆d Yt )
es generada por una media ponderada de observaciones anteriores que se
remontan p periodos en el pasado, junto con una perturbación aleatoria
correspondiente al periodo actual.

El modelo ARI(p,d,0) sería:


∆ d Yt = δ + φ 1∆ d Yt −1 + φ 2 ∆ d Yt − 2 + .....+ φ p ∆ d Yt − p + ε t

en forma simplificada es:


φ ( B) ∆ d Yt = δ + ε t

donde B es un operador de cambio hacia atrás (impone un retardo


temporal de un periodo cada vez que se aplica a una variable).

3º Modelo de Autoregresivo Integrado de Media Móvil de orden (p,d,q).-

En estos modelos el proceso ∆d Yt es una función tanto de los


errores pasados como de sus valores pasados, así como de un término de
error correspondiente al periodo presente. Es decir, la observación actual
( ∆d Yt ) es generada por una media ponderada de observaciones anteriores
que se remontan p periodos en el pasado y una media ponderada de
perturbaciones aleatorias con un retardo de q periodos, junto con una
perturbación aleatoria correspondiente al periodo actual.

El modelo ARIMA(p,d,q) se escribe:


d d d d
∆ Yt = δ + φ 1∆ Yt − 1 + φ 2 ∆ Yt − 2 + . . . . .+ φ p ∆ Yt − p + ε t − θ 1ε t − 1 − θ 2 ε t − 2 − . . . . . − θ q ε t − q

en forma simplificada es:


φ ( B) ∆ d Yt = δ + θ ( B)ε t

donde B es un operador de cambio hacia atrás (impone un retardo


temporal de un periodo cada vez que se aplica a una variable).

Lo que se hace cuando se posee una serie no estacionaria, es


trabajar con la serie diferenciada (modificada a estacionaria),
identificando un modelo para esta serie. Si se ha llevado un análisis de
predicción para las series diferenciadas, es sencillo traducir las
predicciones obtenidas para estas series en predicciones para las series
originales.
8º METODOLOGÍA DE BOX JENKINS
8.1. IDENTIFICACIÓN

I.- Serleccionar d

1º Ploteo de la serie con respecto a su media.-

Cuando la serie muestra una tendencia persistente o bien deambula hacia


arriba o hacia abajo sin mostrar afinidad hacia un nivel determinado, será una
serie no estacionaria en media.

2º Correlograma de la serie.-

Si los coeficientes de la función de autocorrelación no decaen


rápidamente sería un indicio claro de que la serie es no estacionaria.

3º Primer Coeficiente Autocorrelación Parcial.-

Si el primer coeficiente de autocorrelación parcial es significativo ( ≥ 0.9 )


entonces la serie es no estacionaria.

Si la serie es no estacionaria sería necesario en general tomar alguna


diferencia.

Las consecuencias de aplicar un número de diferencias mayor que el


necesario han sido que el modelo sea no invertible y con una varianza mayor que
si se hubiera aplicado un número de diferencias correcto. Sin embargo, siempre
será estacionario.

Si al estimar un modelo, en la parte de medias móviles se obtiene alguna


o algunas raíces cercanas a uno sería indicativo de que ha existido
sobreidentificación de la serie.

Para elegir la diferenciación adecuada se calcula la varianza de la serie


original y de la serie sometida a diferentes diferenciaciones, tomándose la
diferencia para la cual la varianza es mínima.

EJEMPLO:

Para identificar el modelo se considerará la serie Indice de Precio al Consumidor


(IPC) y la información que se tiene es de enero de 1986 a diciembre de 1997.

Esta información se dividirá de la siguiente manera:


Período de retardo 1986:01 - 1989:12
Período de estimación 1990:01 - 1996:12
Período de predicción 1997:01 - 1997:12

Lo primero que tenemos que hacer es cambiar la muestra al período de


estimación, con la instrucción siguiente: SMPL 1990:01 1996:12
y se empieza el análisis:

1º El ploteo del indice de precio al consumidor es:


130

120

110

100

90

80
90 91 92 93 94 95 96

IPC @MEAN(IPC,"1990:01 1996:12")

Oteando el gráfico se puede concluir que el IPC no es estacionario.

2º En el Eview se obtiene el correlograma del indice de precio al consumidos y nos


da:
Correlogram of IPC
==============================================================
Sample: 1990:01 1996:12 Included observations: 84
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
. |*******| . |*******| 1 0.966 0.966 81.167 0.000
. |*******| .|. | 2 0.932 -0.014 157.63 0.000
. |*******| .|. | 3 0.897 -0.027 229.36 0.000
. |*******| .|. | 4 0.861 -0.030 296.35 0.000
. |****** | .|. | 5 0.825 -0.034 358.55 0.000
. |****** | .|. | 6 0.788 -0.022 416.07 0.000
. |****** | .|. | 7 0.752 -0.004 469.18 0.000
. |****** | .|. | 8 0.716 -0.033 517.90 0.000
. |***** | .|. | 9 0.681 -0.002 562.54 0.000
. |***** | .|. | 10 0.647 0.005 603.44 0.000
. |***** | .|. | 11 0.613 -0.031 640.64 0.000
. |**** | .|. | 12 0.579 -0.027 674.23 0.000
. |**** | .|. | 13 0.546 0.002 704.53 0.000
. |**** | .|. | 14 0.512 -0.037 731.58 0.000
. |**** | .|. | 15 0.478 -0.023 755.51 0.000
. |*** | .|. | 16 0.444 -0.030 776.42 0.000
. |*** | .|. | 17 0.409 -0.025 794.48 0.000
. |*** | .|. | 18 0.375 -0.024 809.85 0.000
. |*** | .|. | 19 0.341 -0.007 822.79 0.000
. |** | .|. | 20 0.308 -0.032 833.47 0.000
==============================================================
De la observación del gráfico podemos deducir que el IPC no es
estacionaria.

3º Examinando el primer coeficiente de autocorrelación parcial del indice de precio


al consumidor es significativo (0.966 > 0.9), entonces el IPC no es estacionario.
Como el indice de precio al consumidor no es estacionario, tenemos que
examinar la primera diferencia de la serie y repetir el procedimiento de Box - Jenkins.

1º Si observamos el ploteo de la primera diferencia del IPC se visualiza que oscila


alrededor de su media, por lo tanto es estacionaria.
2.0

1.5

1.0

0.5

0.0

-0.5
90 91 92 93 94 95 96

D(IPC)
@MEAN(D(IPC),"1990:01 1996:12")

2º Obtenemos el correlograma de la primera diferencia del IPC siguiendo la


instrucción siguiente:
Abrir la serie ⇒ View ⇒ Correlogram... ⇒ se marca 1st difference y se
escribe 20 lag ⇒ OK
y se muestra el siguiente resultado:

Correlogram of D(IPC)
==============================================================
Sample: 1990:01 1996:12 Included observations: 84
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
. | . | . | . | 1 0.046 0.046 0.1826 0.669
**| . | **| . | 2 -0.198 -0.200 3.6207 0.164
.*| . | . | . | 3 -0.066 -0.048 4.0047 0.261
. | . | .*| . | 4 -0.046 -0.084 4.1997 0.380
.*| . | **| . | 5 -0.184 -0.212 7.2953 0.200
. |*. | . |*. | 6 0.178 0.178 10.235 0.115
. | . | .*| . | 7 -0.001 -0.122 10.235 0.176
. | . | . | . | 8 0.001 0.061 10.235 0.249
.*| . | **| . | 9 -0.186 -0.242 13.581 0.138
.*| . | .*| . | 10 -0.153 -0.169 15.860 0.104
. | . | .*| . | 11 -0.048 -0.062 16.090 0.138
. |**** | . |**** | 12 0.541 0.492 45.419 0.000
. | . | .*| . | 13 0.018 -0.121 45.452 0.000
.*| . | . | . | 14 -0.104 0.004 46.574 0.000
. | . | . | . | 15 -0.018 -0.027 46.607 0.000
. |*. | . |*. | 16 0.068 0.184 47.093 0.000
.*| . | . |** | 17 -0.069 0.202 47.611 0.000
. |*. | .*| . | 18 0.094 -0.127 48.574 0.000
. | . | . | . | 19 0.029 0.016 48.665 0.000
. | . | .*| . | 20 0.003 -0.068 48.666 0.000
==============================================================
De la observación del gráfico podemos deducir que la primera diferencia
del IPC es estacionaria.
3º Examinando el primer coeficiente de autocorrelación parcial de la primera
diferencia del IPC no es significativo (0.046 < 0.9), entonces la primera
diferencia del IPC es estacionaria.

Por lo tanto, el valor de d es igual uno.

II.- Elegir λ
La diferencia de un determinado orden es suficiente en muchos casos para
obtener series estacionarias en media y varianza.

En series económicas que se extienden a lo largo de un período dilatado de


tiempo y que están afectados por una fuerte tendencia, suele ser necesario efectuar
además alguna transformación instantánea del tipo Box - Cox, para obtener una serie
estacionaria en varianza y que al mismo tiempo tenga una distribución normal.

Cuando:
λ =1 ⇒ no se transforma la serie
λ=0 ⇒ se aplica logaritmos neperianos a la serie
0< λ < 1 ⇒ se eleva la serie a un exponente fraccionario
en la práctica, las alternativas que se utilizan son las dos primeras.

Los instrumentos que usan para detectar si la serie es estacionaria o no en


varianza son:

1º Ploteo de la serie.-

Es relativamente frecuente que a medida que aumenta el nivel, aumente


también la dispersión, siendo en ese caso λ = 0 .

2º Gráfico rango - media.-

Si los datos son de carácter estacional, se suele tomar la longitud del


intervalo igual a la del período estacional; así para datos mensuales cada uno de
los intervalos tendrá una longitud de doce datos. En el gráfico rango - media se
tiene las alternativas siguientes:
Si los correspondientes puntos están más o menos alineados en torno a
una línea recta con pendiente ascendente sería indicativo de que las serie es no
estacionaria en varianza.

Puede ocurrir que los datos no sean sensibles a la elección de λ , en este


caso el gráfico rango - media de la serie y el correspondiente de la serie
transformada serían muy similares; por lo tanto, la serie es estacionaria en
varianza.

Cuando la serie es no estacionaria en varianza entonces la transformación


apropiada es aplicar logaritmos neperianos a la serie.

EJEMPLO:

Observando el gráfico de la primera diferencia del Indice de Precio al


Consumidor podemos concluir que la primera diferencia del IPC es estacionaria en
varianza porque no presenta una tendencia definida.
2.0

1.5

1.0

0.5

0.0

-0.5
90 91 92 93 94 95 96

D(IPC)

Para construir el gráfico rango - media, vamos a trabajar con intervalos de un año
para determinar su media y desviación estándar, estos resultados son:

================================
PERIODO MEDIA DS
================================
1990:01-1990:12 0.470917 0.398476
1991:01-1991:12 0.423583 0.400780
1992:01-1992:12 0.432417 0.476136
1993:01-1993:12 0.419583 0.239348
1994:01-1994:12 0.387667 0.284007
1995:01-1995:12 0.402833 0.319041
1995:01-1996:12 0.312333 0.237868
================================

Se realiza un gráfico de dispersión de la media y la desviación estándar de la


primera diferencia del indice de precio al consumidor y se deduce que la primera
diferencia del indice de precio al consumidor es estacionaria en varianza porque se
puede aproximar a una línea horizontal.
0.5

0.4

0.3

DS
0.2

0.1

0.0
0.0 0.1 0.2 0.3 0.4 0.5

MEDIA

por lo tanto, el valor de λ igual a uno.

III.- Identificar p y q

La identificación del proceso estocástico consiste en comparar el comportamiento


de las funciones de autococrrelación muestral con las funciones de autocorrelación
teóricas correspondientes a distintos modelos teóricos con los que puede guardar
similitud, teniendo en cuenta que nunca cabe esperar una similitud perfecta debido a
errores de muestreo.

Las características de las funciones de autocorrelación de los modelos teóricos


son:
F. A.
AC PAC
MODELO
Decrecimiento rápido de tipo
geométrico puro, y
Se anula por retardos
AR(p) geométrico con alteración de
superiores a p.
signos, sinusoidal o mezcla
de varios de tipos.
Se anula para retardos Decrecimiento rápido de tipo
MA(q)
superiores a q. exponencial y / o sinusoidal.
Los primeros valores Los primeros valores
iniciales no tienen patrón fijo iniciales no tienen patrón fijo
y van seguidos de una y van seguidos de una
ARMA(p,q)
mezcla de oscilaciones mezcla de oscilaciones
sinusoidales y / o sinusoidales y / o
exponenciales amortiguadas. exponenciales amortiguadas.

Por lo tanto, para identificar p se observa la función de autocorrelación parcial


(PAC) y para identificar q se observa la función de autocorrelación simple (AC).

EJEMPLO: El correlograma de la primera diferencia del IPC con 36 retardos es:


Correlogram of D(IPC)
==============================================================
Sample: 1990:01 1996:12 Included observations: 84
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
. | . | . | . | 1 0.046 0.046 0.1826 0.669
**| . | **| . | 2 -0.198 -0.200 3.6207 0.164
.*| . | . | . | 3 -0.066 -0.048 4.0047 0.261
. | . | .*| . | 4 -0.046 -0.084 4.1997 0.380
.*| . | **| . | 5 -0.184 -0.212 7.2953 0.200
. |*. | . |*. | 6 0.178 0.178 10.235 0.115
. | . | .*| . | 7 -0.001 -0.122 10.235 0.176
. | . | . | . | 8 0.001 0.061 10.235 0.249
.*| . | **| . | 9 -0.186 -0.242 13.581 0.138
.*| . | .*| . | 10 -0.153 -0.169 15.860 0.104
. | . | .*| . | 11 -0.048 -0.062 16.090 0.138
. |**** | . |**** | 12 0.541 0.492 45.419 0.000
. | . | .*| . | 13 0.018 -0.121 45.452 0.000
.*| . | . | . | 14 -0.104 0.004 46.574 0.000
. | . | . | . | 15 -0.018 -0.027 46.607 0.000
. |*. | . |*. | 16 0.068 0.184 47.093 0.000
.*| . | . |** | 17 -0.069 0.202 47.611 0.000
. |*. | .*| . | 18 0.094 -0.127 48.574 0.000
. | . | . | . | 19 0.029 0.016 48.665 0.000
. | . | .*| . | 20 0.003 -0.068 48.666 0.000
**| . | . | . | 21 -0.269 -0.013 56.948 0.000
**| . | .*| . | 22 -0.192 -0.152 61.245 0.000
. | . | . |*. | 23 0.054 0.115 61.597 0.000
. |*** | . |*. | 24 0.386 0.067 79.508 0.000
. | . | . | . | 25 -0.022 -0.008 79.566 0.000
.*| . | . | . | 26 -0.075 -0.048 80.274 0.000
. | . | . | . | 27 -0.009 -0.032 80.283 0.000
. | . | . | . | 28 -0.038 -0.027 80.468 0.000
.*| . | . | . | 29 -0.058 0.002 80.910 0.000
. |*. | . | . | 30 0.143 0.038 83.656 0.000
. | . | .*| . | 31 0.052 -0.121 84.028 0.000
. | . | .*| . | 32 -0.032 -0.068 84.169 0.000
.*| . | . |*. | 33 -0.163 0.068 87.923 0.000
.*| . | . | . | 34 -0.173 0.001 92.222 0.000
. | . | .*| . | 35 -0.014 -0.082 92.252 0.000
. |** | . | . | 36 0.266 -0.029 102.88 0.000
==============================================================
Del correlograma parcial deducimos que los coeficientes de autocorrelación
parcial significativos son: el segundo, quinto, nueve, doce y diecisiete; por lo tanto el
orden del proceso autoregresivo es diecisiete.

Apreciando el correlograma simple concluimos que los coeficientes de


autocorrelación simple significativos son: el segundo, doce, veintiuno, veinticuatro y
treintiseis; por lo tanto el orden del proceso de media móvil es de orden treintiseis. Por
lo tanto, hemos identificado un modelo ARIMA(17,1,36).
IV.- Determinar el término independiente

Si los datos de una serie proceden de un muestreo aleatorio simple sobre una
población normal, es decir, si los datos constituyen una realización de un proceso de
ruido blanco con media distinta de cero; entonce el contraste es:

La hipótesis es:
H0 : u = 0
H1: u ≠ 0
el estadístico es:
Y
t= ≈ t0.05( T −1)
SY2
T−1
si el estadístico es menor que el de la tabla entonces se acepta la hipótesis nula, o
viceversa.

Cuando los datos están autocorrelacionados, como ocurre en un proceso ARIMA,


dicho estimador no resulta válido por ser inconsistente. En este caso, el estimador de la
varianza de la media muestral puede aproximarse mediante la siguiente expresión:

SY2
(1 + 2 p1 + 2 p2 + .....+ 2 pk )
T
seleccionando k de forma que se incluyan los coeficientes que sean significativos.
Cuando se obtiene un resultados negativo no es aplicable.

EJEMPLO:

Aplicando en el Eview la instrucción siguiente:


Show D(IPC) ⇒ View ⇒ Tests for Descriptive Stats ⇒ Simple Hypothesis Tests
⇒ se escribe cero en Mean ⇒ OK
el software nos muestra el resultado siguiente:

Hypothesis Testing for D(IPC)


Sample: 1990:01 1996:12
Included observations: 84
==============================================
Test of Hypothesis: Mean = 0.000000
==============================================
Sample Mean = 0.407048
Sample Std. Dev. = 0.337263
Method Value Probability
t-statistic 11.06157 0.0000
==============================================
La hipótesis es:
H0 : u = 0
H1: u ≠ 0
el estadístico es:
t = 1106157
. < t 0.05(83) = 198895978
.

por lo tanto, se rechaza la hipótesis nula. Es decir, el modelo tiene intercepto.

8.2. ESTIMACIÓN

El objetivo es hallar un vector de parámetros autoregresivos


φ = (φ 1 , φ 2 ,..., φ p ) y un vector de parámetros de media móvil
θ = (θ 1 , θ 2 ,..., θ q ) que minimicen la suma de los cuadrados de los errores:
T
S (φ , θ ) = ∑ε
t =1
2
t

Los modelos los podemos agrupar en dos:

1º El modelo autoregresivo de orden p y el modelo integrado autoregresivo de


orden (p,d,0) que se pueden expresar de la siguiente forma:
ε t = φ ( B)Yt − δ ⇒ AR(p)
ε t = φ ( B) ∆ d Yt − δ ⇒ ARI(p,d,0)
tenemos que existe linealidad en parámetros y en variables, por lo tanto, el
método de estimación adecuado es mínimos cuadrados ordinarios.

2º Los modelos de media móvil de orden q, autoregresivo de media móvil de orden


(p,q), integrado de media móvil de orden (0,d,q) y el modelo autoregresivo
integrado de media móvil de orden (p,d,q) que se pueden expresar de la forma
siguiente:
ε t = θ ( B) −1 (Yt − δ ) ⇒ MA(q)
ε t = θ ( B) −1 ( ∆ d Yt − δ ) ⇒ IMA(0,d,q)
ε t = θ ( B) −1 (φ ( B)Yt − δ ) ⇒ ARMA(p,q)
ε t = θ ( B) −1 (φ ( B) ∆ d Yt − δ ) ⇒ ARIMA(p,d,q)
esta estimación es difícil, puesto que:

1º existe no linealidad respecto a los parámetros, entonces hay que usar un


método iterativo de estimación no lineal; como por ejemplo, mínimos
cuadrados no lineales.
2º el primer término de error en la serie depende de los valores pasados y no
observados tanto de la serie como de los residuos, entonces hay que usar
algún método para "iniciar" la serie antes de aplicar el proceso de
estimación no lineal.

EJEMPLO:

Vamos a estimar el modelo identificado en la primera etapa, entonces en el


Eview la instrucción será:
LS D(IPC) C AR(2) AR(5) AR(9) AR(12) AR(17) MA(2) MA(12)
MA(21) MA(24) MA(36)

el software nos muestra el resultado siguiente:

Dependent Variable: D(IPC)


Method: Least Squares
Sample: 1990:01 1996:12
Included observations: 84
Convergence achieved after 12 iterations
Backcast: 1987:01 1989:12
===================================================
Variable Coefficient Std. Error t-Statistic Prob.
===================================================
C 0.391999 0.030395 12.89674 0.0000
AR(2) -0.111367 0.077757 -1.432242 0.1563
AR(5) -0.241520 0.090560 -2.666954 0.0094
AR(9) -0.142188 0.061791 -2.301134 0.0242
AR(12) 0.727170 0.076908 9.454997 0.0000
AR(17) 0.100439 0.091284 1.100285 0.2748
MA(2) 0.052647 0.110208 0.477701 0.6343
MA(12) -0.439483 0.136380 -3.222487 0.0019
MA(21) -0.182570 0.110103 -1.658166 0.1016
MA(24) 0.329299 0.124243 2.650444 0.0099
MA(36) 0.204430 0.146489 1.395533 0.1671
===================================================
R-squared 0.682469 Mean dependent var 0.407048
Adjusted R-squared 0.638972 S.D. dependent var 0.337263
S.E. of regression 0.202646 Akaike info criter -0.233161
Sum squared resid 2.997785 Schwarz criterion 0.085160
Log likelihood 20.79278 F-statistic 15.68989
Durbin-Watson stat 1.841697 Prob(F-statistic) 0.000000
===================================================
Inverted AR Roots .95 .85+.49i .85 -.49 .54+.40i
.54 -.4 .49+.85i .49 -.85 -.03 -.98i
-.03+.98 -.21+.65i -.21 -.65 -.47+.84i
-.47 -.8 -.66 -.83+.50i -.83 -.50i
-.99
Inverted MA Roots .97+.08 .97 -.08 .89 -.25 .89+.25i
.88 -.4 .88+.41i .81 -.56 .81+.56i
.64 -.6 .64+.65i .57+.80i .57 -.80i
.41+.90 .41 -.90 .24+.87i .24 -.87i
.08+.99 .08 -.99 -.09+.97i -.09 -.97i
-.23 -.8 -.23+.89i -.42 -.88 -.42+.88i
-.55+.81 -.55 -.81 -.66 -.65 -.66+.65i
-.79+.56 -.79 -.56 -.88+.23i -.88 -.23i
-.89+.42 -.89 -.42 -.98+.09i -.98 -.09i
===================================================

8.3. VALIDACIÓN

Si el modelo estimado superase satisfactoriamente las etapas del proceso de


validación, se estaría en condiciones de utilizarlo en la predicción de valores futuros de
la variable.

1º Análisis de los residuos

1.1. Análisis de los coeficientes de autocorrelación simple

(A) ANDERSON

Según ha demostrado Anderson (1942) los coeficientes de


autocorrelación muestrales procedentes de un proceso de ruido blanco se
distribuyen, en muestras grandes, de la siguiente forma:
ρ k ≈ N (0, 1T ) ∀k
entonces bajo la hipótesis:
H0 : ε t es ruido blanco
H1: ε t no es ruido blanco
si tenemos que:
196
.
ρ k T < 196
. o ρk <
T
Por lo tanto, se acepta la hipótesis nula.

Para que una serie de residuos se asemeje a una serie de ruido


blanco, los coeficientes de autocorrelación simple muestral (AC) y los
coeficientes de autocorrelación parcial muestral (PAC) no deben ser
significativamente distintos de cero. El problema es que no conocemos
ε t , entonces utilizamos ε$ t ; si el comportamiento de los residuos se
asemeja al de una serie de ruido blanco, existirá una adecuación entre el
modelo identificado y los datos.

(B) PANKRATZ

En la práctica, se construyen bandas de confianza utilizando la


distribución de una variable ruido blanco cuya varianza aproximada,
viene dada por 1/T. Sin embargo, este valor no constituye una buena
aproximación ya que la distribución no es aplicable a los coeficientes de
autocorrelación de una serie de residuos, especialmente en los retardos de
orden bajo.

Pankratz (1983) considera que bajo la hipótesis:

H0 : ε t es ruido blanco
H1: ε t no es ruido blanco
si tenemos que:
125
.
ρ k T < 125
. o ρk < para k = 1, 2, 3.
T
160
.
ρ k T < 160. o ρk < para k ≥ 4.
T
Por lo tanto, se acepta la hipótesis nula.

EJEMPLO:

En el Eviews se obtiene para 20 retardos el Correlograma de los residuos


siguiente:
Correlogram of Residuals
==============================================================
Sample: 1990:01 1996:12 Included observations: 84
Q-statistic probabilities adjusted for 10 ARMA term(s)
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
. |*. | . |*. | 1 0.075 0.075 0.4874
. | . | . | . | 2 -0.002 -0.007 0.4876
. | . | . | . | 3 0.001 0.002 0.4877
.*| . | .*| . | 4 -0.101 -0.102 1.4147
.*| . | . | . | 5 -0.063 -0.048 1.7756
. | . | . | . | 6 -0.034 -0.028 1.8853
. |*. | . |*. | 7 0.130 0.138 3.4733
. | . | . | . | 8 0.054 0.026 3.7486
.*| . | .*| . | 9 -0.125 -0.146 5.2643
. | . | . | . | 10 0.013 0.021 5.2820
.*| . | .*| . | 11 -0.103 -0.087 6.3296 0.012
.*| . | . | . | 12 -0.060 -0.021 6.6939 0.035
. | . | . | . | 13 -0.026 -0.034 6.7630 0.080
. |*. | . | . | 14 0.074 0.059 7.3290 0.119
. |** | . |*. | 15 0.200 0.166 11.500 0.042
. |*. | . |*. | 16 0.103 0.103 12.627 0.049
. | . | . | . | 17 0.040 0.015 12.801 0.077
.*| . | **| . | 18 -0.179 -0.204 16.289 0.038
. | . | . | . | 19 -0.018 0.065 16.324 0.060
.*| . | . | . | 20 -0.058 -0.036 16.707 0.081
==============================================================
Según Anderson ninguno de los coeficientes de autocorrelación estimados
supera 1.84
96
= 0.213853 ;por lo tanto, los residuos del modelo estimado son ruido
blanco.

De acuerdo a Pankratz los tres primeros coeficientes de autocorrelación


estimados son menores a 1.84
25
= 0136386
. y el resto de coeficientes de
autocorrelación estimados son menores a 1.84 60
= 0174574
. , excepto el quince y
el dieciocho; por lo tanto, los residuos del modelo estimado no son ruido blanco.

1.2. Contraste Global

Se utiliza el estadístico propuesto por Box y Pierce (1970). La hipótesis


es:
H0 : ρ 1 = ρ 2 = .... = ρ k = 0 ≡ Residuos independientes
H1: ρ 1 ≠ ρ 2 ≠ .... ≠ ρ k ≠ 0 ≡ Residuos no independientes

el estadístico es:
k
QBP = T ∑ ρ i2 ≈ χ 2k − p − q
i =1

si el estadístico es menor al de la tabla se acepta la hipótesis nula, o viceversa.

EJEMPLO:

Tenemos:
H0 : ρ 1 = ρ 2 = .... = ρ 20 = 0 ≡ Residuos independientes
H1: ρ 1 ≠ ρ 2 ≠ .... ≠ ρ 20 ≠ 0 ≡ Residuos no independientes

comparamos:
20
QBP = T ∑ ρ i2 = 13.84866 < χ (20.05,20−10) = 18.307038
i =1

Por lo tanto, se acepta la hipótesis nula; es decir, los residuos son


independientes o están incorrelacionados.

1.3. Homocedasticidad

Hay que examinar el gráfico de los residuos (ploteo). Si se advierte una


tendencia creciente (o decreciente) en la evolución de dicha dispersión será
indicativo de una posible heterocedasticidad.

EJEMPLO: Aplicando en el Eview la instrucción siguiente:


Abrir ecuación ⇒ View ⇒ Actual, Fitted, Residual ⇒ Residual Graph

el software nos muestra el resultado siguiente:


0.8

0.6

0.4

0.2

0.0

-0.2

-0.4

-0.6
90 91 92 93 94 95 96

D(IPC) Residuals

observando el gráfico podemos concluir que los residuos son homocedásticos.

1.4. Outliers

Las observaciones atípicas o anormales (outliers) son las que


corresponden a los residuos que superan en gran medida las bandas de confianza
establecidas para los residuos.

Un residuo estimado ( ε$ t ) que:


ε$ t
>4
σ$ ε$
es indicativo de que puede existir un factor exógeno puntual que haya provocado
tal anomalía.

Aplicando en el Eview la instrucción siguiente:


GENR RESEST = RESID01 / @STDEV(RESID01)
el software nos muestra el resultado siguiente:
RESEST
===========================================================
Modified: 1990:01 1996:12 => resest=resid01/@stdev(resid01,"1990:01 1996:12")
1990:01 -0.028842 1.711757 -0.244963 0.027134 -0.943363 0.133010
1990:07 0.288664 0.617152 0.500510 1.761804 -1.301174 0.374262
1991:01 1.088281 -2.304535 0.402286 -0.224269 0.260251 0.648487
1991:07 0.497480 -0.675497 0.317640 1.125439 0.028977 -0.374204
1992:01 3.391173 1.725747 0.778428 -1.180744 -0.252166 -0.268761
1992:07 -2.012688 1.596481 0.291139 -1.217187 -0.812523 -0.073519
1993:01 -0.150577 -1.478190 -0.149380 1.406387 0.275401 0.977900
1993:07 -1.656446 -0.338241 -0.401184 1.157007 0.265700 1.023573
1994:01 -0.212584 -1.314290 -0.023986 0.388462 0.304340 0.240305
1994:07 -0.496509 -0.274766 -1.277560 0.401143 -0.630639 0.530943
===========================================================

Podemos obtener un gráfico de los residuos estandarizados en el Eview


con la instrucción siguiente:
Abrir RESEST ⇒ View ⇒ Line Graph
el software nos muestra el resultado siguiente:
4

-1

-2

-3
90 91 92 93 94 95 96

RESEST

De la observación del cuadro o del gráfico de los residuos estandarizados


se concluye que no existe ninguna observación atípica.

1.5. Normalidad

Se plantea la siguiente hipótesis:


H0 : u se aproxima a una distribución normal
H1 : u no se aproxima a una distribución normal

se utiliza el estadístico Jarque - Bera, cuya fórmula es:


N−k 2 1
JB = ( S + 4 ( K − 3) 2 )
6
se tiene la siguiente regla de decisión:

χ
2
JB < ( 0.05, 2 )
= 5.99

entonces, a un nivel de significancia del 5 % lo residuos se aproximan a una


distribución normal.

El test de normalidad lo obtenemos de la siguiente forma para la ecuación


estimada:
Abrir EQ1 ⇒ View ⇒ Residual Tests ⇒ Histogram - Normality Test ⇒
OK, obteniéndose el siguiente resultado:
16
Series: Residuals
Sample 1990:01 1996:12
Observations 84
12
Mean -0.002458
Median -0.002510
Maximum 0.644428
8
Minimum -0.437933
Std. Dev. 0.190031
Skewness 0.217930
4 Kurtosis 3.717076

Jarque-Bera 2.464605
Probability 0.291620
0
-0.4 -0.2 0.0 0.2 0.4 0.6

entonces, a un nivel de significancia del 5 % lo residuos se aproximan a una


distribución normal.
2º Análisis de los coeficientes

2.1. Condición de Estacionariedad e Invertibilidad

Una cuestión importante en el análisis de los coeficientes es el examen de


si se cumplen las condiciones de estacionariedad y de invertibilidad.

Se tiene dos casos:

1º Si no se cumple la condición de estacionariedad, entonces es un indicio


de que el modelo no es estacionario, siendo aconsejable en este caso
tomar una diferencia adicional.

2º Si no se cumple la condición de invertibilidad, entonces este problema se


ha podido producir como consecuencia de una sobrediferenciación.

EJEMPLO:

Al final de la estimación observamos las raíces características de los


procesos autoregresivo y de media móvil, asimismo el Eview nos muestra un
comentario si la condición no se cumple. En este caso no existe ningún
comentario, por lo tanto, las condiciones de estacionariedad y de invertibilidad
se cumplen.

2.2. Significancia de los coeficientes

Los modelos ARIMA se aplican en general a muestras grandes, entonces


se puede utilizar los niveles de significación de la normal. Se tiene:
H0 : φ i = 0 ≡ φ i no es significativo
H1: φ i ≠ 0 ≡ φ i si es significativo
el estadístico es:
φ$ i
tφi = ≈ t (0.05,T-p-q-δ ) = 2
σ$ φ$
i

si el estadístico es menor al de la tabla se acepta la hipótesis nula, o viceversa.

EJEMPLO:

De los resultados obtenidos de la estimación del modelo concluimos que


φ 5 , φ 9 , φ 12 ,θ 12 y θ 24 son significativos porque son mayores a 2; mientras que los
coeficientes φ 2 , φ 17 ,θ 2 ,θ 21 y θ 36 son no significativos porque son menores a 2.

2.3. Examen de la matriz de correlaciones entre los coeficientes

El objetivo es detectar si existe un problema de mutlticolinealidad.


Cuando la correlación entre dos coeficientes estimados esté próximo a uno
(ejemplo: 0.9) sería indicio suficiente para considerar que existe un problema
grave de multicolinealidad. Si esto ocurre, los coeficientes estimados serían de
carácter muy inestables con lo que podrían cambiar mucho de una realización a
otra.

Así, el modelo estimado para el período muestral puede diferir del que se
obtendría para los periodos de predicción. Para evitar este problema puede ser
conveniente eliminar algún parámetro del modelo con objeto de conseguir unos
estimadores más estables aun a coste de que el grado de ajuste sea más pequeño.

Si todos los coeficientes son significativos a pesar de que la


multicolinealidad sea elevada, tampoco sería aconsejable eliminar coeficientes
del modelo. En todo caso, la eliminación de parámetros no debe hacerse a
expensas de que se pierda la independencia entre los residuos.

EJEMPLO:

El coeficiente de correlación entre dos coeficientes se define:


cov(φ$ i φ$ j ) σ φ$ φ$
rφ$ φ$ = =
i j

i j
var(φ$ i ) var(φ$ j ) σ φ$ i σ φ$ j
la información requerida para calcular estos coeficientes se encuentra en la
estimación del modelo.

Tenemos que calcular 45 coeficientes de correlación entre coeficientes,


vamos a calcular algunos de ellos de la siguiente forma:
σ φ$2φ$5 0.000321
rφ$ φ$ = = = 0.04558575
2 5 σ φ$2 σ φ$5 0.077757(0.09056)
σ φ$2φ$9 0.000725
rφ$ φ$ = = = 015089445
.
2 9 σ φ$2 σ φ$9 0.077757(0.061791)
σ φ$2φ$12 0.01389
rφ$ φ$ = = = 0.23226899
2 12 σ φ$2 σ φ$12 0.077757(0.076908)
σ φ$2φ$17 − 0.00000903
rφ$ φ$ = = = − 0.00127219
2 17 σ φ$2 σ φ$17 0.077757(0.091284)
σ φ$ θ$ − 0.004984
rφ$ θ$ = = = − 0.58160136
2 2

2 2 σ φ$2 σ θ$ 0.077757(0110208
. )
2

σ φ$ θ$ − 0.002169
rφ$ θ$ = 2 12
= = − 0.20453581
2 12 σ φ$2 σ θ$ 0.077757(013638
. )
12

si todos los coeficientes de correlación de los coeficientes son no significativos,


entonces no existe multicolinealidad grave.
2.4. Análisis de Estabilidad

Se puede aplicar el test de Chow punto de quiebre y se aconseja tomar


como el tamaño de la segunda submuestra entre la tercera y la mitad del tamaño
de la muestra, de manera que pueda contrastarse si el último tramo muestral (más
pequeño) ha estado generado por la misma estructura que el resto de las
observaciones.

EJEMPLO:

La tercera parte de la muestra es 28 observaciones y la mitad de la muestra


es 42 observaciones, entonces vamos a considerar 37 observaciones y aplicamos
la prueba de Chow en el Eview nos muestra el resultado siguiente:

Chow Breakpoint Test: 1993:12


=============================================
F-statistic 1.175141 Probability 0.322633
Log likelihood ratio 15.90742 Probability 0.144603
=============================================

La hipótesis es:
H0 : Existe estabilidad de coeficientes
H1: No existe estabilidad de coeficientes

el estadístico es:
Fc = 1175141
. < F( 0.05,11,62 ) = 194679
.

por lo tanto, se acepta la hipótesis nula. Es decir, la estabilidad de los


coeficientes.

8.4. PREDICCIÓN

La predicción es un estimado cuantitativo acerca de la verosimilitud de eventos


futuros basados en información pasada y actual.

Se tienen muchas pruebas de que un modelo que se ajuste bien a los datos
históricos, no necesariamente pronostica bien.

Se supone evaluar un modelo en función de su capacidad para pronosticar bien


en una situación de muestreo a posteriori.

Una manera sensata de proceder a una evaluación de muestreo a posteriori es


dividir los datos en dos conjuntos:

1º El primer conjunto denominado: datos de estimación, se emplea para estimar los


coeficientes del modelo.
2º Los puntos de los datos restantes, denominados datos de predicción, se emplea
para medir la exactitud del pronóstico del modelo.

Las predicciones de la serie estacionaria Yt son fáciles de obtener como veremos


con varios modelos ARMA sencillos, teniendo en cuenta que el valor esperado del ruido
blanco es:
 = u$t si t ≤ T
E ( ut ) = 
=0 si t > T

Sea Yt ∈ AR(1) , o sea Yt = φ 1Yt −1 + ut . Las previsiones son:

Y$T +1 = φ 1YT + E (uT +1 ) = φ 1YT


Y$T + 2 = φ 1YT +1 = φ 12 YT
y en general
Y$T + i = φ 1i YT

Se considera ahora un modelo Yt ∈ MA(1) , o sea Yt = ut − θ 1ut −1 ; las primeras


predicciones son:
Y$T +1 = E (uT +1 ) − θ 1 E (uT ) = − θ 1u$T
Y$T + 2 = E (uT + 2 ) − θ 1 E (uT +1 ) = 0 = Y$T + 3 = .....

o sea que la estructura d medias móviles de orden 1 sólo influirá en la primera


predicción.

Con el modelo AR(2), se tienen las predicciones:


Y$T +1 = φ 1YT + φ 2 YT −1 + E (uT +1 ) = φ 1YT + φ 2 YT −1
Y$T + 2 = φ 1Y$T +1 + φ 2 YT
Y$ = φ Y$ + φ Y$
T+3 1 T+2 2 T +1

Y$T + 4 = φ 1Y$T + 3 + φ 2 Y$T + 2

y así sucesivamente.

Se considera ahora un modelo Yt ∈ MA( 2) , es:


Y$T +1 = E (uT +1 ) − θ 1 E (uT ) − θ 2 E (uT −1 ) = − θ 1u$T − θ 2 u$T −1
Y$T + 2 = E (uT + 2 ) − θ 1 E (uT +1 ) − θ 2 E (uT ) = − θ 2 u$T
Y$T + 3 = .0 = Y$T + 4 = ....
o sea que las predicciones se anulan después de dos unidades temporales.
Sea el modelo Yt ∈ ARMA(11
, ) , es:
Y$T +1 = φ 1YT + E (uT +1 ) − θ 1 E (uT ) = φ 1YT − θ 1u$T
Y$T + 2 = φ 1Y$T +1
Y$ = φ Y$
T+3 1 T+2

así sucesivamente se obtendrían las demás predicciones, o sea que la parte de media
móvil sólo influye directamente sobre la primera predicción y a partir de la segunda,
éstas se obtienen como en un modelo AR(1).

En el modelo ARIMA, es necesario deshacer las transformaciones en diferencias


y de Box - Cox para obtener las previsiones de la variable Yt .

El error de predicción se obtiene a partir de la expresión:

eT + i = YT +1 − Y$T + i

En el modelo AR(1), la varianza de predicción es:

( )
Var ( e) = E e 2T +i = (1 + ϕ 12 + ϕ 14 + ...+ ϕ 12i − 2 )σ ε2

es decir, aumenta (en forma no lineal) a medida que crece i.

En un proceso MA(1) la varianza es:

Var (eT +1 ) = σ ε2
Var (eT + i ) = (1 + θ 12 )σ ε2 ∀i > 1
es idéntica para la predicción para el periodo segundo, tercero, etc.

I.- TIPOS DE PRONÓSTICO

1º Puntual se trata de la predicción de los valores futuros de la variable


endógena en términos de un único valor o número.

2º Por intervalo cuando el valor futuro predicho de la variable endógena se


expresa dentro de un intervalo determinado.

II.- CLASIFICACIÓN DE PRONÓSTICO

1º Predicciones incondicionales cuando se conocen con certeza los valores de


las variables.

2º Predicciones condicionales cuando uno o más variables independientes


no se conocen con certeza y deben ser
estimados.
3º Predicciones ex ante predicciones más allá del período de
estimación y son hechos usando variables
explicativas que pueden o no ser conocidas
con certeza.

4º Predicciones ex post cuando las observaciones, tanto de la variable


dependiente como de las independientes, son
conocidas con certeza.

III.- CRITERIOS PARA EVALUAR LA CAPACIDAD PREDICTIVA DE UN


MODELO

1º RAÍZ DEL ERROR CUADRÁTICO MEDIO (RECM)

Se define como:
1 T+H 2
RECM = ∑ e$
H t = T +1 t

Tiene las mismas unidades de medición que las series reportadas. La


función de pérdida implícita con el RCEM es cuadrática, entonces la pérdida
asociada con un error aumenta en proporción con el cuadrado del error.

La desventaja de esta medida es que es una medición absoluta, que


depende de las unidades de medida.

2º ERROR ABSOLUTO MEDIO (EMA)

Se define como:
T+H

∑ e$
t = T +1
t
EMA =
H
Esta medida es apropiada siempre que la función de pérdida es lineal y
simétrica.

3º MEDIA DEL VALOR ABSOLUTO DEL ERROR PORCENTUAL (EPMA)

Se define como:

1 T + H e$t
EPMA = ∑
H t = T +1 Yt
Es similar al EMA, excepto que es una medida relativa. Presenta un sesgo
que favorece a los pronósticos que se encuentran por debajo de los valores
reportados.
Indica qué proporción del error verdadero estimado es error de predicción.

4º RAÍZ CUADRADA RELATIVA DEL ERROR MEDIO (RCREM)

Se define como:
1 T + H e$t2
RCREM = ∑
H t = T +1 Yt

Es similar a RECM, excepto que es adimensional. Presenta un sesgo que


favorece a los pronósticos que se encuentran por debajo del valor reportado.
Considerar el resultado satisfactorio si tiene un valor inferior a tres.

5º COEFICIENTE DE DESIGUALDAD DE THEIL

Denominado U de Theil (1961), se define:

1 T+ H
∑ (Yt − Y$t ) 2
H t = T +1
U=
1 T+ H $2 1 T+H 2
∑Y +
H t = T +1 t
∑Y
H t = T +1 t
no está influenciado por problemas de escala. U oscila entre 0 y 1.

Si U tiende a cero, el modelo puede ser utilizado para predecir dado que
sus pronósticos serán fiables.

Si U tiende a uno, el modelo no sirve para predecir sus pronósticos no son


reales.

El U de Theil se descompone:
SESGO + VARIANZA + COVARIANZA = 1

1º Sesgo (Bias Proportion) indica la presencia de algún


error sistemático. El sesgo
debe ser cero, en caso
contrario el pronóstico no es el
más confiable.

2º Varianza(Variance Proportion) indica la habilidad del


pronóstico para replicar el
comportamiento de la variable
real observada. Si esta
proporción es grande significa
que el modelo posee menor
capacidad para replicar el
comportamiento de la serie.
3º Covarianza (Covariance Proportion) si esta medida es alta significa
que el modelo predice bien,
pues el error de la predicción
se haría pequeño.

V.- EJEMPLO

Para el análisis consideraremos el modelo siguiente:

D ( IPC ) t = δ + φ 2 D ( IPC ) t − 2 + φ 5 D ( IPC ) t − 5 + φ 12 D ( IPC ) t − 12 + φ 17 D ( IPC ) t − 17 + ε t − θ 2 ε t − 2

− θ 12 ε t − 12 − θ 21 ε t − 21 − θ 24 ε t − 24 − θ 36 ε t − 36

que se estimo para la información 1990:01 - 1996:12 en el Eview, y para la evaluación


de la capacidad predictiva se considera la información correspondiente al año 1997.

Para realizar la predicción se sigue la siguiente instrucción:


Abrir ecuación ⇒ Procs ⇒ Forecast... ⇒ Se cambia el sample a 1997:01 1997:12
⇒ OK
el software nos muestra el resultado siguiente:
127
Forecast: IPCF
126 Actual: IPC
Forecast sample: 1997:01 1997:
125 Included observations: 12

Root Mean Squared Error 0.807782


124
Mean Absolute Error 0.698349
Mean Abs. Percent Error0.571336
123 Theil Inequality Coefficient
0.003281
Bias Proportion 0.747406
122 Variance Proportion 0.068465
Covariance Proportion 0.184129
121

120
97:01 97:03 97:05 97:07 97:09 97:11

IPCF ± 2 S.E.

siendo los valores de las predicciones:


IPCF
===================================
Modified: 1997:01 1997:12 // eq01.forecast(f=actual) ipcf
1997:01 121.2153
1997:02 121.6202
1997:03 122.2216
1997;04 123.0145
1997:05 123.3729
1997:06 123.4762
1997:07 123.6436
1997:08 124.0138
1997:09 124.2941
1997:10 124.5423
1997:11 124.7990
1997:12 125.2210
==================================
también se puede graficar a través del tiempo el IPC con su respectiva predicción, tanto
para todo el periodo como para el periodo de predicción, los gráficos son:

130 126

125
120

124
110
123
100
122

90
121

80 120
90 91 92 93 94 95 96 97 97:01 97:03 97:05 97:07 97:09 97:11

IPC IPCF IPC IPCF

Por último, se puede obtener una nube de puntos del IPC y su predicción, así:
126

124
IPC

122

120
120 122 124 126

IPCF

El U de Theil es cercano a cero, entonces nos indicaría que es una buena


predicción, pero si analizamos los componentes del Theil se tiene: que el sesgo no
tiende a cero, la varianza es pequeña y la covarianza no es muy alta; por lo tanto, se
concluye que el modelo no predice bien.

Como los puntos en el último gráfico se encuentran debajo de la bisectriz,


entonces la predicción es mayor al valor verdadero. Lo mismo se puede apreciar en el
segundo y tercer gráfico.

9º ANÁLISIS DE COINTEGRACIÓN

La teoría de cointegración, desarrollada en Granger (1981) y ampliada en


Engle y Granger (1987), maneja el problema de integrar la dinámica a corto plazo con
el equilibrio a largo plazo.

La especificación completa del modelo de regresión:


Yt = β X t + ut
Se asume que la perturbación es una serie estacionaria (ruido blanco), pero
probablemente esto no es cierto cuando X t e Yt sean series integradas.

Generalmente, si dos series son integradas para diferentes ordenes, las


combinaciones lineales de ambas estarán integradas para el más alto de los dos
ordenes.

Si Yt es integrada de orden 1 o Yt ~ I (1) y u t es integrada de orden cero


o ut ~ I (0) , entonces Zt = Yt + ut es integrada de orden uno o
Zt = Yt + ut ~ I(1) .

Supongamos que Yt ~ I (1) y X t ~ I (1) (ambas variables


tendenciales), entonces normalmente esperamos que: Yt − β X t ~ I(1) sea cual sea
el valor de β , no I(0) (no estacionaria).

Si Yt y Xt se mueven ambas hacia arriba con su propia tendencia, entonces


a menos que haya alguna relación entre esas tendencias, la diferencia entre ellas
debería estar creciendo, con otra tendencia adicional.

Si las dos series son ambas I (1) puede existir un β tal que:
ut = Yt − β X t ≈ I ( 0)
esta diferencia entre ellas tiene que ser estable alrededor de una media fija. O que las
series crecen simultáneamente aproximadamente a la misma tasa. Si dos series
satisfacen estos requisitos, entonces están cointegradas.

[ ]
El vector 1 − β (o múltiplo de él) es un vector de cointegración. Se puede
distinguir:

1º Entre una relación de largo plazo entre Yt y X t , es decir, la forma en la cual


las dos variables crecen.

2º La dinámica a corto plazo, es decir, las relaciones entre las desviaciones de Yt


respecto de su tendencia a corto plazo y las deviaciones de X t respecto de su
tendencia a corto plazo.

Esto significa que la ecuación de regresión:


Yt = β X t + u t
tiene sentido, pues Yt y X t no se desvían mucho entre sí con el paso del tiempo;
por lo tanto, existe una relación de equilibrio a largo plazo entre ellos. Es decir, están
sobre la misma longitud de onda.

Si Yt y Xt no son cointegradas, es decir, si Yt − β X t = u t también


es I(1), éstos se desviarán entre sí cada vez más con el paso del tiempo; por lo tanto,
no existe una relación de equilibrio a largo plazo entre ellas. Aquí la relación que se
obtiene entre Yt y Xt por medio de la regresión Yt sobre Xt es "espuria".

En general, si Yt ~ I(d) y X es también I (d ) , donde d es el mismo


valor, estas dos series pueden estar cointegradas. Si éste es el caso, la regresión de las
dos variables en niveles es significativa (es decir, no es espuria); y no se pierde
información valiosa de largo plazo, lo cual sucedería si se utilizaran sus primeras
diferencias.

Siempre y cuando se verifique que los residuales de la regresión son I (0)


o estacionarios, la metodología tradicional de regresión (incluyendo las pruebas t y
F ) son aplicables a las series de tiempo.

En el lenguaje de la teoría de la cointegración, la regresión Yt = β X t + ut


se conoce como regresión cointegrada y el parámetro β es conocido como parámetro
cointegrado.

Cabe mencionar que en economía es la CI(1,1) la que interesa, es decir, cuando


el componente tendencial estocástico de dos o más variables no estacionarias se
compensan exactamente para dar una combinación lineal estacionaria. De esta forma,
la existencia de cointegración entre series económicas no hace sino evidenciar la
presencia de una relación de equilibrio de largo plazo: aún cuando presenten un
comportamiento no estacionario o tendencial, la relación (o combinación lineal) entre
ellas es estable; por tanto, podemos hablar de una relación observada que puede, en
promedio, ser mantenida en un largo período de tiempo.

Existen tres métodos para comprobar la cointegración, a saber:

1º El Durbin Watson de la ecuación de cointegración (Sargan y Bhargava, 1983).


2º Método de Engle y Granger (1987), se basa en evaluar si los errores de
ecuaciones en equilibrio estimados uniecuacionalmente parecen ser
estacionarios.
3º Método de Johansen (1988) y Stock y Watson (1988), está basado en el
métodoVAR.

9.1. PRUEBA DURBIN-WATSON SOBRE LA REGRESION DE


COINTEGRACION (DWRC)

Un método alternativo y más rápido es la prueba DWRC, cuyos valores críticos


fueron suministrados inicialmente por Sargan y Bhargava. En DWRC se utiliza el
valor d de Durbin Watson obtenido de la regresión de cointegración.

Ahora la hipótesis nula es que d = 0 , con base en 10,000 simulaciones, cada


una de ellas conformada por 100 observaciones, los valores críticos resultantes al 1
%, 5 % y 10 % para probar la hipótesis nula es verdadera ( d = 0 ) fueron 0.511,
0.386 y 0.322, respectivamente.

A partir de la ecuación de cointegración:


Yt = β X t + ut
se prueba la H 0 : DW = 0 , lo que equivale a testear que H 0 : ρ = 1 en:
ut = ρ ut − 1 + ε t
es decir, se estaría verificando la presencia de una raíz unitaria en la ecuación
autorregresiva de ut . De esta forma, si no se pudiera rechazar la hipótesis nula, se
estaría aceptando que el error es no estacionario y no se podría aceptar la presencia
de cointegración entre X t é Yt .

Una regla práctica vinculada con este test de cointegración suguiere que un
buen R2 y un DW por encima de 0.5 son un indicativo de la presencia de
cointegración.

EJEMPLO:

Para el análisis consideraremos el modelo de demanda de gelatina siguiente:


Q1t = β 0 + β 1 P1t + β 2 R1t + β 3 M 1t + ut
el resultado de la estimación en el Eview es:

Dependent Variable: Q1
Method: Least Squares
Sample: 1985:1 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 457.3535 98.29010 4.653098 0.0002
P1 0.143280 1.680297 0.085270 0.9329
M1 3.893653 0.158921 24.50052 0.0000
R1 0.612120 0.108625 5.635158 0.0000
============================================================
R-squared 0.969154 Mean dependent var 2071.042
S.E. of regression 25.42701 Akaike info criteri 9.460512
Sum squared resid 12930.65 Schwarz criterion 9.656855
Log likelihood -109.5261 F-statistic 209.4601
Durbin-Watson stat 1.831586 Prob(F-statistic) 0.000000
============================================================
observando el valor del Durbin - Watson (1.831586) es superior a 0.5, entonces es
indicativo de presencia de cointegración.
Aplicando la forma alternativamente tenemos que marcar los residuos de la
regresión cointegrada y estimar un modelo autoregresivo de primer orden, éstos
cálculos en Eviews son:

Dependent Variable: RESID01


Method: Least Squares
Sample(adjusted): 1985:2 1990:4
Included observations: 23 after adjusting endpoints
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
RESID01(-1) 0.060950 0.216631 0.281352 0.7811
============================================================
R-squared 0.003210 Mean dependent var 0.458329
Adjusted R-squared 0.003210 S.D. dependent var 24.13475
S.E. of regression 24.09599 Akaike info criteri 9.244473
Sum squared resid 12773.57 Schwarz criterion 9.293842
Log likelihood -105.3114 Durbin-Watson stat 1.956895
============================================================

En la estimación anterior ⇒ View ⇒ Coefficients Tests ⇒ Wald -


Coefficient Restrictions ... ⇒ se escribe C(1) = 0 ⇒ OK

Wald Test:
Equation: Untitled
====================================================
Null Hypothesis C(1) = 1
====================================================
F-statistic 18.79043 Probability 0.000266
Chi-square 18.79043 Probability 0.000015
====================================================

La hipótesis es:
H0 : ρ = 1
H 1: ρ ≠ 1
el estadístico es:

Fc = 18.79043 < F( 0.05,1,22 ) = 4.3009495

por lo tanto, se rechaza la hipótesis nula. Es decir, el error es estacionario y se puede


aceptar la cointegración.

9.2. PRUEBA DE ENGLE - GRANGER ( EG )

Se estima la regresión:
Yt = β X t + ut
( )
se obtiene los residuales u$ t y se utiliza la prueba DF o ADF . Como u$t está basada
en el parámetro β , los valores críticos de significancia DF y ADF no son del todo
apropiados. Engle y Granger han calculado estos valores críticos de tau (al 1%, 5%
y 10 % son -2.5899, -1.9439 y -1.6177).

EJEMPLO:

Considerando el modelo de demanda de gelatina, se debe seguir los pasos


siguientes:

1º DETERMINACIÓN DEL GRADO DE INTEGRACIÓN DE CADA


VARIABLE DEL MODELO

1.1. Q1:

se considera tendencia e intercepto.

Augmented Dickey-Fuller Unit Root Test on Q1


============================================================
ADF Test Statistic -3.009780 1 % Critical Value* -4.4167
5 % Critical Value -3.6219
10 % Critical Value -3.2474
============================================================
Dependent Variable: D(Q1)
Method: Least Squares
Sample(adjusted): 1985:2 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
Q1(-1) -0.576424 0.191517 -3.009780 0.0069
C 1123.533 364.0032 3.086601 0.0058
@TREND(1985:1) 7.446752 3.500047 2.127615 0.0460
============================================================
R-squared 0.312855 Mean dependent var 26.08696
============================================================

Q1 tiene raíz unitaria, o es no estacionaria. Entonces hay que rebajar la


serie y realizar el mismo análisis.

Hypothesis Testing for D(Q1)


Sample: 1985:1 1990:4
Included observations: 23
========================================================
Test of Hypothesis: Mean = 0.000000
========================================================
Sample Mean = 26.08696 Sample Std. Dev. = 84.08541
Method Value Probability
t-statistic 1.487876 0.1510
========================================================

sin intercepto y sin tendencia.

Augmented Dickey-Fuller Unit Root Test on D(Q1)


============================================================
ADF Test Statistic -5.244312 1 % Critical Value* -2.6756
5 % Critical Value -1.9574
10 % Critical Value -1.6238
============================================================
Dependent Variable: D(Q1,2)
Method: Least Squares
Sample(adjusted): 1985:3 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
D(Q1(-1)) -1.223190 0.233241 -5.244312 0.0000
============================================================
R-squared 0.566333 Mean dependent var 5.227273
============================================================

La primera diferencia de Q1 no tiene raíz unitaria, es estacionaria; por


lo tanto, Q1 es integrada de orden uno.
1.2. P1:

con tendencia e intercepto.

Augmented Dickey-Fuller Unit Root Test on P1


============================================================
ADF Test Statistic -1.609049 1 % Critical Value* -4.4167
5 % Critical Value -3.6219
10 % Critical Value -3.2474
============================================================
Dependent Variable: D(P1)
Method: Least Squares
Sample(adjusted): 1985:2 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
P1(-1) -0.250519 0.155694 -1.609049 0.1233
C 8.155757 4.756776 1.714556 0.1019
@TREND(1985:1) -0.009787 0.084745 -0.115487 0.9092
============================================================
R-squared 0.133034 Mean dependent var 0.043478
============================================================

P1 tiene raíz unitaria, o es no estacionaria. Entonces hay que rebajar la


serie y realizar el mismo análisis.

Hypothesis Testing for D(P1)


Sample: 1985:1 1990:4
========================================================
Test of Hypothesis: Mean = 0.000000
========================================================
Sample Mean = 0.043478 Sample Std. Dev. = 2.602067
Method Value Probability
t-statistic 0.080134 0.9369
========================================================
sin tendencia y sin intercepto.

Augmented Dickey-Fuller Unit Root Test on D(P1)


============================================================
ADF Test Statistic -3.771205 1 % Critical Value* -2.6756
5 % Critical Value -1.9574
10% Critical Value -1.6238
============================================================
Dependent Variable: D(P1,2)
Sample(adjusted): 1985:3 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
D(P1(-1)) -0.797297 0.211417 -3.771205 0.0011
============================================================
R-squared 0.403665 Mean dependent var -0.045455
============================================================

La primera diferencia de P1 no tiene raíz unitaria, es estacionaria; por


lo tanto, P1 es integrada de orden uno.

1.3. R1:

con tendencia e intercepto.


Augmented Dickey-Fuller Unit Root Test on R1
============================================================
ADF Test Statistic -0.985078 1 % Critical Value* -4.4167
5 % Critical Value -3.6219
10% Critical Value -3.2474
============================================================
Dependent Variable: D(R1)
Method: Least Squares
Sample(adjusted): 1985:2 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
R1(-1) -0.104758 0.106345 -0.985078 0.3364
C 115.6803 97.78317 1.183028 0.2507
@TREND(1985:1) -1.770375 0.847999 -2.087710 0.0498
============================================================
R-squared 0.211674 Mean dependent var -1.304348
============================================================

R1 tiene raíz unitaria, o es no estacionaria. Entonces hay que rebajar la


serie y realizar el mismo análisis.

Hypothesis Testing for D(R1)


Sample: 1985:1 1990:4
========================================================
Test of Hypothesis: Mean = 0.000000
========================================================
Sample Mean = -1.304348 Sample Std. Dev. = 28.96775
Method Value Probability
t-statistic -0.215945 0.8310
========================================================

sin tendencia y sin intercepto.

Augmented Dickey-Fuller Unit Root Test on D(R1)


============================================================
ADF Test Statistic -3.832772 1 % Critical Value* -2.6756
5 % Critical Value -1.9574
10% Critical Value -1.6238
============================================================
Dependent Variable: D(R1,2)
Method: Least Squares
Sample(adjusted): 1985:3 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
D(R1(-1)) -0.823204 0.214780 -3.832772 0.0010
============================================================

La primera diferencia de R1 no tiene raíz unitaria, es estacionaria; por


lo tanto, R1 es integrada de orden uno.

1.4. M1:

con tendencia e intercepto.

Augmented Dickey-Fuller Unit Root Test on M1


============================================================
ADF Test Statistic -3.066463 1 % Critical Value* -4.4167
5 % Critical Value -3.6219
10% Critical Value -3.2474
============================================================
Dependent Variable: D(M1)
Method: Least Squares
Sample(adjusted): 1985:2 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
M1(-1) -0.688533 0.224536 -3.066463 0.0061
C 159.5472 50.93765 3.132206 0.0052
@TREND(1985:1) 2.552756 0.974969 2.618295 0.0165
============================================================

M1 tiene raíz unitaria, o es no estacionaria. Entonces hay que rebajar


la serie y realizar el mismo análisis.
Hypothesis Testing for D(M1)
Sample: 1985:1 1990:4
========================================================
Test of Hypothesis: Mean = 0.000000
========================================================
Sample Mean = 6.52173 Sample Std. Dev. = 20.74930
Method Value Probability
t-statistic 1.507384 0.1459
========================================================

sin tendencia y sin intercepto.

Augmented Dickey-Fuller Unit Root Test on D(M1)


============================================================
ADF Test Statistic -4.521066 1 % Critical Value* -2.6756
5 % Critical Value -1.9574
10% Critical Value -1.6238
============================================================
Dependent Variable: D(M1,2)
Sample(adjusted): 1985:3 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
D(M1(-1)) -1.119497 0.247618 -4.521066 0.0002
============================================================
R-squared 0.491413 Mean dependent var 1.818182
============================================================

La primera diferencia de M1 no tiene raíz unitaria, es estacionaria; por


lo tanto, M1 es integrada de orden uno.

2º DETERMINACIÓN DEL GRADO DE INTEGRACIÓN DE LOS


RESIDUOS DEL MODELO

Se estima el modelo y se marcan los residuos (RESID01), a


continuación se verifica la existencia de raíz unitaria de la forma siguiente:
sin tendencia y sin intercepto.

Augmented Dickey-Fuller Unit Root Test on RESID01


============================================================
ADF Test Statistic -4.334793 1 % Critical Value* -2.6700
5 % Critical Value -1.9566
10% Critical Value -1.6235
============================================================
Dependent Variable: D(RESID01)
Method: Least Squares
Sample(adjusted): 1985:2 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
RESID01(-1) -0.939050 0.216631 -4.334793 0.0003
============================================================
R-squared 0.459499 Mean dependent var 1.485753
============================================================

Los residuos del modelo son estacionarios, es decir no tienen raíz unitaria; por
lo tanto, los residuos están integrados de orden cero.

En conclusión, todas las variables del modelo son integradas de orden uno y
los residuos están integrados de orden cero, por lo tanto, Q1 está cointegrada con P1,
R1, M1.

9.3. LA TÉCNICA DE JOHANSEN (COINTEGRACION MULTIVARIADA)

Existen una serie de problemas vinculados con la metodología propuesta por


Engle y Granger, a saber:

1.- La estimación de la relación de cointegración requiere identificar previamente


cuál de las variables debe colocarse a la derecha de la ecuación. El resultado
del test debiera ser invariable a cualquier ordenamiento de las variables
utilizadas. Sin embargo, esto no se observa en el caso de la metodología
propuesta.

2.- Considera un sólo vector de cointegración.


3.- La existencia de dos etapas sucesivas de estimación (la relación de largo plazo
y la de corrección de errores) implica una acumulación de errores a lo largo de
las mismas que resta eficiencia a la estimación de la relación de largo plazo.

Por estas razones, surge una especificación alternativa del problema, en la que
se incorpora la posibilidad de que exista mñas de un vector de cointegración entre un
mismo conjunto de variables.

Si el vector de variables X t tiene n componentes (n variables no


estacionarias), existe la posibilidad de que hayan, por lo menos, n-1 vectores de
cointegración linealmente independientes. El número de vectores de cointegración se
conoce como el rango cointegrante de X t .

La especificación de la metodología de Johansen se basa en una generalización


multivariada del Dickey Fuller. Si X t es un vector de n variables que siguen un
proceso VAR(1):
X t = AX t −1 + ε t

restando X t −1 en ambos lados de la ecuación anterior se obtiene:


∆ X t = AX t −1 − X t −1 + ε t
∆ X t = ( A − I ) X t −1 + ε t
∆ X t = Π X t −1 + ε t

Dado que existen n variables que constituyen el vector X t la dimensión de Π


es n x n y su rango no puede ser mayor que n. A partir del Teorema de Representación
de Granger (Engle y Granger, Johansen) se afirma que:

1º Si el rango de la matriz Π es igual a n (el número total de variables explicadas


en el modelo VAR), el proceso vectorial X t es estacionario (todas las
variables en X t son integradas de orden cero).

2º Si el rango de la matriz Π es igual a r < n , existe no más de r = n − 1


vectores de cointegración.

3º Si Π es una matriz de ceros de tal forma que su rango es igual a 0, entonces


todas las variables son procesos con raíz unitaria y no hay combinaciones
lineales de X t , es decir, las variables no cointegran.

El test de cointegración consiste en:

Dado que la determinación del número de vectores de cointegración depende


del rango de Π y, por lo tanto, del número de raíces características distintas de cero
de dicha matriz, se requiere utilizar un test para verificar dicho número.
Si se tienen las n raíces de la matriz Π , λ i , donde λ1 > λ 2 > ... > λ n , se puede
plantear el siguiente test:
H0 : numero de vectores de cointegracion ≤ r

el estadístico es :

( )
n
λ ( r ) = − T ∑ Ln 1 − λ$i ≈ jj
i = r +1

donde λ$i es la raíz características estimada. Cuanto mayor número de λ sean iguales
a cero menor será el λ ( r ) .

Este contraste es considerado superior al método uniecuacional desarrollado


por Engle y Granger. Las propiedades estadísticas del procedimiento de Johansen son
generalmente mejores y el poder de la prueba de cointegración es más elevado. Hay
que indicar que los procedimientos de Engle - Granger y Johansen se basan en
diferentes metodologías econométricas y por tanto no pueden ser comparadas
directamente.

EJEMPLO:

Considerando el modelo de demanda de gelatina, en el Eviews se sigue la


siguiente instrucción:

Quick ⇒ Group Statistics ⇒ Cointegration Test ⇒ Q1 P1 M1 R1 ⇒


OK ⇒ OK.

el computador nos muestra el siguiente resultado:

Johansen Cointegration Test


=================================================================
Sample: 1985:1 1990:4
Included observations: 22
Test assumption: Linear deterministic trend in the data
Series: Q1 P1 M1 R1
Lags interval: 1 to 1
=================================================================
Likelihood 5 Percent 1 Percent Hypothesized
Eigenvalue Ratio Critical ValuCritical ValuNo. of CE(s)
=================================================================
0.758424 50.16823 47.21 54.46 None *
0.402068 18.91567 29.68 35.65 At most 1
0.281854 7.601560 15.41 20.04 At most 2
0.014339 0.317750 3.76 6.65 At most 3
=================================================================
*(**) denotes rejection of the hypothesis at 5%(1%) significance level
L.R. test indicates 1 cointegrating equation(s) at 5% significance level
H 0 : numero de vectores de cointegracion ≤ r

tenemos:
LR = 5016823
. > 47.21

por lo tanto, existe una regresión de cointegración.

10º COINTEGRACIÓN Y MECANISMO DE CORRECCIÓN DE ERRORES


(ECM)

Si Yt y X t están cointegradas entonces hay una relación de equilibrio de largo


plazo entre las dos y por lo tanto, se puede tratar el término de error como el “error
de equilibrio”. Y se puede utilizar este término de error para atar el comportamiento
de corto plazo con su valor de largo plazo.

El mecanismo de corrección de errores (ECM) utilizado por primera vez por


Sargan y más tarde por Engle y Granger, corrige el desequilibrio.

Se considera:

∆ Yt = α 1 ∆ X t − α 2 u$t −1 + ut
( )
donde ε t ≈ N 0, σ ε2 , u$t es la combinación lineal de X t e Yt dos variables que se
supone son CI(1,1). α 1 recoge el efecto impacto o la relación de corto plazo entre
ellas y α 2 recoge el efecto feedback o de ajuste a la relación de largo plazo.

Si α 2 es significativo estadísticamente entonces éste dice qué proporción del


desequilibrio en Y en un periodo es corregida en el periodo siguiente.

Engle y Granger (1987) proponen el siguiente procedimiento para estimar este


tipo de modelos:

1º Verificar que X t e Yt sean integradas de orden 1.

2º Estimar por mínimos cuadrados ordinarios la ecuación de cointegración (o


relación de largo plazo).

3º Verificar que los residuos de la ecuación de cointegración sea integrada de


orden 1, es decir, que X t e Yt cointegren.

4º Utilizar el error de la ecuación de cointegración rezagado un período, junto


con la primera diferencia de Y e X para estimar la ecuación de corrección de
errores.
11° MODELO VAR

11.1. Introducción

Fueron planteados inicialmente por C. Sims en un artículo publicado en 1980 en


ECONOMETRICA, bajo el título de “Macroeconomía y realidad”

Surgen como una crítica a los métodos tradicionales de elaboración de modelos


econométricos al estilo de la Cowles Commision, y sobre todo a la forma en como se realiza
la identificación.

Sims, retoma una antigua crítica de Liu (1960) en el sentido de que las restricciones
que se imponen en los modelos son ficticias y no se corresponden con la realidad en la que
todas las variables son dependientes.

Adicionalmente Sims se plantea el problema de la dinamicidad de las relaciones y la


escasa información que aporta la teoría económica

Presentación clásica a la identificación

Las relaciones que observamos son el resultado de la interacción de muchas variables


por lo que debemos realizar un proceso de identificación o separación de los efectos de cada
variable.

En términos de un modelo multiecuacional las relaciones que observamos son las


recogidas en la forma reducida, por lo que es necesario realizar el proceso de identificación
(obtención de la forma estructural).

La forma estructural es:


Yt = Yt Γ + X t Β + U t

La forma reducida es:


Yt = X t Π + Vt

El sistema de ecuaciones es:


Π = Β( I − Γ) −1 = ΒΓ *

donde se tiene g x k ecuaciones y (g2 -g )+ (g x k) incógnitas. Existe un exceso de (g2 -g )


incógnitas que hay que eliminar, habitualmente por nulidad a priori. Por lo tanto, se tiene una
condición necesaria en cada ecuación siguiente:
R > G −1

Planteamiento:

Se pretende especificar un modelo que recoja de la mejor forma posible la evolución


de un sistema económico sin que sea necesario imponer demasiadas restricciones a priori. Se
busca un modelo débilmente restringido.
Únicamente se necesita especificar las variables que intervienen y el número de
retardos adecuado.

Se parte de la especificación general del modelo en la forma reducida:


Yt = X t Π + Vt
Se genera un nuevo vector Z t que comprende el conjunto de variables:

Z t = (Yt , X t )

Tomando el nuevo vector Z t como una variable aleatoria multivariante podemos


utilizar el Teorema de la descomposición de Wold (1938) según el cual toda variable
aleatoria puede descomponerse en un componente determinista y un componente aleatorio.
Obviando por simplicidad el primero tenemos:
Z t = Dt + c( L)ε t Z t = c( L)ε t

Descomponiendo la matriz de retardos c(L) en dos componentes a(L) y b(L), se


tiene:

Z t = a −1 ( L) * b( L) * ε t a ( L ) Z t = b( L ) * ε t a ( L) Z t = Bε t

Separando los valores contemporáneos de a obtenemos la representación


autorregresiva pura:
−1
Z t = a0 (a1Z t −1 + a1Z t − 2 + a1Z t −3 +  + ar Z t − r + Bε t )

11.2. Especificación

Una vez determinadas las variables y los retardos adecuados, bastará con especificar
cada variable en función de sus propios valores retardados y de los valores retardados del
resto de variables. Se tiene:
m r
Yi ,t = Di ,t + ∑∑ β ijYi ,t − j + ui ,t
i =1 j =1

Especificación escalar de la ecuación i-ésima:


Yi ,t = Di ,t + β11,tY1,t −1 + β12,tY1,t − 2 +  β1r ,tY1,t − r +
+ β 21,tY2,t −1 + β 22,tY2,t − 2 +  β 2 r ,tY2,t − r +  +
+ β m1,tYm ,t −1 + β m 2,tYm ,t − 2 +  β mr ,tYm ,t − r + ui ,t

Las perturbaciones aleatorias de cada ecuación son ruido blanco, es decir presentan
homocedasticidad y ausencia de autocorrelación. Es decir:
Cov (u1 ) = E (u1u1′ ) = σ 2 I

Las perturbaciones aleatorias de distintas ecuaciones presentan una matriz de


varianzas y covarianzas constante para cada observación t. Tenemos:
Cov (ui , u j ) = E (ui u ′j ) = Σ
o:
 σ 211 σ 212  σ 21m 
 2 
σ σ 2
 σ 2

Σ=
21 22 2m

     
 2 
σ m1 σ m 2  σ mm 
2 2

11.3. Estimación

Teniendo en cuenta que las variables explicativas son todas retardadas y como
consecuencia de la ausencia de autocorrelación no están correlacionadas con las
perturbaciones aleatorias, podemos estimar el modelo de forma consistente por Mínimos
Cuadrados Ordinarios (MCO). Se tiene:

β̂ = (Yt′− jYt − j ) −1Yt′− jYt

La existencia de correlaciones entre las distintas ecuaciones podría inducir la


necesidad de utilizar métodos de estimación con información completa. Ahora bien, al no
existir restricciones en la matriz de coeficientes (todas las variables aparecen incluidas en
todas las ecuaciones) los métodos alternativos no serán más eficientes que los de M.C.O.
Charezma (1992).

La determinación del número óptimo de retardos debe realizarse de forma cuantitativa,


ya que no existen evidencias teóricas al respecto.

Sims, en su artículo inicial propone la utilización de un Ratio de verosimilitud entre el


modelo restringido (el que tienen el menor número de retardos) y el modelo ampliado (el que
incluye todos los retardos deseados), de la forma siguiente:

(T − c)[Log Σ r − Log Σ a ] ≈ χ R2

con T número de observaciones, c número de variables de modelo ampliado, Σ matrices de


productos cruzados de residuos, R número total de restricciones.

Otras medidas alternativas de selección de retardos son:


 k
Akaike Information Criteria: AIC = −2 +2
N N
 log( N )
Schwarz Criteria: SC = −2 +k
N N
con  = − Nm (1 + 2 log 2π ) − N log Σ , m número de ecuaciones y c el número de variables.
2 2

En términos prácticos se recomienda utilizar la siguiente receta:

1º Limpiar cada una de las series de cualquier tipo de no estacionariedad. Es decir:


aplicar el ploteo, correlograma (AC y PAC), DFA y el Test de Zivot y Andrews (Test
de quiebre estructural).
El Test de Zivot y Andrews determina en que periodo se debe agregar una variable
dummy para corregir el quiebre que puede ser en: intercepto, tendencia o ambos.

2º Estimar por MCO cada ecuación, individualmente.

3º Determinar el número de rezagos de las variables explicativas que deben permanecer


en cada ecuación. Para ello se sugieren dos tipos de test:
• El test F por bloques, para probar la hipótesis nula de que un número i de rezagos
deben incluirse como explicativas en cada ecuación, versus la alternativa de que
dicho número es i+r>i. Este test tiene el problema de que debe ser aplicado
individualmente a cada ecuación, pudiendo llegarse a la conclusión de que el
número de rezagos a incluirse en ellas es diferente en cada caso. Esto le restaría
eficiencia al estimador de MCO.
• El Test de Máxima Verosimilitud (Likelihood Ratio Statistic - LR) para el
conjunto de ecuaciones. Nos sirve para determinar el número de rezagos óptimo de
un VAR, SIMS (1980). La hipótesis nula de este test es que el sistema tiene un
número i de rezagos versus la alternativa de que este número es i+r. El estadístico
sería:
(T − c)[Log Σ r − Log Σ a ] ≈ χ R2
donde:
log |Ʃa| = logaritmo natural del determinante de la matriz de varianzas y
covarianzas para el modelo con “a” rezagos.
T = número de observaciones.
c = número de parámetros estimados en cada ecuación del sistema no
restringido. Es decir: c = m(r+i).
q = grados de libertad, número de restricciones en todo el modelo. Es decir:
q = m2 r.

Este test se distribuye Ӽ2 con grados de libertad igual al número de


restricciones en el sistema (q=m2r). Este test tiene poco poder para rechazar test
sucesivos de restricción de rezagos; por ello el rezago referencial debe ser el de
mayor valor en el sistema, es decir, cualquier hipótesis nula debe ser contrastada
contra el rezago (i+r). Si se acepta la hipótesis nula (H0), procedemos a verificar
con un rezago menor.

11.4. Identificación

En los modelos VAR la etapa de identificación se diferencia de la de estimación y, al


contrario de los modelos clásicos, esta identificación se realiza durante el periodo de
simulación. (Determinación de los efectos aislados de cada variable sobre el resto).

El proceso de identificación se realiza sobre la Matriz de Varianzas y covarianzas de


las perturbaciones ya que se utilizan dichas perturbaciones para introducir las alteraciones
que nos conducen al análisis de la simulación.

Las simulaciones a realizar, denominadas ANALISIS DE IMPULSO RESPUESTA,


consistirán en introducir una alteración en la perturbación aleatoria de una ecuación
(generalmente igual al valor de su desviación típica, y comprobar el resultado que esta
alteración tiene sobre el conjunto del sistema.)
Teniendo en cuenta que existen correlaciones entre las perturbaciones de las distintas
ecuaciones no podremos diferenciar claramente los efectos individuales de cada perturbación
a menos que se realice una transformación previa.

El proceso de identificación en un Modelo VAR se realiza mediante la


ortogonalización de las perturbaciones aleatorias; es decir debemos trasformar el modelo
original para que la Matriz de Varianzas y Covarianzas sea diagonal.

Toda matriz simétrica Σ puede ser convertida en una matriz diagonal operando con
una nueva matriz triangular Φ de acuerdo con la siguiente expresión:
D = ΦΣΦ′
Premultiplicando las variables originales del modelo por la matriz triangular Φ,
obtendremos una nuevo modelo cuya matriz de varianzas y covarianzas de la perturbación es
diagonal (independiente de unas ecuaciones a otras).
m r
ΦYi ,t = ΦDi ,t + Φ ∑∑ β ijYi ,t − j + Φui ,t
i =1 j =1

Cov(Φui ,t , Φu ′j ,t ) = ΦE (ui ,t , u ′j ,t )Φ′ = ΦΣΦ′ = D


La solución inicial propuesta por Sims es la conocida como factorización de Cholesky,
donde la matriz Φ es una matriz triangular inferior, cuya aplicación a la matriz original
perturbaciones aleatorias, genera un efecto de cadena causal entre las distintas variables
(perturbaciones), por lo que previamente deberemos haber ordenado las variables del sistema
de mayor a menor exogeneidad relativa.

Esta factorización de Cholesky asume que toda la perturbación aleatoria de la primera


ecuación corresponde a la primera variable, es decir que no hay efecto adicional procedente
de las siguientes variables; la perturbación de la segunda ecuación proviene de la primera y
de la suya propia, y así sucesivamente a lo largo de una cadena causal.

El problema surge del hecho de que los resultados de la simulación no son


independientes del orden de las variables por lo que ordenaciones distintas nos conducen a
alternativas diferentes en la simulación.

Funciones Impulso-Respuesta

Constituyen la herramienta básica de simulación con modelos VAR, para el análisis de


teorías o políticas económicas. Constituyen una representación de cómo los shocks inducidos
en una variable afectan al conjunto del sistema.

Parten de la representación de medias móviles del sistema autorregresivo, que una vez
ortogonalizado, nos permite analizar los efectos individuales de cada una de las variables.

Partiendo del modelo autorregresivo general multivariante:


r
Yt = ∑ β jYt − j + ut
j =1

Utilizando el operador retardo:


Yt = B( L)Yt + ut = ( I − B( L))Yt = ut

Y operando en la expresión anterior obtenemos:


∞ ∞
Yt = [( I − B( L))] ut = M ( L)ut = ∑ M s L ut = ∑ M s ut − s
−1 s

s =0 s =0
donde cada una de las variables se expresa en función de las perturbaciones aleatorias
acumuladas.

La segunda herramienta de simulación que nos ofrecen los modelos VAR es la


Descomposición de la varianza del error de predicción, y consiste en determinar, para cada
horizonte de predicción k, qué porcentaje de las variaciones de cada variable Yi,t+k es
explicado por cada perturbación ui,t+k

Nuevamente parten de la representación de medias móviles del modelo autorregresivo


multivariante y previamente ortogonalizado

Yi ,t + k = ∑ M i , s ui ,t − s + k
s =0

La varianza del error de predicción será:



Pi = var(Yi ,t + k − E (Yi ,t + k ) = ∑ M i , s ΣM i′, s
s =0

Pudiendo calcularse qué porcentaje del total de la varianza viene inducido por cada
perturbación i

11° MODELO VEC (Modelos de Vectores de Corrección del Error).

Ciertas modelizaciones entre variables no estacionarias, pero que cumplen ciertas


condiciones denominadas de cointegración, no sólo no son espurias, sino que aportan gran
información sobre las relaciones de equilibrio a largo plazo de las variables económicas.

Un modelo de vector de corrección del error (VEC) es un modelo VAR restringido


(habitualmente con sólo dos variables) que tiene restricciones de cointegración incluidas en
su especificación, por lo que se diseña para ser utilizado con series que no son estacionarias
pero de las que se sabe que son cointegradas.

El principio detrás de estos modelos es que existe una relación de equilibrio a largo
plazo entre variables económicas y que, sin embargo, en el corto plazo puede haber
desequilibrios. Con los modelos de corrección del error, una proporción del desequilibrio de
un período (el error, interpretado como un alejamiento de la senda de equilibrio a largo
plazo) es corregido gradualmente a través de ajustes parciales en el corto plazo.

Una de las claves de los modelos VEC es determinar si las series que modelizamos
son cointegradas y, si es así, determinar la ecuación de cointegración. Para ello utilizamos el
método de Johansen.

Potrebbero piacerti anche