Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
FACULTAD DE ECONOMIA
DEPARTAMENTO ACADEMICO DE ECONOMIA
CAPITULO I
MODELOS MULTIECUACIONALES
1.1. EXOGENEIDAD
En términos generales:
2º Variable exógena es aquella cuyos valores se toman como datos para analizar
el comportamiento de las endógenas.
2º Que aún interviniendo sin ningún nivel de retardo, estás sólo dependan de
variables estrictamente exógenas o de variables retardadas.
X 1t = α 11 * X 1t + α 21 * X 2 t +...+α rt * X rt + u1t
X it = α 1i * X 1t + α 2i * X 2 t +...+α ri * X rt + uit
X rt = α 1r * X 1t + α 2 r * X 2 t +...+α rr * X rt + urt
2
y presentando una función de distribución conjunta de las perturbaciones aleatorias
independiente para cada periodo t, así:
Dependent Variable: DD
Method: Least Squares
Sample: 1992:02 1997:12
Included observations: 71
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 37.82578 11.54381 3.276716 0.0017
DD(-1) 0.686693 0.087386 7.858146 0.0000
ENC -0.400755 0.206661 -1.939190 0.0567
CIN 0.038788 0.010386 3.734700 0.0004
============================================================
R-squared 0.848166 Mean dependent var 207.9296
============================================================
DDF
================================================================================
Modified: 1992:02 1997:12 // frdd.fit ddf
1992:01 NA 144.7520 146.4577 147.9097 153.1752 151.2739
1992:07 155.2140 164.7869 156.9519 154.5775 156.8674 157.9472
1993:01 171.6747 164.1451 170.1863 164.5127 158.1686 153.1212
1993:07 164.9365 178.5399 164.1107 167.7566 173.7750 173.9148
1994:01 194.8023 180.7786 182.7720 188.9755 178.1305 179.3825
1994:07 185.6961 219.4566 196.9213 200.7219 201.4028 200.8673
1995:01 239.0520 215.7034 224.6584 236.4655 225.9911 219.8976
1995:07 225.4408 247.7038 230.3212 234.5356 234.8269 230.6908
1996:01 258.3213 233.7957 230.7273 237.7114 241.8207 242.2752
1996:07 236.4521 250.4778 238.3640 235.9629 235.6657 237.1514
1997:01 260.8767 241.0755 244.8116 257.7485 259.6422 261.2410
1997:07 253.4000 279.0850 267.5338 260.7541 266.3076 261.8484
================================================================================
se realiza la comparación:
F = 2.252994 < 3.1357193449 = F(0.95, 2 , 66 )
Sabemos que:
α 2 β 11 + β 21
π 21 =
1 − α 1α 2
entonces π 21 = 0 no implica que α 2 = 0 y β 21 = 0 . Por lo tanto, la prueba de
causalidad de Granger no equivale a la prueba de predeterminación ni a la prueba de
exogeneidad estricta.
1.4. EVALUACIÓN
A.- Los parámetros estimados tengan el tamaño y el signo que la teoría señala, o
9
B.- los parámetros estimados no posean las características que la teoría espera.
Dependent Variable: CP
Method: Two-Stage Least Squares
Sample(adjusted): 1950:2 1985:4
Included observations: 143 after adjusting endpoints
Instrument list: C PBI(-1) TIB GG
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C -142.1103 10.13736 -14.01848 0.0000
PBI 0.673290 0.004185 160.8802 0.0000
============================================================
R-squared 0.994587 Mean dependent var 1416.052
Adjusted R-squared 0.994549 S.D. dependent var 484.8804
S.E. of regression 35.79936 Sum squared resid 180704.8
F-statistic 25882.43 Durbin-Watson stat 0.165631
Prob(F-statistic) 0.000000
============================================================
Dependent Variable: IB
Method: Two-Stage Least Squares
Sample(adjusted): 1950:2 1985:4
Included observations: 143 after adjusting endpoints
Instrument list: C PBI(-1) TIB GG
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 61.22132 48.49890 1.262324 0.2089
PBI-PBI(-1) 7.496991 1.826459 4.104659 0.0001
TIB 35.78810 5.098588 7.019217 0.0000
============================================================
R-squared -1.225633 Mean dependent var 385.1077
Adjusted R-squared -1.257428 S.D. dependent var 130.6596
S.E. of regression 196.3126 Sum squared resid 5395412.
F-statistic 29.63298 Durbin-Watson stat 1.342052
Prob(F-statistic) 0.000000
============================================================
G σ y2
R =∑R
2 2
h G
h
h =1
∑σ
h =1
2
yh
11
Incluso aunque todas las ecuaciones individuales se ajusten bien a los datos y
sean estadísticamente significativos, no tendremos la garantía de que en su conjunto,
cuando sea simulado, reproduzca aquellas mismas series en forma ajustada.
⎛ 484.88042 ⎞ ⎛ 130.6596 2 ⎞
R = 0.994587⎜⎜
2
⎟
2 ⎟
+ 1.225633⎜ 484.8804 2 + 130.6596 2 ⎟⎟
⎜
⎝ 484.8804 + 130.6596 ⎠
2
⎝ ⎠
R 2 = 0.844284
MULTICOLINEALIDAD:
HETEROCEDASTICIDAD:
ARCH Test:
============================================================
F-statistic 334.3676 Probability 0.000000
Obs*R-squared 100.0916 Probability 0.000000
============================================================
ARCH Test:
============================================================
F-statistic 2.054933 Probability 0.153943
Obs*R-squared 2.054138 Probability 0.151793
============================================================
ARCH Test:
============================================================
F-statistic 179.5448 Probability 0.000000
Obs*R-squared 101.8561 Probability 0.000000
============================================================
ARCH Test:
============================================================
F-statistic 6.139587 Probability 0.002790
Obs*R-squared 11.52098 Probability 0.003150
============================================================
AUTOCORRELACION:
0 01
.4
165631
24 3 1{
.72 11
.2
73
46 2
DW dL dU
0 11
.4
342052
24 3 11
.2
706
3 1{
.76 2
DW dL dU
Correlogram of Residuals
==============================================================
Sample: 1950:2 1985:4
Included observations: 143
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
.|*******| .|*******| 1 0.899 0.899 118.09 0.000
.|****** | *|. | 2 0.778-0.160 207.14 0.000
==============================================================
Se tiene:
H 0 : ρ1 = 0
H 1 : ρ1 ≠ 0
comparamos:
QBP = 143 * 0.899 2 = 115.572743 > 3.84 = χ (20.95,1)
calculamos:
( )
QBP = 143 * 0.899 2 + 0.778 2 = 202.128355 > 5.99 = χ (20.95, 2 )
Correlogram of Residuals
==============================================================
Sample: 1950:2 1985:4
Included observations: 143
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
.|** | .|** | 1 0.327 0.327 15.655 0.000
.|* | .|. | 2 0.117 0.011 17.665 0.000
==============================================================
17
Se tiene:
H 0 : ρ1 = 0
H 1 : ρ1 ≠ 0
comparamos:
QBP = 143 * 0.327 2 = 15.290847 > 3.84 = χ (20.95,1)
calculamos:
( )
QBP = 143 * 0.327 2 + 0.117 2 = 17.248374 > 5.99 = χ (20.95, 2 )
NORMALIDAD:
14
Series: Residuals
12 Sample 1950:2 1985:4
Observations 143
10
Mean 1.02E-12
Median -3.450644
8
Maximum 101.6454
Minimum -73.31450
6 Std. Dev. 35.67308
Skewness 0.333192
4 Kurtosis 3.135286
2 Jarque-Bera 2.754957
Probability 0.252214
0
-60 -40 -20 0 20 40 60 80 100
30
Series: Residuals
Sample 1950:2 1985:4
25 Observations 143
20 Mean 4.84E-14
Median -9.054948
Maximum 764.3070
15
Minimum -643.3132
Std. Dev. 194.9253
10 Skewness 0.233754
Kurtosis 5.681904
5
Jarque-Bera 44.15825
Probability 0.000000
0
-600 -400 -200 0 200 400 600 800
2. SIMULACIÓN
La simulación más habitual es la que supone cuantificar los efectos sobre las
endógenas de valores alternativos para las variables exógenas del modelo. Si los
datos de las variables exógenas son históricos se tiene una simulación ex - post o
histórica; en cambio, si los datos de las variables exógenas son supuestos para el
futuro se trata de una simulación ex - ante.
2.1. OBJETIVOS
2.2. TIPOS
∏0 ⇒ término independiente.
∏0 ⇒ endógenas desplazadas.
∏0 ⇒ exógenas corrientes.
∏0 ⇒ exógenas desplazadas.
simplificando, tenemos:
Yt = ∏ 0 (I + ∏1 ) + ∏12 Yt −2 + ∏ 2 Z t + (∏ 2 ∏1 + ∏ 3 )Z t −1 + ∏1 ∏ 3 Z t −2 + (Vt + ∏1 Vt −1 )
2º Multiplicador dinámico.- recoge el efecto según pasa uno, dos, ... , s períodos
que cualquier cambio en la variable exógena tienen sobre la variable
endógena. En este modelo son:
(∏ 2 ∏ 1 + ∏ 3 ) ; (∏ 2 ∏ 1 + ∏ 3 ) ∏ 1 ; (∏ 2 ∏ 1 + ∏ 3 ) ∏ 12 ; ...
simplificando tenemos:
MLP = (∏ 2 + ∏ 3 )(I − ∏ 1 )
−1
23
donde,
donde,
c ⇒ vector de G componentes.
λ ⇒ escalar.
h =1
donde,
dh ⇒ debe cumplir el conjunto de condiciones iniciales.
si es que C es no singular.
cuyo límite, cuando t tiende a infinito, se anulará siempre que las raíces
características sean en valor absoluto inferiores a la unidad; es decir:
λh < 1 h = 1,2,..., G
2.5. EJEMPLO
nos queda:
CPt = π 1 + π 2π 9 + π 2π 10 PBI t −2 + π 3TIBt + π 2π 11TIBt −1 + π 4 GGt + π 2π 12 GGt −1 + v1t + π 2 v3t −1
Generalizando a l sustituciones:
l l
CPt = (π 1 + π 2π 9 ∑ π 10 ) + π 2π PBI t −l −1 + π 3TIBt + π 2π 11 ∑ π 10i −1TIBt −i + π 4 GGt
i −1 l
10
i =1 i =1
l l
+ π 2π 12 ∑ π 10i −1GGt −i + (v1t + π 2 ∑ π 10i −1v3t −l )
i =1 i =1
para nuestro caso no se tiene forma final de la función de consumo personal porque
no se cumple la condición.
para que el modelo sea estable debe cumplirse que λ i < 1 . En el modelo de la
determinación de la renta no se cumple porque π 10 > 1 , por lo tanto el modelo no es
estable.
Model1 ⇒ OK.
ASSIGN @ALL F1
DD=160.6313558-2.403032846*I+0.1805237945*ENC+0.4840412947*DD(-1)
I=30.60088905-0.05913999321*DD+4.50263825*INF
INF=7.828404177-0.03281394227*DD+0.0004975424753*CIN
1º GRÁFICA
ìf = Yf
Yf
2º COEFICIENTE DE JANUS
1 T+H
∑ ( )
2
Yf − Y$f
H f = T +1 S 2f
J2 = =
1 T S e$2
∑
T t =1
( Yt − Y$t )
2
Se define como:
1 T+ H 2
RECM = ∑ e$
H t = T +1 t
Se define como:
T+ H
∑ e$t
t = T +1
EMA =
H
Esta medida es apropiada siempre que la función de pérdida es
lineal y simétrica
Se define como:
1 T + H e$t
EPMA = ∑
H t = T +1 Yt
Se define como:
1 T + H e$t2
RCREM = ∑
H t = T +1 Yt
1 T+H
∑ (Yt − Y$t ) 2
H t = T +1
U=
1 T+ H $ 2 1 T+H 2
∑Y +
H t = T +1 t
∑Y
H t = T +1 t
El U de Theil se descompone:
serie.
GRÁFICA
300 23.0
22.5
280
22.0
21.5
260
21.0
20.5
240
20.0
220 19.5
97:07 97:08 97:09 97:10 97:11 97:12 97:07 97:08 97:09 97:10 97:11 97:12
DD DDF1 I IF1
300
1.4
1.2
280
1.0
DDF1
0.8 260
0.6
0.4 240
0.2
220
0.0 220 240 260 280 300
97:07 97:08 97:09 97:10 97:11 97:12
INF INFF1 DD
33
23
1.2
1.0
22
0.8
INFF1
21
IF1
0.6
0.4
20
0.2
19 0.0
19 20 21 22 23 0.0 0.2 0.4 0.6 0.8 1.0 1.2
I INF
Los gráficos nos sugieren que hay mejor predicción en la variable I, luego en la
variable DD y por último en la variable INF.
ESTADÍSTICOS
1º COEFICIENTE DE JANUS.-
El modelo para las variables DD e I predice bien porque los estadísticos son
pequeños.
El modelo predice bien para las variables DD e I porque los estadísticos son
menores a 0.10.
CAPITULO II
SERIES DE TIEMPO
1º INTRODUCCIÓN
Este problema surge porque si las dos series de tiempo involucradas presentan
tendencias fuertes (movimientos sostenidos hacia arriba o hacia abajo), el alto R2
observado se debe a la presencia de la tendencia y no a la verdadera relación entre las
dos. Por consiguiente es muy importante averiguar si la relación entre las variables
económicas es verdadera o es espuria.
Como lo han sugerido Granger y Newbold : una buena regla práctica para
sospechar que la regresión estimada sufre de regresión espuria es que R2 > D-W.
Por ejemplo: Se tiene las series anuales (1936-1972) del PNB nominal en
Estados Unidos (datos en miles de millones de dólares), y de la Incidencia del
melanoma en la población masculina (datos ajustados de edad) en el estado de
Connecticut. 800
6 700
5
600
800
4
500
GNP
600 3
400
2
400 300
1
200
200 0
100
0 1 2 3 4 5 6
0
1940 1945 1950 1955 1960 1965 1970 MELANOMA
GNP MELANOMA
60
40
40
20 20
D(GNP)
2.0 0
0
1.5 -20
-40 -20
1.0
-60
-40
0.5
0.0 -60
-0.5 0.0 0.5 1.0 1.5 2.0
-0.5
D(MELAMONA)
1940 1945 1950 1955 1960 1965 1970
D(MELANOMA) D(GNP)
5º Muy Largo Plazo, mayor a 10 años, para las decisiones estratégicas incluyendo
aquellas de cambio de las características principales de la empresa. Por
ejemplo: predicción tecnológica en apoyo de investigación y desarrollo y
planificación estratégica.
1º Medios Escasos:
2º Medios Normales:
1º Univariante,
Φ ( Β )Yt = Θ ( Β ) ut
2º Función de transferencia,
Θ (Β )
Yt = u
Φ (Β ) t
Con los mismos polinomiales de retardos definidos, de orden p y q,
entonces puede definirse el modelo (simple) de función de transferencia, con
ruido, como:
K ω j (Β ) Θ (Β )
Yt = ∑j =1 δ ( Β ) jt Φ ( Β ) ut
X +
j
ω (Β ) Θ (Β )
Yt = Xt + u
δ (Β ) Φ (Β ) t
3º Intervención,
4º Multivariantes,
Yt = V ( Β ) X t + Φ ( Β ) Θ ( Β )U t
−1
DesYt =
1 T
∑ (Yt − Y )2 .
T t =1
2,400
2,000
1,600
1,200
800
400
1950 1955 1960 1965 1970 1975 1980 1985
CP @MEAN(CP,"1950q1 1988q1")
Yt − Yt −1 Y
%∆Yt = *100 = t − 1 *100
Yt −1 Yt −1
Cuando estamos analizando series temporales de frecuencia superior al año
podemos calcular distintas tasas de crecimiento alternativas.
Mensual Trimestral
Y Y
Sobre el periodo anterior ∆11Yt = t − 1 *100 ∆11Yt = t − 1 *100
Yt −1 Yt −1
Sobre el mismo periodo Y Yt
anterior ∆1 Yt = t − 1 *100 ∆1Yt = − 1 *100
12 4
del año
(interanuales) Yt −12 Yt − 4
Las tasas interanuales presentan un comportamiento mas suavizado y
representan el movimiento tendencial de la variable, mientras que las tasas sobre el
periodo anterior recogen la dinámica más reciente y son más volátiles.
8
4
6
2
4
0
2
-2
0
-2
-4
1950 1955 1960 1965 1970 1975 1980 1985
TPA TPAA
6.4
500
1955 1960 1965 1970 1975 1980 1985
CP LOG(CP)
-1
-2
-3
1955 1960 1965 1970 1975 1980 1985
(LOG(CP)-LOG(CP(-1)))*100 TPA
Graficando tenemos:
1/SQR(CP)
CP^2 SQR(CP) .040
7000000 52
.036
6000000 48
5000000 44 .032
4000000 40 .028
3000000 36 .024
2000000 32
.020
1000000 28
.016
0 24 1955 1960 1965 1970 1975 1980 1985
1955 1960 1965 1970 1975 1980 1985 1955 1960 1965 1970 1975 1980 1985
LOG(CP) 1/CP
1/CP^2
8.0 .0014
.0000020
7.8
.0012
7.6 .0000016
7.4 .0010
.0000012
7.2 .0008
7.0 .0000008
.0006
6.8
.0004 .0000004
6.6
6.4 .0002
1955 1960 1965 1970 1975 1980 1985 .0000000
1955 1960 1965 1970 1975 1980 1985
1955 1960 1965 1970 1975 1980 1985
1º ADITIVO:
Yt = Tt + Ct + St + I t
2º MULTIPLICATIVO:
Yt = Tt * Ct * St * I t
3º MIXTO:
Yt = Tt * (1 + Ct ) * (1 + St ) + I t
3º Ciclo Cˆ t = f (Yt 2 )
4º Componente irregular I t = Yt 2 − Cˆ t
3.1. DESESTACIONALIZACIÓN
* Efecto PASCUA: Corrección que se aplica a los meses de Abril o Marzo en función
de las fechas de Semana Santa.
A las series de las que se han eliminado estos efectos se les denomina SERIES
CORREGIDAS DE CALENDARIO.
Estas características se deben a que las decisiones tomadas por los agentes
económicos en un determinado trimestre (bimestre, mes, o semana) del año puede
estar correlacionado con las decisiones tomadas en el mismo trimestre (bimestre, mes
o semana) de otros años.
60 800
780
50
760
40
740
30
720
20 700
92M01 92M07 93M01 93M07 94M01 1950 1951 1952 1953
60
2000
50 1600
40 1200
800
30
400
Q1 Q2 Q3 Q4
20
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
CP Means by Season
Means by Season
4º CORRELOGRAMA.-
donde cada variable Di toma valores 1 en el período que ésta representa (p. e.,
enero de cada año) y cero en cualquier otro período. El modelo puede ser
extendido para incluir otras variables explicativas o un proceso más complejo
(aunque estacionario) para el error (p. e., un ARMA).
Dependent Variable: CP
Method: Least Squares
Sample (adjusted): 1950Q2 1988Q1
Included observations: 152 after adjustments
1 11 1 3
Sin centrar MM 12Yt = ∑ Yt −r
12 r =0
MM 4Yt = ∑ Yt −r
4 r =0
1 +6 1 +2
MMc12Yt = ∑ ωYt −r
12 r = −6
MMc 4Yt = ∑ ωYt −r
4 r = −2
Centrada
Con ω = 0.5 para r=-6 y Con ω = 0,5 para r = -2 y +2
+6 y ω = 1 el resto. y ω = 1 el resto.
Aplicando la media móvil sin centrar al consumo personal real nos daría
los siguientes factores estacionales:
2) Se considera el ratio:
Yt
rt =
Xt
3) ( )
Calculamos el índice estacional i m como el promedio del ratio de promedio
móvil para ese mes o trimestre en el periodo analizado.
im
12 i i ...i mensuales
1 2 12
s= im
trimestres
4 i1i2 i3i4
Scaling Factors:
1 1.000019
2 0.999470
3 1.000848
4 0.999663
Scaling Factors:
1 -0.132086
2 -0.941545
3 1.444906
4 -0.371275
Yˆt = α * t + (1 − α )* Yˆt −1 + bt −1
Y
st − s
( )
t (
b = β * Yˆ − Yˆ + (1 − β )* b
t t −1 ) t −1
+ (1 − δ )st − s
Yt
st = δ
Yˆt
La predicción es:
( )
Yˆt + k = Yˆt + bt * k * st − s + k
La predicción es:
Yˆt + k = Yˆt + bt * k + st − s + k
En el Eviews se tiene:
Lineal
60
Lineal 50
Yt = a + b * t 40
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 1516 17 18 19 20
Parábola
Parábola 150
Yt = a + b * t + c * t 2 100
50
0
1 2 3 4 5 6 7 8 9 10 1112 13 1415 1617 18 1920
Exponencial
200
Exponencial Yt = a * b t 150
Ln(Yt ) = c + d * t
100
50
0
1 2 3 4 5 6 7 8 9 1011 1213 1415 16 1718 1920
Potencial
200
Potencial
Yt = a * t b
150
100
Ln(Yt ) = c + d * Ln(t ) 50
0
1 2 3 4 5 6 7 8 9 10 1112 1314 1516 1718 1920
LS CP C @TREND LINEAL
LS CP C @TREND @TREND^2 PARÁBOLA
LS LOG(CP) C @TREND EXPONENCIAL
LS LOG(CP) C LOG(@TREND) POTENCIAL
Variable CP
Included Observation 153
Yt = 689.46 +6.6505*t Yt = 716.86 *
Equation Yt = 551.89 +11.976*t
+0.03458*t**2 (1.0085**t)
R-Squared 0.982551 0.995333 0.993978
R-Square Adjusted 0.999980 0.999990 0.961511
Sum Square Error
(SSE)
760146.960164 203307.057636 0.024479
El modelo es:
Resulta:
Dependent Variable: CP
Method: Least Squares
Sample: 1950Q1 1988Q1
Included observations: 153
El modelo es:
2πt 2πt 2πt
Yt = α 0 + α1t + α 2 t 2 + α 3 sen + α 4 cos + α5tsen +
w w w
2πt 2πt 2πt
α 6 t cos + α 7 t 2 sen + α8 t 2 cos + ut
w w w
donde w es el número de observaciones en un año.
Obteniendo:
Dependent Variable: CP
Method: Least Squares
Sample: 1950Q1 1988Q1
Included observations: 153
Yˆt = α * Yt + (1 − α )* Yˆt −1
N −1
Yˆt = α * ∑ (1 − α ) Yt − s
s
s =0
Predicción:
Yˆt + k = Yˆt ∀k > 0
Válido para series sin tendencia. La predicción no aporta información
adicional.
Predicción:
αk ˆ 1 αk ˆ
Yˆt + k = 2 + * Yt − 1 + * Yt =
(1 − α ) (1 − α )
= 2 * Yˆt1 − Yˆt +
α
(1 − α )
( )
Yˆt1 − Yˆt k
Válido para series con tendencia lineal. La predicción es una recta con
( )
ordenada en el origen 2 * Yˆt1 − Yˆt y pendiente α Yˆt1 − Yˆt (1 − α ).
En el Eviews se sigue la instrucción siguiente:
Abrir el PBIA ⇒ Proc ⇒ Exponential Smoothing ⇒ Double ⇒
OK y se muestra el siguiente resultado:
Sample: 1992M01 1994M06
Included observations: 30
Method: Double Exponential
Original Series: PBIA
Forecast Series: PBIASM
Yˆ2 = Y2 ; b2 = (Y2 − Y1 )
La predicción es:
Yˆt + k = Yˆt + bt * k
Válido para series con tendencia lineal. La predicción es una recta con
ordenada en el origen Yˆt1 y pendiente bt .
( ) (( ) ( ))
N N
Min∑ Yt1 − Yˆt 2 + λ ∑ Yˆt+21 − Yˆt 2 − Yˆt 2 − Yˆt −21
2 2
Tt = Yˆt 2 /
t =1 t =2
2500
2000
80 1500
1000
40
500
0
-40
-80
1950 1955 1960 1965 1970 1975 1980 1985
CP Trend Cycle
Donde:
Upper: número de períodos mínimos que se incluirán en el filtro,
correspondientes a frecuencias altas.
Lower: número de períodos máximos que se incluirán en el filtro,
correspondientes a frecuencias bajas.
Nma: número de promedios móviles (o rezagos ) del filtro.
Arpad: número de parámetros autorregresivos que se utilizarán para
sustituir los valores que se pierden al final de la serie, por la
aplicación de un promedio móvil truncado.
2500 1.0
2000 0.8
80
1500
0.6
40 1000
0.4
0 500
0.2
-40 0.0
-80 -0.2
1950 1955 1960 1965 1970 1975 1980 1985 .0 .1 .2 .3 .4 .5
cycles/period
CP Non-cyclical Cycle Actual Ideal
2500
1.0
2000
80 0.8
1500
40 0.6
1000
0 500 0.4
-40 0.2
-80 0.0
1950 1955 1960 1965 1970 1975 1980 1985 .0 .1 .2 .3 .4 .5
cycles/period
CP Non-cyclical Cycle Actual Ideal
3.3. CICLO
Una función periódica es aquella que repite sus valores en el tiempo cada p
periodos y puede venir expresada como:
1,5
2πp
1
Yt = A * cos +θ 0,5 A
0
N -0,5 1
-1
8 15 22 29 36 43 50 57 64 71 78 85 92 99
T
-1,5
θ
-1
desfase. -1,5
1.0 1.0
0.5 0.5
0.0 0.0
-0.5 -0.5
-1.0 -1.0
-1.5 -1.5
20 40 60 80 100 120 140 160 180 200 -40 -20 0 20 40
(a 2p + b p2 )
I (ω p ) =
2ω 0
El periodograma mide aportaciones a la varianza total de la serie de
componentes periódicos de una frecuencia determinada (w). Si el periodograma
presenta un “pico” en una frecuencia, indica que dicha frecuencia tiene mayor
“importancia” en la serie que el resto.
0
0 50 100 150
El periodograma está basado en una herramienta matemática
denominada Transformada de Fourier, según la cual una serie, que cumpla
determinados requisitos, puede descomponerse como suma de un número finito
o infinito de frecuencias. Del mismo modo, a partir de la representación
frecuencial puede recuperarse la serie original a través de la Transformada
Inversa de Fourier.
1.0
15
0.5
PERDG
0.0 10
-0.5
5
-1.0
0
-1.5
0 50 100 150
20 40 60 80 100 120 140 160 180 200
FREC
80 10000
8000
60
PERDG
6000
40
4000
20 2000
0
0
0 50 100 150
20 40 60 80 100 120 140 160 180 200
FREC
2 1.2
1.0
1
PERDG
0.8
0
0.6
-1 0.4
-2 0.2
0.0
-3 0 50 100 150
20 40 60 80 100 120 140 160 180 200
FREC
El espectro equivale a:
1 + b1e −iω + b2 e −i 2ω + ... + bq e −iqω
2
σ ε2 −π ≤ ω ≤ π
hY (ω ) =
1 + a1e −iω + a 2 e −i 2ω + ... + a p e −ipω
2
2π
5º PROCESO ESTOCÁSTICO
( ) (
COV Yt1 , Yt2 = E Yt1 − µY )(Y t2 )
− µY = λ ( t1 − t2 )
En el caso que las series sean estacionarias en el sentido débil, se podrán
modelar a través de un conjunto de especificaciones conocidas como los modelos AR,
MA y ARMA. El objetivo de los mismos es explicar el componente cíclico de la serie
(o su componente estacionario) a través de su pasado por medio de diferentes tipos de
relaciones.
5º PRUEBA DE ESTACIONARIEDAD
EJEMPLO
2400
2000
1600
1200
800
400
1950 1955 1960 1965 1970 1975 1980 1985
CP @MEAN(CP,"1950q1 1988q1")
2º Según el correlograma del consumo personal agregado real cae lentamente, por
lo tanto no es estacionaria.
Abrir la serie ⇒ View ⇒ Correlogram... ⇒ se marca nivel y se escribe
12 lag ⇒ OK y se muestra el siguiente resultado:
40
20
-20
-40
-60
1950 1955 1960 1965 1970 1975 1980 1985
Las series de tiempo no estacionarias que presentan raíces unitarias son un caso
muy especial de las series no estacionarias, tanto por su frecuencia en economía como
por lo que se conoce de sus propiedades estadísticas; en los últimos años se ha
realizado una gran cantidad de trabajos para el diseño de pruebas de hipótesis de que
una serie tiene raíces unitarias.
Y
Si el coeficiente de t − 1 es en realidad igual a 1, surge lo que se conoce como
el problema de raíz unitaria, o sea, una situación de no estacionariedad. En
econometría, una serie de tiempo que tiene una raíz unitaria se conoce como un
camino aleatorio. Por lo tanto, se estima la regresión:
Yt = ρYt −1 + ut (2)
y se encuentra que
ρ=1 , entonces se dice que la variable estocástica
Yt tiene una
raíz unitaria.
Si restamos
Yt − 1 en ambos miembros de la ecuación (2), queda:
Yt − Yt − 1 = ρYt − 1 − Yt − 1 + ut
y sacando factor común, resulta:
∆Yt = (ρ − 1)Yt − 1 + ut
∆Yt = δYt − 1 + ut
α p yt − p +1
adicionando y sustrayendo el término , nos resulta:
p
Donde
ξt es un término de error puro con ruido blanco. El número de términos de
diferencia rezagados que se debe incluir, con frecuencia se determina de manera
empírica, siendo la idea incluir los términos suficientes para que el término de error
no esté serialmente relacionado.
tδ = tˆδ 0 −
( ( ))
γ 2 T ( f 0 − γ 0 ) se δˆ
1
f0 2 f0 2 s
()
donde se δˆ es el error estándar de coeficiente δ , s es el error estándar de la
regresión de la prueba, γ 0 es una estimación consistente de la varianza del error
(calculado como (T − k )s 2 / T , donde k es el número de regresores) y f 0 es un
estimador del espectro residual en la frecuencia cero.
Hay dos opciones que usted tendrá que hacer para realizar la prueba PP. En
primer lugar, debe decidir si incluir una constante, una constante y una tendencia en
el tiempo lineal, o ninguno, en la regresión de la prueba. En segundo lugar, usted
tendrá que elegir un método para estimar f 0 . Eviews apoya estimadores para f 0
basados en el núcleo basado en suma-de-covarianzas, o sobre estimación de la
densidad espectral autorregresivos.
En los test anteriores, se puede optar por incluir una constante, o una constante
y una tendencia en el tiempo lineal, en la prueba de regresión ADF. Para estos dos
casos, el ERS (1996) proponen una simple modificación de las pruebas de ADF en el
que los datos son sin tendencias a fin de que las variables explicativas son "sacadas"
de los datos antes de ejecutar la prueba de regresión.
ERS define una cuasi-diferencia de Yt que depende del valor que representa la
alternativa punto concreto contra el que deseamos probar la hipótesis nula:
Yt if t = 1
D (Yt a ) =
Yt − aYt −1 if t > 1
que X t contiene ya sea una constante, o una constante y la tendencia, y δˆ(a ) son las
estimaciones de MCO de esta regresión.
La prueba KPSS (1992) difiere de las otras pruebas de raíz unitaria, en que la
serie se supone que es estacionaria bajo la hipótesis nula. La estadística KPSS se
basa en el los residuos de la regresión de MCO de Yt en las variables exógenas X t :
Yt = X t′δ + ut
t =1
′
Definir los residuos de la ecuación como εˆt (a ) = D (Yt a ) − D (X t a ) δˆ(a ) , y dejar
T
que SSR(a ) = ∑ εˆt2 (a ) sea la suma de los residuos al cuadrado. El ERS (posible) el
t =1
t =2
MSB = (κ / f 0 )
1
2
(
c 2κ − c T −1 YTd 2 / f 0 ( )) if X t = {1}
MP = 2
( ( ))
d
c κ + (1 − c )T −1 YTd / f 0 if X t = {1, t}
T 2
donde:
−7 if X t = {1}
c =
− 13.5 if X t = {1, t }
La mayoría de las pruebas del tipo DF tienen poco poder; es decir, tienden
aceptar la nulidad de la raíz unitaria con más frecuencia de la que se garantiza. En
otras palabras, estas pruebas pudieran encontrar una raíz unitaria, aunque ésta no
exista.
Perron (1989) sostuvo que los tradicionales test de raíz unitaria (Dickey-Fuller,
Dickey-Fuller Aumentado y Phillips-Perron) tenían poco poder para diferenciar una
trayectoria de raíz unitaria de una estacionaria cuando había cambio estructural. En
consecuencia, como estos test estaban sesgados hacia el no rechazo de la hipótesis
nula de raíz unitaria, a menudo se rechazaba incorrectamente la hipótesis alternativa
de estacionariedad. Perron encontró, por ejemplo, que las series de agregados
macroeconómicos y financieros utilizados por Nelson y Plosser (1982) eran en su
mayoría estacionarias con cambio estructural, en oposición a lo que los citados
autores señalaban.
5.2.9. EJERCICIO
¿Existe Raíz
Estadístico Valor crítico Unitaria?
Tipo de Test
t 1%/5% Nivel de significancia
1% 5%
NIVELES
Hipótesis Nula: Existe raíz unitaria (no estacionaria)
Dickey-Fuller Aumentado (ADF) -1.117406 -4.019561 / -3.439658 SI SI
Elliott-Rothenberg-Stock (DF-GLS) -0.809523 -3.520000 / -2.980000 SI SI
Phillips-Perron (PP) -1.451289 -4.019561 / -3.439658 SI SI
Elliott-Rothenberg-Stock punto óptimo. 94.95858 4.148700 / 5.650600 NO NO
Hipótesis Nula: No existe raíz unitaria (estacionaria)
Kwiatkowski-Phillips-Schmidt-Shin 0.289358 0.216000 / 0.146000 SI SI
¿Existe Raíz
Estadístico Valor crítico Unitaria?
Tipo de Test
t 1%/5% Nivel de significancia
1% 5%
PRIMERA DIFERENCIA
Hipótesis Nula: Existe raíz unitaria (no estacionaria)
Dickey-Fuller Aumentado (ADF) -4.625715 -3.474567 / -2.880853 NO NO
Elliott-Rothenberg-Stock (DF-GLS) -4.546566 -2.580574 / -1.942982 NO NO
Phillips-Perron (PP) -10.75407 -3.473967 / -2.880591 NO NO
Elliott-Rothenberg-Stock punto óptimo. 0.935116 1.929200 / 3.141200 SI SI
Hipótesis Nula: No existe raíz unitaria (estacionaria)
Kwiatkowski-Phillips-Schmidt-Shin 0.496796 0.739000 / 0.463000 NO NO
6º CAMBIO ESTRUCTURAL
Zivot y Andrews presentan un gráfico F con tres líneas: La línea roja (FT)
muestra el resultado del test F aplicado secuencialmente, para posibles quiebres en
tendencia, la línea verde (FM), muestra el mismo test, pero para posibles quiebres en
media, la línea azul (F) es el test F, para ambos casos; se observa la línea que alcanza
valores más altos, por lo que podemos concluir que existe evidencia de un POSIBLE
quiebre (en tendencia, media o ambos), o dicho de otra forma, si existe quiebre en la
serie (y no raíz unitaria), este sería quiebre (en tendencia, media o ambos) y estaría
alrededor de tal observación.
6.1. EJERCICIO
16000
-2
14000
12000
-3
10000
8000
-4
6000
4000 -5
25 50 75 100 125 150 30 40 50 60 70 80 90 100 110 120 130
F FT FM ZIVOTM VCRITM
-2.4
-2.0
-2.8
-2.5
-3.2
-3.0 -3.6
-4.0
-3.5
-4.4
-4.0
-4.8
-4.5 -5.2
30 40 50 60 70 80 90 100 110 120 130 30 40 50 60 70 80 90 100 110 120 130
E ( ε t ) = 0 , Var ( ε t ) = σ 2ε , Cov ( ε t ε t − k ) = 0 ∀ k ≠ 0.
Y
El proceso t queda descrito completamente por una suma ponderada de
los errores actuales y pasados. Es decir, cada observación de la serie es
generada por una media ponderada de perturbaciones aleatorias con un retardo
de q periodos. Escribimos el modelo MA(q) así:
Yt = u + ε t − θ 1ε t − 1 − θ 2 ε t − 2 −.....− θ q ε t − q
Yt = u + θ ( B)ε t
donde B es un operador de cambio hacia atrás (impone un retardo temporal de
un periodo cada vez que se aplica a una variable).
Si
Yt es la realización de un proceso aleatorio estacionario, es preciso
q
que la ∑θ
i =1
i
2
sea convergente a medida que q llega a ser infinitamente grande,
entonces los θ i son cada vez menores a medida que aumenta i. Esto implica
que si el proceso es estacionario su función de autocorrelación
ρ k decrece a
medida que aumenta k.
1.1. MA(1)
Yt = u + ε t − θ1ε t −1
E(Yt ) = u γ 0 = σ ε2 (1 + θ12 )
γ 1 = −θ1σ ε2 γ K = 0 ∀ K > 1.
θ1 < 1
siendo la condición de invertibilidad . La función de
autocorrelación es:
−θ1
ρ1 = ρK = 0 ∀K
∀ > 1.
1 + θ12
ρ *
=
(− θ ) (1 − θ )
1
K 2
1
K
1 − θ 2 K+ 2
El proceso
Yt depende de una suma ponderada de sus valores pasados y
Y
de un término de error. Es decir, la observación actual ( t ) es generada por
una media ponderada de observaciones anteriores que se remontan p periodos
en el pasado, junto con una perturbación aleatoria correspondiente al periodo
actual. El modelo AR(p) sería:
Yt = δ + φ 1Yt −1 + φ 2Yt −2 +.....+ φ pYt −
φ ( B)Yt = δ + ε t
donde B es un operador de cambio hacia atrás (impone un retardo temporal de
un periodo cada vez que se aplica a una variable).
δ
u = E (Yt ) =
1 − φ 1 − φ 2 −.....− φ p
p
∑φ
i =1
i
Para que la media del proceso sea finita es necesario que la sea
diferente a uno.
2.1. AR(1)
Yt = δ + φ1Yt −1 + ε t
las características del proceso son:
δ σ ε2
u= γ0 =
1 − φ1 1 − φ12
γ 1 = φ1γ 0 γ 2 = φ12γ 0 ......... γ K = φ1Kγ 0
2.2. AR(2):
Yt = δ + φ 1Yt −1 + φ 2 Yt − 2 + ε t
δ
u= γ 0 = φ 1γ 1 + φ 2 γ 2 + σ 2ε
1− φ 1 − φ 2
γ 1 = φ 1γ K−1+φ 2 γ K− 2 ∀K > 0
P
Para que la media del proceso sea finita es necesario que la ∑φ
i =1
i sea
diferente a uno.
ARMA(1,1)
Yt = δ + φ 1Yt −1 + ε t − θ 1ε t −1
ρ1 =
(1 − φ 1θ 1 )(φ 1 − θ 1 ) ρ K = φ 1ρ K−1 ∀ K > 1
1 + θ 12 − 2φ 1θ 1
I.- Serleccionar d
2º Correlograma de la serie.-
EJEMPLO:
120
110
100
90
80
90 91 92 93 94 95 96
1.5
1.0
0.5
0.0
-0.5
90 91 92 93 94 95 96
D(IPC)
@MEAN(D(IPC),"1990:01 1996:12")
Correlogram of D(IPC)
==============================================================
Sample: 1990:01 1996:12 Included observations: 84
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
. | . | . | . | 1 0.046 0.046 0.1826 0.669
**| . | **| . | 2 -0.198 -0.200 3.6207 0.164
.*| . | . | . | 3 -0.066 -0.048 4.0047 0.261
. | . | .*| . | 4 -0.046 -0.084 4.1997 0.380
.*| . | **| . | 5 -0.184 -0.212 7.2953 0.200
. |*. | . |*. | 6 0.178 0.178 10.235 0.115
. | . | .*| . | 7 -0.001 -0.122 10.235 0.176
. | . | . | . | 8 0.001 0.061 10.235 0.249
.*| . | **| . | 9 -0.186 -0.242 13.581 0.138
.*| . | .*| . | 10 -0.153 -0.169 15.860 0.104
. | . | .*| . | 11 -0.048 -0.062 16.090 0.138
. |**** | . |**** | 12 0.541 0.492 45.419 0.000
. | . | .*| . | 13 0.018 -0.121 45.452 0.000
.*| . | . | . | 14 -0.104 0.004 46.574 0.000
. | . | . | . | 15 -0.018 -0.027 46.607 0.000
. |*. | . |*. | 16 0.068 0.184 47.093 0.000
.*| . | . |** | 17 -0.069 0.202 47.611 0.000
. |*. | .*| . | 18 0.094 -0.127 48.574 0.000
. | . | . | . | 19 0.029 0.016 48.665 0.000
. | . | .*| . | 20 0.003 -0.068 48.666 0.000
==============================================================
De la observación del gráfico podemos deducir que la primera diferencia
del IPC es estacionaria.
3º Examinando el primer coeficiente de autocorrelación parcial de la primera
diferencia del IPC no es significativo (0.046 < 0.9), entonces la primera
diferencia del IPC es estacionaria.
II.- Elegir λ
La diferencia de un determinado orden es suficiente en muchos casos para
obtener series estacionarias en media y varianza.
Cuando:
λ =1 ⇒ no se transforma la serie
λ=0 ⇒ se aplica logaritmos neperianos a la serie
0< λ < 1 ⇒ se eleva la serie a un exponente fraccionario
en la práctica, las alternativas que se utilizan son las dos primeras.
1º Ploteo de la serie.-
EJEMPLO:
1.5
1.0
0.5
0.0
-0.5
90 91 92 93 94 95 96
D(IPC)
Para construir el gráfico rango - media, vamos a trabajar con intervalos de un año
para determinar su media y desviación estándar, estos resultados son:
================================
PERIODO MEDIA DS
================================
1990:01-1990:12 0.470917 0.398476
1991:01-1991:12 0.423583 0.400780
1992:01-1992:12 0.432417 0.476136
1993:01-1993:12 0.419583 0.239348
1994:01-1994:12 0.387667 0.284007
1995:01-1995:12 0.402833 0.319041
1995:01-1996:12 0.312333 0.237868
================================
0.4
0.3
DS
0.2
0.1
0.0
0.0 0.1 0.2 0.3 0.4 0.5
MEDIA
III.- Identificar p y q
Si los datos de una serie proceden de un muestreo aleatorio simple sobre una
población normal, es decir, si los datos constituyen una realización de un proceso de
ruido blanco con media distinta de cero; entonce el contraste es:
La hipótesis es:
H0 : u = 0
H1: u ≠ 0
el estadístico es:
Y
t= ≈ t0.05( T −1)
SY2
T−1
si el estadístico es menor que el de la tabla entonces se acepta la hipótesis nula, o
viceversa.
SY2
(1 + 2 p1 + 2 p2 + .....+ 2 pk )
T
seleccionando k de forma que se incluyan los coeficientes que sean significativos.
Cuando se obtiene un resultados negativo no es aplicable.
EJEMPLO:
8.2. ESTIMACIÓN
EJEMPLO:
8.3. VALIDACIÓN
(A) ANDERSON
(B) PANKRATZ
H0 : ε t es ruido blanco
H1: ε t no es ruido blanco
si tenemos que:
125
.
ρ k T < 125
. o ρk < para k = 1, 2, 3.
T
160
.
ρ k T < 160. o ρk < para k ≥ 4.
T
Por lo tanto, se acepta la hipótesis nula.
EJEMPLO:
el estadístico es:
k
QBP = T ∑ ρ i2 ≈ χ 2k − p − q
i =1
EJEMPLO:
Tenemos:
H0 : ρ 1 = ρ 2 = .... = ρ 20 = 0 ≡ Residuos independientes
H1: ρ 1 ≠ ρ 2 ≠ .... ≠ ρ 20 ≠ 0 ≡ Residuos no independientes
comparamos:
20
QBP = T ∑ ρ i2 = 13.84866 < χ (20.05,20−10) = 18.307038
i =1
1.3. Homocedasticidad
0.6
0.4
0.2
0.0
-0.2
-0.4
-0.6
90 91 92 93 94 95 96
D(IPC) Residuals
1.4. Outliers
-1
-2
-3
90 91 92 93 94 95 96
RESEST
1.5. Normalidad
χ
2
JB < ( 0.05, 2 )
= 5.99
Jarque-Bera 2.464605
Probability 0.291620
0
-0.4 -0.2 0.0 0.2 0.4 0.6
EJEMPLO:
EJEMPLO:
Así, el modelo estimado para el período muestral puede diferir del que se
obtendría para los periodos de predicción. Para evitar este problema puede ser
conveniente eliminar algún parámetro del modelo con objeto de conseguir unos
estimadores más estables aun a coste de que el grado de ajuste sea más pequeño.
EJEMPLO:
i j
var(φ$ i ) var(φ$ j ) σ φ$ i σ φ$ j
la información requerida para calcular estos coeficientes se encuentra en la
estimación del modelo.
2 2 σ φ$2 σ θ$ 0.077757(0110208
. )
2
σ φ$ θ$ − 0.002169
rφ$ θ$ = 2 12
= = − 0.20453581
2 12 σ φ$2 σ θ$ 0.077757(013638
. )
12
EJEMPLO:
La hipótesis es:
H0 : Existe estabilidad de coeficientes
H1: No existe estabilidad de coeficientes
el estadístico es:
Fc = 1175141
. < F( 0.05,11,62 ) = 194679
.
8.4. PREDICCIÓN
Se tienen muchas pruebas de que un modelo que se ajuste bien a los datos
históricos, no necesariamente pronostica bien.
y así sucesivamente.
así sucesivamente se obtendrían las demás predicciones, o sea que la parte de media
móvil sólo influye directamente sobre la primera predicción y a partir de la segunda,
éstas se obtienen como en un modelo AR(1).
eT + i = YT +1 − Y$T + i
( )
Var ( e) = E e 2T +i = (1 + ϕ 12 + ϕ 14 + ...+ ϕ 12i − 2 )σ ε2
Var (eT +1 ) = σ ε2
Var (eT + i ) = (1 + θ 12 )σ ε2 ∀i > 1
es idéntica para la predicción para el periodo segundo, tercero, etc.
Se define como:
1 T+H 2
RECM = ∑ e$
H t = T +1 t
Se define como:
T+H
∑ e$
t = T +1
t
EMA =
H
Esta medida es apropiada siempre que la función de pérdida es lineal y
simétrica.
Se define como:
1 T + H e$t
EPMA = ∑
H t = T +1 Yt
Es similar al EMA, excepto que es una medida relativa. Presenta un sesgo
que favorece a los pronósticos que se encuentran por debajo de los valores
reportados.
Indica qué proporción del error verdadero estimado es error de predicción.
Se define como:
1 T + H e$t2
RCREM = ∑
H t = T +1 Yt
1 T+ H
∑ (Yt − Y$t ) 2
H t = T +1
U=
1 T+ H $2 1 T+H 2
∑Y +
H t = T +1 t
∑Y
H t = T +1 t
no está influenciado por problemas de escala. U oscila entre 0 y 1.
Si U tiende a cero, el modelo puede ser utilizado para predecir dado que
sus pronósticos serán fiables.
El U de Theil se descompone:
SESGO + VARIANZA + COVARIANZA = 1
V.- EJEMPLO
− θ 12 ε t − 12 − θ 21 ε t − 21 − θ 24 ε t − 24 − θ 36 ε t − 36
120
97:01 97:03 97:05 97:07 97:09 97:11
IPCF ± 2 S.E.
130 126
125
120
124
110
123
100
122
90
121
80 120
90 91 92 93 94 95 96 97 97:01 97:03 97:05 97:07 97:09 97:11
Por último, se puede obtener una nube de puntos del IPC y su predicción, así:
126
124
IPC
122
120
120 122 124 126
IPCF
9º ANÁLISIS DE COINTEGRACIÓN
Si las dos series son ambas I (1) puede existir un β tal que:
ut = Yt − β X t ≈ I ( 0)
esta diferencia entre ellas tiene que ser estable alrededor de una media fija. O que las
series crecen simultáneamente aproximadamente a la misma tasa. Si dos series
satisfacen estos requisitos, entonces están cointegradas.
[ ]
El vector 1 − β (o múltiplo de él) es un vector de cointegración. Se puede
distinguir:
Una regla práctica vinculada con este test de cointegración suguiere que un
buen R2 y un DW por encima de 0.5 son un indicativo de la presencia de
cointegración.
EJEMPLO:
Dependent Variable: Q1
Method: Least Squares
Sample: 1985:1 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 457.3535 98.29010 4.653098 0.0002
P1 0.143280 1.680297 0.085270 0.9329
M1 3.893653 0.158921 24.50052 0.0000
R1 0.612120 0.108625 5.635158 0.0000
============================================================
R-squared 0.969154 Mean dependent var 2071.042
S.E. of regression 25.42701 Akaike info criteri 9.460512
Sum squared resid 12930.65 Schwarz criterion 9.656855
Log likelihood -109.5261 F-statistic 209.4601
Durbin-Watson stat 1.831586 Prob(F-statistic) 0.000000
============================================================
observando el valor del Durbin - Watson (1.831586) es superior a 0.5, entonces es
indicativo de presencia de cointegración.
Aplicando la forma alternativamente tenemos que marcar los residuos de la
regresión cointegrada y estimar un modelo autoregresivo de primer orden, éstos
cálculos en Eviews son:
Wald Test:
Equation: Untitled
====================================================
Null Hypothesis C(1) = 1
====================================================
F-statistic 18.79043 Probability 0.000266
Chi-square 18.79043 Probability 0.000015
====================================================
La hipótesis es:
H0 : ρ = 1
H 1: ρ ≠ 1
el estadístico es:
Se estima la regresión:
Yt = β X t + ut
( )
se obtiene los residuales u$ t y se utiliza la prueba DF o ADF . Como u$t está basada
en el parámetro β , los valores críticos de significancia DF y ADF no son del todo
apropiados. Engle y Granger han calculado estos valores críticos de tau (al 1%, 5%
y 10 % son -2.5899, -1.9439 y -1.6177).
EJEMPLO:
1.1. Q1:
1.3. R1:
1.4. M1:
Los residuos del modelo son estacionarios, es decir no tienen raíz unitaria; por
lo tanto, los residuos están integrados de orden cero.
En conclusión, todas las variables del modelo son integradas de orden uno y
los residuos están integrados de orden cero, por lo tanto, Q1 está cointegrada con P1,
R1, M1.
Por estas razones, surge una especificación alternativa del problema, en la que
se incorpora la posibilidad de que exista mñas de un vector de cointegración entre un
mismo conjunto de variables.
el estadístico es :
( )
n
λ ( r ) = − T ∑ Ln 1 − λ$i ≈ jj
i = r +1
donde λ$i es la raíz características estimada. Cuanto mayor número de λ sean iguales
a cero menor será el λ ( r ) .
EJEMPLO:
tenemos:
LR = 5016823
. > 47.21
Se considera:
∆ Yt = α 1 ∆ X t − α 2 u$t −1 + ut
( )
donde ε t ≈ N 0, σ ε2 , u$t es la combinación lineal de X t e Yt dos variables que se
supone son CI(1,1). α 1 recoge el efecto impacto o la relación de corto plazo entre
ellas y α 2 recoge el efecto feedback o de ajuste a la relación de largo plazo.
11.1. Introducción
Sims, retoma una antigua crítica de Liu (1960) en el sentido de que las restricciones
que se imponen en los modelos son ficticias y no se corresponden con la realidad en la que
todas las variables son dependientes.
Planteamiento:
Z t = (Yt , X t )
Z t = a −1 ( L) * b( L) * ε t a ( L ) Z t = b( L ) * ε t a ( L) Z t = Bε t
11.2. Especificación
Una vez determinadas las variables y los retardos adecuados, bastará con especificar
cada variable en función de sus propios valores retardados y de los valores retardados del
resto de variables. Se tiene:
m r
Yi ,t = Di ,t + ∑∑ β ijYi ,t − j + ui ,t
i =1 j =1
Las perturbaciones aleatorias de cada ecuación son ruido blanco, es decir presentan
homocedasticidad y ausencia de autocorrelación. Es decir:
Cov (u1 ) = E (u1u1′ ) = σ 2 I
2
σ m1 σ m 2 σ mm
2 2
11.3. Estimación
Teniendo en cuenta que las variables explicativas son todas retardadas y como
consecuencia de la ausencia de autocorrelación no están correlacionadas con las
perturbaciones aleatorias, podemos estimar el modelo de forma consistente por Mínimos
Cuadrados Ordinarios (MCO). Se tiene:
(T − c)[Log Σ r − Log Σ a ] ≈ χ R2
11.4. Identificación
Toda matriz simétrica Σ puede ser convertida en una matriz diagonal operando con
una nueva matriz triangular Φ de acuerdo con la siguiente expresión:
D = ΦΣΦ′
Premultiplicando las variables originales del modelo por la matriz triangular Φ,
obtendremos una nuevo modelo cuya matriz de varianzas y covarianzas de la perturbación es
diagonal (independiente de unas ecuaciones a otras).
m r
ΦYi ,t = ΦDi ,t + Φ ∑∑ β ijYi ,t − j + Φui ,t
i =1 j =1
Funciones Impulso-Respuesta
Parten de la representación de medias móviles del sistema autorregresivo, que una vez
ortogonalizado, nos permite analizar los efectos individuales de cada una de las variables.
s =0 s =0
donde cada una de las variables se expresa en función de las perturbaciones aleatorias
acumuladas.
Pudiendo calcularse qué porcentaje del total de la varianza viene inducido por cada
perturbación i
El principio detrás de estos modelos es que existe una relación de equilibrio a largo
plazo entre variables económicas y que, sin embargo, en el corto plazo puede haber
desequilibrios. Con los modelos de corrección del error, una proporción del desequilibrio de
un período (el error, interpretado como un alejamiento de la senda de equilibrio a largo
plazo) es corregido gradualmente a través de ajustes parciales en el corto plazo.
Una de las claves de los modelos VEC es determinar si las series que modelizamos
son cointegradas y, si es así, determinar la ecuación de cointegración. Para ello utilizamos el
método de Johansen.