Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1
2 CAPITULO 1. ELEMENTOS DE PREDICCION EN SERIES DE TIEMPO
Yt+1|t = 0 Xt
P (Yt+1 |Xt ) = 0 Xt
Yt+1|t = 0 Xt
Es importante notar que P (Yt+1 |Xt ) es la mejor prediccion dentro del grupo de
predicciones lineales, pero no necesariamente es la mejor prediccion general. La
mejor prediccion es la esperanza condicional, E(Yt+1 |Xt ). Por tanto:
E[(Yt+1 0 Xt )Xt0 ] = 00
= E(Y Y 0 )
P (Y3 |Y1 ) = 31 1
11 Y1
P (Y2 |Y1 ) = 21 1
11 Y1
donde:
M SE[P (Y3 |Y2 , Y1 )] = E{[Y3 P (Y3 |Y2 , Y1 )][Y3 P (Y3 |Y2 , Y1 )]0 }
1
= H33 H32 H22 H23
donde:
E(t ) = 0
0 , para t =
E(t ) = (2.1)
0, otro caso
[In 1 L 1 L2 1 Lp ]yt = c + t
(L)yt = c + t (2.3)
7
8 CAPITULO 2. VECTORES AUTOREGRESIVOS (VARS)
= c + 1 + + p + E(t ) (2.5)
= [In 1 p ]1 c (2.6)
1 2 p1 p
In 0 0 0
F(npnp) =
0 In 0 0 (2.9)
.. .. .. ..
. . . .
0 0 In 0
t
vt = ... (2.10)
0
t = t1 + vt (2.11)
donde,
Q, para t =
E(vt vt0 ) =
0, otro caso
2.2. REPRESENTACION VMA() 9
y donde:
0 0
0 0 0
Q(npnp) = (2.12)
..
.
0 0 0
|In p 1 p1 2 p2 p | = 0 (2.14)
|In 1 z 2 z 2 p z p | = 0 (2.15)
(j) (j)
La matriz j = F11 , donde F11 denota el bloque superior izquierdo de F j de
orden (nxn). En general:
j
1 2 p1 p (j) (j) (j) (j)
F11 F12 F1,p1 F1,p
In 0 0 0 .. .. .. ..
. . . .
0 In 0 0 .
j
F
. .. .. ..
.. .. .. .. . . . .
. . . .
.. .. .. ..
0 0 In 0 . . . .
lm F s = 0,
s
y por lo tanto:
yt = + t + 1 t1 + 2 t2 + + (L)t (2.17)
Notese que ytj es una funcion lineal de tj , tj1 , , los cuales no estan
correlacionados con t+1 para j = 0, 1, 2, . Dado esto, se sigue que t+1 no
esta correlacionado con ytj para cualquier j 0
Por lo tanto, la prediccion lineal de yt+1 sobre la base de yt , yt1 , , esta dada
por:
(j)
Las matrices del componente MA, j F11 pueden calcularse de forma alter-
nativa.
(i) Notese que (L) = (L)1
[In 1 L p Lp ]yt = c + t
(L)yt = c + t
yt = (L)1 c + (L)1 t
yt = + (L)t (2.19)
2.2. REPRESENTACION VMA() 11
[In 1 L p Lp ][In + 1 L + 2 L2 + ] = In
de donde:
1 1 = 0
2 = 1 1 + 2
..
.
s = 1 s1 + 2 s2 + + p sp , (2.20)
yt = + t + 1 t1 + 2 t2 + + (L)t
como:
yt = + H 1 Ht + 1 H 1 Ht1 + 2 H 1 Ht2 +
= u + J0 ut + J1 ut1 + J2 ut2 + (2.21)
donde: Js s H 1 .
HH 0 = D
yt + (L)t = + t + 1 t1 + 2 t2 + (2.23)
y,
El supuesto adicional implcito es que t definido por esta proyeccion no esta cor-
relacionado con ytp1 , ytp2 ,
El supuesto que yt esta descrita por un proceso VAR significa que p rezagos son
suficientes para resumir todas las correlaciones dinamicas entre los elementos
de yt .
2.4. ESTIMACION POR MAXIMA VEROSIMILITUD 13
fYt ,Yt1 , ,Y1 |Y0 ,Y1 , ,Yp+1 (yt , yt1 , , y1 |y0 , y1 , , yp+1 ; )
= fYt1 , ,Y1 |Y0 ,Y1 , ,Yp+1 (yt1 , , y1 |y0 , y1 , , yp+1 )
.fYt |Yt1 ,Yt2 , ,Yp+1 (yt |yt1 , yt2 , , yp+1 ) (2.31)
2.4.1. Estimador ML de
El estimador M L es:
T
! T
!1
X X
0[n(np+1)] = yt x0t xt x0t (2.34)
t=1 t=1
Demostracion:
T
X 0
= yt 0 xt + 0 xt 0 xt 1 yt 0 xt + 0 xt 0 xt
t=1
XT 0
= t + ( )0 xt 1 t + ( )0 xt (2.36)
t=1
PT 0 1
El termino t=1 t ( )0 xt es cero:
T T
!
0 0
X X
t 1 ( )0 xt = tr t 1 ( )0 xt
t=1 t=1
T
X 0
1 0
= tr t ( ) xt
t=1
T
0
X
= tr 1 ( )0 xt t
t=1
T
!
0
X
= tr 1 ( )0 xt t (2.38)
t=1
16 CAPITULO 2. VECTORES AUTOREGRESIVOS (VARS)
Los residuos muestrales de una regresionPOLS son ortogonales a las variables ex-
plicativas (por construccion); es decir, Tt=1 xt jt = 0 para todo j = 1, 2, , n
0
y por lo tanto Tt=1 xt t = 0.
P
PT 0 1
As, dado que t=1 t ( )0 xt = 0 se obtiene:
T T T
0
X X X
0 0 1 0 1
x0t ( )1 ( )0 xt
(yt xt ) (yt xt ) = t t +
t=1 t=1 t=1
(2.39)
0
Si se define xt ( ) xt , el ultimo termino se puede expresar como:
T T
0 0 0
X X
1
xt ( ) ( ) xt = (xt ) 1 xt (2.40)
t=1 t=1
Dado que es positivo definida, 1Ptambien lo es. As, para cualquier secuencia
0
{xt }Tt=1 , no nula (xt ) 1 xt > 0 y Tt=1 (xt )1 xt > 0.
De esta forma, el valor mas pequeno que puede alcanzar (1.17) es cuando xt = 0,
es decir, = .
2.4.2. Estimador ML de
Resultados importantes
x0 Ax
= xx0 (2.41)
A
log|A|
= (A0 )1 (2.42)
A
Obtencion de M L
T
L(, ) T log|1 | 1 X 0t 1 t
=
1 1 2 t=1 1
T
T 1X 0
[(1 )0 ]1 t t (2.44)
2 2 t=1
T
T 0 1X 0
= t t
2 2 t=1
T
0 1X 0
= t t (2.45)
T t=1
0 0 0 0 0
Positivo defina: Tt=1 t t = Tt=1 t t = zt zt , donde zt t t 6= 0.
P P
T
1X 2
ii2 = (2.46)
T t=1 it
T
1X
ij2 = it jt (2.47)
T t=1
|In 1 z 2 z 2 p z p | = 0 (2.48)
0
estan fuera del crculo unitario. Sea k np + 1 y xt el siguiente vector (1 k)
0 0 0 0
xt 1 yt1 yt2 ytp (2.49)
donde
T
!1 T
!
X X
i,T = xt x0t xt yit (2.50)
t=1 t=1
donde
0
t = 1t 2t nt
0
it = yit xt i,T (2.52)
Entonces:
P 0
1. 1
T
xt x0 t Q, donde Q = E(xt xt )
P
2. T
P
3. T
L
4. T (T ) N 0, [ Q1 ]
2.4. ESTIMACION POR MAXIMA VEROSIMILITUD 19
33
donde i2 = E(2it ).
T
1 X 2
i2 =
T t=1 it
T
!1
1X
Q1
T = xt x0t (2.57)
T t=1
1
PT 0 1 Tn
El termino 2 t=1 t t es igual a 2
:
T T
!
1 X 0 1 1 X 0
t t = tr t 1 t
2 t=1 2 t=1
T
1 X 0 1
= tr t t
2 t=1
T
1 X 1 0
= tr t t
2 t=1
1 1
= tr T
2
1
= tr(T In )
2
1
= tr(In )
2
nT
= (2.60)
2
Por lo tanto:
nT T Tn
L(, ) = log2 + log|1 | (2.61)
2 2 2
Notese que el calculo del estadstico de prueba LR requiere del uso de las
funciones de verosimilitud asociadas a los modelos irrectricto y restringido:
Tn T Tn
L1 (1 , 1 ) = L1 (1 ) = log(2) + log|1
1 |
2 2 2
Tn T Tn
L0 (0 , 0 ) = L0 (0 ) = log(2) + log|1
0 | (2.62)
2 2 2
y el hecho que |1 | = 1
||
.
22 CAPITULO 2. VECTORES AUTOREGRESIVOS (VARS)
Demostracion
Al introducir T al termino Q1
T se cancela con T y por tanto:
T
!1 1
0 1 X 0
R0 (RT r)
(RT r) R xt xt
T t=1
T
!1 1
0 0
R0 (RT r)
X
= (RT r) R xt xt
t=1
R = Rn Rk (2.68)
Ejemplo 1
Se requiere analizar la hipotesis de que el termino constante en la primera
ecuacion del VAR es igual al termino constante en la segunda ecuacion, es decir
c1 = c2 .
(c1 c2 )2
21 = 2 (2.70)
(1 212 + 22 ) 11
Ejemplo 2
Una prueba del Wald para la hipotesis nula que 1t y 2t tienen la misma varianza
es:
T (11 22 )2
2 2 2
2(1) (2.73)
211 412 + 222
2.6. PRUEBA DE CAUSALIDAD A LA GRANGER 25
Sin embargo, se sugiere ser esceptico sobre la utilidad de estas pruebas para
determinar la direccion causal entre dos series arbitrarias.
Por induccion, lo mismo se cumple para una prediccion s00 perodos adelante.
Implicancia 2
yt = + t + 1 t1 + 2 t2 + 3 t3 + + (L)t (2.80)
Se sabe que:
s = 1 s1 + 2 s2 + + p sp , paras = 1, 2, (2.81)
Implicancia 3
La tercera implicancia fue analizada por Sims(1972), y esta dada por la siguiente
proposicion.
Proposition 2.6.1. Considere una proyeccion lineal de y sobre los valores pasa-
dos, presente y futuros de x:
X
X
yt = c + bj xtj + dj xt+j + t (2.84)
j=0 j=1
Enfoque 1
2.6. PRUEBA DE CAUSALIDAD A LA GRANGER 29
Hipotesis Nula : 1 = 2 = = p = 0
Hipotesis Alternativa : al menos un i 6= 0
Estadstico de Prueba :
Hipotesis Nula : 1 = 2 = = p = 0
Hipotesis Alternativa : al menos un i 6= 0
Estadstico de Prueba :
Enfoque 2
Hipotesis Nula : d1 = d2 = = dp = 0
Hipotesis Alternativa : di 6= 0 para algun i
Estadstico de Prueba :
0 (RSS0 RSS1 )/p
s1 F (p, t 2p 1) (2.89)
RSS1 /(T 2p 1)
0
Regla de Rechazo : Si s1 > F0,05 (p, T 2p 1) entonces se rechaza la hipotesis
nula al 5 % de significancia.
El problema con esta prueba es que en general t esta autocorrelacionado y por
tanto una prueba F convencional se distorsiona.
Para este caso, existen 3 posibles soluciones.
1. Estimar por OLS y usar errores estandar robustos (Newey-West)
2. Estimar por Mnimos Cuadrados Generalizados (GLS).
3. Incluir rezagos de la variable dependiente, como lo sugieren Geweke, Meese
y Dent(1983).
X
X
X
y t = c2 hj ytj + bj xtj + dj xt+j + v2t (2.90)
j=1 j=0 j=1
Ademas, se puede definir el vector x1t de orden (n1 p1) que contiene los rezagos
de y1t y x2t el vector (n2 p 1) que contiene los rezagos de y2t :
y1,t1 y2,t1
y1,t2 y2,t2
x1t .. , x2t .. (2.93)
. .
y1,tp y2,tp
0 0 0 0
donde las matrices A1 , A2 , B1 y B2 son de orden (n1 n1 p, (n1 n2 p, (n2
n1 py(n2 n2 p, respectivamente. Ademas, los vectores c1 de orden (n1 1) y c2
de orden (n2 1) contienen los terminos constantes del VAR.
Cuyos vectores de residuos OLS son 1t y 1t (0) ambos de orden (n1 1) y las
correspondientes matrices de varianzas y covarianzas:
T
1X 0
11 = 1t 1t
T t=1
T
1X 0
11 (0) = [1t (0)][1t (0)] (2.96)
T t=1
yt = + t + 1 t1 + 2 t2 + (2.98)
As, la IRF describe la respuesta de yi,t+s ante un impulso de una vez con yit ,
manteniendo constantes las demas variables en la fecha t o antes.
Suponga que el valor de la primera variable del VAR en el perodo t, y1t , fue
mayor a lo esperado, tal que 1t es positivo.
Como cambia nuestra prediccion de yi,t+s dada esta informacion? es decir, cual
es:
y 0
La respuesta es i,t+s
jt
s (i, j) solo en el caso especial cuando E(t t ) = es
una matriz diagonal.
0
En el caso mas general cuando E(t t ) = 6= D, si 1t es positivo entonces
proporciona informacion nueva y util sobre 2t , , nt . Esta informacion tiene
implicaciones para el valor de yi,t+s
y luego usar:
yt+s yt+s yt+s
yt+s = 1 + 2 + + n (2.108)
1t 2t nt
para calcular el efecto de este cambio en todos los elementos de t sobre el valor
de yi,t+s
Algoritmo
36 CAPITULO 2. VECTORES AUTOREGRESIVOS (VARS)
Para cualquier matriz real simetrica positiva definida existe una matriz trian-
gular inferior A con 10 s a lo largo de la diagonal principal y una matriz diagonal
unica D con entradas positivas tal que:
0
= ADA (2.113)
t = A1 t (2.114)
Aut = t
1 0 0 0
u1t 1t
a21 1 0 0
u2t 2t
a31 a32 1 0
.. =
..
.. .. .. .. .. . .
.
. . . .
unt nt
an1 an2 an3 1
Se puede demostrar (Ver Hamilton (1994), p. 320-322), que esta relacion implica
que:
0
3. A y D que satisfacen = ADA se construyen a partir de usando un
algoritmo de Factorizacion triangular (Hamilton, p. 87-92)
Notese que, por construccion, los elementos del vector ut = A1 t son mutua-
mente ortogonales:
T T
1X 0 1 X 1 0 0
ut ut = A (t t )(A1 ) = A1 (A1 ) = D (2.117)
T t=1 T t=1
s aj
Entonces:
0
= ADA
1 1 0
= AD 2 D 2 A
0
= PP (2.118)
0
La expresion = P P es la descomposicion de Cholesky de la matriz
1
Notese que P AD 2 es triangular inferior como A. La diferencia es que P
contiene las desviaciones estandar de ut en diagonal principal y no 10 s como A.
38 CAPITULO 2. VECTORES AUTOREGRESIVOS (VARS)
p 1
El termino aj djj es la j-esima columna de AD 2 , que es la je-sima columna
de la matrix factor Cholesky P, pj :
yt+s
= s pj (2.121)
jt
As,
yt+s
= s pj
jt
p
= (s aj ). djj (2.122)
Entonces:
yt+s
= s pj
vjt
2.8. DESCOMPOSICION DE LA VARIANZA 39
El error cuadratico medio (MSE) de esta prediccion s00 perodos adelante es:
0
M SE(yt+s|t ) = E[(yt+s yt+s|t )(yt+s yt+s|t ) ]
= E[(t+s + 1 t+s1 + 2 t+s2 + + s1 t+1 )
0 0 0 0 0
.(t+s + t+s1 1 + t+s2 2 + + t+1 s1 )]
0 0 0 0 0
= E[(t+s t+s + 1 t+s1 t+s1 1 + + s1 t+1 t+1 s1 + cruzados]
0 0
M SE(yt+s|t ) = + 1 1 + + s1 s1 (2.125)
No se han usado ideas teoricas sobre la posible relacion entre las variables
involucradas, por lo cual no pueden interpretarse los resultados en terminos
economicos.
donde Mt es el log de los saldos nominales de dinero, P el log del nivel de precios
agregado, Yt el log del PBIreal e It la tasa de interes nominal.
vtD = vt1
D
+ uD
t (2.132)
Otro supuesto del modelo es que el multiplicador dinamico del ingreso es pro-
porcional al multiplicador de la tasa de interes:
(Mt+s Pt+s )
= 1 3s
Yt
(Mt+s Pt+s )
= 2 3s (2.136)
It
Finalmente, la inflacion puede tener efectos sobre la demanda por dinero que
no son capturados por la tasa de interes.
As, este modelo implcitamente impone muchas restricciones sobre la dinamica
con poco o ningun sustento emprico teorico. Por ello, parece mas convincente
evaluar el modelo usando una especificacion mas general:
(0) (0) (0)
Mt = 1 + 12 Pt + 13 Yt + 14 It
(1) (1) (1) (1)
+ 11 Mt1 + 12 Pt1 + 13 Yt1 + 14 It1 +
(p) (p) (p) (p)
+ 11 Mt + 12 Ptp + 13 Yt + 14 It1 + uD
t (2.137)
La ecuacion 2.140 tambien se considera una ecuacion estructural. Mas aun, esta
ecuacion generalizada la dinamica del termino de error vtD , el proceso de ajuste
parcial, y la inflacion del nivel de precios sobre las tenencias deseables de dinero.
Sin embargo, no es posible estimar por OLS debido al problema de simultanei-
dad (sesgo de simultaneas). Por ejemplo:
(0) (0) (0)
It = 4 + 41 Mt + 42 Pt + 43 Yt
(1) (1) (1) (1)
+ 41 Mt1 + 42 Pt1 + 43 Yt1 + 44 It1 +
(p) (p) (p) (p)
+ 41 Mt + 42 Ptp + 43 Yt + 44 It1 + uD
t (2.138)
y la ecuacion de precios:
(0) (0) (0)
Pt = 2 + 21 Mt + 22 Pt + 23 Yt
(1) (1) (1) (1)
+ 21 Mt1 + 22 Pt1 + 23 Yt1 + 24 It1 +
(p) (p) (p) (p)
+ 21 Mt + 22 Ptp + 23 Yt + 24 It1 + uD
t (2.140)
donde:
0
yt = (Mt , Pt , Yt , It )
0
ut = (uD s A c
t , ut , Yt , It )
(0) (0) (0)
1 12 13 14
(0) (0) (0)
21 1 23 24
0 =
(0) (0) (0)
31 32 1 34
(0) (0) (0)
41 42 43 1
0
= (k1 , k2 , k3 , k4 ) (2.142)
As, un VAR puede ser visto como la forma reducida de un modelo estructural
dinamico general.
2.9. MODELOS VAR Y MODELOS ECONOMETRICOS ESTRUCTURALES 43
1t = 0,3uD S A C
t 0,6ut + 0,1ut 0,5ut (2.146)
yt+s
As, parece no ser interesante la maginitud jt
. Por el contrario, si fueramos
capaces de calcular:
yt+s
(2.147)
uC
t
Sera muy interesante, pues podramos saber las consecuencias de que el banco
central contraiga el credito mas de lo usual y sera una magnitud clave para
describir los efectos de la poltica monetaria sobre la economa.
ut = A1 t (2.149)
ut = B0 t (2.150)
ut = B0 t = A1 t (2.151)
y por lo tanto podramos usar las IRFs ortogonales para responder preguntas
como yut+s
C
t
Pero, existe alguna razon para esperar que B0 = A1 ? Dado que A1 es trian-
gular inferior, B0 debera serlo.
44 CAPITULO 2. VECTORES AUTOREGRESIVOS (VARS)
En este caso:
0 0 0 0
Pt 1 Pt
(0)
Yt 2
= + 21 0 0 0 Yt
(0) (0)
Mt 3 31 32 0 0 Mt
It 4 (0) (0) (0) It
41 42 43 0
(1) (1) (1) (1)
11 12 13 14
Pt1
(1) (1) (1) (1)
22 23 24 Yt1
+ 21(1) (1) (1) (1)
+ +
31 32 33 34 Mt1
(1) (1)
41 42 43
(1) (1)
44 It1
(p) (p) (p) (p)
11 12 13 14
S
Ptp ut
(p) (p) (p) (p)
22 23 24 Ytp uA
+ 21 + t
(p)
31 32(p) (p)
33
(p)
34 Mtp uD t
(p) (p)
41 42 43
(p) (p)
44 Itp uC
t
B0 yt = + B1 yt1 + + Bp ytp + ut
B0 yt = xt + ut (2.152)
donde:
[nx(np+1)] = B1 B2 Bp
1
yt1
xt(np+1)x1 = ..
.
ytp
B0 yt = xt + ut
yt = B01 xt + B01 ut
yt = xt + et (2.153)
2.9. MODELOS VAR Y MODELOS ECONOMETRICOS ESTRUCTURALES 45
0
Si = E(t t ), entonces t = B01 ut implica que:
0
= E(ut u0 ) = E[B01 ut u0t (B01 ) ]
0
= B01 E(ut u0 )(B01 )
0
= B01 D(B01 ) (2.154)
= B01 (2.156)
0
Asumimos que (udt , ust , uw
t ) es un vector ruido blanco con una matriz diagonal
D. As, este modelo es un ejemplo de:
B0 yt = xt + ut
donde:
1 0
B0 = 1 h
0 0 1
Sin embargo, t = B01 ut establece una relacion entre los residuos del VAR(t )
y las perturbaciones estructurales.
2.9. MODELOS VAR Y MODELOS ECONOMETRICOS ESTRUCTURALES 47
As, si B0 se estima por ML, entonces las IRFs pueden calcularse reemplazando
A por B01 , y los resultados proporcionaran los efectos de cada perturbacion
estructural sobre los vaores subsiguientes de las variables del sistema.
En particular,
t 1
0 = B0 (2.159)
ut
yt = + t + 1 t1 + 2 t2 + (2.161)
B0 yt = xt + ut (2.162)
0 0
La funcion de verosimilitud, usando = E(t t ) = B01 D(B01 ) , para el sistema
B0 yt = xt + ut puede escribirse como:
Tn T 0
L(B0 , D, ) = log(2) + log|B01 D(B01 ) |
2 2
T
1 X 0 0 0 0
[yt xt ] [B01 D(B01 ) ]1 [yt xt ] (2.163)
2 t=1
Tn T 0
L(B0 , D, ) = log(2) + log|B01 D(B01 ) |
2 2
T
1 X 0 0
t [B01 D(B01 ) ]t (2.164)
2 t=1
48 CAPITULO 2. VECTORES AUTOREGRESIVOS (VARS)
El segundo termino:
0 0
log|B01 D(B01 ) | = log[|B01 |.|D|.|(B01 ) |]
= log|B01 |.|B01 | + log|D|
= log|B0 |2 + log|D| (2.166)
El Filtro de Kalman
Historicamente, el filtro de Kalman se uso desde los anos 1960s para mejorar
la navegacion de vehculos, incluyendo los aeroespaciales, proporcionando un
estimado optimizado del estado (por ejemplo, posicion y velocidad) del sistema
analizado.
1. Usa informacion ruidosa y la filtra usando una curva ajustada por mnimos
cuadrados, la cual es optimizada con una prediccion matematica del estado
futuro generado a traves de la modelacion de las caractersticas fsicas del
sistema.
2. El estimado del modelo se compara con el punto observado y esta diferencia
es escala por un factor conocido como la Ganancia Kalman (Kalman
Gain o KG), la cual se usa como insumo para retroalimentar al modelo
y as mejorar las predicciones siguiente.
3. Ademas, la ganancia puede ser afinada para mejorar el desempeno de
las predicciones. Con un KG grande el filtro sigue mas de cerca a las
observaciones, mientras que que con un KG pequeno el filtro sigue mas de
cerca las predicciones del modelo.
49
50 CAPITULO 3. EL FILTRO DE KALMAN
0 0
yt = A xt + H t + wt (3.2)
0 R para t =
E(wt w ) = (3.4)
0 otro caso
El sistema (3.1)-(3.4) tpicamente se usa para describir una serie finita de ob-
servaciones {y1 , y2 , yT }. Sin embargo, se requieren supuestos sobre el valor
inicial del vector de estados 1 .
0
E(wt 1 ) = 0 , para t = 1, 2, , T (3.7)
La ecuacion de estado (3.1) implica que t puede escribirse como funcion lineal
de (1 , v2 , v3 , , vt ):
2 = F 1 + v2
3 = F 2 + v3 = F [F 1 + v2 ] + v3 = F 2 2 + v3
..
.
t = F t1 1 + F t2 v2 + + F vt1 + vt
t = vt + F vt1 + + F t2 v2 + F t1 1 , , para t = 2, 3, , T (3.8)
Entonces, (3.6) y (3.3) implican que vt no esta correlacionado con valores pasa-
dos de :
0
E(vt ) = 0 , para = t 1, t 2, , 1 (3.9)
De igual forma:
0
E(wt ) = 0 , para = 1, 2, , T (3.10)
0 0 0
E(wt y ) = E[wt (A x + H + w )]
= 0 , para = t 1, t 2, , 1 (3.11)
0
E(vt y ) = 0 , para = t 1, t 2, , 1 (3.12)
2 , para t =
E(t ) = (3.13)
0 , otro caso
Ecuacion de Estado (r = p)
yt+1
yt
=
..
.
ytp+2
1 2 p1 p
yt t+1
1 0 0 0 yt1
0
0 1 0 0
.. +
..
.. .. .. .. . .
. . . .
ytp+1 0
0 0 1 0
(3.14)
Ecuacion de observacion (n = 1)
yt
yt1
yt = + 1 0 0 (3.15)
..
.
ytp+1
t+1 = F t + vt
yt = A0 xt + H 0 t + wt
0
E(vt vt ) = Qrr
0
E(wt wt ) = Rnn
3.2. EJEMPLOS DE REPRESENTACIONES ESTADO-ESPACIO 53
donde:
1 2 p1 p
yt
yt1
1 0 0 0
t =
..
F =
0 1 0 0
. .. .. .. ..
. . . .
ytp+1
0 0 1 0
t+1 2 0 0
0 0 0 0
vt+1 = .. Q=
.. .. ..
. . . .
0 0 0 0
0
yt = yt A = xt = 1
0
H = 1 0 0 wt = 0 R=0
Ejemplo 2:
Considere un proceso univariado MA(1):
yt = + t + t1 (3.16)
Ecuacion de Estado (r = 2)
t+1 0 0 t t+1
= +
t 1 0 t1 0
Ecuacion de Observacion (n = 1)
t
yt = + 1
t1
Esto es:
t 0 0 t+1
t = F = vt+1 =
t1 1 0 0
2 0
Q= yt = yt A0 = xt = 1 (3.17)
0 0
H0 =
1 wt = 0 R=0 (3.18)
54 CAPITULO 3. EL FILTRO DE KALMAN
Ecuacion de Estado (r = 2)
t+1 + t 0 1 t + t1 t+1
= +
t+1 0 0 t t+1
Ecuacion de Observacion (n = 1)
t + t1
yt = + 1 0
t
r1 r
1 2
1 0 0 0 t+1
0
t+1 =
0 1 0 0 t + ..
.. .. .. .. .
. . . .
.. 0
0 0 . 0
Ecuacion de Observacion (n = 1)
yt = + 1 1 2 r1 t (3.20)
Demostracion.
y la tercera fila:
Multiplicando por (1 1 L r Lr )
t = it te (3.27)
it t = it te + te t
= t + + (te t )
= + t + wt (3.29)
56 CAPITULO 3. EL FILTRO DE KALMAN
Cov(wt , w ) = 0
Cov(wt , it te ) = 0, , para < t (3.30)
donde F = , yt = i t , A0 xt = , H = 1 y wt = te t .
Se asume que n variables macro observables, (y1t , y2t , , ynt ) estan influenci-
adas por Ct , y tienen un componente idiosincratico (it ) no correlacionado con
los movimientos de yit , para i 6= j.
y la ecuacion de observacion:
Ct
y1t 1 1 1 0 0 1t
y2t 2 2 0 1 0
.. =
.. +
.. .. .. .. ..
2t
. . . . . . . ..
.
ynt n n 0 0 1
nt
3.2. EJEMPLOS DE REPRESENTACIONES ESTADO-ESPACIO 57
t+1 = F t + vt+1
(n 1) (n n)(n 1) (n 1)
yt = A 0 Xt + H 0 t + t
(n 1) (n k)(k 1) (n n)(n 1) (n 1)
0 Q(nn) , para t =
E(vt v ) = (3.32)
0, otherwise
0 R(nn) , para t =
E(t ) = (3.33)
0, otherwise
E(vt 10 ) = 0 ,t = 1, 2, , T
E(t 10 ) = 0 ,t = 1, 2, , T
E(vt t0 ) = 0 ,t,
(3.34)
donde
=t = (yt0 , yt1
0
, , y1 , x0t , x0t1 , , x01 )0 (3.35)
Luego, tomando como valores iniciales 1|0 y P1|0 , se iteran las siguientes expre-
siones para t = 1, 2, , T :
t+1|t = F t|t1 + F Pt|t1 H(H 0 Pt|t1 H + R)1 (yt A0 xt H 0 t|t1 ) (3.38)
t+1|t denota la mejor prediccion de t+1 basada en una constante y una funcion
lineal de (yt , yt1 , , xt , xt1 , , x1 ), y la matriz Pt+1|t proporciona el MSE
de esta prediccion.
Si se define el termino Kt como:
Kt F Pt|t1 H(H 0 Pt|t1 H + R)1 (3.40)
entonces la ecuacion(3.41) puede ser re-escrita como:
t+1|t = F t|t1 + Kt (yt A0 xt H 0 t|t1 ) (3.41)
Si los valores propios de F estan dentro del crculo unitario, entonces el proceso
t es estacionario en covarianzas, cuya media incondicional es cero:
E(t ) = 0
y una matriz de varianzas y covarianzas que satisface:
= F F 0 + Q
y cuya solucion puede expresarse como un vector columna:
vec() = [In2 (F F )]1 .vec(Q)
60 CAPITULO 3. EL FILTRO DE KALMAN
t+1 = F t + vt+1
E(t+1 ) = F E(t ) + E(vt+1 )
(I F )E(t+1 ) = 0
E(t+1 ) = 0
Demostracion vec().
t+1 = F t + vt+1
0 0
t+1 t+1 = (F t + vt+1 )(F t + vt+1 )
0 0
= (F t + vt+1 )(t F + vt+1 )
0 0 0 0 0 0
= F t t F + F t vt+1 + vt+1 t F + vt+1 vt+1
0 0 0 0 0 0 0
E(t+1 t+1 ) = F E(t t )F + F E(t vt+1 ) + E(vt+1 t )F + E(vt+1 vt+1 )
0
= F F + Q (3.42)
As, en general, si los valores propios de F estan dentro del crculo unitario,
las iteraciones del filtro de Kalman pueden iniciarse con 1|0 = 0 y P1|0 (n n)
cuyos elementos expresados como un vector columna estan dados por:
Si alguno de los valores propios de F estan sobre o fuera del crculo unitario,
o si el valor inicial de 1 no es considerado como una extraccion aleatoria del
proceso implcito en t+1 = F t + vt+1 , entonces: