Sei sulla pagina 1di 5

CHAPTER 16: ADDITIONAL TOPICS ON TIME SERIES REGRESSION

Un método para predecir variables con un único modelo consiste en utilizar vectores
autorregresivos (VAR). Un VAR extiende el modelo autorregresivo univariante a un «vector» de
variables de series temporales.
Un vector autoregression (VAR) con dos variables de series temporales, Yt y Xt, consta de dos
ecuaciones: en una de ellas, la variable dependiente es Yt; en la otra, la variable dependiente es
Xt. Los regresores de ambas ecuaciones son los valores retardados de ambas variables. Los
coeficientes del VAR se estiman mediante la estimación de cada una de las ecuaciones por
MCO.
Inferencia en VAR. Bajo los supuestos de VAR, los estimadores MCO son consistentes y tienen
una distribución conjunta normal en muestras grandes.
Contraste: cabría preguntarse si los coeficientes de Yt-p y Xt-p son iguales a cero en esas dos
ecuaciones.

La hipótesis alternativa es que al menos uno de estos cuatro coeficientes es distinto de cero.
¿CUANTAS VARIABLES DEBEN INCLUIRSE EN UN VAR?
El número de coeficientes en cada una de las ecuaciones de un VAR es proporcional al número
de variables en el VAR. Es necesario mantener controlado el número de variables de un VAR y
asegurarse de que las variables están relacionadas unas con otras. La inclusión de una variable
que no esté relacionada con el resto en un VAR introduce un error de estimación.
DETERMINACIÓN DE ÑA ÑONGITUD DE LOS RETARDOS EN LOS VAR.
La longitud de los retardos en un VAR puede determinarse utilizando tanto los contrastes F
como los criterios de información (BIC y AIC).
Otra utilidad de los modelos VAR consiste en analizar las relaciones causales que existen entre
las variables económicas de series temporales. La utilización de los VAR para la inferencia causal
se conoce como modelización VAR estructural; estructural, debido a que en esta aplicación los
VAR se utilizan para modelizar la estructura subyacente de la economía.

16.2 MULTIPERIOD FORECASTS


En esta sección se describen dos métodos para la realización de predicciones para un horizonte
de varios periodos.
ITERATED MULTIPERIOD FORECASTS

Se utiliza un modelo de predicción en el que para el periodo T+1 se utilizan los datos hasta el
periodo T. A continuación, se utiliza el modelo para realizar un pronóstico para el periodo T+2
dados los datos disponibles hasta T, donde el valor previsto para T+1 se considera como si fuera
un dato más.
Ejemplo del libro: primero se calcula la predicción con un horizonte temporal de un periodo
vista en base a los datos hasta T. Es decir, calcular T+1/T. el siguiente paso consiste en
introducir esta predicción en el modelo T+2/T. Es decir, T+2/T= constante + b 1 T+1/T + b2T.

DIRECT MULTIPERIOD FORECAST


Las predicciones multiperiodo directas se calculan sin iterar utilizando una única regresión en la
que la variable dependiente es la variable en un horizonte temporal de varios periodos vista y los
regresores son las variables predictoras.
Queremos predecir Yt+2 mediante la utilización de los datos disponibles hasta el periodo
temporal T. El método directo multivariante toma como punto de partida el modelo ARD, pero
retarda las variables predictoras en un periodo adicional (X t-2, Y t-2).
De manera más general, en una regresión de predicción directa con un horizonte temporal de h-
periodos vista, todos los predictores se retardan h periodos para generar la predicción a h
periodos vista.
Errores estándar en regresiones multiperiodo directas: Como se analizó en la Sección 15.4, si el
término de error está correlacionado seriamente, los errores estándar MCO habituales son
incorrectos o, dicho de forma más precisa, no constituyen una base fiable para la inferencia. Por
tanto, con regresiones multiperiodo directas deben utilizarse los errores estándar consistentes a
heterocedasticidad y autocorrelación (HAC). El parámetro de truncamiento (m) indica a partir de
que horizonte de predicción, el grado de superposición o error de correlación serial aumenta.
¿QUÉ METODO DEBE UTILIZARSE?
Método iterativo ya que los coeficientes calculados con un periodo vista se estiman de
forma más eficiente. Las predicciones iteradas suelen presentar trayectorias temporales menos
erráticas entre los distintos horizontes que las predicciones directas.
Método directo  Si el modelo con un horizonte temporal de un periodo vista se especifica de
forma incorrecta, en general la predicción multiperiodo iterada será sesgada y el MSFE de la
predicción iterada puede ser mayor que el MSFE de la predicción directa, a pesar de que la
predicción directa tenga una varianza mayor.

16.3 ORDERS OF INTEGRATION AND THE DF-GLS


Si Yt sigue un random walk with drift donde Ut esta serialmente correlacionado, entonces tiene
una raíz autorregresiva que es igual a 1. Ecuación 16.16:
Sin embargo, modelos con tendencias más suaves hacen que la primera diferencia de la
tendencia siga un paseo aleatorio. Ecuación 16.17:
Si Yt sigue la Ecuación (16.17), ∆Yt sigue un paseo aleatorio, por lo que ∆Yt- ∆ Yt-1 (segunda
diferencia) es estacionaria. La segunda diferencia se expresa ∆2Yt=∆Yt-∆Yt-1. Si una serie tiene
una tendencia con la forma 16.17, entonces la primera diferencia de la serie tiene una raíz
autorregresiva que es igual a 1 y la segunda diferencia es estacionaria.
Una serie que tiene una tendencia de paseo aleatorio se dice que es integrada de orden uno, o
I(1). Una serie que tiene una tendencia de la forma de la Ecuación (16.17) se dice que es
integrada de orden dos o I(2). Una serie que no tiene una tendencia estocástica y es
estacionaria se dice que es integrada de orden cero, o I(0).
Si la tasa de inflación fuera l(1), entonces su tendencia estocástica se eliminaría mediante la
primera diferencia, por lo que ∆infl es estacionaria. Por lo tanto, considerar la tasa de inflación
como l (1), es equivalente a considerar ∆pt como l (1) y es equivalente a considerar Pt como l
(2) (se necesita la segunda diferencia para eliminar su tendencia estocástica). En el ejemplo de
del logaritmo del nivel de precios, la tendencia a largo plazo varia de forma más suave de
manera que es l (2).
THE DF-GLS TEST FOR A UNIT ROOT

16.4 COINTEGRATION
Dos o más series de tiempo con tendencias estocásticas pueden evolucionar juntas de forma
tan estrecha a largo plazo que puede parecer que tienen la misma componente tendencial
(COMMON TREND). Debido a que la tendencia de cada serie individual se elimina restando una
serie de la otra, las dos series deben tener la misma tendencia (common estochastic trend) y
esto se dice que las series están cointegradas.

Si Xt e Yt están cointegradas, otra forma de eliminar la tendencia consiste en calcular, Yt- (α) Xt,
donde α se elige de manera que elimine la tendencia común de la diferencia y Yt- (α) Xt es
estacionario.

El término Yt- (α) Xt se denomina error correction term. El modelo combinado de las
Ecuaciones (16.22) y (16.23) se denomina vector error correction model (VECM). En un VECM,
los valores pasados de Yt- (α) Xt ayudan a predecir los valores futuros de ∆Yt y/o los de ∆Xt.

La teoría de las expectativas de la estructura temporal implica que si los tipos de interés son
I(1), entonces estarán cointegrados con un coeficiente de cointegración de α=1 (porque la
primera diferencia elimina la tendencia estocastica).
La gráfica de los dos tipos de interés muestra que cada una de las series parece ser I(1), pero
que el diferencial parece ser I(0), por lo que parece que las dos series pueden estar
cointegradas.
La idea en la que se basan estos contrastes es que si Yt y Xt están cointegradas con coeficiente
de cointegración α, entonces Yt- (α) Xt es estacionaria; de lo contrario, es no estacionaria [I(1)].

TESTING FOR COINTEGRATION WHEN IS α KNOWN


Si es conocido, se pueden utilizar los contrastes de raíz unitaria de Dickey-Fuller y DF-GLS para
contrastar la existencia de cointegración, en primer lugar construyendo
la serie z = Yt- (α) Xt y contrastando a continuación la hipótesis nula de que z tiene una raíz
unitaria autorregresiva l (1).

TESTING FOR COINTEGRATION WHEN IS αUNKNOWN


Se utiliza el Engle-Granger augmented dickey-fuller test for cointegration (EG-ADF test)
(procedimiento en dos etapas).
1. Primero el coeficiente de cointegración se estima mediante la estimación MCO de la
regresión.
2. En el segundo paso, se utiliza un contraste t de Dickey-Fuller (con término
independiente, pero sin tendencia temporal) para contrastar la presencia de raíz
unitaria en el residuo de esta regresión, z.
3. Valor crítico al 5%: -3.41

El dynamic OLS estimator: si Xt fuera estrictamente exógena, entonces en la Ecuación (16.25) el


coeficiente de Xt, h sería el multiplicador acumulativo de largo plazo, es decir, el efecto a largo
plazo sobre Y de una variación en X.

16.5 VOLATILITY CLUSTERING AND AUTOREGRESSIVE CONDITIONAL HETEROSKEDASTICITY.


Una serie con algunos periodos de baja volatilidad y algunos otros periodos de alta volatilidad
se dice que presenta volatilidad agrupada (VOLATILITY CLUSTERING).
La volatilidad agrupada puede interpretarse como un agrupamiento de la varianza del término
de error a lo largo del tiempo: si el error de regresión presenta una varianza pequeña en un
periodo, su varianza tiende asimismo a ser pequeña en el periodo siguiente. En otras palabras,
la volatilidad agrupada implica que el error muestra una heterocedasticidad cambiante a lo
largo del tiempo.
Dos de los modelos planteados para la volatilidad agrupada son el modelo de auotrregressive
conditional heteroskedasticity model (ARCH) y su extensión, el modelo generalized ARCH
(GARCH). Regress the lag values of u and the variance on the present variance. GARCH (p,q).
Los modelos ARCH y GARCH se estiman mediante el método de máxima verosimilitud. Los
estimadores de los coeficientes ARCH y GARCH se distribuyen normalmente en muestras
grandes

Potrebbero piacerti anche