Sei sulla pagina 1di 64

ANÁLISIS DE REGRESIÓN Y

SERIES DE TIEMPO

Docente:
Esp. John Chuke Yepes L
Estadístico U de M
johnyepes6778@correo.itm.edu.co

John Chuke Yepes


Programa

Unidad 1: Análisis Exploratorio de Datos-


AED

Unidad 2: Modelos Econométricos


Regresión Lineal
Unidad 3: Modelos Series Temporales –
ARIMA

John Chuke Yepes


Programa

Unidad 1: Análisis Exploratorio de Datos-AED


1.1. Contextualización
1.2. Identificación de valores outliers

1.3. Conceptos básicos de simulación


- Ventajas de la simulación
- Sistemas continuos y discretos

1.4. Concepto de variables aleatorias


- Variables aleatorias
- Distribuciones de probabilidad
- Modelos estocásticos
- Modelo Normal
1.5. Suavización
- Promedios móviles
- Suavización exponencial
- Selección del “mejor” modelo

John Chuke Yepes


Programa

Unidad 2: Modelos de Regresión Lineal


2.1. Regresión –Econometría lineal simple y múltiple.

2.1.1. Mínimos cuadrados


2.1.2. Estimación y predicción
2.1.3. Diagnóstico y análisis de residuos
2.1.4. Ruido Blanco

- Pruebas de Multicolinealidad
- Pruebas Heteroscedasticidad
- Pruebas Autocorrelación serial

2.2. Modelos Económicos - Financieros

• Modelos de Elasticidades
• Modelos de Demanda
• Modelo de Oferta
• Modelo de Mercado de Capitales

2.3. Predicción

John Chuke Yepes


Programa

Unidad 3: Modelos Series Temporales –


ARIMA
3.1. Componentes de una serie
- Estacional
- Tendencial
- Cíclico
- Aleatorio
3.2. Modelos AR(p)
- Proceso Autorregresivo
- Estacionariedad
- Pruebas de paseo aleatorio y ruido blanco
3.3. Modelos MA(q)
- Modelos Promedio móvil
- Estacionariedad
- Pruebas de paseo aleatorio y ruido blanco

3.4. Modelos ARIMA(p,d,q)


- Pruebas de paseo aleatorio y ruido blanco

3.5. Proyecciones
John Chuke Yepes
Programa

Bibliografía

• Gujarati, Damodor. ( 2014). Econometría. Cuarta edición

• GREENE, W. (1998). "Análisis Econométrico" (edic. 3ª). Ed.


Prentice Hall.
• PINDYCK R. y RUBINFELD, D.L. (2000). "Econometría: modelos y
pronósticos". Ed. MacGraw-Hill.

• WOOLDRIDGE, J. M. (2006). “Introducción a la econometría: un


enfoque moderno”. Thomson Learning.

• PEÑA, DANIEL. (2005). Métodos y Modelos estocásticos de


series temporales. Madrid.

• Box, George; Jenkins Gwilyn. (2015). Time Series Analysis.


Forecasting and Control .

John Chuke Yepes


Programa

Objetivo del curso

El objetivo general del curso se basará en:

Comprender y Desarrollar

Conceptos, Técnicas, Métodos y Modelos


para el Analizar, Interpretar y predecir
diversos escenarios futuros probables

para la toma de decisiones en un marco


de expectativas esperadas.

John Chuke Yepes


Programa

Objetivos Específicos
Capacitar en:

• Identificar las diferentes metodologías de modelos


estocásticos-estadísticos.

• Aplicar los modelos estocásticos para realizar


proyecciones con modelos paramétricos.

• En el proceso de estimación de modelos


econométricos para predecir comportamientos de
las relaciones de variables económico –financieras.

• En la modelación de Análisis de series de tiempo,


modelos ARIMA (p,d,q) para realizar
proyecciones.
John Chuke Yepes
Programa

Objetivo de los estudiantes

Adquirir la capacidad de interpretar y


desarrollar los modelos estocásticos
para realizar las estimaciones de las
proyecciones de variables económico-
financieras para la toma de decisiones
empresariales…

John Chuke Yepes


Análisis Exploratorio de Datos -AED

TIPOS DE MÉTODOS DE PRONÓSTICOS

John Chuke Yepes


Análisis Exploratorio de Datos -AED

TIPOS DE MÉTODOS DE PRONÓSTICOS

John Chuke Yepes


Programa

MÉTODOS OBJETIVOS DE PRONÓSTICOS

John Chuke Yepes


ANÁLISIS
EXPLORATORIO DE
DATOS -AED

John Chuke Yepes


Programa

Unidad 1: Análisis Exploratorio de Datos-AED

1.1. Contextualización
1.2. Identificación de valores outliers

1.3. Conceptos básicos de simulación


- Ventajas de la simulación
- Sistemas continuos y discretos

1.4. Concepto de variables aleatorias


- Variables aleatorias
- Distribuciones de probabilidad
- Modelos estocásticos
- Modelo Normal
1.5. Suavización
- Promedios móviles
- Suavización exponencial
- Selección del “mejor” modelo

John Chuke Yepes


Análisis Exploratorio de Datos -AED

IDENTIFICACIÓN DE VALORES OUTLIERS


Se realiza una Medición y descripción de los datos por:

-Estadística descriptiva y
- Estadística Inferencial.
Se tienen la siguientes medidas:

1. Estadística Descriptiva
1.1. Medidas de tendencia central
1.2. Medidas de variabilidad
1.3. Medidas de forma
1.4. Análisis de Correlación

2. Estadística Inferencial
2.1. Intervalos de Confianza
2.2. Pruebas de Hipótesis
2.3. Selección de Tamaño de muestra

John Chuke Yepes


Análisis Exploratorio de Datos -AED

IDENTIFICACIÓN DE VALORES OUTLIERS


Se realiza una Medición y descripción de los datos por:

- Estadística descriptiva y

- Estadística Inferencial.

Muestra Población
Medida
Estadística Parámetros
Tamaño n N
Media m
Varianza S² s²
Desviación estándar S s
Proporción p p
Correlación r r

John Chuke Yepes


Programa

SERIE DE DATOS
Definición

Es una secuencia ordenada de observaciones cada


una de las cuales está asociada a un individuo en
un momento de tiempo.
𝒁𝒕 : 𝒛𝟏 , 𝒛𝟐 , 𝒛𝟑 , … . , 𝒛𝑻 ; ∀𝒕 = 𝟏, 𝟐, 𝟑, … , 𝑻

John Chuke Yepes


TIPOS DE DATOS

Es una secuencia ordenada de observaciones cada una de las


cuales está asociada a un INDIVIDUO o a un MOMENTO
DE TIEMPO.

Las bases de datos de corte transversales:

consisten en una muestra de individuos, familias,


ciudades, empresas, países, entre otros.
Tomada en un punto especifico del tiempo.

Los datos de series de tiempo


corresponden, según diversos autores, a un
conjunto de datos ordenados en el tiempo.
La primera característica de este grupo de datos es
que difícilmente los datos sean independientes en
el tiempo.

John Chuke Yepes


Esquema
Proceso iterativo para la construcción de modelos

ETAPA 1 Análisis Exploratorio de los datos de la Serie

ETAPA 2 ETAPA 3 ETAPA 4


Identificación del
patrón de Propuesta del Estimación de
Evolución de la Modelo ARMA a parámetros del
Serie estimar modelo

ETAPA 5
No ¿Es
Validación de los
adecuado
Supuesto
el Modelo?

Si
ETAPA 7
Uso del Modelo
John Chuke Yepes Proyecciones
Esquema
VARIABLES INDEPENDIENTES:
MODELOS ECONOMÉTRICOS
PROCESO ARIMA(p,d,q)
MODELOS SERIES TEMPORALES

Filtro Modelo

Pruebas estadísticas
Estacionariedad: Dickey-Fuller, Correlograma
Homoscedasticidad: Normalidad de Residuales, White, ARCH
Autocorrelación: Durbin-Watson, Breush-Godfrey

John Chuke Yepes


John Chuke Yepes
Series Temporales

La modelización ARIMA o Box-Jenkins:

«parte de considerar que el valor observado de una


serie (un dato de una un dato de una variable
económica) en un momento determinado de tiempo t
es una realización de una variable aleatoria
definida en dicho momento de tiempo.

Por tanto,

una serie de t datos es una muestra de un vector de


t variables aleatorias ordenadas en el tiempo al que
denominamos proceso estocástico.
Representaciones gráficas
Representaciones gráficas
Representaciones gráficas
Objetivo

En ocasiones se pretende «proyectar» el


comportamiento de una variable en un momento
futuro t+1, a partir del patrón de evolución que la
variable tuvo en un momento pasado, por ejemplo,
en el período anterior, 𝒁𝒕−𝟏 :

Formalmente se tiene que

𝒁𝒕 = 𝒇(𝒁𝒕−𝟏 )+𝒂𝒕

es decir, que el valor de la variable Z en el momento


t es función del valor tomado en el período t-1.
Contextualización

En el análisis de series de tiempo se


tiene la restricción de que las
observaciones sucesivas e individuales
que forman el conjunto de datos son
realizaciones de variables aleatorias
mutuamente independientes.
Contextualización
En general,

Este supuesto de independencia mutua se justica


por:

• La atención prestada a diversos aspectos del


experimento, incluyendo
• La extracción aleatoria de la muestra de una
población más grande,
• La asignación aleatoria del tratamiento a cada
unidad experimental,
• El supuesto de independencia no se sostiene ya
que, en general, las observaciones son
dependientes entre sí y la naturaleza de su
dependencia es de interés en sí misma.
Series Temporales
Esquema
Proceso iterativo para la construcción de modelos

ETAPA 1 Análisis Exploratorio de los datos de la Serie

ETAPA 2 ETAPA 3 ETAPA 4


Identificación del
patrón de Propuesta del Estimación de
Evolución de la Modelo ARMA a parámetros del
Serie estimar modelo

ETAPA 5
No ¿Es
Validación de los
adecuado
Supuesto
el Modelo?

Si
ETAPA 7
Uso del Modelo
Proyecciones
Pronóstico

Pronóstico es el proceso de estimación del patrón


de evolución de la serie temporal en el futuro en
situaciones de incertidumbre o volatilidad.

El pronóstico de una serie de tiempo consiste en hacer


una estimación de los futuros valores de las variables
(como los rendimientos, los precios de las acciones, demanda y oferta de
productos, indicadores macroeconómicos entre otras) para un
periodo de tiempo determinado.
ESQUEMA
VARIABLES INDEPENDIENTES:
MODELOS ECONOMÉTRICOS
PROCESO ARIMA(p,d,q)
MODELOS SERIES TEMPORALES

Filtro Modelo

Pruebas estadísticas
Estacionariedad: Dickey-Fuller, Correlograma
Homoscedasticidad: Normalidad de Residuales, White, ARCH
Autocorrelación: Durbin-Watson, Breush-Godfrey

John Chuke Yepes L


Contextualización

1. Pronósticos a corto plazo:


Este tipo de pronóstico se efectúa cada mes o menos,
y su tiempo de planeación tiene vigencia de un año.

2. Pronósticos a mediano plazo:


Abarca un lapso de seis meses a tres años.

3. Pronósticos a largo plazo:


El tiempo de duración es de tres años o más.
Contextualización

El uso sistemático de la información muestral


pasa normalmente por la formulación de
modelos que pueden describir el patrón de
evolución la serie.

Los modelos utilizados para describir el


comportamiento de las variables económicas de
interés, siempre responden a la misma
estructura.
Contextualización

Estructura del modelo a estimar

𝒁𝒕 = 𝑷𝑺𝒕 + 𝒂𝒕
Zt = Serie de observaciones
PSt = Parte sistemática o comportamiento regular de la variable,
at : Es la parte aleatoria, también denominada innovación.
t: Secuencia cronológica-temporal para todo t=1,2,3,…., T

En los modelos de series temporales univariantes la PSt se


determina únicamente en función de la información disponible en
el pasado de la serie:

𝑷𝑺𝒕 = 𝒇(𝒁𝒕 , 𝒁𝒕−𝟏 , 𝒁𝒕−𝟐 , 𝒁𝒕−𝟑 , … , 𝒁𝒕−𝒌 )


Contextualización

Procesos estocásticos
Un proceso estocástico es una colección o familia
de variables aleatorias {Zt, con t ∈ T}, ordenadas
según el subíndice t que en general se suele
identificar con el tiempo.

Por tanto, para cada instante t tendremos una


variable aleatoria distinta representada por

Zt
con lo que un proceso estocástico puede
interpretarse como una sucesión de variables
aleatorias cuyas características pueden variar a lo
largo del tiempo.
Contextualización

Procesos estocásticos

Por ejemplo,

Si se observa sólo unos pocos valores de t, tendríamos una


imagen similar a la de la figura siguiente:
Contextualización

PROCESOS ESTOCÁSTICOS

Un proceso estocástico es un conjunto de


variables aleatorias que representan una
misma magnitud (responden a la misma
definición) en distintos momentos del tiempo a
los que se les asocia su distribución de
probabilidad de ocurrencia.

En general,

se supone que el proceso es lineal, es decir, que


cada variable puede ser obtenida como
combinación lineal de las que la preceden.
Procesos estocásticos

Una muestra de n datos será una


muestra de un vector de n variables
aleatorias ordenadas en el tiempo
( z1 .. zt .. zn ).

Se denomina proceso estocástico al


conjunto de estas variables { zt } donde
t = 1,2,3,..., T.
Procesos estocásticos

Conocer el proceso teórico implica:


Conocer la función de distribución conjunta del
vector de variables aunque, bajo normalidad, con su
vector de medias y su matriz de varianzas-
covarianzas.
Estos elementos pueden ser inferidos a partir de las
observaciones pero solo cuando se cumple una serie de
condiciones
• Función de medias: mt = E [zt ]

• Funcion de Varianzas: 𝝈𝟐 = Var [zt ]

• Función de autocovarianzas:
Cov ( t , t +k) = E [( zt - mt ) ( zt+k - mt+k ]

• Función de autocorrelación:
r(t, t+k) = Cov ( t , t +k) / st st+k
Procesos estocásticos
Las condiciones que deben verificarse para que la inferencia a partir
de una única realización sea posible son dos:

• Estacionariedad. ( Proceso Estacionario)

Implica que las variables integrantes del proceso tienen media y


varianza constantes y finitas, y que la covarianza entre pares de
ellas solo depende de su separación temporal.

• Ergodicidad.

Implica que la covarianza entre pares de variables del


proceso tiende a reducirse cuanto mayor es su separación
temporal.
Es decir la relación se hace nula.
Procesos estocásticos

Función de distribución.

Para conocer la función de distribución de un proceso


estocástico es necesario conocer las funciones de
distribución univariantes de cada una de las variables
aleatorias del proceso,

f [Zti ]; ti

y las funciones bivariantes correspondientes a todo


par de variables aleatorias del proceso,

f [Zti ; Ztj ];  (ti; tj)

y todas las funciones trivariantes,


Procesos estocásticos

En resumen, la función de distribución


de un proceso estocástico incluye todas
las funciones de distribución para
cualquier subconjunto finito de
variables aleatorias del proceso:

f [Zt1 ; Zt2 ; : : : ; Ztn];  (t1; t2; : : : ; tT); siendo T finito


Procesos estocásticos

MOMENTOS DEL PROCESO ESTOCÁSTICO.

Como suele ser muy complejo determinar las


características de un proceso estocástico a través de
su función de distribución se suele recurrir a
caracterizarlo a través de los dos primeros
momentos.

• E [zt ] = mt

• Var [zt ] = s2t = E[Zt – m]2 = o

• Cov ( t , t +k) = Cov ( t , t - k) = E[Zt - m][Zt-k-m]=k

• r k = k / o
IDENTIFICACIÓN DEL PATRÓN DE
EVOLUCIÓN

Para determinar el patrón de evolución


de una serie se emplea la función de
autocorrelación

Las funciones de autocorrelación miden


la relación lineal entre los valores de las
variables aleatorias separadas de una
cierta distancia en el tiempo.

La Estimación de estas funciones


permiten determinar la forma del patrón
del proceso estocástico.

John Chuke Yepes L


ESTIMACIÓN DE LA FUNCIÓN DE AUTOCORRELACIÓN

La función de Autocovarianza

 t ,  Cov(Yt , Yt  )  E[(Yt  mt )(Yt  k  mt )]


k  1,2,...., t

Función de autocorrelación simple –FAC- (FAS)

 t ,k E[Yt  m t )(Yt  k  m t )]
r t ,k  
 t ,k  t E(Yt  m) 2 E(Yt  k  m) 2
o

 k E[(Yt  m )(Yt  k  m )]
rt ,k  
0 E (Yt  m ) 2

John Chuke Yepes L


IDENTIFICACIÓN DEL PATRÓN DE
EVOLUCIÓN
El Correlograma

John Chuke Yepes L


ANÁLISIS DEL CORRELOGRAMA

Correlograma de una serie de datos con TENDENCIA

Una serie de datos tendrá TENDENCIA


si r1 es cercana a 1 y las sucesivas
r2,......rk caen lentamente a cero en forma
exponencial.

Correlograma de una serie de datos ESTACIONARIA

Una serie de datos será ESTACIONARIA


si la primera r1 presenta un valor próximo
a 1, y a partir de la segunda caen
drásticamente (rápidamente) a cero.

John Chuke Yepes L


ANÁLISIS DEL CORRELOGRAMA

Correlograma de una serie de datos ESTACIONAL

Una serie de datos será ESTACIONAL


si la autocorrelación r1, se repite en
periodos de secuencias de igual
amplitud, por ejemplo 12 periodos, r12.

Correlograma de una serie de datos ALEATORIA

Una serie de datos será ALEATORIA si


las autocorrelaciones r1,r2,......rk son
cercanas estadísticamente a cero y su
comportamiento se encuentra dentro de
los límites.

John Chuke Yepes L


PROCESO ESTACIONARIO

Definición

Un proceso estocástico es estacionario


en sentido estricto o fuerte cuando la
distribución de probabilidad conjunta
de cualquier parte de la secuencia de
variables aleatorias es invariante del
tiempo

F(z t , z t 1 ,..., z t  k )  F(z t   , z t 1  ,..., z t  k   )

John Chuke Yepes


SUPUESTOS DE UN PROCESO
ESTACIONARIO
Definición
Un proceso estocástico es estacionario (se
encuentra en equilibrio estocástico) en
sentido débil si los momentos del primero y
segundo orden de la distribución
(esperanzas, varianzas, covarianzas) son
constantes a largo del tiempo.

E ( z t )  m, m 
E(z t  m t ) 2  s 2  

EZ t  m t Z t    m t       ,   
John Chuke Yepes
Modelos Autorregresivos

La expresión genérica de un Modelo Autorregresivo,


de orden p, AR(p) sería la siguiente:

𝒁𝒕 = 𝝁 + 𝝓𝟏 𝒁𝒕−𝟏 + 𝝓𝟐 𝒁𝒕−𝟐 + 𝝓𝟑 𝒁𝒕−𝟑 + ⋯ + 𝝓𝒑 𝒁𝒕−𝒑 + 𝒂𝒕

𝝓𝒑 (𝑳)𝒁𝒕 = 𝝁 + 𝒂𝒕
o

𝝓𝒑 (𝟏 − 𝝓𝟏 𝑳 − 𝝓𝟐 𝑳𝟐 − 𝝓𝟑 𝑳𝟑 − ⋯ − 𝝓𝒑 𝑳𝒑 )𝒁𝒕 = 𝝁 + 𝒂𝒕

Operador Rezago
𝑳𝒁𝒕 = 𝒁𝒕−𝟏

𝑳𝒑 𝒁𝒕 = 𝒁𝒕−𝒑
John Chuke Yepes
Modelos Autorregresivos Series Temporales

Procesos AR(1)
Sea un proceso AR(1):

𝒁𝒕 = 𝝁 + 𝝓𝟏 𝒁𝒕−𝟏 + 𝒂𝒕

Entonces,

será condición necesaria y suficiente, para que el


proceso estocástico pueda ser considerado
estacionario, que f1 sea, en valor absoluto, menor
que la unidad.
𝝓𝟏 < 𝟏

John Chuke Yepes


Modelos Autorregresivos Series Temporales

Procesos AR(1) 𝒁𝒕 = 𝝁 + 𝝓𝟏 𝒁𝒕−𝟏 + 𝒂𝒕

John Chuke Yepes


Modelos Autorregresivos Series Temporales

Procesos AR(1)
En esta ecuación tenemos dos constantes :
m y f1 ; 𝒂𝒕 ~𝑹𝑩(𝟎; 𝝈𝟐 )
Si un modelo AR(1) es estacionario, entonces su esperanza y
su varianza son constantes en el tiempo y se tiene que:

Esperanza
𝝁
𝑬 𝒁𝒕 = 𝝁 + 𝝓𝟏 𝑬 𝒁𝒕−𝟏 + 𝑬 𝒂𝒕 = 𝝁 + 𝝓𝟏 𝑬 𝒁𝒕−𝟏 =(1-𝝓𝟏 ) 𝝁 =
𝟏−𝝓𝟏

Varianza
𝝈𝒂𝟐
V 𝒁𝒕 = 𝝓𝟐1 𝑽 𝒁𝒕−𝟏 + 𝑽 𝒂𝒕 = 𝝈𝒁𝟐 =
𝟏 − 𝝓1𝟐

John Chuke Yepes


Modelos Autorregresivos Series Temporales

Procesos AR(1)
La función de autocovarianzas asume la forma:

𝜸𝒌 = 𝝓1𝒌 𝜸𝟎
Mientras que la función de autocorrelación -FAC
satisface la siguiente ecuación:
𝒌
𝝆𝒌 = 𝝓 1
La fórmula del coeficiente de determinación: R²

𝝈𝒂𝟐 [𝑨𝑹 𝟏 ]
𝑹𝟐1 = 𝟏 − = 𝝆1 𝟐 = 𝝓 𝟐
𝝈𝒛𝟐 1

John Chuke Yepes


Modelos Autorregresivos Series Temporales

Ejercicios

1. Sea el proceso Autorregresivo de orden 1: AR(1); definido


por la ecuación siguiente:

𝒁𝒕 = 𝟒 + 𝟎, 𝟓𝒁𝒕−𝟏 + 𝒂𝒕 Donde: 𝒂𝒕 ~𝑹𝑩(𝟎; 𝝈𝟐 )

Determine :
a. La función de autocorrelación –FAC
b. Determine que patrón presente la serie Zt.

John Chuke Yepes


Modelos Autorregresivos Series Temporales

Ejercicios

2. Sea el proceso Autorregresivo de orden 1: AR(1); definido


por la ecuación siguiente:

𝒁𝒕 = −𝟎, 𝟓𝒁𝒕−𝟏 + 𝒂𝒕 Donde: 𝒂𝒕 ~𝑹𝑩(𝟎; 𝝈𝟐 )

Determine :
a. La función de autocorrelación –FAC
b. Determine que patrón presente la serie Zt.

John Chuke Yepes


Modelos Autorregresivos Series Temporales

Procesos AR(2)
Siendo:
𝒁𝒕 = 𝝁 + 𝝓𝟏 𝒁𝒕−𝟏 + 𝝓𝟐 𝒁𝒕−𝟐 + 𝒂𝒕
La representación del proceso estocástico, la condición de
estacionariedad se verifica cuando las raíces de su ecuación
característica:

  B  1f B f B  0
1 2
2

Son, en módulo, mayores que la unidad. Esta condición implica


las siguientes relaciones sobre los coeficientes del proceso:

f2  f1  1
f2  f1  1
f2  1
John Chuke Yepes
Modelos Autorregresivos Series Temporales

Procesos AR(2)
La FAC del AR(2), que satisface la ecuación en diferencias:
𝝓𝟏
𝝆𝟏 =
𝟏 − 𝝓𝟐

𝝓𝟐1
𝝆𝟐 = 𝝓 𝟐 +
𝟏 − 𝝓𝟐
Queda determinada por los dos primeros valores de

En particular;
𝝆𝟏 = 𝝓𝟏 + 𝝓𝟐 𝝆𝟏
𝝆𝟐 = 𝝓𝟏 𝝆𝟏 + 𝝓𝟐
Si K  3
𝝆𝒌 = 𝝓𝟏 𝝆𝒌−𝟏 + 𝝓𝟐 𝝆𝒌−𝟐
John Chuke Yepes
Modelos Autorregresivos

Procesos AR(2)
Ejercicios
𝒁𝒕 = 𝟎, 𝟗𝒁𝒕−𝟏 − 𝟎, 𝟐𝒁𝒕−𝟐

𝒂𝒕 ~𝑹𝑩(𝟎; 𝝈𝟐 )

Determine :
a. La función de autocorrelación –FAC
b. Determine que patrón presente la serie Zt.
Modelos Autorregresivos

Procesos AR(2)
Ejercicios
𝒁𝒕 = 𝟎, 𝟖𝒁𝒕−𝟏 − 𝟎, 𝟔𝒁𝒕−𝟐

𝒂𝒕 ~𝑹𝑩(𝟎; 𝝈𝟐 )

Determine :
a. La función de autocorrelación –FAC
b. Determine que patrón presente la serie Zt.
Modelos Autorregresivos

Procesos AR(2)
Ejercicios
𝒁𝒕 = 𝟎, 𝟕𝒁𝒕−𝟏 − 𝟎, 𝟏𝒁𝒕−𝟐

𝒂𝒕 ~𝑹𝑩(𝟎; 𝝈𝟐 )

Determine :
a. La función de autocorrelación –FAC
b. Determine que patrón presente la serie Zt.
Modelos Autorregresivos

Procesos AR(2)
Ejercicios
𝒁𝒕 = −𝟎, 𝟔𝟓𝒁𝒕−𝟏 + 𝟎, 𝟐𝒁𝒕−𝟐

𝒂𝒕 ~𝑹𝑩(𝟎; 𝝈𝟐 )

Determine :
a. La función de autocorrelación –FAC
b. Determine que patrón presente la serie Zt.
Contextualización

Potrebbero piacerti anche