Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1 Introdução 4
1.1 Exemplos de séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Estacionariedade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Conceitos Básicos 7
2.1 Processo Estocástico . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Especificação de um Processo Estocástico . . . . . . . . . . . . . . . 8
2.3 Médias e Covariâncias . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3.1 Propriedades da Esperança . . . . . . . . . . . . . . . . . . . 9
2.3.2 Propriedades da Variância . . . . . . . . . . . . . . . . . . . . 9
2.3.3 Propriedades da Covariância . . . . . . . . . . . . . . . . . . 9
2.3.4 Propriedades da Correlação . . . . . . . . . . . . . . . . . . . 10
2.3.5 Outras Propriedades Importantes . . . . . . . . . . . . . . . . 10
2.4 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.1 Exemplo 1: O passeio aleatório . . . . . . . . . . . . . . . . . 10
2.4.2 Exemplo 2: (Média-Móvel de ordem 1) . . . . . . . . . . . . . 12
2.5 Estacionariedade para um Processo Estocástico . . . . . . . . . . . . 12
2.5.1 Ruído Branco . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.6 A Função de Autocorrelação Amostral . . . . . . . . . . . . . . . . . 14
2.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Modelos de Decomposição 17
3.1 Modelo com Média constante . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Método de Regressão . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.1 Tendência Linear . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.2 Tendência Ciclíca ou Sazonal . . . . . . . . . . . . . . . . . . 19
3.2.3 Tendência Cosseno . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Sazonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.1 Sazonalidade determinística - método de regressão . . . . . . 21
3.4 Análise Residual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1
manoel@fct.unesp.br SUMÁRIO
8 Diagnóstico do Modelo 58
8.1 Análise Residual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
8.2 Autocorrelação dos Resíduos . . . . . . . . . . . . . . . . . . . . . . 59
8.3 O Teste de Box-Pierce . . . . . . . . . . . . . . . . . . . . . . . . . . 59
8.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2
manoel@fct.unesp.br SUMÁRIO
10 Modelos Sazonais 72
10.1 Sazonalidade Determinística . . . . . . . . . . . . . . . . . . . . . . . 72
10.2 Identificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
10.3 Estimação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
10.4 Previsão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
10.5 Sazonalidade Estocástica . . . . . . . . . . . . . . . . . . . . . . . . . 74
10.6 Identificação, Estimação e Verificação . . . . . . . . . . . . . . . . . 74
10.7 Exemplos de Modelos Sazonais . . . . . . . . . . . . . . . . . . . . . 75
10.7.1 Exemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
10.7.2 Exemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
10.7.3 Exemplo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
10.7.4 Exemplo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
10.7.5 Exemplo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
10.7.6 Exemplo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
10.7.7 Exemplo 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
10.7.8 Exemplo 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
10.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
A Esperança Condicional 79
3
Capítulo 1
Introdução
4
manoel@fct.unesp.br CAPÍTULO 1. INTRODUÇÃO
1.2 Objetivos
Dada uma série temporal {Z(t1 ), ..., Z(tN )} , observada nos instantes t1 , ..., tN ,
podemos estar interessados em:
i) Investigar o mecanismo gerador da série temporal;
ii) Fazer previsões de valores futuros da série; podendo ser a curto ou longo
prazo;
iii) Descrever apenas o comportamento da série através de gráficos;
iv) Procurar periodicidades relevantes nos dados.
Em todos estes casos podemos construir modelos probabilísticos ou estocásticos,
tanto no domínio do tempo como no domínio da freqüência, por exemplo: um sinal
aleatório com freqüência medida em Hz. Devemos construir modelos simples e com
menor número de parâmetros possíveis.
5
manoel@fct.unesp.br CAPÍTULO 1. INTRODUÇÃO
1.3 Estacionariedade
Uma série temporal é estacionária quando ela se desenvolve aleatoriamente, no
tempo, em torno de uma média constante, refletindo alguma forma de equilíbrio
estável. Entretanto, a maior parte das séries que encontramos na prática apresenta
alguma forma de não estacionariedade. As séries econômicas apresentam em geral
tendências lineares positivas ou negativas. Podemos ter, também, uma forma de
não-estacionariedade explosiva, como o crescimento de uma colônia de bactérias.
A classe dos modelos ARIMA (autoregressivos-integrados-médias-móveis), serão
capaz de descrever de maneira satisfatória séries estacionárias e não-estacionárias,
mas que não apresentam comportamento explosivo. Este tipo de estacionariedade é
chamado homogêneo; a série pode ser estacionária, flutuando ao redor de um nível,
por um certo tempo, depois mudar de nível e flutuar ao redor de um novo nível e
assim por diante, ou então mudar de inclinação, ou ambas as coisas. A figura 1.2
ilustra esta forma de não-estacionariedade.
a segunda diferença é:
6
Capítulo 2
Conceitos Básicos
Neste capítulo vamos descrever os conceitos básicos utilizados dentro da teoria dos
modelos de séries temporais. Inicialmente vamos introduzir os conceitos de proces-
sos estocásticos, média e função de covariância, processo estacionário, e função de
autocorrelação.
7
manoel@fct.unesp.br CAPÍTULO 2. CONCEITOS BÁSICOS
© ª
µ(r1 , ..., rn ; t1 , ..., tn ) = E Z r1 (t1 )...Z rn (tn) (2.2)
Z ∞ Z ∞
µ(r, t) = ... Z1r1 ...Znr1 f (z1 , ..., zn ; t1 , ..., tn )dz1 ...dzn
−∞ −∞
onde f (Z, t) é a função de densidade e probabilidade de F (Z, t). Porém o que vai
nos interessar são os momentos de baixa ordem, ou seja, os chamados processos esta-
cionários de 2a ordem. Consideramos somente os momentos de primeira e segunda
ordem, que serão apresentados a seguir.
8
manoel@fct.unesp.br CAPÍTULO 2. CONCEITOS BÁSICOS
E (aX + bY + c) = aE (X) + bE (Y ) + c
9
manoel@fct.unesp.br CAPÍTULO 2. CONCEITOS BÁSICOS
" n # n n X
i−1
X X X
V ar ci Z(ti ) = c2i V ar [Z(ti )] + 2 ci cj Cov [Z(ti ), Z(tj )] (2.7)
i=1 i=1 i=2 j=1
2.4 Exemplos
2.4.1 Exemplo 1: O passeio aleatório
Seja a1 , a2 , ... variáveis aleatórias independentes, identicamentes distribuídas, cada
uma com média 0 e variância σ 2a . A série temporal, Zt , é construída da seguinte
maneira:
Z1 = a1 (2.8)
Z2 = a1 + a2
..
.
Zt = a1 + a2 + ... + at
ou
10
manoel@fct.unesp.br CAPÍTULO 2. CONCEITOS BÁSICOS
Zt = Zt−1 + at (2.9)
Obtendo a função média de (2.8) temos:
µt = 0 p/ todo t
e também
ou
V ar (Zt ) = tσ 2a
γ t,s = Cov(Zt , Zs )
= Cov (a1 + a2 + ... + at , a1 + a2 + ... + as )
= Cov (a1 , a1 ) + Cov (a2 , a2 ) + ... + Cov (at , at )
= σ 2a + σ 2a + ... + σ 2a = tσ 2a
onde
γ t,s = tσ 2a , para 1 5 t 5 s
11
manoel@fct.unesp.br CAPÍTULO 2. CONCEITOS BÁSICOS
µt = E (Zt )
= E (at ) − 0.5E (at−1 ) = 0
Também
ou
γ t,t−1 = −0.5σ 2a
Além disso
12
manoel@fct.unesp.br CAPÍTULO 2. CONCEITOS BÁSICOS
e agora k = t
i) γ 0 = V ar (Zt ) , ρ0 = 1 (2.11)
ii) γ k = γ −k , ρk = ρ−k
iii) |γ k | 5 γ 0 , |ρk | 5 1.
13
manoel@fct.unesp.br CAPÍTULO 2. CONCEITOS BÁSICOS
O termo ruído branco resulta do fato que em uma análise de freqüência do mod-
elo, podemos mostrar que todas as freqüências são iguais. Geralmente assumimos
que o ruído branco tem média zero e variância σ2a .
2.7 Exercícios
1) Suponha E (X) = 2, V ar (X) = 9, E (Y ) = 0, V ar (Y ) = 4, e Corr(X, Y ) = 1/4.
Encontre:
a) V ar(X + Y )
b) Cov(X, X + Y )
c) Corr(X + Y, X − Y )
2) Se X e Y são dependentes mas V ar (X) = V ar (Y ) , encontre Cov (X + Y, X − Y ) .
3) Seja X uma variável aleatória com média µ e variância σ 2 , e seja Zt = X
para todo t.
a) Mostrar que Zt é estritamente e fracamente estacionária.
14
manoel@fct.unesp.br CAPÍTULO 2. CONCEITOS BÁSICOS
13) Calcular a média e a facv para cada um dos seguintes processos. Dentro de
cada caso determine se o processo é estacionário.
a) Zt = θ0 + tat .
b) Wt = ∆Zt , onde Zt é definido como em a)
c) Zt = at .at−1 .
15
manoel@fct.unesp.br CAPÍTULO 2. CONCEITOS BÁSICOS
16
Capítulo 3
Modelos de Decomposição
Zt = µ + Xt (3.1)
onde E (Xt ) = 0 para todo t. Desejamos estimar µ utilizando a série Z1 , Z2 , ..., Zn .
A estimativa mais comum de µ é a média amostral:
n
1X
b=Z=
µ Zt (3.2)
n t=1
¡ ¢
O µ b é um estimador não-viciado de µ, ou seja, E Z = µ. Para analisar a
precisão de Z como estimativa de µ, devemos fazer algumas suposições sobre Xt .
Vamos supor {Xt } uma série estacionária com fac ρk . Então a mesma fac aplica-se
a {Zt }, ou seja, se {Zt } é estacionária então:
n−1
X µ ¶
¡ ¢ γ0 |k|
V ar Z = 1− ρk (3.3)
n n
k=−n+1
" ¶ #
¡ ¢ γ0 Xµ
n−1
k
V ar Z = 1+2 1− ρk .
n n
k=1
¡ ¢
Se a série {Xt } é um ruído branco, então ρk = 0 para k = 1 e V ar Z = γn0 =
σ2
n . Para muitos processos estacionários, a fac decai rapidamente quando o k cresce,
além disso
∞
X
ρk < ∞. (3.4)
k=0
17
manoel@fct.unesp.br CAPÍTULO 3. MODELOS DE DECOMPOSIÇÃO
∙ µ ¶¸
t
Zt = cos 2π + Φ , t = 0, ±1, ±2, ...
12
onde Φ˜U [0, 1] . Sobre a suposição (3.4) acima e dado que o tamanho da amostra
n é grande, temos a seguinte aproximação para (3.3)
∞
¡ ¢ γ X
V ar Z ≈ 0 ρk , para n grande. (3.5)
n
k=−∞
Zt = β 0 + β 1 t + Xt (3.6)
onde β 0 e β 1 são o intercepto e a inclinação, respectivamente, e os parâmetros
desconhecidos. O método clássico de minímos quadrados (ou regressão) é utilizado
para estimar os parâmentros β 0 e β 1 , que minimizam
n
X 2
Q (β 0 , β 1 ) = (Zt − β 0 − β 1 t) . (3.7)
t=1
n
X n
X
N β0 + β1 t = Zt (3.8)
t=1 t=1
n
X n
X Xn
β0 t + β1 t2 = tZt .
t=1 t=1 t=1
b
β = Z −β b t (3.9)
0 1
n ¡ ¢¡ ¢
X Zt − Z t − t
b
β =
1 Pn ¡ ¢2
t=1 t−t
t=1
Z = Yβ + X (3.10)
onde
18
manoel@fct.unesp.br CAPÍTULO 3. MODELOS DE DECOMPOSIÇÃO
⎡ ⎤
⎡ ⎤ 1 1 ⎡ ⎤
Z1 ⎢ ⎥ ∙ ¸ X1
⎢ ⎥ ⎢ 1 2 ⎥ β0 ⎢ .. ⎥
Z = ⎣ ... ⎦ , Y = ⎢ .. .. ⎥, β = e X =⎣ . ⎦ (3.11)
⎣ . . ⎦ β1
Zt Xt
1 t
com t = 1, 2, ..., n.
Zt = µt + Xt (3.13)
onde µt = µt+12 , e E (Xt ) = 0 para todo t. A suposição mais geral para µt é que
temos 12 constantes (parâmetros) β 1 , β 2 , ..., β 12 , que poderemos escrever como:
⎧
⎪
⎪ β 1 , para t = 1, 13, 25, ...
⎪
⎨ β 2 , para t = 2, 14, 26, ...
µt = .. (3.14)
⎪
⎪ .
⎪
⎩
β 12 , para t = 12, 24, 36, ...
µt = β cos (2πf t + Φ)
3.3 Sazonalidade
Nesta seção será ajustada uma série para a componente sazonal, ou seja, estima-se
a série e subtrai-se de Zt no modelo. A seguir tem-se um modelo com tendência e
sazonalidade
Zt = Tt + St + at , t = 1, ..., N. (3.15)
Um procedimeto de ajuste sazonal consiste:
a) Obter estimativas Sbt de St .
19
manoel@fct.unesp.br CAPÍTULO 3. MODELOS DE DECOMPOSIÇÃO
b) Calcular
ZtSA = Zt − Sbt (3.16)
Se o modelo for multiplicativo, da forma
Zt = Tt St at (3.17)
p
1X
Z .j = Zij , j = 1, ..., 12.
p j=1
p 12 N
1 XX 1 X
Z= Zij = Zt
12p j=1 j=1 N t=1
20
manoel@fct.unesp.br CAPÍTULO 3. MODELOS DE DECOMPOSIÇÃO
X
St = αj djt
onde djt são variáveis periódicas e at é ruído branco, com média zero e variância
σ 2a .
Supondo a sazonalidade constante, αj não depende de T. Pode-se ter, por ex-
emplo,
½
1, se o período t corresponde ao mês j, j = 1, ..., 12.
djt =
0, caso contrário.
Neste caso,
d1t + d2t + ... + d12,t = 1, t = 1, ..., N.
de modo que a matriz de regressão não é de posto completo, mas de posto m + 12
(temos m + 13 parâmetros). Impondo-se a restrição adicional:
12
X
αj = 0
j=1
onde agora
⎧
⎨ 1, se o período t corresponde ao mês j,
Djt = −1, se o período t corresponde ao mês 12
⎩
0, caso contrário.
Z = Cβ + Dα + a (3.19)
onde ⎡ ⎤ ⎡ ⎤
⎡ ⎤ 1 1 ··· 1 β0
Z1 ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ , C = ⎢ 1 2 ··· 2m ⎥ ⎢ β1 ⎥
Z =⎣ . ⎦ ⎢ .. .. .. .. ⎥, β =⎢ .. ⎥
⎣ . . . . ⎦ ⎣ . ⎦
ZN
1 N · · · Nm βm
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
D11 D12 ··· D1,11 α1 a1
⎢ D21 D22 ··· D2,11 ⎥ ⎢ α2 ⎥ ⎢ a2 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
D =⎢ .. .. .. .. ⎥, α =⎢ .. ⎥, a =⎢ .. ⎥
⎣ . . . . ⎦ ⎣ . ⎦ ⎣ . ⎦
DN 1 DN 2 · · · DN,11 α11 aN
21
manoel@fct.unesp.br CAPÍTULO 3. MODELOS DE DECOMPOSIÇÃO
Z = Xγ + a
onde
∙ ¸
β
X = [C : D] e γ =
α
de modo que:
h 0 i−1 0
b= XX
γ XZ
bt = Zt − µ
X bt
3.5 Exercícios
1) Verifique as equações (3.9) para as estimativas de minímos quadrados quando
Zt = β 0 + β 1 t + Xt .
22
Capítulo 4
Modelos de Suavização
Exponencial
A análise de regressão teve durante muito tempo razoável aceitação como método de
ajustar modelos auto-regressivos, com o objetivo de calcular previsões de série tem-
porais. Entretanto, quando o número de observações é muito pequeno, tal análise
não é apropriada, pois a hipótese básica de independência dos resíduos é quase sem-
pre violada, produzindo estimadores inconsistentes, nos impossibilitando de testar
hipóteses e estabelecer intervalos de confiança para os parâmetros (Morettin e Toloi,
1985).
Zt = µt + at , t = 1, ..., N.
23
manoel@fct.unesp.br
CAPÍTULO 4. MODELOS DE SUAVIZAÇÃO EXPONENCIAL
Zt − Zt−r
Mt = Mt−1 +
r
1
substituindo Zt−r por Z t−1 e r por α. Fazendo a expansão de (3.) temos que
2
Z t = αZt + α (1 − α) Zt−1 + α (1 − α) Zt−2 + ...
significa que o SES é uma média ponderada que dá pesos maiores às observações
mais recentes, eliminando uma das desvantagens do método de MMS.
Determinação da cte α
Quanto menor for o valor α mais estáveis serão as previsões finais, uma vez que
a utilização de baixo valor de α implica que pesos maiores são dados às observações
passadas e, consequentemente, qualquer flutuação aletória, no presente, exercerá
um peso menor no cálculo da previsão. Quanto mais aleatória a série estudada,
menores serão os valores da cte de suavização. O efeito de α grande ou pequeno
é completamente análago (em direção oposta) ao efeito do parâmetro r no método
MMS.
Vantagens - i) fácil entendimento; ii) aplicação não dispendiosa; iii) grande
flexibilidade permitida pela variação da cte de suavização α; iv) necessidade de
2
armazenar Zt , Z t e α; v) o valor de α = r−1 fornece previsões semelhantes ao
método MMS com parâmetro r.
A principal desvantagem é a dificuldade em determinar o valor mais apropriado
da cte de suavização, que pode ser superada através da utilização da suavização
exponencial adaptativo de Trigg e Leach (Moretti e Toloi, 1985).
24
manoel@fct.unesp.br
CAPÍTULO 4. MODELOS DE SUAVIZAÇÃO EXPONENCIAL
Zt = µt + Tt + at , t = 1, ..., N
Zt = µt + Tt + St + at , t = 1, ..., N
25
manoel@fct.unesp.br
CAPÍTULO 4. MODELOS DE SUAVIZAÇÃO EXPONENCIAL
26
Capítulo 5
ψ j = φj , − 1 < φ < 1.
Então
¡ ¢
E (Zt ) = E at + φat−1 + φ2 at−2 + ...
= E (at ) + φE (at−1 ) + φ2 E (at−2 ) + ...
= 0 (média constante).
e variância
27
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
¡ ¢
V ar (Zt ) = V ar at + φat−1 + φ2 at−2 + ...
= V ar(at ) + φ2 V ar(at−1 ) + φ4 V ar(at−2 ) + ...
(desde que os a0t s sejam independentes)
¡ ¢
= σ 2a 1 + φ2 + φ4 + ...
1
= σ 2a (soma de uma série geométrica)
1 − φ2
Também
¡ ¢
Cov (Zt , Zt−1 ) = Cov at + φat−1 + φ2 at−2 + ..., at−1 + φat−2 + φ2 at−3 + ...
¡ ¢
= Cov(φat−1 , at−1 ) + Cov φ2 at−2 , φat−2 + ...
¡ ¢
= σ 2a φ + φ3 + φ5 + ...
φ
= σ 2a
1 − φ2
Além disso
φ
σ 2a 1−φ2
Corr (Zt , Zt−1 ) = 1 =φ
σ 2a 1−φ 2
φk
Cov (Zt , Zt−k ) = σ 2a
1 − φ2
e
Corr (Zt , Zt−1 ) = φk , k = 0, 1, 2, ...
É importante observar que o processo definido desta maneira é estacionário. A
estrutura de autocovariância depende somente do ”lag ” na posição k.
Para o processo linear geral definido em (4.1) vamos ter:
E (Zt ) = 0
∞
X
γk = Cov (Zt , Zt−k ) = σ 2a ψ i ψ i+k , k = 0
i=0
com ψ 0 = 1.
28
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
Zt = at − θ1 at−1
onde
E (Zt ) = 0
e a variância é igual a:
e para k = 2 teremos
onde
E (Zt ) = 0
e a variância é
29
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
onde os Zt−1 , Zt−2 , ..., Zt−p são independentes de at . Os valores da série Zt são
uma combinação linear dos p valores passados mais um termo at , no qual incorpora
coisas na série até o tempo t que não é explicado pelos valores passados.
Zt = φZt−1 + at
onde
e a variância
γ0 = V ar (Zt ) = V ar (φZt−1 + at )
= φ2 V ar (Zt−1 ) + σ2a = φ2 γ 0 + σ 2a
σ2a
= , |φ| < 1.
1 − φ2
A facv para k = 1 é
onde
30
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
γ1 = φ2 γ 1 + φσ 2a
φ
= σ2a
1 − φ2
para k = 2
γ 2 = φγ 1 .
φk
γk = σ 2a , para k = 0, 1, 2, ...
1 − φ2
e a fac para o caso geral será
γk
ρk = = φk , para k = 0, 1, 2, ...
γ0
Desde que |φ| < 1, a fac é uma exponencial decrescente, a medida que k cresce.
Se 0 < φ < 1, todas as correlações são positivas; se −1 < φ < 0 a autocorrelação
de “lag ” 1 é negativa (ρ1 = φ) e os sinais das autocorrelações são alternadamente
positivo e negativo.
Considere o modelo AR(1):
Zt = φZt−1 + at
Zt = φ (φZt−2 + at−1 ) + at
= φ2 Zt−2 + φat−1 + at
31
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
φ (x) = 1 − φ1 x − φ2 x2
e a equação característica
1 − φ1 x − φ2 x2 = 0
γk γ k−1 γ
= φ1 + φ2 k−2 , k = 1, 2, ... (5.7)
γ0 γ0 γ0
ρk = φ1 ρk−1 + φ2 ρk−2 , k = 1, 2, ...
ρ1 = φ1 ρ0 + φ2 ρ1
φ1
ρ1 =
1 − φ2
e para k = 2
ρ2 = φ1 ρ1 + φ2 ρ0
φ21 + φ2 (1 − φ2 )
= .
1 − φ2
32
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
(1 − φ2 ) σ 2a
γ0 = ¡ ¢
(1 − φ2 ) 1 − φ21 − φ22 − 2φ21 φ2
Os coeficientes ψ j no processo linear geral (4.1) para um AR(2) são mais com-
plexos do que o AR(1). Entretanto, podemos substituir a representação (4.1) e
definir a equação do AR(2) para Zt , Zt−1 , e Zt−2 e obter os coeficientes de aj .
Encontrando
ψ0 = 1
ψ 1 − φ1 ψ 0 = 0
φ (x) = 1 − φ1 x − φ2 x2 − ... − φp xp
1 − φ1 x − φ2 x2 − ... − φp xp = 0.
33
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
Dados os valores φ1 , φ2 , ..., φp , estas equações podem ser resolvidas para obtermos:
ρ1 , ρ2 , ..., ρp . Para obter a variância multiplicamos a equação (4.8) por Zt , e tomamos
as espereranças encontrando:
γ 0 = φ1 γ 1 + φ2 γ 2 + ... + φp γ p + σ 2a
σ 2a
V ar (Zt ) = γ 0 = (5.11)
1 − φ1 ρ1 − φ2 ρ2 − ... − φp ρp
observando que
£ ¡ ¢¤
E (at Zt ) = E at φ1 Zt−1 + φ2 Zt−2 + ... + φp Zt−p + at
¡ ¢
= E a2t = σ2a
34
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
variando o k
γ0 = φγ 1 + σ 2a − θ (φ − θ) σ 2a , k = 0 (5.14)
γ1 = φγ 0 − θσ 2a , k = 1
γ k = φγ k−1 , k = 2 (5.15)
resolvendo as equações (4.14) e (4.15) vamos ter a variância:
¡ ¢
1 − 2θφ + θ2
γ0 =
1 − φ2
a facv
(1 − θφ) (φ − θ) k−1 2
γk = φ σ a , para k = 1
1 − φ2
e a fac
(1 − θφ) (φ − θ) k−1
ρk = φ , para k = 1
1 − 2θφ + θ2
A forma linear geral pode ser obtida da mesma maneira que a equação (4.5),
definimos
∞
X
Zt = at + (φ − θ) φj−1 at−j
j=1
(1 − φx) ¡ ¢
AR (∞) : Zt = 1 − θx + θ2 x − ... (1 − φx) Zt = at
(1 − θx)
e
(1 − θx) ¡ ¢
M A (∞) : Zt = at = 1 + φx + φ2 x2 + ... (1 − θx) at
(1 − φx)
35
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
Para o modelo geral ARMA(p,q), nós temos que dado que at é independente
de Zt−1 , Zt−2 , ..., uma solução estacionária para Zt , satisfazendo a equação (4.13)
existe, se e somente se, as raízes da equação característica AR, φ (x) = 0, excede a
unidade em valor absoluto.
Se as condições de estacionariedade são satisfeitas, então o modelo pode ser
escrito como um processo linear geral com os pesos ψ j determinados da seguinte
forma:
ψ0 = 1
ψ1 = −θ1 + φ1
ψ2 = −θ2 + φ2 + φ1 ψ 1
..
.
ψj = −θj φp ψ j−p + ... + φ1 ψ j−1
5.5 Invertibilidade
Nós vimos que um processo AR pode ser reescrito como um processo MA de ordem
infinita através de pesos ψ 0 s. Além disso podemos escrever um processo MA como
um autoregressivo. Considere o modelo abaixo:
Zt = at − θat−1 (5.17)
reescrevendo a equação acima como at = Zt + θat−1 , e então substituindo t por t − 1
e at−1 na equação modificada, temos:
36
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
at = Zt + θ (Zt−1 + θat−2 )
= Zt + θZt−1 + θ2 at−2
então se |θ| < 1, nós vimos que o MA(1) pode ser “invertido” (transformado) para
um AR(∞), então dizemos que o modelo MA(1) é invertível.
Para um modelo geral MA(q), definimos o polinômio característico MA
como:
θ (x) = 1 − θ1 x − θ2 x2 − ... − θq xq
1 − θ1 x − θ2 x2 − ... − θq xq = 0
5.6 Exercícios
1) Esboçe a fac para cada um dos seguintes modelos ARMA:
a) AR(2) com φ1 = 1.2 e φ2 = −0.7
b) MA(2) com θ1 = −1 e θ2 = −0.6
c) ARMA(1,1) com φ = 0.7 e θ = −0.4
2) Suponha Zt um processo AR(1) com −1 < φ < 1.
a) Encontre a facv para Wt = Zt − Zt−1 em termos de φ e σ 2a .
b) Em particular, mostrar que V ar (Wt ) = 2σ2a / (1 + φ) .
3) Encontre a fac para o processo definido por
Zt = 5 + at − 0.5at−1 + 0.25at−2
37
CAPÍTULO 5. MODELOS DE BOX-JENKINS PARA SÉRIES
manoel@fct.unesp.br ESTACIONÁRIAS
mostrar que
a) ρk = 0.8ρk−1 para k = 3 e
b) ρ2 = 0.8ρ1 + 0.6σ2a /γ 0 .
6) Considere dois processos MA(2), um com θ1 = θ2 = 1/6 e outro com θ1 = −1
e θ2 = 6. Mostrar que estes processos tem extamente a mesma fac. Como são as
raízes dos correspondentes polinômios característicos, compare-as.
7) Considere o não-estacionário modelo AR(1)
Zt = 3Zt−1 + at
P
a) Mostrar que Zt = − ∞ j
j=1 (1/3) at+j satisfaz a equação AR(1) e é realmente
estacionária.
b) Quando está solução não é satisfatória.
8) Considere o modelo
38
Capítulo 6
Wt = Zt − Zt−1
= (1 − X) Zt
= ∆Zt
Os modelos que apresentaremos a partir de agora, serão para séries cujo comporta-
mento são não-estacionário.
Wt = ∆d Zt
39
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS
manoel@fct.unesp.br NÃO-ESTACIONÁRIAS
6.1.1 Exemplos
Alguns casos particulares do modelo ARIMA:
i) ARIMA(0,1,1): ∆Zt = (1 − θX) at
ii) ARIMA(1,1,1): (1 − φX) ∆Zt = (1 − θX) at
iii) ARIMA(p,0,0): AR(p); ARIMA(0,0,q): MA(q); ARIMA(p,0,q): ARMA(p,q).
Um modelo que é considerado importante é o caso i) IMA(1,1): Integrado-
Médias-Móveis. Utilizado especialmente na área de economia.
∆ ln Zt = ln Zt − ln Zt−1
40
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS
manoel@fct.unesp.br NÃO-ESTACIONÁRIAS
Ztλ − 1
−→ ln Zt se λ → 0
λ
Logo, os pesos ψ j da forma (5.6) podem ser obtidos de (5.8) identificando-se coefi-
cientes de X, X 2 , etc.:
¡ ¢¡ ¢
1 − ξ 1 X − ... − ξ p+d X p+d 1 + ψ 1 X + ψ 2 X 2 + ... = 1 − θ1 X − ... − θq X q
41
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS
manoel@fct.unesp.br NÃO-ESTACIONÁRIAS
e obtemos a média
42
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS
manoel@fct.unesp.br NÃO-ESTACIONÁRIAS
43
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS
manoel@fct.unesp.br NÃO-ESTACIONÁRIAS
onde
φkj = φk−1,j − φkk φk−1,k−j , para j = 1, 2, ..., k − 1. (6.23)
Por exemplo, utilizando φ11 = ρ1 , nós temos
ρ2 − φ11 ρ1 ρ − ρ21
φ22 = = 2
1 − φ11 ρ1 1 − ρ21
6.4.1 Procedimento
I) Inicialmente diferençamos a série Zt , tantas vezes quantas necessárias, para se
obter uma série estacionária, de modo que o processo ∆d Zt seja reduzido a um
ARMA(p,q). O número de diferenças, d, necessárias para que o processo se torne
estacionário, é alcançado quando a fac amostral de Wt = ∆d Zt decresce rapidamente
para zero;
II) Identificamos o processo ARMA(p,q) resultante, através da análise das fac e
facp estimadas, cujo comportamentos devem ser semelhantes aqueles das respectivas
quantidades teóricas (AR, MA e ARMA).
- Geralmente, na prática d=0, 1, ou 2, e será suficiente inspecionar as primeiras
15 ou 20 autocorrelações da série e de suas diferenças.
- Convém testar se E (Wt ) = µW é zero, comparando W com o seu desvio-padrão
estimado. A tabela abaixo fornece as variâncias de W para alguns modelos usuais.
Se d=0, W = Z.
44
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS
manoel@fct.unesp.br NÃO-ESTACIONÁRIAS
45
CAPÍTULO 6. MODELOS PARA SÉRIES TEMPORAIS
manoel@fct.unesp.br NÃO-ESTACIONÁRIAS
6.6 Exercícos
1) Considere os dois modelos:
A : Zt = 0.9Zt−1 + 0.09Zt−2 + at
B : Zt = Zt−1 + at − 0.1at−1
FACA 1 2 3 4 5 6
Zt 0.97 0.97 0.93 0.85 0.80 0.71
∆Zt -0.42 0.18 -0.02 0.07 -0.10 -0.09
1 2 3 4 5 6
0.47 -0.34 0.20 0.02 0.15 -0.06
46
Capítulo 7
Neste capítulo vamos trabalhar com a estimação dos parâmetros para o modelo
ARIMA, considerando a série temporal observada Z1 , Z2 , ..., Zn . Assumiremos que
o modelo já foi especificado, isto é, nós já especificamos os valores para p,d e q ut-
lizando os métodos do capítulo 5. Com relação a séries não-estacionárias, faremos
a d-ésima diferença da série observada até torna-lá um processo estacionário AR-
MA(p,q). Na prática, nós trabalhamos com a d-ésima diferença da série temporal
original, estimando os parâmetros, a partir, do modelo completo. Para simplificar o
estudo sobre estimação, definimos Z1 , Z2 , ..., Zn como um processo estacionário ob-
servado da série original, depois de diferençada adequadamente. Primeiramente
apresentaremos as estimativas preliminares, em seguida apresentaremos os esti-
madores do método do momentos, de mínimos quadrados e o estimador de máxima
verossimilhança.
47
manoel@fct.unesp.br CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
b0 = c0 .
onde γ
48
manoel@fct.unesp.br CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
b = r2
φ (7.7)
r1
Então podemos substituir (6.7) em (6.6) e obter
³ ´³ ´
b φ
1 − θφ b−θ
r1 = (7.8)
b + θ2
1 − 2φθ
49
manoel@fct.unesp.br CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
b = r1 .
desde que φ1
Para o caso MA(q), nós temos:
S2
b2a =
σ 2 2 (7.12)
1 +b
θ1 + ... + b
θq
Zt − µ = φ (Zt−1 − µ) + at (7.14)
Nós podemos vê-lo como um modelo de regressão com variável preditora Zt−1 e
variável resposta Zt . A estimação de mínimos quadrados consiste em minimizar
a soma de quadrados das diferenças (Zt − µ) − φ (Zt−1 − µ) . Desde que somente
Z1 , Z2 , ..., Zn são observados, nós podemos somente somar de t = 2 até t = n. Seja
n
X
S∗ (φ, µ) = [(Zt − µ) − φ (Zt−1 − µ)]2 (7.15)
t=2
50
manoel@fct.unesp.br CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
r1 = φ1 + r1 φ2 (7.22)
Fazendo o mesmo para ∂S∗ /∂φ2 = 0, vamos ter
r2 = r1 φ1 + φ2 (7.23)
Podemos verificar que trata-se das equações de Yule-Walker amostrais para o modelo
AR(2).
Inteiramente análogo ao resultado obtido, segue-se para o caso do modelo geral
AR(p), as estimativas de mínimos quadrados dos φ0 s, podem ser obtidas resolvendo-
se as equações amostrais de Yule-Walker, e com uma boa aproximação.
51
manoel@fct.unesp.br CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
Zt = at − θat−1 (7.24)
Vamos supor que o modelo MA(1) é invertível, ou seja, |θ| < 1, então podemos
expressá-lo como
Zt = −θZt−1 − θ2 Zt−2 − ... + at (7.25)
que é um modelo AR(∞) . Além disso, podemos obter o estimador de mínimos
quadrados, escolhendo o valor do parâmetro que minimiza
X
S∗ (θ) = a2t (7.26)
at = Zt + θat−1 (7.27)
a1 = Z1 (7.28)
a2 = Z2 + θa1
..
.
an = Zn + θan−1
Pn
e além disso calculamos S∗ (θ) = t=1 a2t , condicional a a0 = 0 para o particular
valor de θ.
Para o caso simples de um parâmetro, podemos variar θ no intervalo (−1, 1), que
garante invertibilidade do modelo, e encontrar a soma de mínimos quadrados. Para
os modelos MA(q), um algoritmo de otimização numérica, como o Gauss-Newton,
é preferível. A aproximação de Gauss-Newton consiste em aproximar at = at (θ)
para uma função linear de θ em torno da estimativa inicial b
θ. Que é
³ ´
³ ´ ³ ´ dat bθ
b
at (θ) ≈ at θ + θ − θ b (7.29)
dθ
Nota-se que dat (θ) /dθ pode ser calculado recursivamente diferenciando ambos os
lados da equação (6.27) para obter
52
manoel@fct.unesp.br CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
Como
Pn no caso MA, consideramos at = at (φ, θ) e desejamos minimizar S∗ (φ, θ) =
2
a
t=1 t . Podemos reescrever a equação (6.32) como
53
manoel@fct.unesp.br CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
Agora considerando
Z2 − µ = φ (Z1 − µ) + a2 (7.37)
Z3 − µ = φ (Z2 − µ) + a3
..
.
Zn − µ = φ (Zn−1 − µ) + an
54
manoel@fct.unesp.br CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
c2 = S (φ, µ)
σ (7.44)
a
n
ou
c2 = S (φ, µ)
σ (7.45)
a
n−2
na primeira expressão o vício é menor.
Considere agora a estimação de φ e µ. Uma comparação entre as duas soma de
quadrados, condicional, S∗ (φ, µ) , e não-condicional, S (φ, µ), vamos ter:
¡ ¢ 2
S (φ, µ) = S∗ (φ, µ) + 1 − φ2 (Z1 − µ) (7.46)
onde
b
at = E (at /Z1 , ..., Zn ) (7.49)
Note que, para t 5 0, o b at será visto como “previsão” backward no tempo dos termos
de at , dado Z1 , ..., Zn . Por esta razão, eles frequentemente tem sido chamados back
forecasts, mas o termo mais apropriado é backcasts.
2
b ≈ 1−φ
AR(1) : V ar(φ) (7.50)
n
b )≈
b ) ≈ V ar(φ 1− φ22
AR(2) : V ar(φ1 2
n
b )≈−
b ,φ φ1
: Corr(φ1 2 = −ρ1
1 − φ2
55
manoel@fct.unesp.br CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
para o MA
1 − θ2
M A(1) : V ar(b
θ) ≈ (7.51)
n
1 − θ22
θ1 ) ≈ V ar(b
M A(2) : V ar(b θ2 ) ≈
n
−θ
: Corr(bθ1 , b
1
θ2 ) ≈
1 − θ2
e para o modelo ARMA
2 µ ¶2
b ≈ 1−φ
ARM A(1, 1) : V ar(φ)
1 − φθ
(7.52)
n φ−θ
2 µ ¶2
b 1−θ 1 − φθ
: V ar(θ) ≈
n φ−θ
£¡ ¢¡ ¢¤0.5
b b 1 − φ2 1 − θ2
: Corr(φ, θ) ≈
1 − φθ
7.7 Exercícios
1) Para uma série de tamanho 100, foi calculado r1 = 0.8, r2 = 0.5, r3 = 0.4, Z = 2,
e uma variância amostral de 5. Se assumimos que o modelo AR(2) com um termo
constante é adequado, como podemos obter as estimativas (simples) de φ1 , φ2 , θ0 , e
σ 2a ?
2) Assumindo que os seguintes dados sejam de um processo estacionário, calcule
as estimativas de µ, γ 0 , e ρ1 :
6, 5, 4, 6, 4
3) Se {Zt } satisfaz um modelo AR(1) com φ ' 0.7, de que modo podemos
estimar o verdadeiro valor de φ = ρ1 com uma confiança 95% que o nosso erro
5 ±0.1?
4) Considere um processo MA(1) para o qual sabemos que a média é zero.
Baseado num série de tamanho 3, nós observamos Z1 = 0, Z2 = −1, e Z3 = 0.5.
a) Mostrar que a estimativa de mínimos quadrados condicional de θ = 0.5.
b) Encontrar uma estimativa da variância do ruído σ 2a .
5) Dado os dados Z0 = 10, Z1 = 10, Z2 = 9, e Z3 = 9.5, desejamos ajustar um
modelo IMA(1,1) com um termo constante.
a) Encontrar a estimativa de mínimos quadrados condicional de θ.
b) Estime σ 2a .
6) Considere duas parametrizações do modelo AR(1):
I. Zt − µ = φ (Zt−1 − µ) + at
II. Zt = φZt−1 + θ0 + at
56
manoel@fct.unesp.br CAPÍTULO 7. ESTIMAÇÃO DOS PARÂMETROS
57
Capítulo 8
Diagnóstico do Modelo
Os resíduos iniciais b
a1 e b
a2 podem ser obtidos do procedimento de estimação uti-
lizando valores passados para Z0 e Z−1 .
Para o modelo geral ARMA, precisamos colocar na forma autoregressiva de
ordem infinita, para definir os resíduos, apresentada no capítulo 4, teremos então a
seguinte equação
∞
X
Zt = π j Zt−j + at (8.3)
j=1
é a melhor previsão de Zt baseada em Zt−1 , Zt−2 , .... Além disso a equação (7.4)
pode ser escrita como
Resíduos = Real − Predito(estimado)
ou seja,
at = Zt − Zbt
b (8.6)
58
manoel@fct.unesp.br CAPÍTULO 8. DIAGNÓSTICO DO MODELO
59
manoel@fct.unesp.br CAPÍTULO 8. DIAGNÓSTICO DO MODELO
8.4 Exercícios
1) Suponha que os resíduos obtidos ajustando-se o modelo ∆Zt = (1 − 0.6X) at a
uma série com N=127 observações, forneceram as seguintes autocorrelações residu-
ais:
k 1 2 3 4 5 6 7 8 9 10
rk (a) -0.4 0.02 -0.07 -0.01 -0.07 -0.02 -0.15 -0.07 0.04 0.02
a) Verifique se há valores discrepantes;
b) Use o teste de Box-Pierce para verificar se o modelo é adequado.
2) Suponha que os resíduos obtidos, ajustando-se o modelo AR(2), φ b = 1.56 e
1
b
φ2 = 0.66, de uma série com N=120 observações, forneceu as seguintes autocorre-
lações residuais:
j 1 2 3 4 5 6 7 8 9 10 11 12
rba (j) 0.18 -0.06 -0.04 -0.11 -0.04 0.13 0.19 -0.14 0.07 0.09 0.11 —0.09
a) Verifique através do teste de Box-Pierce se o modelo é adequado.
b) Há indicações de valores discrepantes?
3) Suponha que os resíduos b at do modelo (1 − X) Zt = (1 + 0.6X) at ajustados
a uma série com N=80 observações, forneceu as seguintes autocorrelações residuais:
k 1 2 3 4 5 6 7 8 9 10
rba (k) 0.39 0.2 0.09 0.04 0.09 -0.13 -0.05 0.06 0.11 -0.02
a) Verifique se o modelo é adequado utilizando a estatística de Box-Pierce.
b) Há indicações de valores discrepantes?
60
Capítulo 9
Zt = µt + Xt (9.2)
onde o componente estocástico, Xt , tem média zero e variância σ 2a .
Para o modelo na equação (8.2) temos
¡ ¢
Zbt (h) = E µt+h + Xt+h /Zt , Zt−1 , ..., Z1
¡ ¢
= E µt+h /Zt , Zt−1 , ..., Z1 + E (Xt+h /Zt , Zt−1 , ..., Z1 )
= µt+h + E (Xt+h )
ou
Zbt (h) = µt+h , h = 1 (9.3)
desde que para h = 1, Xt+h seja independente de Zt , Zt−1 , ..., Z1 .
Para o caso da tendência linear, µt = β 0 + β 1 t, a previsão é
bt (h) = β 0 + β 1 (t + h)
Z (9.4)
61
manoel@fct.unesp.br CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
então
E (et (h)) = E (Xt+h ) = 0 (9.5)
estas previsões são não-viciadas, e
Zt − µ = φ (Zt−1 − µ) + at (9.7)
Considere a previsão de 1 unidade no tempo futuro (horizonte: h = 1). Substituindo
t por t + 1 na equação (8.7), temos
Zbt (1) − µ = φE [(Zt /Zt , Zt−1 , ..., Z1 ) − µ] + E [at+1 /Zt , Zt−1 , ..., Z1 ] (9.9)
Vimos que, uma proporção φ multiplica o desvio (Zt − µ) somado com a média
teremos o próximo valor futuro (horizonte).
Agora para o caso geral para um tempo futuro h. Substituindo t por t + h na
equação (8.7), e tomando as esperanças condicionais de ambos os lados, obtemos
³ ´
bt (h) = µ + φ Z
Z bt (h − 1) − µ , h = 1 (9.13)
62
manoel@fct.unesp.br CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
ou
bt (h) = µ + φh (Zt − µ) , h = 1
Z (9.14)
No caso geral, desde que |φ| < 1, temos simplesmente
ou
et (1) = at+1 (9.16)
Da equação (8.16) veremos que a variância do erro de previsão a 1 passo é dada
por
V ar [et (1)] = σ 2a (9.17)
Para investigar as propriedades do erro de previsão a longo prazo, é conveniente
expressar o modelo AR(1) na forma de um processo linear geral, ou MA(∞)
Temos então
vamos ter
et (h) = at+h + φat+h−1 + ... + φh−1 at+1 (9.19)
que pode ser escrito como
h−1
X
et (h) = ψ j at+h−j (9.20)
j=0
esta equação pode ser utilizada para o caso geral dos modelos ARIMA. Note que
E [et (h)] = 0, assim as previsões são não-viciadas. Portanto da equação (8.20)
temos
h−1
X
V ar [et (h)] = σ 2a ψ 2j (9.21)
j=0
63
manoel@fct.unesp.br CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
1 − φ2h
V ar [et (h)] = σ2a , h>1 (9.22)
1 − φ2
Para o tempo a longo prazo temos
1
V ar [et (h)] ≈ σ 2a , para h grande (9.23)
1 − φ2
ou
V ar [et (h)] ≈ V ar (Zt ) = γ 0 , para h grande (9.24)
A equação (8.24) será válida para todos os processos ARMA estacionários.
e
h−1
X
V ar [et (h)] = σ 2a ψ 2j
j=0
64
manoel@fct.unesp.br CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
Zbt (h) = Z
bt (h − 1) + θ0 , h = 1 (9.32)
Se θ0 6= 0, a previsão não converge a longo prazo, mas segue uma linha reta com
inclinação θ0 para todo h.
Note que a presença ou falta do termo constante θ0 altera significativamente a
previsão. Portanto, os termos constantes não são incluídos nos modelos ARIMA a
menos que, haja evidência que a média na série diferençada seja significativamente
diferente de zero.
que é,
V ar [et (h)] = hσ 2a , h = 1 (9.33)
Em contraste com o caso estacionário, aqui V ar [et (h)] cresce sem limite a medida
que o h aumenta. Nós vimos que esta propriedade é característica da variância do
erro de previsão para todos os processos ARIMA não-estacionários.
65
manoel@fct.unesp.br CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
66
manoel@fct.unesp.br CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
onde
ϕ1 = 1 + φ1 (9.43)
ϕj = φj − φj−1 , j = 2, 3, ..., p
ϕp+1 = −φp
ou
Zt = (1 + φ)Zt−1 − φZt−2 + θ0 + at − θat−1 (9.45)
A previsão será dada por
bt (1) = (1 + φ)Zt − φZt−1 + θ0 − θat
Z (9.46)
bt (2) = (1 + φ)Z
Z bt (1) − φZt + θ0
..
.
b bt (h − 1) − φZ
Zt (h) = (1 + φ)Z bt (h − 2) + θ0 para h > 2
com
E [et (h)] = 0, h = 1 (9.48)
e
h−1
X
V ar [et (h)] = σ 2a ψ 2j , h = 1 (9.49)
j=0
67
manoel@fct.unesp.br CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
e
V ar [et (h)] = V ar (at+h ) = γ 0
¡ ¢
Se at ∼ N 0, σ 2 , então o erro de previsão et (h) = Zt+h − Z bt (h) = at+h é normal-
mente distribuído.
Além disso, para um dado nível de confiança 1 − α, podemos utilizar a tabela da
normal padronizada para encontrar um intervalo de (1 − α/2) 100% de confiança,
ou seja " #
Zt+h − Zbt (h)
P −z (1 − α/2) < p < z (1 − α/2) = 1 − α (9.53)
V ar [et (h)]
ou
h p p i
P Z bt (h) − z (1 − α/2) V ar [et (h)] < Zt+h < Z
bt (h) + z (1 − α/2) V ar [et (h)]
(9.54)
temos que (1 − α/2) 100% de confiança que as observações futuras estarão contida
dentro dos limites p
bt (h) ± z (1 − α/2) V ar [et (h)]
Z (9.55)
68
manoel@fct.unesp.br CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
Depois, tentamos obter Z bt (h) em função de Ybt (h) a partir de (8.57); em partic-
ular, se g admite inversa, temos que
³ ´
Zbt (h) = g −1 Ybt (h) .
Por exemplo, se
Yt = ln Zt (9.58)
então Zt = exp (Yt ), e uma previsão para Zt+h será
³ ´
bt (h) = exp Ybt (h)
Z (9.59)
= µ + φh (Zt − µ)
≈ µ para h grande
1 − φ2h
V ar [et (h)] = σ 2a
1 − φ2
σ 2a
≈ para h grande
1 − φ2
ψj = φj para j > 0
69
manoel@fct.unesp.br CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
A = 2Zbt (1) − Z
bt (2) + θ0 (9.64)
e
bt (1) − 3 θ0
B = Zbt (2) − Z (9.65)
2
Se θ0 6= 0, então a previsão segue uma curva quadrática em h, mas se θ0 = 0, a
previsão forma uma linha reta com inclinação Zbt (2) − Z bt (1) e passará através das
bt (1) e Z
duas previsões iniciais Z bt (2). Podemos mostrar que a V ar [et (h)] é uma
função cúbica de h (Box e Jenkins,1976). Nós temos também
9.10 Exercícios
bt (1) .
1) Para um modelo AR(1) com Zt = 12.2, φ = −0.5, e µ = 10.8, encontrar Z
2) Suponha que as vendas anuais (em milhões de reais) de uma empresa, segue
o modelo AR(2):
70
manoel@fct.unesp.br CAPÍTULO 9. PREVISÃO COM MODELOS ARIMA
a) Se as vendas para 1985, 1984, e 1983 foram R$10 milhões, R$11 milhões, e
R$9 milhões, respectivamente, prever as vendas para 1986 e 1987.
b) Mostrar que ψ 1 = 1.1 para este modelo.
c) Calcule um intervalo de 95% de confiança para os anos de 1986 e 1987.
d) Se as vendas em 1986 são de R$12 milhões, qual será a previsão para 1987.
3) Considere o modelo
Zt = β 0 + β 1 t + Xt com Xt = φXt−1 + at
71
Capítulo 10
Modelos Sazonais
No capítulo 3 vimos um pouco sobre tendência sazonal, neste capítulo vamos estudar
os modelos sazonais determinísticos e estocásticos, procurando dar mais enfase aos
modelos estocásticos, ou seja, os modelos de Box-Jenkins, para séries sazonais,
chamados SARIMA.
É possível que, mesmo após eliminar a componente sazonal determinística, ainda
reste correlação significativa em:
(i) ”lags ” de baixa ordem, indicando que os resíduos ainda são correlacionados,
podendo-se ajustá-los através de um modelo ARIMA;
(ii) ”lags ” sazonais, isto é, múltiplos de período s. Isto significa que há necessi-
dade de se considerar uma sazonalidade estocástica, ou seja, ajustar à série original
um modelo ARIMA sazonal (SARIMA).
Consideraremos, por simplicidade, dados observados mensalmente e sazonali-
dade de período s = 12. Trataremos, separadamente, os dois tipos de sazonalidade.
Zt = µt + Nt (10.1)
onde µt é uma função determinística períodica, satisfazendo µt − µt−12 = 0, ou
¡ ¢
1 − X 12 µt = 0 (10.2)
72
manoel@fct.unesp.br CAPÍTULO 10. MODELOS SAZONAIS
10.2 Identificação
A identificação de modelos da forma (9.7) é feita em 2 passos:
I. Obtemos as estimativas preliminares µ e, α e de µ, αj e β , j = 1, ..., 6, em
ej , β j j
(9.4), através de uma análise de regressão de Zt sobre 1, sen (2πjt) 12 e cos (2πjt)
12 ,
j = 1, ..., 6.
II. Calculamos os resíduos:
X6 ∙ ¸
et = Zt − µ (2πjt) e (2πjt)
N e− e j cos
α + β j sen
j=1
12 12
10.3 Estimação
A estimação de máxima verossimilhança dos parâmetros µ, αj e β j , j = 1, ..., 6, é
obtida por métodos similares aqueles apresentados na estimação dos parâmetros de
um modelo ARMA.
10.4 Previsão
As previsões de valores futuros Zt+h , dados Z1 , ..., Zt , são obtidos observando que:
vamos ter
Zbt (h) = µt+h + N
ct (h) (10.8)
onde µt+h e N ct (h) são calculados utilizando os modelos (9.4) e (9.3), respecti-
vamente. O µ et é obtido através de (9.4), substituindo cada um dos parâmetros
pelos seus estimadores de minímos quadrados de µ, αj e β j e substituindo Nt por
Net = Zt − µ
et .
73
manoel@fct.unesp.br CAPÍTULO 10. MODELOS SAZONAIS
74
manoel@fct.unesp.br CAPÍTULO 10. MODELOS SAZONAIS
10.7.2 Exemplo 2
Modelo Sazonal AR(P)s de ordem P:
Zt = Φ1 Zt−s + ... + ΦP Zt−P s + at (10.18)
com polinômio característico sazonal AR
¡ ¢
Φ (X) = 1 − Φ1 X 12 − ... − ΦP X 12P (10.19)
Estamos supondo que at é independente de Zt−1 , Zt−2 , ... e, para a série ser esta-
cionária as raízes de Φ (X) = 0 são maiores que 1 em valor absoluto. Novamete um
caso especial é quando p = P s, com todos os φ0 s = 0, exceto nos ”lags ” s, 2s, ..., P s.
10.7.3 Exemplo 3
Modelo Sazonal Multiplicativo ARMA(p,q)×(P, Q)s :
¡ ¢ ¡ ¢
φ (X) Φ X 12 Zt = θ (X) Θ X 12 at (10.20)
¡ 12 ¢
com
¡ polinômios
¢ característicos AR ’s φ (X) e Φ X , e polinômios MA’s θ (X) e
Θ X 12 .
10.7.4 Exemplo 4
Modelo ARIMA(0,1,1)×(1, 0, 1)12
Zt − Zt−1 = Φ (Zt−12 − Zt−13 ) + at − θat−1 − Θat−12 + θΘat−13 (10.21)
A função de previsão a um passo é dada por:
Zbt (1) = Zt + ΦZt−11 − ΦZt−12 − θat − Θat−12 + θΘat−12 (10.22)
bt (1) + ΦZt−10 − ΦZt−11 − Θat−10 + θΘat−11
Zbt (2) = Z
Os termos do ruído at−13 , at−12 , ..., at entram na previsão para h = 1, 2, ..., 13, mas
para h > 13 tomamos a parte autoregressiva do modelo, e temos
Zbt (2) = Zbt (h − 1) + ΦZt (h − 12) − ΦZt (h − 13) , para h > 13 (10.23)
Para entender melhor os modelos de previsão, vamos considerar alguns casos
especiais a seguir.
75
manoel@fct.unesp.br CAPÍTULO 10. MODELOS SAZONAIS
10.7.5 Exemplo 5
O modelo sazonal AR(1)12
Zt = ΦZt−12 + at (10.24)
Vamos ter então
bt (h) = ΦZ
Z bt (h − 12) (10.25)
Entretanto podemos escrevê-lo como
bt (h) = Φk+1 Zt+r−11
Z (10.26)
temos então que a variância do erro de previsão pode ser escrita como
1 − Φ2k+2 2
V ar [et (h)] = σ (10.28)
1 − Φ2 a
onde h = 12k + r + 1.
10.7.6 Exemplo 6
Modelo sazonal MA(1)12, temos
Zt = at − Θat−12 + θ0 (10.29)
Aqui obtemos diferentes previsões para os meses do primeiro ano, mas para os anos
seguintes as previsões são dadas pela média do processo.
Para este modelo ψ 0 = 1, ψ 12 = −Θ, e ψ j = 0 caso contrário. Além disso,
teremos a seguinte variância para o erro de previsão
½
¡ σ a , 21¢5 2h 5 12
2
V ar [et (h)] = (10.31)
1 + Θ σa , h > 12
10.7.7 Exemplo 7
Modelo ARIMA(0, 0, 0) × (0, 1, 1) 12, temos
76
manoel@fct.unesp.br CAPÍTULO 10. MODELOS SAZONAIS
10.7.8 Exemplo 8
Modelo ARIMA(0, 1, 1) × (0, 1, 1) 12, temos
e
bt (h) = Z
Z b (h − 1) + Z
bt (h − 12) − Zbt (h − 13) , para h > 13
Para entender o padrão geral dessas previsões, podemos utilizar a representação
X6 ∙ ¸
bt (h) = A1 + A2 h + 2πjh 2πjh
Z B1j cos + B2j sin , h>0 (10.37)
j=0
12 12
10.8 Exercícios
1) Baseado em dados trimestrais, um modelo sazonal da forma
77
manoel@fct.unesp.br CAPÍTULO 10. MODELOS SAZONAIS
I II III IV
Série 25 20 25 40
Resíduo 2 1 2 3
Encontre a previsão para os próximos 4 trimestres.
c) Encontre um intervalo de 95% de confiança para as previsões em b.
2) Para o modelo sazonal Zt = ΦZt−4 + at − θat−1 , com |Φ| < 1, encontrar γ 0
e ρk para k > 0.
3) Identifique os seguintes modelos sazonais multiplicativos ARIMA:
a) Zt = 0.5Zt−1 + Zt−4 − 0.5Zt−5 + at − 0.3at−1 .
b) Zt = Zt−1 + Zt−12 − Zt−13 + at − 0.5at−1 − 0.5at−12 + 0.25at−13 .
4) Suponha que o processo {Zt } se desenvolve de acordo com
78
Apêndice A
Esperança Condicional
f (x, y)
f (x|y) = .
f (x)
e Z ∞
E [h (Y ) |X = x] = h (y) f (y|x) dy.
−∞
E [h (X) |X = x] = h (X)
a variável aleatória h (X) pode ser tratada como uma constante. Contudo geral-
mente,
E [h (X, Y ) |X = x] = E [h (x, Y ) |X = x] .
Se fizer E [h (X) |X = x] = g (x) , então g (X) = Y é uma v.a., e
E [g (X)] = E (Y ) .
79
Apêndice B
Suponha Y uma v.a. com média µy e variãncia σ2y . Se o objetivo é fazer a predição
de Y utilizando somente uma constante c, qual é a melhor escolha para c? Um bom
critério é escolher um valor de c que minimiza o erro quadrático médio (EQM) de
predição, ou seja,
2
min g (c) = E (Y − c) .
Expandindo g (c) , temos
¡ ¢
g (c) = E Y 2 − 2cE (Y ) + c2
g 0 (c) = −2E (Y ) + 2c = 0
encontrando
c = E (Y ) = µy (B.1)
nota-se que
¡ ¢2
min g (c) = E Y − µy = σ 2y . (B.2)
Agora considere a situação em que uma segunda v.a. X é utilizada, e deseja-se
utilizar o valor observado de X para predizer Y.Seja ρ = Corr(X, Y ).
Supondo que, somente funções lineares a+bX podem ser utilizadas para prediçã.
O EQM é então dado por
g (a, b) = E (Y − a − bX)2
∂g (a, b) ∂g (a, b)
=0e = 0.
∂a ∂b
tem-se
∂g (a, b)
= 2a − 2E (Y ) + 2bE (X) = 0
∂a
80
manoel@fct.unesp.br
APÊNDICE B. PREDIÇÃO DE ERRO QUADRÁTICO MÉDIO MÍNIMO
e
∂g (a, b) ¡ ¢
= 2bE X 2 + 2aE (X) − 2E (XY ) = 0
∂b
as quais podemos escrever como
a + E (X) b = E (Y ) (B.3)
¡ ¢
E (X) a + E X 2 b = E (XY ) (B.4)
obtendo
E (XY ) − E (X) E (Y ) Cov(X, Y )
b= =
E (X 2 ) − E 2 (X) V ar (X)
ou s
V ar (Y ) σy
b = Corr (X, Y ) =ρ
V ar (X) σx
então substituindo em (B.3) o valor de b obtém-se:
σy
a = E (Y ) − ρ E (X)
σx
σy
a = µy − ρ µ
σx x
Prova
³ ´ ∙ ¸2
σy σy
a, bb
min g b = E Y − ρ µx + ρ X
σx σx
à !2
b − µy
Y X − µ x
= σ 2y E −ρ
σy σx
£ ¤
= σ 2y V ar (Y 0 ) + ρ2 V ar (X 0 ) − 2ρCov (Y 0 , X 0 )
¡ ¢ ¡ ¢
= σ 2y 1 + ρ2 − 2ρρ = σ 2y 1 − ρ2 .
Considere agora o caso mais geral do problema de predição de Y com uma função
arbitrária de X. Desde que o critério escolhido seja minimizar o EQM de predição,
precisa-se escolher uma função h (X) que minimize
2
E [Y − h (X)] (B.6)
81
manoel@fct.unesp.br
APÊNDICE B. PREDIÇÃO DE ERRO QUADRÁTICO MÉDIO MÍNIMO
para X = x obtém-se
³ ´ ³ ´
E [Y − h (X)]2 |X = x = E [Y − h (x)]2 |X = x (B.8)
82
Referências Bibliográficas
[1] BOX, G.E.P. & JENKINS, G.W. Time Series Analysis, Forecasting and Control.
Holden-Day, 1976.
[2] BOX, G.E.P. & JENKINS, G.W. and REINSEL, G.C. Time Series Analysis:
Forecasting and Control. Third Edition. Prentice-Hall, Englewood Cliffs, N.J.,
1994
[3] MORETTIN, P.A. & TOLOI, C.M. Previsão de Séries Temporais. São Paulo,
Atual, 1985.
[4] MORETTIN, P.A. & TOLOI, C.M. Análise de Séries Temporais. Editora
Edgard Blücher, São Paulo, 2004.
[5] CRYER, J.D. Time Series Analysis. PWA- Dent Publishing Company-Boston,
1986.
[6] CHATFIELD, C. The Analysis of Time Series: An Introduction. Chapman-Hall,
1984.
[7] MONTGOMERY, D.C. & JONHSON, L.A. Forecasting and Time Series Analy-
sis New York, Mcgraw-Hill, 1976.
83