Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Dinmicos Estocsticos
Publicaes Matemticas
Paulo Ruffino
UNICAMP
impa
Copyright 2010 by Paulo Ruffino
Direitos reservados, 2010 pela Associao Instituto
Nacional de Matemtica Pura e Aplicada - IMPA
Estrada Dona Castorina, 110
22460-320 Rio de Janeiro, RJ
Impresso no Brasil / Printed in Brazil
Capa: Noni Geiger / Srgio R. Vaz
Publicaes Matemticas
Introduo Anlise Funcional Csar R. de Oliveira
Introduo Topologia Diferencial Elon Lages Lima
Criptografia, Nmeros Primos e Algoritmos Manoel Lemos
Introduo Economia Dinmica e Mercados Incompletos Alosio Arajo
Conjuntos de Cantor, Dinmica e Aritmtica Carlos Gustavo Moreira
Geometria Hiperblica Joo Lucas Marques Barbosa
Introduo Economia Matemtica Alosio Arajo
Superfcies Mnimas Manfredo Perdigo do Carmo
The Index Formula for Dirac Operators: an Introduction Levi Lopes de Lima
Introduction to Symplectic and Hamiltonian Geometry Ana Cannas da Silva
Primos de Mersenne (e outros primos muito grandes) Carlos Gustavo T. A. Moreira e
Nicolau Saldanha
The Contact Process on Graphs Mrcia Salzano
Canonical Metrics on Compact almost Complex Manifolds Santiago R. Simanca
Introduction to Toric Varieties Jean-Paul Brasselet
Birational Geometry of Foliations Marco Brunella
Introduo Teoria das Probabilidades Pedro J. Fernandez
Teoria dos Corpos Otto Endler
Introduo Dinmica de Aplicaes do Tipo Twist Clodoaldo G. Ragazzo, Mrio J.
Dias Carneiro e Salvador Addas Zanata
Elementos de Estatstica Computacional usando Plataformas de Software Livre/Gratuito
Alejandro C. Frery e Francisco Cribari-Neto
Uma Introduo a Solues de Viscosidade para Equaes de Hamilton-Jacobi Helena
J. Nussenzveig Lopes, Milton C. Lopes Filho
Elements of Analytic Hypoellipticity Nicholas Hanges
Mtodos Clssicos em Teoria do Potencial Augusto Ponce
Variedades Diferenciveis Elon Lages Lima
O Mtodo do Referencial Mvel Manfredo do Carmo
A Student's Guide to Symplectic Spaces, Grassmannians and Maslov Index Paolo
Piccione e Daniel Victor Tausk
Mtodos Topolgicos en el Anlisis no Lineal Pablo Amster
Tpicos em Combinatria Contempornea Carlos Gustavo Moreira e Yoshiharu
Kohayakawa
Uma Iniciao aos Sistemas Dinmicos Estocsticos Paulo Ruffino
Distribuio:
IMPA - E-mail: ddic@impa.br - http://www.impa.br
ISBN: 978-85-244-0304-0
i i
Conte
udo
Apresenta
cao 1
1 Teoria de probabilidade 3
1.1 Espacos de medida e de probabilidade . . . . . . . . . 4
1.2 Vari
aveis aleatorias . . . . . . . . . . . . . . . . . . . . 6
1.3 Esperanca de uma variavel aleatoria . . . . . . . . . . 9
1.4 Os espacos Lp . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Esperanca condicional . . . . . . . . . . . . . . . . . . 18
1.6 Independencia . . . . . . . . . . . . . . . . . . . . . . . 24
1.7 Convergencias de variaveis aleatorias . . . . . . . . . . 29
1.8 Vari
aveis aleatorias gaussianas . . . . . . . . . . . . . 30
3 Calculo estoc
astico 66
3.1 Integral Estocastica de Ito . . . . . . . . . . . . . . . . 66
3.1.1 Aplicacao a processos parados . . . . . . . . . . 67
3.1.2 Processos contnuous . . . . . . . . . . . . . . . 69
i i
i i
i i
2
CONTEUDO
5 Apendices 115
5.1 Independencia e convolucao de medidas . . . . . . . . 115
5.2 Criterio de Kolmogorov . . . . . . . . . . . . . . . . . 116
5.3 Gaussianas . . . . . . . . . . . . . . . . . . . . . . . . 120
5.4 Mais sobre o Movimento Browniano . . . . . . . . . . 121
5.4.1 Processo de Ornstein-Uhlenbeck . . . . . . . . 122
5.4.2 Outras construcoes do MB . . . . . . . . . . . 123
5.5 Teorema erg odico para processos de Markov . . . . . . 125
Bibliografia 127
Indice Remissivo 133
i i
i i
i i
Apresenta
c
ao
Sistemas din amicos estocasticos vem ganhando cada vez mais inte-
resse nas ultimas decadas pela diversidade de problemas cuja mode-
lagem inclui algum aspecto probabilstico. Existem varias maneiras
da aleatoriedade entrar em um sistema dinamico contnuo ou dis-
creto: por pulsos, por saltos limitados, rudo aditivo, multiplicativo,
entre outras. Nossa abordagem da teoria de dinamica estocastica
e no sentido do rudo entrar no sistema como um semimartingale,
o que inclui rudos gaussianos em sistemas contnuos como movi-
mento browniano por exemplo. Basicamente esta e a chamada teoria
dinamica das equacoes diferenciais estocasticas (EDE). Essa abor-
dagem em particular tem sido extremamente frutfera nas u ltimas
decadas, desde os trabalhos de Ito. Uma EDE permite, via aplicacoes
diferenciaveis, transportar processos estocasticos de um espaco para
outro, geometrizar portanto trajetorias nao diferenciaveis. Alem disso
as propriedades probabilsticas dos martingales fornece uma ferra-
menta poderosa para abordar estabilidade, analise variacional, pro-
priedades din amicas, geometria, financas, EDPs entre outros.
Nossa intencao neste texto e fazer uma apresentacao em tom
expositorio para alunos no final da graduacao ou comeco de pos-
graduacao na area de exatas. Tentamos fazer um estilo bastante
livre, em algumas passagens ate bastante informal. A leitura esta
dimensionada para ser mais leve do que os textos existentes atual-
mente. Isso para que o leitor entenda rapidamente as motivacoes, as
tecnicas e seja logo direcionado para os problemas e aplicacoes.
Foi feito um esforco para que os primeiros captulos fossem sufi-
cientemente auto-contidos para uma primeira leitura. A expectativa
e que o material seja u til para iniciantes terem um primeiro contato
i i
i i
i i
2
CONTEUDO
Paulo Ruffino
Campinas, maio de 2010.
i i
i i
i i
Captulo 1
No
coes de teoria da
medida e probabilidade
i i
i i
i i
1.1 Espa
cos de medida e de probabilidade
Comecamos pelo conceito fundamental da teoria que e a de um espaco
de probabilidade. O conjunto abstrato base sobre o qual constru-
iremos essa estrutura sera denotado por . Vamos considerar neste
conjunto classes de subconjuntos, denominadas algebras e -algebras;
logo mais se ver
a que esses conceitos correspondem a dizer que existe
uma limitacao nos eventos possveis de ocorrerem em uma mode-
lagem, ou ainda em outras palavras, uma limitacao na possibilidade
de medirmos ou atribuirmos a esses eventos uma probabilidade.
Defini
cao 1.1. Seja um conjunto, uma classe F de subconjuntos
de chama-se uma a lgebra se:
1. O conjunto todo e o vazio pertencem a F;
2. Um subconjunto A F se e somente se seu complementar Ac
a em F;
tambem est
3. para toda sequencia (Ai )1in F, para algum n N temos
ao ni=1 Ai F.
que a uni
A classe F ser
a chamada de uma - algebra se a propriedade do item
(3) acima valer para toda sequencia infinita enumeravel de elementos
em F.
1.1. Verifique que se F e G s
Exerccio T ao -
algebras de um conjunto
ao F G e tambem uma -
ent algebra.
Pelo exerccio acima, dada uma famlia qualquer A de subconjun-
tos de , e possvel falarmos da menor -algebra que contem essa
famlia. A menor - algebra, aqui, significa a interseccao de todas
que contem a famlia A, ou ainda em outras palavras, e o elemento
minimal da ordem parcial nas -algebras dada pela relacao de con-
tinencia. Note que as - algebras que contem qualquer famlia de
conjuntos e n a que o conjunto das partes P() e uma -
ao vazia, j
algebra que contem toda famlia de subconjuntos. Denotaremos por
(A) essa - algebra gerada pela famlia de subconjuntos A. Um ex-
emplo tpico na teoria e quando tomamos a famlia A como sendo os
conjuntos abertos da reta (ou de qualquer outro espaco topologico):
a menor - algebra onde os conjuntos abertos (e portanto os fechados
tambem) s ao mensur aveis e denominada a - algebra dos borelianos .
i i
i i
i i
1.1. ESPAC
OS DE MEDIDA E DE PROBABILIDADE 5
A uni
ao de -algebras pode nao ser umaS-algebra. Denotamos
por F G a menor -algebra que contem F G.
O par ordenado (, F) chama-se um espaco mensur avel , e dize-
mos que um subconjunto A e mensuravel (ou F-mensuravel,
quando for preciso enfatizar a -algebra), se A F. Os conjuntos de
F s
ao tambem chamados de eventos.
Defini
c avel (, F)
ao 1.2. Uma medida sobre um espaco mensur
ao : F R0 tal que:
e uma func
1. () = 0;
i i
i i
i i
1.2 Vari
aveis aleat
orias
Dados dois espacos mensur aveis (X, F) e (Y, G), dizemos que uma
ao f : (X, F) (Y, G) e mensur
func avel se ela preservar a estrutura
de mensurabilidade no sentido de imagens inversas de subconjuntos
mensur aveis em Y s ao subconjuntos mensuraveis em X. Apesar do
escopo de func oes mensur aveis ser muito mais amplo, a ttulo de
primeira ilustrac
ao, note que, dados espacos topologicos X e Y , toda
ao contnua f : X Y e mensuravel nas -algebras dos bore-
func
lianos correspondentes.
Em teoria de probabilidade, funcoes mensuraveis recebem o nome
especial de variaveis aleat
orias, em outras palavras: dado um espaco
de probabilidade (, F, P), uma funcao X : Y e uma variavel
oria (v.a.) a valores no espaco mensuravel (Y, G) se X 1 (A) F,
aleat
para todo A G. Neste texto o espaco Y sera, na maioria das vezes,
a reta real ou um espaco euclideano Rd . Mais adiante no estudo,
iremos tomar vari aveis aleatorias numa variedade diferenciavel, no
espaco de matrizes ou num grupo de Lie, enfim em qualquer espaco
topologico; em todos esses casos a -algebra sera a dos borelianos.
Dada uma vari avel aleat
oria X em , denotaremos por (X) a -
algebra em gerada por X, i.e., a menor -algebra que faz com que
X seja mensur avel. Naturalmente (X) F, mas frequentemente
i i
i i
i i
1.2. VARIAVEIS
ALEATORIAS 7
n
ao vale a igualdade. Por exemplo, uma variavel aleatoria constante
X c gera a - algebra trivial (X) = {, }. Note tambem que
uma func
ao mensuravel sobre uma -algebra com um n umero finito
de subconjuntos de , tem que ser constante nestes conjuntos.
i i
i i
i i
i i
i i
i i
1.3. ESPERANC
A DE UMA VARIAVEL
ALEATORIA 9
A distribuic
ao de Poisson em N, indexada pelo parametro e
dada por
n e
P (n) = .
n!
A distribuic
ao de poisson tem media e variancia iguais a .
A distribuic
ao binomial, tambem discreta, corresponde `a proba-
bilidade de, em n tentativas, onde cada tentativa tem probabilidade
de sucesso p, obtermos sucesso exatamente k vezes. Sua distribuicao
e dada por
n
Pn,p (k) = pk (1 p)nk .
k
Sua media e np e sua variancia np(1p). Atirar moedas por exemplo,
onde temos p = 1/2. A probabilidade de depois de se atirar n vezes
a obtermos exatamente k caras e (n k) coroas e dado por
moeda,
n
2n .
k
Uma das distribuicoes mais importantes para nos e a distribuic
ao
normal, ou gaussiana, com media m e variancia 2 e dada na reta
por
1 (x m)2
P (x) = exp{ }.
2 2 2
Voltaremos a falar da distribuicao gaussina na Secao 1.8.
i i
i i
i i
Ficaremos neste texto somente com essa nocao de integral como sendo
a soma do produto do valor da funcao pelo tamanhodo conjunto
onde a funcao assume esse valor. Deixamos para o leitor verificar os
detalhes dessa construc ao em outro texto. Essencialmente, o proce-
dimento continua por linearidade (para funcoes limitadas), e limites,
quando existir, para f n ao limitada. A classe de funcoes Lebesgue
integr
aveis inclui e e muito maior do que a classe das funcoes Riemann
integr
aveis.
Note que se f for uma funcao simples, sua representacao como
i i
i i
i i
1.3. ESPERANC
A DE UMA VARIAVEL
ALEATORIA 11
onde nos limites, fica entendido que e permitido termos valores in-
finitos.
i i
i i
i i
Exerccio 1.6. Se
Z +
F (t) = x2 etx dx,
0
ent
ao existe a derivada de F e e dada por
Z +
F 0 (t) = x3 etx dx
0
i i
i i
i i
1.3. ESPERANC
A DE UMA VARIAVEL
ALEATORIA 13
Demonstra c
ao:P
Mostramos para o caso de f ser uma funcao sim-
n
ples, com f (y) = i=1 i 1Bi (y), onde B1 , . . . Bn sao F2 -mensuraveis.
O lado esquerdo e igual a
n
X
i X m(Bi ))
i=1
Pn
ao e igual ao somatorio i=1 i m(X 1 (Bi )), que e o
que por definic
lado direito. No caso geral tomamos aproximacoes de uma funcao
por func
oes simples.
Exemplo 1.6 (Formula de mudanca de variavel).
Dados U e V abertos de Rn , um difeomorfismo g : U V e uma
ao real f : V R entao a formula de mudanca de variavel no
func
c
alculo em varias variaveis e dada por:
Z Z
1
f (y)| det(dy g )| dy = f g(x) dx,
V U
i i
i i
i i
i i
i i
i i
1.3. ESPERANC
A DE UMA VARIAVEL
ALEATORIA 15
integr
avel h. Abusando da terminologia de medida, isto significa que
h(x) dx = dX P(x), no sentido de que se integrarmos em relacao `a
uma medida e o mesmo que se integrar em relacao `a outra. Aplicando
na f
ormula acima ficamos com :
Z
E[X] = xh(x) dx.
R
Essa ideia de densidade de uma medida em relacao a outra e o
conteudo do teorema de Radon-Nikodym 1.9 nas proximas secoes.
Lembramos que dado um espaco vetorial real normado V , seu dual
(topologico) V e o espaco vetorial de aplicacoes lineares contnuas
em R, os elementos do dual sao chamados de funcionais lineares
contnuous. A norma de um funcional linear contnuo e dada por
i i
i i
i i
A representac
ao acima e dada da seguinte maneira: dado F :
Cc (X) R, ent ao existe uma (unica) medida de Radon F tal que,
ao contnua h : X R temos que
para toda func
Z
F (h) = h(x) F (dx).
X
1.4 cos Lp
Os espa
Os espacos vetoriais Lp (, F, ; R) sao espacos de funcoes reais F-
mensur aveis (ou, como vimos, na linguagem de probabilidade, variaveis
aleat
orias) onde p determina uma especie de grau de integrabilidade
da func
ao em relacao `
a medida . Assim, definimos, para um espaco
de medida (, F, ) e 1 p < ,
Z
Lp (; R) = f : R mensuravel e |f |p d < .
Para p = , tomamos
i i
i i
i i
OS LP
1.4. OS ESPAC 17
R 1/p
2. O operador em Lp dada por f kf kp = |f |p d <
e uma norma (pela desigualdade de Minkowsky) . O mesmo
vale para L .
Observa
cao 1.7 (Lp como quociente de relacao de equivalencia).
i i
i i
i i
as func
oes f que sao p-integraveis do espaco quociente onde de fato
existe a norma Lp = Lp / . Por exemplo, se = [0, 1] com a medida
de Lebesgue, ent ao f 1 e a funcao de Dirichlet dada por g(x) = 1
se x for irracional e g(x) = 0 se x for racional, sao tais que f = g em
Lp (, ), para todo 1 p .
Teorema 1.8 (Desigualdade de Tchebyshev). Dada uma vari avel
aleat
oria X ent
ao, para todo n
umero real positivo a > 0 e para todo
1 p temos que
Demonstra
cao: Para todo a > 0 temos, pela definicao de integral
que
aP{|X| > a} E|X|.
A desigualdade do enunciado agora segue para 1 p con-
siderando a v.a. |X|p , o n
umero real ap e a observacao de que
p p
P{|X| > a } = P{|X| > a}.
ao g : R R0 n
Exerccio 1.8. Verifique que para toda func ao-
decrescente, e todo a > 0,
1.5 Esperan
ca condicional
Dado um espaco mensur avel (, F) e duas medidas 1 e 2 em F,
dizemos que 1 e absolutamente contnua com relacao `a 2 se sempre
que para um dado conjunto mensuravel A F acontecer de 2 (A) =
0 entao 1 (A) = 0 tambem. Denotamos por 1 2 . O teorema
cl
assico abaixo formaliza as ideias que colocamos no Exemplo 1.7:
i i
i i
i i
1.5. ESPERANC
A CONDICIONAL 19
Demonstra c
ao: Demonstraremos aqui somente para o caso dis-
creto. Para = {1, 2, . . . , n} finito com F discreta, defina
1 {j}
h(j) =
2 {j}
Note que C e n
ao vazio (por que?). Considere a ordem parcial in-
duzida da reta nos elementos de C. Pelo teorema da convergencia
i i
i i
i i
i i
i i
i i
1.5. ESPERANC
A CONDICIONAL 21
i i
i i
i i
se e somente se Z
(E[X|G] g) dP|G = 0
G
Integrando sobre os conjuntos G1 onde o integrando e positivo e sobre
G2 onde o integrando e negativo, a expressao acima vale se e somente
se (E[X|G] g) = 0 em P|G quase todo ponto.
A probabilidade condicional vem diretamente da esperanca condi-
cional colocando, para todo A F, P{A|G} = E[1A |G]. As pro-
priedades seguintes s
ao consequencias praticamente diretas da definicao,
suas demonstracoes s
ao bons exerccios para iniciantes:
Teorema 1.11. Dadas duas vari orias X, Y L1 ():
aveis aleat
i i
i i
i i
1.5. ESPERANC
A CONDICIONAL 23
i i
i i
i i
1.6 Independ
encia
Dados dois espacos de probabilidade (1 , F1 , P1 ) e (2 , F2 , P2 ), de-
finimos um novo espaco de probabilidade chamado de espaco produto
onde o conjunto base e 1 2 , a -algebra produto, denotada por
F1 F2 , e aquela gerada pela algebra dos retangulos A B onde
A F1 e B F2 . A probabilidade produto P1 P2 e a extensao da
medida na algebra dos ret angulos para a -algebra F1 F2 , onde a
medida sobre os ret angulos e dada pelo produto P1 P2 (A B) =
P1 (A) P2 (B).
Dada uma quantidade infinita (enumeravel ou nao) de espacos de
probabilidade ( ) , com as respectivas -algebras(F ) e me-
didas de probabilidade (P ) , podemos tambem definir o espaco
produto (infinito) da seguinte maneira: lembramos que um elemento
desse espaco produto = e uma funcao :
tal que a coordenada
N est a em , i.e. () . Tomamos a -
algebra F = F como aquela gerada pela algebra das restricoes
em um n umero finito de coordenadas, os chamados cilindros de di-
mens ao finita definidos da seguinte maneira: dados uma sequencia
finita de parametros 1 , . . . , n , uma sequencia de subconjuntos men-
suraveis nos respectivos espacos A1 F1 , . . . , An Fn entao o
subconjunto
CA11,...
,...,An
n
= { : (i ) Ai , para todo 1 i n}
i i
i i
i i
1.6. INDEPENDENCIA 25
i i
i i
i i
i i
i i
i i
1.6. INDEPENDENCIA 27
Analogamente,
i i
i i
i i
\
[
lim inf An = An .
n
k=1 n=k
1) Dada
Puma sequencia de conjuntos mensur aveis (An )n1 , se
n=1 P(A n ) < ent
a o P(lim sup A n =0
)
i i
i i
i i
1.7. CONVERGENCIAS
DE VARIAVEIS
ALEATORIAS 29
1.7 Converg
encias de vari
aveis aleat
orias
Segue abaixo um resumo das principais topologias (formas de con-
vergencia) no espaco de variaveis aleatorias que usaremos:
Escreveremos X = P- lim Xn
i i
i i
i i
1.8 Vari
aveis aleat
orias gaussianas
Conforme vimos, frequentemente, sobretudo em modelagem estats-
tica, a informac
ao que temos de uma variavel aleatoria X e a sua
i i
i i
i i
1.8. VARIAVEIS
ALEATORIAS GAUSSIANAS 31
i i
i i
i i
i i
i i
i i
1.8. VARIAVEIS
ALEATORIAS GAUSSIANAS 33
1
X (u) = lim exp{i < u, mn > < Cn , u >}
n 2
1
= exp{i < u, lim mn > < lim Cn , u >}.
n 2 n
Portanto, nao s
o X e gaussiana como tem media e matriz de co-
vari
ancia dadas pelos limites desses parametros.
i i
i i
i i
Xd d
X
Y2 = E( j Xj j mj )2
j=1 j=1
2
Xd
= E j (Xj mj )
j=1
d
X
= i j cij ,
i,j=1
isto e
1
Y (u) = exp{iu < , m > u2 < C, >} = X (u)
2
portanto X e gaussiana.
Como consequencia imediata deste u ltimo resultado temos que
dadas duas vari aveis aleat
orias gaussianas X e Y independentes, con-
siderando a matriz de covari ancia em R2 de (X, Y ), conclumos que
X + Y e gaussiana com media mX + mY e variancia varX + varY .
O proximo teorema mostra que vale a recproca do teorema de
integrac
ao de func
oes independentes desde que essas funcoes tenham
distribuic
oes gaussianas:
Demonstra c
ao: Se X e Y forem v.a. independentes, a teoria de
integrac
ao garante que a integral do produto e o produto das integrais
(ver, por exemplo Halmos [21, 45, Thm A]).
Para estabelecer a recproca vamos provar que
P1 := P{ : X() G1 e Y () G2 }
i i
i i
i i
1.8. VARIAVEIS
ALEATORIAS GAUSSIANAS 35
x2 y2
Z
1
= exp 2 exp 2 dx dy
2X Y G1 G2 2X 2Y
x2 y2
Z Z
1 1
= exp 2 dx exp 2 dy
2X G1 2X 2Y G2 2Y
= P{X G1 } P{Y G2 }
Teorema 1.19. Se Xn e uma sequencia de v.a. gaussianas em Rd e
s
ao tais que Xn converge em probabilidade para uma v.a. X, ent
ao
X tambem e gaussiana.
Demonstra c
ao: A metrica do angulo no crculo e menor que a
metrica euclideana em R2 . Assim, temos que para todo x, y, u Rd
Portanto, pela hipotese, temos que ei<u,Xn > tambem converge para
ei<u,X> em probabilidade. Como nestas v.a. as normas sao limitadas
(constantes iguais a um), pelo teorema da convergencia dominada
temos que ei<u,Xn > converge para ei<u,X> em L1 , isto e
i i
i i
i i
i i
i i
i i
Captulo 2
Processos estoc
asticos
Observa
cao 2.1 (Sobre a generalidade do indexador T ).
37
i i
i i
i i
chamados campos aleat orios na abordagem que faz Kunita [32] para
uma demonstracao do criterio de Kolmogorov no espaco euclideano
onde T e um aberto de Rd .
bijec
ao dada pela avaliac ao f M t 7 (f (t1 ), . . . , f (tn )) (M n , E n )
seja mensur avel (em outras palavras, E t e E n sao isomorfas). Os
1
conjuntos t (A) M T , com A E t sao chamados de cilindros de
dimens ao finita em M T . Verifique que, analogamente ao que fizemos
na secao de espacos produtos, intersecoes e complementos desses cilin-
dros s ao unioes finitas de cilindros, portanto eles formam uma algebra
de subconjuntos de M T . Denotaremos por E T a -algebra gerada
pelos cilindros de dimens ao finita. As probabilidades induzidas nas
restricoes finitas M t , i.e. as medidas (t ) (X P) sao chamadas de
distribuicao de dimens ao finita do processo X.
Note que, se tivermos dois subconjuntos finitos do tempo t t0 e
0 0
se t0 ,t : M t M t for a projecao ou restricao de M t em M t entao,
por composic ao, as medidas nos cilindros de dimensao finita satis-
fazem (t0 ,t ) (t0 ) (X P) = (t0 ) (X P). Essa compatibilidade das
probabilidades nos cilindros de dimensao finita e condicao necessaria
para, futuramente, fazermos o procedimento inverso, isto e, dadas
probabilidades nos cilindros de dimensao finita, construirmos um pro-
cesso. Ver condic ao de Chapman-Kolmorogov 2.1 mais a frente.
i i
i i
i i
2.1. PROCESSO CANONICO E CONTINUIDADE 39
i i
i i
i i
2.2 Filtra
c
ao e tempos de parada.
algebras (Ft )t0 F e chamada de filtrac
Uma famlia de sub-- ao
avel (, F) se for crescente no sentido de Fs Ft
no espaco mensur
i i
i i
i i
ao Ft for contnua `
Exerccio 2.3. Verifique que se a filtrac a direita,
ent ao acima e equivalente a dizermos que {T < t} e Ft -
ao a definic
mensuravel.
ao TG e um Ft tempo de parada.
i) Se G for fechado ent
i i
i i
i i
Demonstra
cao: Para (i), basta verificar que
\ [
= { : d(Xs (), G) < 1/n} Ft
n=1 st,sQ
Para (ii): [
{TG < t} = {Xs G} Ft .
st,sQ
i i
i i
i i
Pn
Naturalmente j Pi,j = 1 para todo i [1, n]. Outra observacao
importante aqui e que essas probabilidades de transicao nao se al-
teram com o tempo, neste caso dizemos que o processo (ou cadeia)
de Markov e homogeneo no tempo .
Tecnicamente, um processo discreto (Xn )nN e de Markov se a
probabilidade condicional satisfizer
n = 0 P n .
i i
i i
i i
i i
i i
i i
i i
i i
i i
onde
R o operador Pt f : C(M ) C(M ) e definido por (Pt f )(x) =
Pt (x, dy)f (y).
Uma medida e invariante se for invariante pela convolucao
com Pt (x, ) para todo t > 0, i.e. se
Z
(A) = Pt (x, A) (dx)
M
Da mesma maneira,
Z n
X
f (j) Pk (i, dj) = f (j)p(k)i,j
E j=1
i i
i i
i i
Exemplo 2.3 (Sequencias i.i.d.).
Dada uma sequencia de variaveis aleatorias i.i.d. X1 , X2 , . . ., ana-
lisar essas v.a. como um processo estocastico indexados em n Xn e
um processo de Markov onde as probabilidade de transicao sao inde-
pendentes do valor do processo no instante imediatamente anterior,
i.e.
P{Xn+1 A|(Xn )} = P{X1 A}
para todo n.
Exemplo 2.4 (Sistemas determinsticos sao processos de Markov).
Seja f : M M uma dinamica determinstica no espaco metrico
M . Ent ao a sequencia dada pela orbita de um ponto x0 pela aplicacao
f e um processo de Markov a tempo discreto, sobre o espaco de pro-
babilidade de um u nico ponto = {}, que fica omitido na notacao.
As probabilidades de transicao sao dadas por medidas de Dirac
P1 (x, ) = f (x) ()
Se t e um fluxo associado a um campo de vetores, entao a
dinamica e tambem um processo de Markov a tempo contnuo, sobre
o espaco de um espaco de probabilidade de um u nico ponto = {}.
As probabilidades de transicao sao dadas por Pt (x, ) = t (x) ().
O problema que focaremos agora e o inverso dos exemplos que
vimos: ao inves de ser dado um processo estocastico, nos e dada uma
famlia de probabilidades de transicao. Precisamos garantir a exis-
tencia de um processo estocastico satisfazendo essas probabilidades
de transicao.
i i
i i
i i
CtA1 1,...,t
,...,An
n
= { M R+ : (t1 ) A1 , . . . , (tn ) An , com
0 t1 t2 . . . tn , e
A1 , . . . An B(R)}.
Z Z Z
P(CtA1 1,...,t
,...,An
n
) = ... Ptn1 ,tn (xn1 , An )
M A1 An1
P(CtA1 1,...,t
,...,Ai =M,...,An
) = P(CtA1,...,
,...,Ai ,...,An
).
c
i ,...,tn 1 tb ,...t
i n
i i
i i
i i
1. tem trajet
orias contnuas e inicializadas na origem: B0 () = 0
q.s.
i i
i i
i i
i i
i i
i i
E[|Xt+h Xt | ] Kh1+ ,
F e a -
algebra gerada pelos cilindros de dimensao finita e W e a
medida induzida que garante que esse e o espaco do processo canonico.
A medida W e chamada de medida de Wiener. Esse espaco e um dos
primeiros exemplos classicos de uma medida gaussiana em um espaco
de Banach.
Processo de Wiener e movimento browniano sao sinonimos e con-
forme a conveniencia da notacao denotaremos esse processo por Bt
ou por Wt .
Observa
cao 2.9 (Medidade rudo branco).
i i
i i
i i
i i
i i
i i
2.5. MARTINGALES 53
Observa
cao 2.10 (Para uma segunda leitura).
A propriedade assintotica acima e valida para uma classe grande
de processos que tratamos aqui. Por exemplo se um martingale Mt
(ver definic
ao e propriedades na proxima secao) satisfaz
Z
d[M, M ]t
2 <
0 (1 + t)
2.5 Martingales
A teoria de martingales se estende enormemente, com varias inter-
secc
oes interessantes com problemas geometricos, analticos, alem
dos probabilsticos, naturalmente. A intencao desta secao e apre-
sentar sucintamente a linguagem e as propriedades basicas u teis para
a dinamica estocastica.
i i
i i
i i
Exemplo 2.6 (Submartingales e Supermartingales).
Dado um martingale X, pela desigualdade de Jensen (Proposicao
1.12), dada qualquer func
ao convexa g, g(X) e um submartingale.
Em particular vai nos interessar o submartingale |X|p .
i i
i i
i i
2.5. MARTINGALES 55
Fn = {X1 , . . . , Xn } F.
Pn
Defina o processo Sn dado pela soma Sn = i=1 Xi . Pelo exerccio
1.17, a esperanca condicional satisfaz
i i
i i
i i
para todo s t T .
Um processo estocastico com tempo discreto A e dito previsvel,
se for mensuravel uma unidade de tempo antes de sua realizacao, isto
e An e Fn1 -mensuravel, n 1.
Teorema 2.5 (Decomposic ao de Doob). Dado um processo esto-
c
astico discreto Xn integravel, Fn adaptado, ent ao existe uma de-
ao X = X0 + M + A onde M e um Fn -martingale e A um
composic
processo previzvel. Com M e A inicializados no zero a decomposic
ao
e u
nica.
Demonstra
cao: Defina indutivamente, A0 = 0 e
Assim, M0 = 0 e
i i
i i
i i
2.5. MARTINGALES 57
2.5.1 Propriedades b
asicas
O resultado abaixo e uma generalizacao da desigualdade de Tcheby-
chev no caso do processo ser um martingale.
Teorema 2.6 (Desigualdade Lp de Doob). Seja Xt um martingale
contnuo com t [0, b] ou [0, ). Ent
ao, para p 1:
E para p > 1:
p
k sup Xkp sup kXt kp .
t p1 t
Exerccio 2.14. Considere o processo St = supst Bs que aponta
os maximos das trajet
orias do movimento browniano ate o tempo
t. Mostre que a probabilidade de St crescer mais que linearmente
decresce exponencialmente com o tempo, precisamente:
a2 t
P{St at} e 2
i i
i i
i i
f (ti ) f (ti+1 )
Xn (t) = ,
2n
para t [ti , ti+1 ). Note que Xn e um processo estocastico Fn -
adaptado, verifique que e um Fn -martingale, alem disso e limitado
pela constante de Lipschitz da funcao f . Segue portanto, pelo teo-
rema de convergencia de martingales acima que Xn converge para
uma variavel aleat oria X(t) que corresponde `a derivada quase sem-
pre da func
ao inicial, j a que f e absolutamente contnua portanto
deriv
avel quase sempre. Em particular, se f for derivavel, note que
recuperamos o teorema fundamental do calculo:
Z x
f (x) f (0) = X(s) ds.
0
i i
i i
i i
2.5. MARTINGALES 59
2.5.2 p-Variac
ao de funco
es contnuas
Seja f : R0 R uma funcao contnua. Dizemos que f tem variacao
limitada, ou 1-variacao limitada, ou ainda variacao finita no intervalo
se para todo t 0 temos que, dadas particoes = {t0 = 0 < t1 <
. . . , tn = t} do intervalo [0, t]:
X X
St := sup |f (ti+1 f (ti ))| = lim |f (ti+1 f (ti ))| < .
||0
i i
i i
i i
i i
Portanto
E Mt2 E Vt sup |Mti Mti1 |
i
e um martingale.
i i
i i
i i
2.5. MARTINGALES 61
ti+1 ti p ,
X
Vt () = lim
||0
i
Xt Xt p ,
X
[X]pt := P- lim
i+1 i
|n |0
i
i i
i i
i i
Demonstra
cao: Dada um particao = {0 = t0 < t1 < . . . < tn =
t} ent
ao
X 2
k Bti Bti1 tk2L2
i=1
!2
X
= E Bti Bti1 )2 t
i=1
!2
X X
= E Bti Bti1 )2 2t (ti ti1 ) + t2
i=1
X X
= 3 (ti ti1 )2 + 2 (ti ti1 )(tj tj1 ) t2
i<j
X X
= 3 (ti ti1 )2 + 2 (ti ti1 )(t ti ) t2
i=1
X X
= 3 (ti ti1 )2 2 ti (ti ti1 ) + t2
i=1
que
R t converge para zero j
a que o segundo somatorio converge para
0
s ds quando n .
Dizemos que um processo estocastico real A e crescente se para
P-quase todo tivermos que as trajetorias At () sao funcoes
crescentes em t 0. Uma generalizacao interessante da decomposicao
de Doob, Teorema 2.5, no caso contnuo e a seguinte decomposicao:
Teorema 2.11 (Decomposic ao de Doob-Meyer). Dado um submartin-
gale contnuo X, ent
ao existe uma decomposic
ao X = M + A, onde
M e um martingale e A e um processo crescente de variac
ao finita.
Um dos exemplos mais importantes que ilustram a decomposicao
de Doob e a seguinte caracterizacao da variacao quadratica de um
martingale:
Teorema 2.12. Seja M um Ft -martingale contnuo e limitado. Ent ao
M tem variac
ao quadr
atica, alem disso [M ]t e o u
nico processo adap-
tado crescente, com [M ]0 0, P-q.s. tal que M 2 [M ] e um mar-
tingale.
i i
i i
i i
2.5. MARTINGALES 63
E Tt (M ) Ts (M )|Fs
Xk
= E (Mti+1 Mti )2 + (Mt Mtk )2 + (Mtj+1 Ms )2 |Fs
i=j
i i
i i
i i
i i
i i
i i
2.5. MARTINGALES 65
Proposic
ao 2.14. Um martingale local X e um martingale se e
somente se {XT ; T e tempo de parada} e uma famlia de v.a. uni-
formemente integr
avel.
Os conceitos e resultados apresentados sobre martingales se esten-
dem naturalmente para martingales locais. Por exemplo, o teorema
seguinte tem demonstracao muito simples, basta usar os tempos de
parada da definicao de martingale local e o teorema analogo visto
anteriormente:
Teorema 2.15. Seja M um martingale local contnuo, ent ao existe
um unico processo adaptado crescente [M, M ] tal que [M, M ]0 = 0 e
M 2 [M, M ] e um martingale local.
Tambem usando o resultado analogo anterior, temos:
Teorema 2.16. Sejam M e N dois martingales locais, ent ao a variac
ao
quadr
atica cruzada [M, N ]t e o u
nico processo com [M, N ]0 = 0 tal
que M N [M, N ] e um martingale local.
Processos estocasticos que sao soma de martingales (locais) com
processos de variacao limitada sao chamados de semimartingales. O
teorema da decomposicao de Doob 2.11 por exemplo diz que sub-
martingales e supermartingales sao semimartingales especiais onde
os processos de variacao limitada sao monotonos.
i i
i i
i i
Captulo 3
C
alculo estoc
astico
66
i i
i i
i i
3.1. INTEGRAL ESTOCASTICA
DE ITO 67
Rn
Denotaremos o martingale Yn := 0 H dX ou ainda, abreviando,
por Y = H X. O processo H e chamado o integrando e X e chamado
o integrador. O que a Proposicao 3.1 garante e que se o integrador
for um martingale, entao o processo dado pela integral tambem o e.
Observe tambem pela demonstracao que se X for um submartingale
(ou supermartingale) e o processo H for nao-negativo entao Y = H X
tambem sera submartingale (ou supermartingale), e vice-versa se H
for n
ao-positivo.
3.1.1 Aplicac
ao a processos parados
Vamos ver as primeiras aplicacoes a processos parados:
i i
i i
i i
68 CAPITULO 3. CALCULO
ESTOCASTICO
i i
i i
i i
3.1. INTEGRAL ESTOCASTICA
DE ITO 69
i i
i i
i i
70 CAPITULO 3. CALCULO
ESTOCASTICO
neste intervalo por ([0, t]). Sendo mais preciso: para cada processo
Hs ([0, t]), existe uma particao {0 = t0 < t1 < . . . < tn = t} tal
que
H = H0 1[0,t1 ) + H1 1[t1 ,t2 ) + . . . + Hn1 1[tn1 ,tn )
onde cada Hj , j = 0, 1, , n 1, sao variaveis aleatorias limitadas
Ftj -mensuraveis.
Considerando a filtracao natural do movimento browniano Ft , a
integral estoc
astica de It
o de um processo elementar H em relacao a
um movimento browniano Wt e dado por
Z t Xn
Hs dWs = Ht(i1) (Wti Wt(i1) ).
0 i=1
i i
i i
i i
3.1. INTEGRAL ESTOCASTICA
DE ITO 71
Demonstra
cao: De fato
n
!2
X
2
E|Yt | = E Hti1 (Wti Wt(i1) ).
i=1
n
X
= E Ht(i1) (Wti Wt(i1) )Ht(j1) (Wtj Wt(j1) )
i,j=1
X n h i
= E Ht2(i1) (Wti Wt(i1) )2
i=1
n
X
+2 E Ht(i1) Ht(j1) (Wti Wt(i1) )(Wtj Wt(j1) ) .
1=i<j
= E E Ht(i1) Ht(j1) (Wti Wt(i1) )(Wtj Wt(j1) ) | Fi
= E Ht(i1) Ht(j1) (Wti Wt(i1) ) E (Wtj Wt(j1) ) | Fi ,
porque Ht(i1) Ht(j1) (Wti Wt(i1) ) sao Fti -mensuraveis. Como j >
i, segue que a esperanca condicional da u ltima linha e zero, portanto
a esperanca e zero, o que anula todos os termos do segundo somatorio.
i i
i i
i i
72 CAPITULO 3. CALCULO
ESTOCASTICO
Defini c
ao 3.1. Dizemos que um processo estoc
astico adaptado Ht e
It
o integr
avel no intervalo [0, t] se
Z t
E Hs2 ds < . (3.2)
0
i i
i i
i i
3.1. INTEGRAL ESTOCASTICA
DE ITO 73
4. (Variac
ao quadr
atica)
Z t Z t Z t
Gs dWs , Hs dWs = Gs Hs ds.
0 0 0
Demonstra c
ao: O item (1) e consequencia imediatas da construcao.
O item (2) e consequencia da Proposicao 3.1 e da continuidade da
esperanca condicional que garante que limite de uma sequencia de
martingales (integracao de processos elementares) e um martingale.
O item (3) segue da isometria da Proposicao 3.5.
i i
i i
i i
74 CAPITULO 3. CALCULO
ESTOCASTICO
* n n
+
X X
= Gt(i1) (Wti Wt(i1) ), Ht(i1) (Wti Wt(i1) )
i=1 i=1
n
X
= Gt(i1) Ht(i1) (ti t(i1) )
i=1
Z t
= Gs Hs ds.
0
A teoria de integrac
ao feita nesta secao, considerando o movi-
mento browniano como o integrador padrao, se estende facilmente
para a integrac
ao em relac
ao a qualquer semimartingale. No caso
geral, naturalmente, as f
ormulas de variacao quadraticas sao difer-
entes destas. O item (4) por exemplo, considerando integradores
dados por semimartingales Mt1 e Mt2 , a formula se generaliza para
Z t Z t Z t
Gs dMs1 , Hs dMs2 = Gs Hs d < M 1 , M 2 >s
0 0 0
i i
i i
i i
3.2. FORMULA
DE ITO 75
3.2 F
ormula de It
o
As integracoes em relacao a um processo de variacao limitada, por
exemplo em relacao `a variacao cruzada [X, Y ], tambem tem variacao
limitada porque o processo original [X, Y ] pode ser escrito como a
diferenca de dois processos monotonos crescentes, portanto sao de-
rivaveis quase sempre. Da que integrais assim sao processos, mais
que de variacao limitada, sao derivaveis (, t) P -q.s..
O fato dos martingales terem trajetorias com variacao quadratica
(2-variac
ao) vai implicar que o calculo estocastico de Ito seja um
calculo de segunda ordem. A demonstracao da formula de Ito abaixo
vai deixar claro esse fato, partindo-se de uma serie de Taylor:
Teorema 3.7 (Formula de Ito). Seja f : Rn R R uma func ao
real de classe C 2 . Dado um semimartingale X = (X 1 , . . . X n ) no
domnio, temos que a composicao f (X) tambem e um semimartingale
e:
n Z t
X f
f (Xt ) = f (X0 ) + (Xs ) dXsi
i=1 0
x i
n Z t
1 X 2f
+ (Xs ) d[X i , X j ]s . (3.4)
2 i,j=1 0 xi xj
Observa
cao 3.4 (Tempo de parada e forma infinitesimal).
1. A f ormula de Ito vale tambem se ao inves de integrarmos ate
t, fizermos a integracao ate um tempo de parada T . Note que
neste caso, uma integracao ate T significa:
Z T Z M
hs dNs := 1{s<T ()} hs dNs .
0 0
i i
i i
i i
76 CAPITULO 3. CALCULO
ESTOCASTICO
Antes da demonstrac
ao, vejamos ainda algumas aplicacoes faceis
mas ilustrativas:
Exemplo 3.3 (Potencias do movimento browniano).
Tomando n = 1 no teorema acima, considere f (x) = x2 . Pela
f
ormula de It
o temos que
Z t Z t
2
Bt = 2 Bs dBs + 1 ds,
0 0
e como a integral de It
o e martingale, temos uma descricao desta
integral: Z t
B2 t
Bs dBs = t .
0 2
interessante notar como a formula de Ito nos fornece facilmente
E
uma enorme classe de exemplos de integrais de Ito e de martingales.
Relembramos que a propriedade de martingale do lado direito da
f
ormula acima ja tinha sido verificada pela definicao no Exerccio
2.12. Deixamos para o leitor verificar por inducao que, para todo
n 1, os seguintes processos sao martingales:
Z t
Yt = 2Btn+1 Bsn1 ds.
0
i i
i i
i i
3.2. FORMULA
DE ITO 77
2
(M )t = exp{Mt [M ]t } (3.7)
2
que e a soluc
ao da EDE:
dxt = xt dMt
Demonstra cao: (Da formula de Ito). Considere uma particao =
{0 = t0 < t1 , . . . < tn = t} do intervalo [0, t]. Pela formula de Taylor
para func
oes de varias variaveis com resto de Lagrange, temos que
para cada ,
d
X f
f (Xtk+1 ) = f (Xtk ) + (Xtk )(Xtik+1 Xtik )
i1
xi
d
1 X 2f
+ (k )(Xtik+1 Xtik )(Xtjk+1 Xtjk )
2 i,j=1 xi xj
i i
i i
i i
78 CAPITULO 3. CALCULO
ESTOCASTICO
Pela construc
ao da integral de Ito, o primeiro somatorio em k con-
verge em probabilidade para
Z t
f
(Xs ) dXsi .
0 x i
O segundo somat
orio em k converge para a integral de Riemann-
Stieltjes Z t
2f
(Xs ) d[X i , X j ]s
0 xi xj
Corolario 3.8 (Integrac
ao por partes). Dados semimartingales X e
Y ent
ao
Z t Z t
(XY )t = X0 Y0 + Xs dYs + Ys dXs + [X, Y ]t ,
0 0
em particular
Z t
Xt2 = X02 + 2 Xs dXs + [X, Y ]t .
0
Demonstra
cao: Exerccio.
Observa
cao 3.5.
1. Na demonstrac ao da f ormula de Ito, usamos funcoes de classe
C 2 justamente porque martingales contnuos tem trajetorias de
p-variac
ao caracterstica com p = 2. Note que um calculo en-
volvendo trajetorias contnuas de p-variacao caracterstica com
p > 2 exigira mais das derivadas da f . Esse e o caso da teo-
ria chamada de rough pathde T. Lyons. Ver por exemplo T.
Lyons [41] ou [42].
i i
i i
i i
2. A f
ormula de Ito e efetivamente a regra da cadeia, generalizada
para composicoes com funcoes de 2-variacao, independente do
car
ater probabilstico, i.e. independente de tomarmos ou nao o
limite em probabilidade.
3. Quanto ao aspecto probabilstico, a formula de Ito mostra que
o espaco de semimartingales e invariante por composicao com
oes de classe C 2 .
func
3.3 Caracterizac
ao de Levy
O proximo teorema mostra uma caracterizacao do movimento brown-
iano em termos da propriedade de martingale e sua variacao quadratica.
Teorema 3.9 (Caracterizacao de Levy). Seja X um processo es-
astico em Rd , contnuo, Ft -adaptado com X0 = 0. Ent
toc ao s
ao
equivalentes:
i) X = (X 1 , . . . , X d ) e MB em Rd ;
ii) X e martingale local contnuo com [X i , X j ] = i,j t;
iii) X e martingale local contnuo e para toda curva f = (f1 , . . . , fd ),
com fi L2 (R+ ), o processo
d Z t d Z t
X 1X
if
t = exp{ i fk (s) dXsk + fk2 (s) ds}
0 2 0
k=1 k=1
e um martingale complexo.
Demonstra ao: Assuma (i), isto e que X = (B 1 , . . . , B n ) e um
c
MB em R . Temos que para todo t, Xt e uma gaussiana em Rn ,
n
i i
i i
i i
80 CAPITULO 3. CALCULO
ESTOCASTICO
d Z
X t
= fk2 d[X k ]s
k 0
d Z t
X
= fk2 ds.
k 0
1
if 2
t = exp{i < , Xt Xs > + |||| (t s)}
2
.
i i
i i
i i
E1A if if
t = E1A s
j
a que os outros termos se anulam.
Assim, se f for harmonica, o u
ltimo somatorio se anula, portanto
s
o restam os termos que sao martingales.
Reciprocamente, suponha que f (Bt ) seja um martingale. Suponha
por absurdo que existe um ponto x0 Rn , tal que o laplaciano
i i
i i
i i
82 CAPITULO 3. CALCULO
ESTOCASTICO
Isso implica que [f (Bt )]T nao e um martingale visto que a ultima
integrac
ao se faz com um integrando estritamente positivo, o que e
uma contradic ao. Segue que f e identicamente nulo.
Esse tipo de caracterizac
ao via imagem de movimento browniano
se estende para aplicac
oes harmonicas entre variedades riemannianas,
ver por exemplo Catuogno e Ruffino [7].
3.4 Equa
coes diferenciais estoc
asticas
O resultado principal desta secao e um teorema de existencia e unici-
dade de soluc
ao de equac oes diferenciais estocasticas (EDE) em Rn
com condic
ao inicial:
m
X
fi (t, xt ) dWti ,
dx t = f 0 (t, xt ) dt +
i=1 (3.8)
x0 = x(0) Rn
i i
i i
i i
3.4. EQUAC
OES
DIFERENCIAIS ESTOCASTICAS 83
Demonstra c
ao: Para simplificar a notacao, consideremos uma u
nica
componente de rudo na nossa equacao, i.e. m = 1. O caso geral e
extenc
ao imediata, com formulas mais longas.
i i
i i
i i
84 CAPITULO 3. CALCULO
ESTOCASTICO
Z t Z t
(SU )t = x0 + f0 (s, Us ) ds + f1 (s, Us ) dWs .
0 0
t (U, V ) = E sup |Us Vs |2 ,
st
Z
s Z s
t (SU, SV ) = E sup
f0 (s, Us ) ds + f1 (s, Us ) dWs
st 0 0
Z s Z s 2 #
f0 (s, Vs ) ds f1 (s, Vs ) dWs
0 0
" 2
Z s
2E sup f0 (s, Us ) f0 (s, Vs ) ds
st 0
Z s 2 #
+ sup f1 (s, Us ) f1 (s, Vs ) dWs
st 0
Z t 2
t (SU, SV ) 8E f1 (s, Us ) f1 (s, Vs ) dWs
0
Z t Z t
2
+E 1 ds |f0 (s, Us ) f0 (s, Vs )| ds
0 0
i i
i i
i i
3.4. EQUAC
OES
DIFERENCIAIS ESTOCASTICAS 85
E sup |Us Vs |2 = 0,
st
i i
i i
i i
86 CAPITULO 3. CALCULO
ESTOCASTICO
i i
i i
i i
3.4. EQUAC
OES
DIFERENCIAIS ESTOCASTICAS 87
i i
i i
i i
88 CAPITULO 3. CALCULO
ESTOCASTICO
com condic
ao inicial x0 = 1.
com condico
es iniciais x0 = 0 e x0 = 1. Idem para
Observa
cao 3.8 (Sobre solucoes fortes e fracas).
Dizemos que uma soluc ao da EDE (3.8) e forte quando ela puder
ser construda a partir dos movimentos brownianos estipulados nesta
mesma equac ao. A demonstracao de existencia e unicidade de solucoes
de EDE que fizemos acima e para solucoes fortes. Em contraste, uma
soluc
ao e dita fraca se ela for escrita em relacao a outro movimento
browniano que n ao os integradores originais. Um exemplo simples
para ilustrarmos e o seguinte. Considere a EDE:
i i
i i
i i
dxt = dW
ft , (3.11)
cuja soluc
ao e xt = x0 + W t . Assim, essa solucao e uma solucao fraca
da equacao (3.10). Uma solucao forte de (3.10) em geral pode ser
muito difcil de se calcular. Outro exemplo menos trivial e o processo
de Bessel
p (ver Oksendal [47]) que da o raio de um MB no plano
R = (B 1 )2 + (B2 )2 . Usando a formula de Ito, verificamos que esse
processo satisfaz a EDE
1 t ,
dR = dt + dB
2R
t satisfaz:
onde o MB B
Z t Z t
t =
B B 1 ((B 1 )2 +(B 2 )2 )1/2 dB 1 + B 2 ((B 1 )2 +(B 2 )2 )1/2 dB 2 .
0 0
(3.12)
t e
Tambem por resultado da proxima secao podemos verificar que B
um movimento browniano.
i i
i i
i i
90 CAPITULO 3. CALCULO
ESTOCASTICO
i i
i i
i i
i i
i i
i i
92 CAPITULO 3. CALCULO
ESTOCASTICO
Derivando na vari
avel t obtemos o resultado.
A proposic
ao acima tambem pode ser vista como corolario imedi-
ato do seguinte lema mais geral, ver, entre outros [47, Lemma 7.8]:
3.5.1 F
ormula de Dynkin
Combinando a formula de Ito com um tempo de parada finito q.s. e o
truque de tomar a esperanca para eliminar a componente martingale,
temos a f
ormula de Dynkin:
i i
i i
i i
3.5.2 Aplicaco
es
Nos proximos exemplos exploraremos a formula de Dynkin. Os dois
primeiros exemplos fornecem informacoes sobre a dinamica do MB
(ver Oksendal [47]). No terceiro exemplo resolveremos o problema
cl
assico de Dirichlet de funcao harmonica com condicao de fronteira.
Exemplo 3.7 (tempo de sada de conjunto limitado).
Suponha que temos um MB Xt inicializado em a Rn , cujo ger-
ador infinitesimal sabemos que e 12 . Dado uma esfera de raio R,
maior que |a|, considere o tempo de parada dado pelo tempo de
sada de Xt da bola B0 (R). Em princpio nao sabemos nem se esse
tempo de parada e finito, ja que muitas trajetorias ficam eternamente
dentro desta bola. Assim, para garantir que nas formulas estaremos
usando um tempo de parada limitado, considere a sequencia de tem-
pos de parada k = k.
Considere a funcao diferenciavel f (x) = |x|2 , cujo laplaciano e
constante f = 2n, em todo ponto. Assim, aplicando a formula de
Dynkin temos:
Z k
Ef (Xk ) = |a|2 + E n ds (3.13)
0
= |a|2 + nEk .
i i
i i
i i
94 CAPITULO 3. CALCULO
ESTOCASTICO
i i
i i
i i
log(|b|/R)
pk = 1
k log 2
i i
i i
i i
96 CAPITULO 3. CALCULO
ESTOCASTICO
i i
i i
i i
Observa
cao 3.10 (Fronteira de Poisson).
Observa
cao 3.11 (Para uma segunda leitura).
i i
i i
i i
98 CAPITULO 3. CALCULO
ESTOCASTICO
Rt
De fato, a ttulo de exemplo, considere a integral 0 Bs dBs e
uma particao = {0 = t0 < t1 < . . . < tn = t}. Calculando
as esperancas das somas de Riemann, com os integrandos avaliados
como na integral de It o temos:
n1
X n1
X
E Bti (Bti+1 Bti ) = E Bti (Bti+1 Bti ) = 0
i=0 i=0
i i
i i
i i
Demonstra c
ao: Dada uma particao, a soma de Riemann para a
integral de Stratonovich se decompoe como:
n1
X 1
(ft + ftk )(Xtk+1 Xtk ) =
i=0
2 k+1
n1 n1
X 1X
ftk (Xtk+1 Xtk ) + (ftk+1 ftk )(Xtk+1 Xtk ).
i=0
2 i=0
i i
i i
i i
onde
m n
xt ) 1 XX i Yj
X(t, = X(t, x) + Yj (t, x)
2 j=1 i=1 xi
m
1X
= X(t, x) + d(Yj )(t,x) (Yj ),
2 j=1
Demonstra c
ao: Temos que as integracoes de Stratonovich, pela
f
ormula de convers ao, em termos de integrais de Ito ficam:
Z t Z t
j 1
Yj (s, xs ) dBt = Yj (s, xs ) dBtj + [Yj (t, xt ), Btj ]. (3.14)
0 0 2
i i
i i
i i
variac
ao quadratica zero. Assim, aplicando a propriedade da variacao
quadr atica da integral de Ito (Teorema 3.6, item (4)), ficamos com:
" m Z
#
t
XX Yj
[Yj (t, xt ), Btj ] = (s, xs ) Y i dBtk , Btj
iin k=1 0
xi
m Z t
XX Yj
= (s, xs ) Y i d[Btk , Btj ]
iin k=1 0 xi
Z t
= d(Yj )(s,xs ) (Yj ) ds.
0
d Z t
X F
F (Xt ) = F (X0 ) + (Xs ) dXsi
i=1 0 xi
Rt
O somat
orio do lado direito tambem ser
a escrito como 0
< F, dXs >,
onde F e o gradiente da F .
d Z t d Z t
X F X F
(Xs ) dXsi = (Xs ) dXsi
i=1 0 xi i=1 0 xi
d
1 X F i
+ (Xs ), dXs .
2 i xi
i i
i i
i i
d Z
1 X t 3F
+ (Xs ) d[Xk , X j ]s .
2 0 xj xk xi
j,k=1
F
Portanto, a componente martingale local de x i
(Xt ) esta contido no
processo
d Z t
X 2F
(Xs ) dXsj .
j=1 0
xj xi
Portanto, voltando `
a variac
ao quadratica da primeira equacao desta
demonstrac
ao, temos que
d Z tZ t
2F
X
F i
(Xs ), dXs = (Xs ) d[X j , X i ]s .
xi j=1 0 0 xj xi
i i
i i
i i
essa difus
ao tem gerador infinitesimal dado por
m
1X
A=X+ (Yj )2 .
2 j=1
i i
i i
i i
Captulo 4
Sistemas dinamicos
estoc
asticos
A intenc
ao deste captulo e, alem de mostrar as ferramentas apresen-
tadas nos captulos anteriores sendo usadas na analise da dinamica
estoc
astica, tambem apresentar ao leitor uma variedade de problemas
onde temos alguma experiencia, da ter um certo apelo pessoal. O
pesquisador, neste ponto, est a convidado, ao ler esses topicos, propor
generalizac
oes e novos problemas relacionados.
4.1 Trajet
orias das soluco
es de uma EDE
Na maioria das aplicac
oes consideramos equacoes diferenciais estocasticas
aut
onomas (difus oes). Alem de gerarem processos de Markov, tec-
nicamente n ao perdemos generalidade pois com o mesmo truque do
caso determinstico, podemos tranformar um sistema nao autonomo
em um aut onomo aumentando uma dimensao (a temporal R0 ) no
espaco de estados. Considere entao uma EDE:
m
X
dxt = X(xt ) dt + Yj (xt ) dBtj , (4.1)
j=1
104
i i
i i
i i
4.1. TRAJETORIAS DAS SOLUC
OES DE UMA EDE 105
i i
i i
i i
i i
i i
i i
4.2. FLUXOS ESTOCASTICOS E COCICLOS 107
i i
i i
i i
1
lim log |dt (, x)(v0 )| = k .
t t
i i
i i
i i
4.4. CONJUGAC
OES DE COCICLO 109
4.4 Conjugac
oes de cociclo
O fato do fluxo estocastico ser um cociclo, significa que ele e uma
componente do fluxo num espaco maior, que e o espaco produto
Rd , onde o fluxo, chamado de skew-product e dado por t : Rd
Rd com t (, x) = (t (), t ()(x)).
i i
i i
i i
t (x0 ) = H 1 (t ) t () H()(x0 ).
4.5 N ao em S 1
umeros de rotac
Inclumos aqui um outro exemplo em dimensao baixa de aplicacao da
teoria de din
amica estoc astica no sentido de semimartingales. Dado
um espaco de probabilidade (, F, P), considere uma transformacao
odica em . Dado um homeomorfismo aleatorio f : S 1 S 1
erg
ao em S 1 , considere a sequencia de homeomor-
que preserva a orientac
orios fn (, ) = f (n1 , ). Em particular, tomando
fismos aleat
como sendo espaco produto, sequencias i.i.d. podem ser vistas dessa
maneira.
i i
i i
i i
4.5. NUMEROS DE ROTAC EM S 1
AO 111
n (, x) = f (n1 , ) . . . f (, ) f (, x).
Fn (, x) = x + n (, (x)),
P-q.s..
A demonstracao deste teorema e uma aplicacao direta do teo-
rema erg odico de Birkhoff 5.7. Ver Ruffino [56]. Neste mesmo ar-
tigo mostramos que no caso estocastico tambem podemos recons-
truir o numero de rotacao de um sistema contnuo se fizermos uma
amostragem em um sistema estocastico linear com frequencia grande
o suficiente:
Considere a seguinte EDE linear em R2 :
m
X
dxt = Axt dt + B i xt dWti , (4.3)
i=1
i i
i i
i i
onde A, B 1 , . . . , B m s
ao matrizes 2 2, (Wt1 , . . . , Wtm )t0 e um MB
m
em R . Denotemos por (t, ) o fluxo solucao.
A coordenada angular na forma de uma funcao contnua t R
e a soluc
ao da seguinte EDE em termos da integral de Ito:
m
X 1
dt = [< Ast , vt > + < (B i )2 st , vt >
i=1
2
m
X
i i
< B i st , vt > dWti ,
< B st , st >< B st , vt > ] dt +
i=1
i i
i i
i i
Decomposi
cao de fluxos estoc
asticos
Um assunto interessante e estudar a difusao que ocorre dentro do
grupo de difeomorfismos de Rd (ou de uma variedade). Quando nos
voltamos a um dos subgrupos desse grupo de dimensao infinita, pode-
mos nos perguntar se podemos fatorar um fluxo estocastico com uma
componente naquele subgrupo composta com outro processo em outro
subgrupo de interesse. Algumas respostas parciais foram conseguidas
com o grupo de isometrias de onde, neste caso, obtemos as medias
assint
oticas das rotacoes e no restoda decomposicao, os expoentes
de Lyapunov, ver Liao [38] e Ruffino [57]. Outras decomposicoes
foram feitas posteriormente em Silva [60].
Bifurca
cao para processos de Markov
V
arias abordagens estao sendo feitas para uma teoria de bifurcacao
em difus
oes. Mas ainda nao se conhece uma abordagem unificada
que aglutine todas as definicoes. Possivelmente uma abordagem geral
para processos de Markov possa ser feita usando a teoria da dinamica
de 2-pontos, ver e.g. Kunita [33].
i i
i i
i i
Geometria estoc
astica
As equacoes de Ito ou Stratonovich em variedades diferenciaveis vem
ganhando bastante interesse, nao so por generalizar propriedades
conhecidas, mas principalmente porque apontam para propriedades
geometricas e topol ogicas intrnsecas. O movimento browniano em
uma variedade riemanniana carrega informacoes sobre a geometria
desta, a ttulo de exemplo, ver [7]. Em particular, um grande im-
pulso foi dado quando It o fez o levantamento horizontal no fibrado
das bases de um processo na variedade. A partir do transporte par-
alelo estocastico, integrac
ao de 1-formas, teoria de Hodge-de Rham,
analise estoc
astica no espaco de lacos e varios outros topicos foram
ganhando interesse. Em particular, recentemente, difusoes em fol-
heac
oes, ver S. Ledesma [35] e referencias dali.
i i
i i
i i
Captulo 5
Ap
endices
5.1 Independ
encia e convoluc
ao de medi-
das
Proposi c
ao 5.1. A soma de vari aveis aleat
orias independentes tem
distribuic
ao dadas pela convoluc
ao das duas distribuic
oes.
Em uma f ormula, a proposicao diz que se X e Y sao variaveis
aleat
orias independentes em um espaco vetorial V , entao
(X + Y ) P = 1 (x + y)X P(dx) Y P(dy)
no sentido de
ZZ
(X + Y ) P(A) = 1A (x + y)X P(dx)Y P(dy)
V V
= (X P) (Y P) (A)
115
i i
i i
i i
5.2 Crit
erio de Kolmogorov
A demonstrac ao do criterio de Kolmogorov e bastante tecnica, no
entanto, trata-se de um resultado que e imprescindvel para mostrar-
mos a existencia do movimento browniano com trajetorias contnuas.
Provaremos a seguinte vers ao em dimensao um deste teorema:
Teorema 5.3 (Criterio de Kolmogorov). Dado um processo estoc astico
X, suponha que existam constantes , , K > 0 tais que os incremen-
tos do processo satisfacam
E |Xt+h Xt | Kh1+ ,
para todo t, h 0. Ent
ao existe um processo contnuo X
et que e uma
modificac
ao de X.
Provaremos o teorema no intervalo considerando, sem perda de
generalidade, que t est a no intervalo [0, 1]. Considere o subconjunto
dos n
umeros di adicos, i.e. que podem ser escritos em sistema binario
como 0, a1 a2 . . . ak , com cada algarismo aj {0, 1}, j = 1, . . . , k <
, i.e.
k
X
0, a1 a2 . . . ak = aj 2j .
j=1
i i
i i
i i
5.2. CRITERIO DE KOLMOGOROV 117
Seja
Tome lim inf Acm , entao existe m0 () N tal que para todo
m m0 (),
|Xt () Xs ()| 2m ,
para todo t, s m consecutivos.
Mostraremos agora que Xt | e contnuo com esta restricao de
domnio, para todo fixado em lim inf Acm .
De fato, para esse fixado, considere t . Dado um > 0
tome
2m
m = min m : < , t m .
2 1
i i
i i
i i
t () Xt ()| 1
n,t = { : |X },
n
para cada n N. Seja a probabilidade
t () Xt ()| > 1
:= P{cn,t } = P{ : |X }
n
Vamos mostrar que = 0 para todo n N. Tome uma sequencia
t e o
si t, com si , para todo i = 1, 2, . . .. A continuidade de X
i i
i i
i i
5.2. CRITERIO DE KOLMOGOROV 119
isto e,
1
E .|Xsi Xt | ,
2 n
para todo i > k, o que implica que = 0 pois, por hipotese
i i
i i
i i
A demonstrac
ao do teorema de Kolmogorov (tambem chamado
de Kolmogorov-Tchentsov) acima garante mais do que o enunciado.
Na verdade, a modificac do processo X que construmos e local-
ao X
mente -Holder contnua para todo (0, /). Mais precisamente,
existe uma v.a. h() positiva q.s. e uma constante tal que
( )
|Xt X
s|
P : sup
< = 1.
0tsh() |t s|
5.3 Gaussianas
Um fato interessante, que mostra como que as gaussianas tem papel
estrutural na teoria, e a possibilidade de decompormos o espaco L2 ()
como polin omios dessas vari aveis aleatorias. Na Observacao 1.22, ve-
rificamos que como convergencia em Lp () implica em convergencia
em probabilidade, ent ao o Teorema 1.19 garante que o subespaco de
gaussianas centradas H1 contido em L2 () seja fechado. Esse subes-
paco corresponde ao primeiro subespaco H1 da decomposic ao em caos
de Wiener, dado por polin omios de Hermite compostos com gaus-
sianas. Obtem-se assim uma decomposicao de L2 em somas diretas
ortogonais:
M
L2 () = Hi
i=0
onde Hi , i = 0, 1, . . . s
ao subespacos de funcoes obtidas do i-esimo
polin
omio de Hermite hi de v.a. gaussianas. Os polinomios de Her-
mite s
ao definidos por:
2 dn x2 /2
hn (x) = (1)n ex /2
e .
dxn
Os primeiros polinomios desta serie sao h0 (x) = 1, h1 (x) = x, h2 (x) =
x2 1, h3 (x) = x3 3x, etc. Esses polinomios sao ortogonais quando
2
na reta tomamos a medida gaussiana ex /2 . Para ver mais sobre
caos de Wiener recomendamos, por exemplo Nualart [46].
i i
i i
i i
onde Z k
1 2
(k) = ex /2 dx.
2
Exerccio 5.2. Aplique o teorema do limite central para verificar
que as distribuic
oes de Poisson indexadas por se aproximam da
normal N (, ) quanto maior for . (Sugest
ao: some v.a. de Poisson
independentes com = 1, use que essas somas s ao v.a. de Poisson
com media e variancia dadas pela soma desses par
ametros, Exerccio
5.1, e o teorema mencionado).
i i
i i
i i
dxt = dBt
xo = x (0)
d2 xt dBt
= v +
dt2 dt
O resultado principal dessa abordagem e que, com as trajetorias
xt deriv
aveis (!) podemos ajustar os parametros e para obter
uma aproximac ao, em termos de distribuicao de dimensao finita, do
i i
i i
i i
i i
i i
i i
i i
i i
i i
5.5. TEOREMA ERGODICO PARA PROCESSOS DE MARKOV125
an
alise de Fourier das trajetorias e a seguinte. Dada uma sequencia
(gn )n0 de gaussianas N (0, 1) definidas no espaco de probabilidade
(ver Teorema 5.6), o processo W : R0 R definido por
n
2X
1
X sin kt
Wt = g0 t + gk 2
n=1 k=2 n1
k
onde G F e a sub--
algebra gerada pelos conjuntos invariantes de
Uma tranformacao e dita erg odica em relacao `a medida P se
todos os conjuntos invariantes tiverem medidas zero ou um. Assim,
se for ergodica (como no caso i.i.d. onde a transformacao ergodica
e o shift no espaco de probabilidade produto), entao a esperanca
condicional e a propria esperanca E[f ]. Demonstracoes desse teorema
podem ser encontradas em todos os livros introdutorios em teoria
erg
odica, por exemplo Halmos [22], Billingsley [5], Walters [65], Ma ne
[44], Pollicot [50] e varios outros.
i i
i i
i i
1 t
Z Z
lim f (Xs ) ds = f (x) d(x) P q.s..
t t 0 M
i i
i i
i i
Bibliografia
127
i i
i i
i i
128 BIBLIOGRAFIA
i i
i i
i i
BIBLIOGRAFIA 129
i i
i i
i i
130 BIBLIOGRAFIA
[41] T. Lyons and Qian, Z. System control and rough paths. Ox-
ford Mathematical Monographs. Oxford University Press, Ox-
ford, 2002.
i i
i i
i i
BIBLIOGRAFIA 131
[49] M. A. Pinsky - Can you feel the shape of a manifold with Brow-
nian motion? Topics in Contemporary Probability and Its Ap-
plications, 1995
i i
i i
i i
132 BIBLIOGRAFIA
i i
i i
i i
Indice
-
algebra, 4 em lei, 30
completamento de, 7 em probabilidade, 29
discreta, 7 fraca de medidas, 30
dos borelianos, 4 q.s., 29
gerada, 4 Convergencia uniforme em proba-
produto, 24 bilidade nos compactos
trivial, 7 (ucp), 105
Algebra, 4 Conversao Ito-Stratonovich, 99
Convolucao de medidas, 46, 115
Aproximac
ao poligonal do MB, 105 Covariancia, 14
133
i i
i i
i i
134 INDICE
i i
i i
i i
INDICE 135
i i
i i
i i
136 INDICE
Valor esperado, 10
Vari
avel aleat
oria, 6
p-momento, 14
gaussianas, 30
de Poisson, 116
i i
i i