Sei sulla pagina 1di 156

Capitolo 1

Introduzione ai Processi Stocastici


1.1 Prime denizioni
1.1.1 Processi stocastici
Ricordiamo che uno spazio di probabilit una terna (. T. 1) dove un insieme, T
una o-algebra di parti di , 1 una misura di probabilit su (. T); la coppia (. T)
chiamata spazio misurabile. In uno spazio topologico 1 indicheremo con E(1) la
o-algebra dei boreliani (la pi piccola o-algebra che contiene gli aperti). Una variabile
aleatoria 1 su (. T) a valori in uno spazio misurabile (1. c) una funzione 1 : 1
misurabile da (. T) in (1. c), cio tale che . : 1 (.) 1 T per ogni 1 c.
Una variabile aleatoria reale 1 su (. T) una variabile aleatoria su (. T) a valori in
(R. E(R)).
Sia 1 un insieme non vuoto. Linsieme 1 sar linsieme dei parametri del processo
stocastico. A livello interpretativo, pu essere ad esempio un insieme di tempi, oppure
di posizioni spaziali o di spazio-tempo. In alcuni momenti sar necessario supporre di
avere uno spazio misurabile (1. T ) ed in altri uno spazio topologico 1, con T = E(1);
altrimenti 1 del tutto arbitrario. Tutto ci no al momento in cui introdurremo le
ltrazioni; con lintroduzione del concetto di ltrazione, restringeremo lattenzione al
caso in sia 1 [0. ), T = E(1) ed interpreteremo 1 come insieme dei tempi. Tutti
gli sviluppi avanzati del corso riguarderanno il caso 1 = [0. ) (o 1 = [0. t
0
]) per
cui avrebbe senso restringersi n da ora a quel caso. Per pu essere concettualmente
interessante osservare che questi primi paragra hanno carattere pi generale, per cui
per ora supporremo solo che 1 sia un insieme, non vuoto.
Siano dati, oltre a 1, uno spazio di probabilit (. T. 1) ed uno spazio misurabile
(1. c) (detto spazio degli stati). Un processo stocastico A = (A
t
)
tT
, denito su
(. T. 1) a valori in (1. c) una funzione A denita su 1 a valori in 1, tale che
per ogni t 1 la funzione . A
t
(.) sia misurabile da (. T) in (1. c). Ne segue
1
2 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
che, dati t
1
< ... < t
a
1, la funzione
. (A
t
1
(.) . .... A
tn
(.))
misurabile da (. T) in (1
a
.
a
c). Le leggi di probabilit di questi vettori (leggi
immagine di 1 rispetto a queste applicazioni) si chiamano distribuzioni di dimensione
nita del processo.
Le funzioni t A
t
(.) da 1 in 1 (ad . ssato) si dicono realizzazioni o traiettorie
del processo stocastico. Il termine traiettoria va forse riservato al caso in cui sia 1
[0. ).
Due processi stocastici A = (A
t
)
tT
e 1 = (1
t
)
tT
si dicono equivalenti se hanno
le stesse distribuzioni di dimensione nita. Si dicono modicazione (o versione) uno
dellaltro se per ogni t 1 vale
1 (A
t
= 1
t
) = 1.
Si dicono indistinguibili se
1 (A
t
= 1
t
per ogni t 1) = 1.
Due processi indistinguibili sono modicazione uno dellaltro. Due processi che sono
modicazione uno dellaltro sono equivalenti. Si veda lesercizio 1. Si noti che, a
dierenza delle altre due, la denizione di processi equivalenti non richiede che essi
siano deniti sullo stesso spazio (. T. 1).
Supponiamo che 1 ed 1 siano spazi topologici e siano T = E(1), c = E(1).
Un processo si dice continuo se le sue realizzazioni sono funzioni continue; si dice q.c.
continuo se ci avviene per 1-quasi ogni realizzazione.
Quando 1 [0. ), le denizioni di continuo a destra e/o a sinistra, costante a
tratti ed altre della stessa natura sono simili. Un processo si dice cdlg (continue
droite, limite gauche) se le sue traiettorie sono continue a destra ed hanno limite
nito a sinistra.
Se (1. T ) uno spazio misurabile, possiamo dare la seguente denizione. Un proces-
so si dice misurabile se lapplicazione (t. .) A
t
(.) misurabile da (1 . T T)
in (1. c).
Elenchiamo anche alcune nozioni che si usano soprattutto nella cosiddetta teoria
della correlazione dei processi stazionari, per noi marginale ma toccata almeno nel caso
dei processi gaussiani. Supponiamo che sia (1. c) = (R. E(R)). Indichiamo con 1 [] la
speranza matematica su (. T. 1) (1 [1 ] =
_

1 d1, per ogni 1 v.a. reale (. T. 1) in-


tegrabile), con \ c: [] la varianza (\ c: [1 ] = 1
_
(1 1 [1 ])
2

quando 1 di quadrato
integrabile), con Co (. ) la covarianza (Co (1. 2) = 1 [(1 1 [1 ]) (2 1 [2])] se
1 e 2 sono v.a. di quadrato integrabile). Sia A un processo stocastico a valori in
(R. E(R)), su (. T. 1). Se 1 [[A
t
[] < per ogni t 1, chiamiamo :(t) = 1 [A
t
],
t 1, funzione valor medio del processo A. Se 1 [A
2
t
] < per ogni t 1, chiamiamo
o
2
(t) = \ c: [A
t
], t 1, funzione varianza di A e chiamiamo C (t. :) = Co (A
t
. A
c
),
t. : 1, funzione covarianza di A.
1.1. PRIME DEFINIZIONI 3
Esercizio 1 Costruire due processi equivalenti che non siano modicazione uno del-
laltro e due processi modicazione uno dellaltro che non siano indistinguibili.
1.1.2 Legge di un processo
Sia 1
T
lo spazio di tutte le funzioni , : 1 1. Indichiamo con o linsieme di tutte
le :-ple ordinate t = (t
1
. .... t
a
) di elementi di 1 tali che t
i
,= t
)
per ogni i ,= ,,
i. , = 1. .... :. Indichiamo con c
a
la o-algebra prodotto di : copie di c.
Presa t = (t
1
. .... t
a
) o e preso 1 c
a
consideriamo linsieme
C (t. 1) 1
T
di tutte le funzioni , : 1 1 tali che
(, (t
1
) . .... , (t
a
)) 1.
Lo chiameremo insieme cilindrico (con base 1 e coordinate t
1
. .... t
a
). Sia / la famiglia
di tutti gli insiemi cilindrici C (t. 1), con : N, t = (t
1
. .... t
a
) o e 1 c
a
. La
famiglia / unalgebra di parti di 1
T
: contiene 1
T
; il complementare di un insieme
della forma (, (t
1
) . .... , (t
a
)) 1 linsieme cilindrico (, (t
1
) . .... , (t
a
)) 1
c
;
chiusa per intersezione nita. Questultima propriet noiosa da scrivere in gen-
erale ma ovvia se si pensa ad esempio al caso particolare dei due insiemi cilindrici
, (t
1
) 1
1
, , (t
2
) 1
2
, con t = (t
1
. t
2
), 1
1
. 1
2
c, la cui intersezione linsieme
(, (t
1
) . , (t
2
)) 1
1
1
2
che appartiene ad /.
Sia c
T
la pi piccola o-algebra di parti di 1
T
che contiene gli insiemi cilindrici.
Dato un processo stocastico A = (A
t
)
tT
denito su uno spazio di probabilit
(. T. 1) a valori in uno spazio misurabile (1. c) consideriamo lapplicazione
.

A

(.)
da (. T) in
_
1
T
. c
T
_
. Essa misurabile. Infatti, preso un insieme cilindrico C (t. 1),
t = (t
1
. .... t
a
) o, 1 c
a
, la sua controimmagine linsieme
(A
t
1
. .... A
tn
) 1
e questo insieme sappiamo essere misurabile, un elemento di T. Rammentiamo che per
vericare la misurabilit di unapplicazione basta farlo su una famiglia generante la
o-algebra in arrivo (in simboli generali, se A : (. T) (1. c) soddisfa A
1
(1) T
per ogni 1 (, dove ( c ed c =o ((), allora A misurabile; infatti, si prenda la
famiglia H T (1) degli insiemi 1 1 tali che A
1
(1) T; si verica che H una
o-algebra e contiene (, quindi contiene o (()).
Possiamo quindi considerare la legge dellapplicazione (misura immagine di 1
attraverso ). Si chiamer legge del processo. E una misura di probabilit su
_
1
T
. c
T
_
.
Indichiamola col simbolo 1
A
. Vale
1
A
(C (:. 1)) = 1 ((A
t
1
. .... A
tn
) 1)
4 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
per ogni t = (t
1
. .... t
a
) o e 1 c
a
.
Proposizione 1 Due processi A ed A
t
, deniti rispettivamente su (. T. 1) e (
t
. T
t
. 1
t
)
a valori in (1. c), sono equivalenti se e solo se hanno la stessa legge su
_
1
T
. c
T
_
.
Proof. Se hanno la stessa legge allora, presi t = (t
1
. .... t
a
) o e 1 c
a
, vale
1 ((A
t
1
. .... A
tn
) 1) = 1
A
(C (t. 1)) = 1
t
A
0 (C (t. 1))
= 1
t
__
A
t
t
1
. .... A
t
tn
_
1
_
quindi hanno le stesse distribuzioni di dimensione nita.
Viceversa, se hanno le stesse distribuzioni di dimensione nita, vale
1
A
(C (t. 1)) = 1 ((A
t
1
. .... A
tn
) 1) = 1
t
__
A
t
t
1
. .... A
t
tn
_
1
_
= 1
t
A
0 (C (t. 1))
quindi le misure di probabilit 1
A
e 1
t
A
0 , misure su
_
1
T
. c
T
_
, coincidono sugli insiemi
cilindrici. La famiglia / di tali insiemi genera c
T
ed chiusa per intersezione nita e
quindi, per un noto teorema di Caratheodory, le due misure coincidono su tutta c
T
.
La dimostrazione completa.
1.1.3 Legge nello spazio delle funzioni continue
Esaminiamo adesso un problema pi delicato. Supponiamo che A sia continuo. Per
capire bene il problema senza complicazioni topologiche collaterali, iniziamo discutendo
il caso in cui
1 = R
+
:= [0. ). 1 = R
a
(1.1)
e le o-algebre sono quelle dei boreliani. Indichiamo con C
0
linsieme C (R
+
; R
a
) delle
funzioni continue da R
+
in R
a
, munito della topologia della convergenza uniforme sui
compatti.
Linsieme () non solo un sottoinsieme di 1
R
+
ma anche di C
0
. E naturale pen-
sare che denisca una misura immagine su (C
0
. E(C
0
)). Purtroppo si pu dimostrare
che C
0
, E(1)
R
+
(omettiamo la dimostrazione) e questo non permette facilmente di
restringere la legge del processo, precedentemente denita su
_
1
R
+
. E(1)
R
+
_
, ad
una legge su (C
0
. E(C
0
)) (in realt anche questa strada percorribile con opportune
considerazioni basate sulla misura esterna, applicabili dopo aver vericato che la misura
esterna dellinsieme non misurabile C
0
pari ad 1).
Per aggirare questo ostacolo basta dimostrare il risultato seguente.
Proposizione 2 Se A = (A
t
)
t0
un processo continuo a valori reali, allora
misurabile da (. T) in (C
0
. E(C
0
)). Possiamo quindi considerare la misura immagine
di 1 attraverso , su (C
0
. E(C
0
)), che chiameremo legge del processo A su (C
0
. E(C
0
)).
1.1. PRIME DEFINIZIONI 5
Proof. La o-algebra E(C
0
) generata dagli insiemi della forma
1(,
0
. :. 1) =
_
, C
0
: max
t[0,a]
[, (t) ,
0
(t)[ _ 1
_
al variare di ,
0
C
0
, : N, 1 0. Sia t
)
R
+
una successione che conta i
razionali non negativi. Indichiamo con
_
t
(a)
)
_
la sotto-successione composta dai t
)
che
appartengono a [0. :];
_
t
(a)
)
_
densa in [0. :]. Vale
1(,
0
. :. 1) =
_
, C
0
:

,
_
t
(a)
)
_
,
0
_
t
(a)
)
_

_ 1. \ , N
_
.
Poniamo inoltre
1(,
0
. :. `. 1) =
_
, C
0
:

,
_
t
(a)
)
_
,
0
_
t
(a)
)
_

_ 1. \ , _ `
_
per ciascun ` N. La controimmagine di 1(,
0
. :. `. 1) attraverso linsieme
_
. :

A
t
(n)

(.) ,
0
_
t
(a)
)
_

_ 1. \ , _ `
_
che appartiene ad T ( anche la controimmagine di un insieme cilindrico). Vale inoltre
1(,
0
. :. 1) =

.N
1(,
0
. :. `. 1) .
La controimmagine di questo insieme intersezione numerabile di elementi di T, quindi
elemento di T. Siccome questi insiemi, come detto sopra, generano E(C
0
),
misurabile tra le o-algebre indicate. La dimostrazione completa.
Osservazione 1 Con ragionamenti non molto diversi si dimostra che due proces-
si continui con le stesse distribuzioni di dimensione nita, hanno la stessa legge su
(C
0
. E(C
0
)).
Se un processo A solamente q.c. continuo, denisce ugualmente una misura di
probabilit su (C
0
. E(C
0
)) del tutto analoga al caso precedente, che continueremo a
chiamare misura immagine di 1 attraverso su (C
0
. E(C
0
)). Infatti, esiste un insieme

t
T di 1-misura 1 tale che (
t
) C
0
. Consideriamo lo spazio probabilizzato
(
t
. T
t
. 1
t
) dove T
t
= T
t
e 1
t
la restrizione di 1 ad T
t
. Ora :
t
C
0
ben
denita e induce una misura di probabilit su (C
0
. E(C
0
)). Si verica facilmente che
essa non dipende dalla scelta di
t
con le propriet precedenti.
Le considerazioni illustrate sopra si estendono a varie situazioni pi generali. Una
molto simile quella in cui 1 uno spazio metrico, unione numerabile di compatti
(spazio metrico o-compatto) ed 1 uno spazio metrico separabile.
6 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
1.2 Teorema di estensione di Kolmogorov
Abbiamo visto che, dato un processo A = (A
t
)
tT
, questo denisce una misura di
probabilit su
_
1
T
. c
T
_
. Quando vale il viceversa, cio per quali misure j di probabilit
su
_
1
T
. c
T
_
esiste un processo che ha j come legge? Per tutte: basta prendere il
processo canonico, = 1
T
, T = c
T
, A
t
(.) = . (t). Meno banale il problema di
inversione che ora descriveremo.
Data una misura di probabilit j su
_
1
T
. c
T
_
, deniamo le sue distribuzioni di
dimensione nita nel seguente modo. Presa t = (t
1
. .... t
a
) o, indichiamo con :
t
:
1
T
1
a
lapplicazione :
t
(,) = (, (t
1
) . .... , (t
a
)). E misurabile, rispetto a c
T
e c
a
(preso 1 c
a
la sua controimmagine linsieme cilindrico
_
, 1
T
: (, (t
1
) . .... , (t
a
)) 1
_
,
che appartiene ad c
T
). La distribuzione di dimensione : di j relativa a : la legge
immagine j
t
di j attraverso :
t
:
j
t
(1) = j
_
, 1
T
: (, (t
1
) . .... , (t
a
)) 1
_
. 1 c
a
.
Se j = 1
A
, essa la legge del vettore aleatorio (A
t
1
. .... A
tn
) e j
t
; t o la famiglia
delle distribuzione di dimensione nita del processo A.
Il problema di inversione il seguente: data una famiglia di misure di probabilit
j
t
; t o (si sottintende che se t = (t
1
. .... t
a
) o, allora j
t
una misura di proba-
bilit su (1
a
. c
a
)), esiste una misura di probabilit j su
_
1
T
. c
T
_
di cui j
t
; t o sia
la famiglia delle distribuzioni di dimensione nita? Siccome lesistenza di un processo
con legge j ovvia, il problema equivalente a: data una famiglia di misure di prob-
abilit j
t
; t o, esiste uno spazio probabilizzato (. T. 1) ed un processo A su
(. T. 1) che abbia j
t
; t o come famiglia delle distribuzioni di dimensione nita?
Osservazione 2 Alla base dei seguenti ragionamenti c il fatto che un insieme cilin-
drico non ha una sola rappresentazione. Ad esempio, dati t
1
. .... t
a
. t
a+1
1, 1 c
a
,
vale
_
, 1
T
: (, (t
1
) . .... , (t
a
)) 1
_
=
_
, 1
T
: (, (t
1
) . .... , (t
a
) . , (t
a+1
)) 1 1
_
oppure, dati t
1
. t
2
1, 1
1
. 1
2
c, vale
_
, 1
T
: (, (t
1
) . , (t
2
)) 1
1
1
2
_
=
_
, 1
T
: (, (t
2
) . , (t
1
)) 1
2
1
1
_
.
Servono due ingredienti: una propriet di compatibilit tra le j
t
ed un po di
regolarit dello spazio (1. c). La propriet di compatibilit tra le j
t
si intuisce facil-
mente a posteriori, quando esse sono le distribuzioni di dimensione nita di j. Si
tratta di due condizioni, che a parole potremmo chiamare invarianza sotto permu-
tazioni degli indici e invarianza sotto contrazioni degli indici. Vediamo la prima.
Se t = (t
1
. .... t
a
) o e se (i
1
. .... i
a
) una permutazione di (1. .... :), indicata con
1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 7
1
(i
1
,...,in)
: 1
a
1
a
lapplicazione che manda la generica sequenza (r
1
. .... r
a
) nella
(r
i
1
. .... r
in
), deve valere (per le distribuzioni di dimensione nita di un processo)
j
(t
1
,...,tn)
(1) = j
(t
.
1
,...,t
.n
)
_
1
(i
1
,...,in)
(1)
_
. (1.2)
Vediamo ora la seconda. Data t = (t
1
. .... t
a
) o, indichiamo con t
b a
la sequen-
za t
b a
= (t
1
. .... t
a1
) (la sequenza ottenuta omettendo t
a
dalla t), le misure j
t
e
j
t
b n
sono legate dalla proiezione :
b a
: 1
a
1
a1
che manda una generica sequenza
(r
1
. .... r
a
) 1
a
nella sequenza (r
1
. .... r
a1
) 1
a1
(la sequenza ottenuta omettendo
lultima componente di (r
1
. .... r
a
)). Vale
j
t
b n
= :
b a
(j
t
) (1.3)
nel senso che j
t
b n
la legge immagine di j
t
attraverso :
b a
, ovvero esplicitamente
j
t
b n
(1) = j
t
(:
b a
1) per ogni 1 c
a1
.
Si pu vericare facilmente che equivalente richiedere queste condizioni per insiemi
1 di tipo rettangolare, rispetto a cui esse si scrivono pi agevolmente. Possiamo
richiedere che
j
(t
1
,...,tn)
(1
1
1
a
) = j
(t
.
1
,...,t
.n
)
(1
i
1
1
in
)
j
(t
1
,...,tn)
(1
1
1) = j
(t
1
,...,t
n1
)
(1
1
1
a1
)
per ogni : N, (t
1
. .... t
a
) o, 1
1
. .... 1
a
c.
Denizione 1 Sia j
t
; t o una famiglia di misure di probabilit (sempre sottin-
tendendo che se t = t
1
. .... t
a
o, j
t
sia una misura di probabilit su (1
a
. c
a
)).
Quando valgono (1.2)-(1.3) per ogni scelta di : N, t = (t
1
. .... t
a
) o, i = 1. .... :,
diciamo che la famiglia j
t
; t o consistente.
Ricordiamo che uno spazio metrico 1 si dice o-compatto se unione numerabile
di compatti di 1. Un risultato di teoria della misura dice che su uno spazio metrico
1 si dice o-compatto, se j una misura di probabilit denita sui boreliani E(1),
allora per ogni 1 E(1) ed 0 esiste un compatto 1 1 tale che j (11) < .
Useremo questo risultato nella dimostrazione del seguente teorema.
Teorema 1 Se j
t
; t o una famiglia consistente, 1 uno spazio metrico o-
compatto, c = E(1), allora esiste una ed una sola misura di probabilit j su
_
1
T
. c
T
_
di cui j
t
; t o sia la famiglia delle distribuzioni di dimensione nita.
Proof. Passo 1 (preparazione). Lunicit del tutto analoga a quella della Propo-
sizione 1: due misure con le stesse distribuzioni di dimensione nita coincidono su una
classe chiusa per intersezione nita e generante la o-algebra c
T
, quindi coincidono su
tutta c
T
.
8 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
Per lesistenza, ricordiamo il seguente teorema di Charateodory: dato uno spazio
misurabile (. () ed unalgebra / che genera (, se j una misura nitamente addi-
tiva su (. /), continua in ? (cio tale che, se
a
una successione di eventi di
/ decrescente con intersezione vuota allora lim
ao
j(
a
) = 0), allora j si estende
univocamente ad una misura numerabilmente additiva su (. ().
Prendiamo lalgebra / di tutti gli insiemi cilindrici C (:. 1), con : N, t =
t
1
. .... t
a
o e 1 c
a
. Lalgebra / genera c
T
. Basta denire una misura j su
/ con le propriet del teorema di Charateodory ed avente j
t
; t o come famiglia
delle distribuzioni di dimensione nita, ed il teorema dimostrato.
Preso un insieme cilindrico C /, esistono innite sue rappresentazioni nella forma
C = C (t. 1) con t = (t
1
. .... t
a
) e 1 c
a
. Presa una di tali rappresentazioni, possiamo
calcolare j
t
(1) e porre
j(C) = j
t
(1) .
Ma la denizione ben data solo se non dipende dalla rappresentazione di C. Qui
interviene lipotesi di consistenza della famiglia. Se C (t
t
. 1
t
) e C (t
tt
. 1
tt
) sono due
rappresentazioni dello stesso insieme cilindrico C, abbiamo j
t
0 (1
t
) = j
t
00 (1
tt
). La
dimostrazione elementare ma un po laboriosa da scrivere, per cui la isoliamo nel
Lemma 1.
La verica che j, cos denita, nitamente additiva su /, si esegue nel seguente
modo: presi degli insiemi disgiunti C
1
. .... C
I
/, c una sequenza t = (t
1
. .... t
a
)
tale che tutti gli insiemi C
i
possono essere rappresentati tramite t, cio esistono
1
1
. .... 1
I
c
a
, oltretutto disgiunti, tali che C
)
= C (t. 1
)
), , = 1. .... /. Vale
I
_
)=1
C
)
= C
_
t.
I
_
)=1
1
)
_
per cui
j
_
I
_
)=1
C
)
_
= j
t
_
I
_
)=1
1
)
_
=
I

)=1
j
t
(1
)
) =
I

)=1
j(C
)
)
dove il passaggio intermedio si basa sulladditivit di j
t
su c
a
. Ladditivit su / si
riconduce cio a quella di unopportuna distribuzione di dimensione nita.
Passo 2 (continuit della misura). Dobbiamo inne dimostrare la continuit in ?.
Sia C
a
una successione di eventi di /decrescente con intersezione vuota. Dobbiamo
dimostrare che lim
ao
j(C
a
) = 0.
Facciamo una piccola digressione che pu aiutare a capire la dimostrazione. Ci sono
alcune famiglie di successioni C
a
per cui la dimostrazione facile. Gli esercizi 2 e
3 illustrano esempi in cui ci si pu ricondurre ad usare una singola distribuzione di
dimensione nita, un po come nella verica fatta sopra delladditivit. In questi casi,
la dimostrazione che lim
ao
j(C
a
) = 0 facile. Se ci si potesse restringere ad insiemi
cilindrici come quelli descritti agli esercizi 2 e 3, non ci sarebbe bisogno dellipotesi di
regolarit dello spazio 1.
1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 9
Ma le famiglie di insiemi cilindrici descritte da tali esercizi non sono algebre. Tra
le successioni di insiemi cilindrici esistono esempi, come quello dellesercizio 4, in cui
non si vede come ricondursi ad usare una singola distribuzione di dimensione nita.
Facendo per riferimento a concetti topologici, precisamente alla compattezza, c
unaltra classe in cui la dimostrazione che lim
ao
j(C
a
) = 0 si riesce a completare
facilmente. Supponiamo che la successione C
a
di eventi di / decrescente con inter-
sezione vuota abbia la forma C
a
= C (t
a
. 1
a
) con 1
a
insieme compatto (per inciso, se
1 non compatto, questa rappresentazione unica, quando esiste). Allora gli insiemi
1
a
non possono essere tutti diversi dal vuoto. Rimandiamo la verica al Lemma 2.
Ma allora, se per un certo :
0
linsieme 1
a
0
vuoto, vale j(C
a
0
) = 0, da cui discende
(per monotonia) j(C
a
) = 0 per ogni : _ :
0
e quindi anche lim
ao
j(C
a
) = 0.
Lidea della dimostrazione allora la seguente: data una rappresentazione C
a
=
C (t
a
. 1
a
) degli insiemi cilindrici della successione, ssato 0, usando la propriet
di regolarit dello spazio 1 si pu trovare una successione di compatti 1
a
, 1
a
1
a
tali che, detto 1
a
linsieme cilindrico di base 1
a
(invece che 1
a
) e coordinate t
a
,
insieme che verica 1
a
C
a
, vale
j(C
a
) j(1
a
) = j(C
a
1
a
) _ .
Se riusciamo a trovare 1
a
in modo che 1
a
sia anche decrescente, allora per il
Lemma 2, lim
ao
j(1
a
) = 0. Questo implica che esiste :
0
_ 0 tale che per ogni
: _ :
0
, j(C
a
) _ . Per larbitrariet di si ottiene lim
ao
j(C
a
) = 0.
Lunico punto che richiede un attimo di lavoro fare in modo che 1
a
sia decres-
cente. Sia quindi, ssato 0, 1
0
1
una successione di compatti, 1
0
a
1
a
, tali che
j
tn
(1
a
1
0
a
) <
.
2
n
(essi esistono per la regolarit di 1). Indichiamo con 1
0
a
la succes-
sione degli insiemi cilindrici di base 1
0
a
e coordinate t
a
; 1
0
a
C
a
in quanto 1
0
a
1
a
,
ma non sappiamo se 1
0
a
decrescente. Poniamo 1
a
= 1
0
1
... 1
0
a
. Sicuramente
1
a
una successione di insiemi cilindrici decrescente. Mostriamo che esistono dei
compatti 1
a
1
a
, tali che 1
a
ha base 1
a
e coordinate t
a
; e j(C
a
1
a
) _ .
Gli insiemi 1
a
hanno la forma
1
a
=
_
,[
t
1
1
0
1
. .... ,[
tn
1
0
a
_
.
Si immagini lesempio 1
2
=
_
,[
(t
1
,t
2
)
1
0
1
. ,[
(t
2
,t
3
)
1
0
2
_
. Si pu descrivere nella
forma
1
2
=
_
,[
(t
1
,t
2
,t
3
)
1
0
1
1. ,[
(t
1
,t
2
,t
3
)
1 1
0
2
_
=
_
,[
(t
1
,t
2
,t
3
)

_
1
0
1
1
_

_
1 1
0
2
__
e linsieme (1
0
1
1) (1 1
0
2
) compatto. Il caso generale si scrive con fatica ma
identico. Quindi esiste 1
a
1
a
, tali che 1
a
ha base 1
a
e coordinate t
a
.
Vale poi (si osservi che 1
0
I
C
I
C
a
; si scriva inoltre C
a
1
a
= C
a
(1
0
1
... 1
0
a
)
c
)
C
a
1
a
=
_
C
a
1
0
1
_
'
_
C
a
1
0
2
_
' ... '
_
C
a
1
0
a
_

_
C
1
1
0
1
_
'
_
C
2
1
0
2
_
' ... '
_
C
a
1
0
a
_
10 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
da cui
j(C
a
1
a
) _
a

I=1
j
_
C
I
1
0
I
_
_
a

I=1

2
I
_ .
La dimostrazione completa.
Nella dimostrazione del seguente lemma usiamo la notazione [t[ per la cardinalit
di t o. Se t = (t
1
. .... t
a
), vale [t[ = :.
Lemma 1 Se C (t
t
. 1
t
) e C (t
tt
. 1
tt
) sono due rappresentazioni dello stesso insieme
cilindrico C, abbiamo j
t
0 (1
t
) = j
t
00 (1
tt
).
Proof. Se vale t
t
= t
tt
, si pu riconoscere che vale anche 1
t
= 1
tt
. In questo caso la
tesi ovvia. Se t
tt
ottenuta da t
t
tramite una permutazione degli indici (i
1
. .... i
a
),
allora 1
tt
= 1
(i
1
,...,in)
(1
t
) e linvarianza della denizione di j garantita dalla propriet
(1.2).
Se, cosiderando t
t
e t
tt
come insiemi non oridinati, vale t
t
t
tt
, a meno di permu-
tazione delle coordinate risulta 1
tt
della forma 1
t
1
[t
00
[[t
0
[
. Quando [t
tt
[ [t
t
[ = 1
basta applicare la propriet (1.3); quando [t
tt
[ [t
t
[ 1 si agisce in [t
tt
[ [t
t
[ passi
sempre con la propriet (1.3).
Se t
t
e t
tt
, cosiderate come insiemi non oridinati, non sono contenute una nellaltra,
si consideri t = t
t
t
tt
. Esiste 1 tale che C (t. 1) una terza rappresentazione; 1
la proiezione lungo le coordinate t di 1
t
o di 1
tt
. Per capire che cos, si pensi al caso
t
t
= (t
1
. t
2
), t
tt
= (t
2
. t
3
) (il caso generale solo notazionalmente pi faticoso): vale
_
, 1
T
: (, (t
1
) . , (t
2
)) 1
t
_
=
_
, 1
T
: (, (t
2
) . , (t
3
)) 1
tt
_
ovvero
(, (t
1
) . , (t
2
) . , (t
3
)) 1
t
1 = (, (t
1
) . , (t
2
) . , (t
3
)) 1 1
tt
.
Questo implica che gli insiemi di 1
3
dati da 1
t
1 e 1 1
tt
coincidono. Questo
compatibile solo con la struttura 1 1 1.
Vale allora C (t
t
. 1
t
) = C (t. 1) ma t t
t
, quindi j
t
0 (1
t
) = j
t
(1). Lo stesso si
pu dire per C (t
tt
. 1
tt
) e quindi j
t
0 (1
t
) = j
t
00 (1
tt
). La dimostrazione completa.
Lemma 2 Sia C
a
/ decrescente con intersezione vuota, della forma C
a
= C (t
a
. 1
a
)
con 1
a
insieme compatto. Allora gli insiemi 1
a
non possono essere tutti diversi dal
vuoto.
Esercizio 2 Sia t
a
1 una successione data e sia C
a
/ della forma
C
a
= , (t
1
) 1
1,a
. .... , (t
a
) 1
a,a

dove la famiglia a due indici interi positivi 1


I,a
c soddisfa
1
I,a+1
1
I,a
per ogni /. : N. Quindi C
a
decrescente. Mostrare in questo caso che, se
C
a
ha intersezione vuota, allora lim
ao
j(C
a
) = 0.
1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 11
Esercizio 3 Sia t
a
1 una successione data e sia C
a
/ decrescente. Supponi-
amo che esista /
0
N tale che, per : _ /
0
, :
I
0
C
a
c sia una successione decres-
cente con intersezione vuota. Qui :
I
0
: 1
T
1 la proiezione , :
I
0
(,) = , (t
I
0
).
Allora C
a
ha intersezione vuota e lim
ao
j(C
a
) = 0.
Esercizio 4 Sia t
a
1 una successione data. Vericare che gli insiemi
C
a
=
_
, (t
I1
) < , (t
I
) < , (t
I1
) +
1
:
. / = 2. 3. .... :
_
non rientrano nei casi trattati dagli esercizi precedenti ma formano una successione
decrescente con intersezione vuota.
Esercizio 5 Data una misura di probabilit ` sui boreliani di uno spazio metrico
(A. d), diciamo che essa tight se per ogni 0 esiste un compatto 1
.
tale che
`(1
.
) 1 . Mostrare che il teorema di costruzione dei processi di Kolmogorov
continua a valere se, invece di supporre che lo spazio metrico 1 sia o-compatto, si sup-
pone che sia metrico e che ogni distribuzione di dimensione nita j
t
, t o, sia tight.
[Presa t o e la corrispondente misura j
t
su c
a
, esiste un boreliano A
a
1
a
che
uno spazio metrico o-compatto e j
t
pu essere ristretta ad una misura di probabilit
su A
a
. Il resto della dimostrazione del teorema di Kolmogorov inalterata.]
Osservazione 3 Ogni misura di probabilit ` sui boreliani uno spazio metrico com-
pleto e separabile (polacco) tight. La propriet di essere polacco passa al prodotto
cartesiano nito. Allora il teorema di Kolmogorov vale se, invece di supporre che lo
spazio metrico 1 sia o-compatto, si suppone che sia polacco.
1.2.1 Processi gaussiani
Ricordiamo che la densit gaussiana standard la funzione , (r) =
1
_
2
exp (r
2
,2) e
la densit gaussiana ` (j. o
2
) la funzione
, (r) =
1
_
2:o
2
exp
_

(r j)
2
2o
2
_
.
Inoltre, un vettore aleatorio 2 = (2
1
. .... 2
a
) gaussiano standard se ha densit
congiunta
, (r
1
. .... r
a
) =
a

i=1
1
_
2:
exp
_

r
2
i
2
_
= (2:)
a2
exp
_

r
2
1
+ ... + r
2
a
2
_
(questo equivale a chiedere che le componenti 2
1
. .... 2
a
siano gaussiane standard in-
dipendenti), mentre un vettore 1 = (1
1
. .... 1
n
) si dice gaussiano se si pu rappre-
sentare nella forma 1 = 2 + / con matrice : :, 2 vettore gaussiano standard,
12 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
/ R
n
. Tra le equivalenze con coi si pu riscrivere questa denizione, ricordiamo
la seguente: un vettore 1 = (1
1
. .... 1
n
) gaussiano se e solo se la v.a.

n
i=1
`
i
1
i

gaussiana per ogni scelta di (`
1
. .... `
n
) R
n
. Segue subito da queste denizioni che
se 1 = (1
1
. .... 1
n
) un vettore gaussiano, 1 una matrice : / e c R
I
, allora il
vettore aleatorio 11 + c un vettore gaussiano (in R
I
).
Ricordiamo inoltre che per matrice di covarianza di un vettore 1 = (1
1
. .... 1
n
) si
intende la matrice Q R
nn
denita da
Q
i)
= Co (1
i
. 1
)
) . i. , = 1. .... :.
E simmetrica e semi-denita positiva. La media (o vettore dei valori medi) il vettore
di coordinate 1 [1
i
], i = 1. .... :. Un vettore gaussiano standard 2 = (2
1
. .... 2
a
)
ha media nulla e covarianza pari allidentit di R
a
. Un vettore gaussiano della forma
1 = 2+/ come sopra, ha media / e matrice di covarianza Q =
T
. Pi in generale,
ricordiamo la seguente proposizione:
Proposizione 3 Se 1 = (1
1
. .... 1
n
) un vettore gaussiano di media j
Y
e covarianza
Q
Y
, 1 una matrice : / e c R
I
, allora il vettore aleatorio 11 + c un vettore
gaussiano di media 1j
Y
+ c e covarianza
Q = Q
Y

T
.
Sia 1 = (1
1
. .... 1
n
) un vettore gaussiano di media j e covarianza Q. Quando
det Q ,= 0, 1 ha densit di probabilit congiunta (la sua legge assolutamente continua
rispetto alla misura di Lebesgue di R
n
), data da
, (r) =
1
_
(2:)
a
det Q
exp
_

Q
1
(r j) . (r j)
2
_
dove r = (r
1
. .... r
a
). Altrimenti, se det Q = 0, la legge di 1 singolare rispetto alla
misura di Lebesgue di R
n
ed concentrata su un sottospazio proprio (precisamente
una variet ane, di codimensione maggiore di zero).
Chiameremo gaussiana ogni misura di probabilit su (R
a
. E(R
a
)) che sia legge di
una v.a. gaussiana. Equivalentemente, una misura di probabilit j su (R
a
. E(R
a
))
gaussiana se la sua legge immagine su (R. E(R)) attraverso qualsiasi proiezione uni-
dimensionale una misura con densit gaussiana o una delta di Dirac. Ricordiamo che
vale il seguente risultato:
Proposizione 4 Dati un vettore / R
a
ed una matrice Q R
aa
simmetrica e semi-
denita positiva, esiste una ed una sola misura gaussiana su (R
a
. E(R)
a
) che ha / come
vettore delle medie e Q come matrice di covarianza.
Fatte queste premesse sui vettori gaussiani, possiamo denire ed analizzare i processi
gaussiani. Osserviamo che anche in questo paragrafo linsieme 1 qualsiasi.
1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 13
Denizione 2 Un processo a valori reali A = (A
t
)
tT
si dice gaussiano se tutte le
sue marginali di dimensione nita (A
t
1
. .... A
tn
) sono vettori gaussiani. Analogamente,
una misura di probabilit su
_
R
T
. E(R)
T
_
si dice gaussiana se tutte le sue distribuzioni
di dimensione nita sono gaussiane.
Un processo reale quindi gaussiano se e solo se la sua legge su
_
R
T
. E(R)
T
_

gaussiana.
Se 1 un sottoinsieme di uno spazio euclideo, unione numerabile di compatti, dici-
amo che una misura su (C (1. 1) . E(C (1. 1))) gaussiana se tutte le sue distribuzioni
di dimensione nita sono gaussiane.
Un processo gaussiano ha la legge caratterizzata da poche funzioni: la funzione
valor medio :(t) = 1 [A
t
], t 1 e la funzione di covarianza C (t. :) = Co (A
t
. A
c
),
t. : 1.
Proposizione 5 Se due processi gaussiani hanno le stesse funzioni :(t) e C (t. :),
allora hanno la stessa legge.
Proof. La legge identicata dalle distribuzioni di dimensione nita. Le leggi dei due
processi sono misure gaussiane, con distribuzioni di dimensione nita gaussiane. Tali
gaussiane, diciamo in R
a
, sono univocamente determinate dai loro vettori medi e dalle
matrici di covarianza, che per a loro volta hanno come componenti le valutazioni delle
funzioni :(t) e C (t. :) in opportuni punti, quindi coincidono.
Ancor pi economica la descrizione nel caso di processi stazionari. Supponiamo
che sullinsieme 1 sia denita unoperazione di somma +, cio t + : 1 se t. : 1.
Ad esempio si possono considerare 1 = R
a
o 1 = [0. ) con lusuale somma euclidea.
Denizione 3 Un processo stocastico A = (A
t
)
tT
a valori in (1. c) si dice stazionario
in senso stretto se, per ogni t = (t
1
. .... t
a
) o le leggi di (A
t
1
. .... A
tn
) e (A
t
1
+I
. .... A
tn+I
)
coincidono per ogni / 1.
Denizione 4 Un processo reale A = (A
t
)
tT
, con 1 [A
2
t
] < per ogni t 1, si
dice stazionario in senso lato o debole se
:(t + /) = :(t)
C (t + /. : + /) = C (t. :)
per ogni /. :. t 1.
Nel caso di un processo reale, la stazionariet in senso stretto implica quella in
senso lato, ma non viceversa (non possiamo risalire alle leggi dai momenti di ordine
uno e due).
14 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
Proposizione 6 Se un processo gaussiano stazionario in senso lato allora anche
stazionario in senso stretto.
Proof. Dati t = (t
1
. .... t
a
) o e / 1, le leggi di (A
t
1
. .... A
tn
) e (A
t
1
+I
. .... A
tn+I
),
essendo gaussiane, sono identicate dai vettori medi di componenti 1 [A
t
I
] e 1 [A
t
I
+I
],
che coincidono essendo :(t
I
+ /) = :(t
I
), / = 1. .... :, e dalle matrici di covarianza di
componenti Co
_
A
t
.
. A
t

_
e Co
_
A
t
.
+I
. A
t

+I
_
, che coincidono essendo C (t
i
+ /. t
)
+ /) =
C (t
i
. t
)
). Quindi le leggi di (A
t
1
. .... A
tn
) e (A
t
1
+I
. .... A
tn+I
) coincidono ed abbiamo la
stazionariet in senso stretto.
Supponiamo che 1 sia un gruppo rispetto alla somma + e sia 0 lelemento neutro.
In questo caso la stazionariet in senso lato permette di descrivere la legge del processo
gaussiano in modo estremamente economico.
Proposizione 7 Se un processo gaussiano stazionario in senso lato allora la sua
legge identicata dal numero : := 1 [A
t
] e dalla funzione di una variabile
C (t) := Co (A
t
. A
0
) . t 1.
Proof. Le distribuzioni di dimensione nita sono identicate dalle funzioni :(t) e
C (t. :) ma queste, a loro volta, per la stazionariet in senso lato sono luna costante,
:(t) = :, laltra identicata dai suoi valori nei punti (t. :) della forma (:. 0), in quanto
C (t :. 0) = C (t. :)
(/ = : nella denizione di stazionariet).
Concludiamo con un risultato di esistenza.
Proposizione 8 Date due funzioni :(t) e C (t. :), t. : 1, se C (t. :) = C (:. t) e
vale
a

i,)=1
C (t
i
. t
)
)
i

)
_ 0
per ogni : N, (t
1
. .... t
a
) 1
a
, (
1
. ....
a
) R
a
, allora esiste un processo gaussiano
che ha queste funzioni come media e covarianza.
Proof. Basta costruire una misura gaussiana su
_
R
T
. E(R)
T
_
e prendere il processo
canonico. Per il teorema di costruzione di Kolmogorov ((1. c) = (R. E(R)) soddis-
fa lipotesi del teorema), basta costruire una famiglia consistente j
t
; t o di dis-
tribuzioni di dimensione nita, che siano gaussiane (quindi la misura ed il processo
saranno gaussiani) e tali che valga la seguente propriet: presa t = (t
1
. .... t
a
) o, se
(A
t
1
. .... A
tn
) un vettore aleatorio di legge j
t
, quindi gaussiano, valga 1 [A
t
I
] = :(t
I
)
e Co
_
A
t
.
. A
t

_
= C (t
i
. t
)
) per ogni /. i. , = 1. .... :.
1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 15
Dato t = (t
1
. .... t
a
) o, sia j
t
la misura gaussiana su R
a
avente vettore medio di
componenti :(t
I
) e matrice di covarianza di componenti C (t
i
. t
)
), per ogni /. i. , =
1. .... :. Un tale misura esiste ed unica. Infatti la matrice di componenti C (t
i
. t
)
)
semidenita positiva, per ipotesi, ed abbiamo ricordato sopra che un vettore ed una
matrice semidenita positiva deniscono univocamente una misura gaussiana. La va-
lidit della propriet detta poco sopra (1 [A
t
I
] = :(t
I
) e Co
_
A
t
.
. A
t

_
= C (t
i
. t
)
),
se (A
t
1
. .... A
tn
) ha legge j
t
) assicurata per denizione. Resta da vericare la consis-
tenza. Omettiamo, per non appesantire la trattazione, la verica della propriet (1.2)
e limitiamoci alla (1.3).
Con le notazioni usate in precedenza, t = (t
1
. .... t
a
) o, t
b a
= (t
1
. .... t
a1
),
:
b a
: 1
a
1
a1
che manda la generica sequenza (r
1
. .... r
a
) 1
a
nella sequenza
(r
1
. .... r
a1
) 1
a1
, dobbiamo dimostrare che
j
t
b n
= :
b a
(j
t
) .
La trasformazione :
b a
lineare e quindi i vettori delle medie :
t
b n
e :
t
di j
t
b n
e j
t
rispettivamente sono legati dalla relazione :
t
b n
= :
b a
:
t
, le matrici di covarianza Q
t
b n
e Q
t
di j
t
b n
e j
t
rispettivamente sono legate dalla relazione Q
t
b n
= :
b a
Q
t
:
T
b a
(us-
ando la notazione :
b a
anche per la matrice associata alla trasformazione nella base
canonica). Il vettore :
t
ha componenti :(t
I
), / = 1. .... :, quindi :
b a
:
t
il vettore
(:(t
1
) . .... :(t
a1
)) 1
a1
, che proprio il vettore delle medie di j
t
b n
.
La verica della propriet Q
t
b n
= :
b a
Q
t
:
T
b a
elementare ma noiosa da scrivere. Per
completezza la riportiamo. La matrice :
b a
ha componenti (:
b a
)
),c
= o
),c
, per , =
0. .... :1, c = 1. .... :. Quindi la matrice :
T
a,i
ha componenti
_
:
T
b a
_
o,I
= (:
b a
)
I,o
= o
I,o
,
per / = 0. .... : 1, , = 1. .... :. Quindi, dallidentit
_
:
b a
Q
t
:
T
b a
_
)I
=
a

c,o=1
(:
b a
)
),c
(Q
t
)
c,o
_
:
T
b a
_
o,I
si deduce, per ,. / = 0. .... : 1,
=
a

c,o=1
o
),c
C (t
c
. t
o
) o
I,o
= C (t
)
. t
I
) .
Questa la matrice Q
t
b n
. La dimostrazione completa.
Esercizio 6 Costruire un processo A con 1 = [0. 1] che si annulli in t = 0 e t = 1
q.c., ed invece A
t
abbia densit di probabilit strettamente positiva per ogni t (0. 1)
(un ponte stocastico).
16 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
1.2.2 Filtrazioni
A partire da questo paragrafo supponiamo che 1 sia un intervallo di R, o pi precisa-
mente per ssare le idee
1 = [0. ).
Si intuisce che si possa svolgere una teoria pi generale ma gli esempi che tratteremo
nel corso non la motivano.
Chiamiamo ltrazione su (. T. 1) una famiglia (T
t
)
tT
di o-algebre di insiemi di
, T
t
T per ogni t 1, che sia crescente: T
c
T
t
se : < t 1.
Un processo A = (A
t
)
tT
denito su (. T. 1) a valori in (1. c) si dice adattato alla
ltrazione (T
t
)
tT
se per ogni t 1 la funzione A
t
misurabile da (. T
t
) in (1. c).
Supponiamo 1 = [0. ); se 1 un intervallo che contiene 0 la denizione analoga.
Il processo A si dice progressivamente misurabile se per ogni t _ 0 lapplicazione
(:. .) A
c
(.) da ([0. t] . E([0. t]) T
t
) in (1. c) misurabile.
Se A progressivamente misurabile, allora misurabile ed adattato. Viceversa,
vale ad esempio il seguente risultato.
Proposizione 9 Sia 1 uno spazio topologico, c = E(1). Se A adattato e q.c.
continuo a destra (oppure q.c. continuo a sinistra) allora progressivamente misurabile.
Proof. Sia ( una o-algebra su . Il seguente criterio di misurabilit noto: se
una funzione , : [c. /] 1 continua a destra ed . , (t. .) misura-
bile da (. () in (1. c) per ogni t [c. /], allora (t. .) , (t. .) misurabile da
([c. /] . E([c. /]) () in (1. c). La dimostrazione si fa ad esempio approssimando
, con funzioni continue a destra e costanti a tratti in t.
Basta allora applicare questo criterio ad ogni restrizione di A ad insiemi della forma
[0. t] . La dimostrazione completa.
Un insieme ` trascurabile rispetto a (. T. 1) se 1
+
(`) = 0 dove 1
+
() =
inf 1 (1) ; 1 T. 1. Quindi ` trascurabile se inf 1 (1) ; 1 T. ` 1 =
0. Indichiamo con A linsieme degli insiemi trascurabili rispetto a (. T. 1). Una l-
trazione (T
t
)
tT
completa se ogni T
t
contiene A. E equivalente che T
0
contenga A.
[Una o-algebra ( si dice completa quando contiene gli insiemi trascurabili rispetto a
(. (. 1). Quindi il chiedere che T
0
contenga A - famiglia degli insiemi trascurabili
rispetto a (. T. 1) - o che sia completa sono aermazioni dierenti.]
E comodo che tutte le o-algebre di una ltrazione contengano A. Altrimenti si
creano tante piccole complicazioni un po innaturali; ad esempio se 1 modicazione
di un processo adattato A e la ltrazione non completa, non si pu concludere che
anche 1 sia adattato. Infatti, preso 1 c e t 1, levento 1
t
1 pu dierire da
A
t
1 per un insieme di A, ma tale insieme potrebbe non appartenere a T
t
, quindi
la propriet A
t
1 T
t
pu non implicare 1
t
1 T
t
. Invece, vale:
Osservazione 4 Se (T
t
)
tT
completa, A adattato ed 1 una modicazione di A,
allora 1 adattato.
1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 17
Una ltrazione (T
t
)
tT
si dice continua a destra se per ogni t 1
T
t
=

.0
T
t+.
.
Questa condizione interviene ogni tanto nei teoremi successivi, e la completezza ancora
di pi, per cui spesso per unicare gli enunciati di una teoria si assume sin dallinizio
che la ltrazione di riferimento della teoria sia completa a continua a destra. Diremo
che una ltrazione soddisfa le condizioni abituali se completa e continua a destra.
Si ricordi che lintersezione (arbitraria) di o-algebre una o-algebra, quindi

.0
T
t+.
sempre una o-algebra. Invece lunione no; indicheremo col simbolo T.( la pi piccola
o-algebra che contiene T ' (; per cui scriveremo ad esempio

t0
T
t
per la pi piccola
o-algebra che contiene ogni T
t
, denotata con T
o
.
Dato un processo stocastico A, ad esso associata la ltrazione generata da A
denita da
T
00
t
= o A
c
; : 1. : _ t
A livello interpretativo, gli eventi di T
00
t
sono gli eventi conoscibili al tempo t se os-
serviamo il processo A. La notazione T
00
t
non universale ed usata qui solo per
distinguere questa ltrazione dalle seguenti.
Essendo comodo che la ltrazione di riferimento sia completa, si introduce la l-
trazione (T
0
t
)
tT
denita da T
0
t
= o T
00
t
' A. La ltrazione (T
0
t
)
tT
il completa-
mento della ltrazione (T
00
t
)
tT
(naturalmente questo procedimento si pu applicare a
qualsiasi ltrazione).
Volendo richiedere che la ltrazione sia anche continua a destra, poniamo
T
t
=

.0
T
0
t+.
.
Osservazione 5 Questa ltrazione continua a destra: T
t
=

.0
T
t+.
. Infatti, T
0
t

T
t
(per ogni t 1) per monotonia di (T
0
t
)
tT
e denizione di T
t
, quindi

.0
T
0
t+.

.0
T
t+.
, per cui T
t


.0
T
t+.
per denizione di T
t
. Viceversa, T
t+.
T
0
t+2.
per ogni
t 1 ed 0, per denizione di T
t
, quindi

.0
T
t+.


.0
T
0
t+2.
= T
t
.
La ltrazione cos costruita la pi piccola che soddis le condizioni abituali e
rispetto a cui il processo sia adattato.
18 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
1.3 Speranza condizionale e probabilit condizionale
1.3.1 Speranza condizionale
Teorema 2 Data una v.a. A a valori reali, integrabile su (. T. 1) ed una o-algebra
( T, esiste una v.a. (-misurabile A
t
tale che
_
1
Ad1 =
_
1
A
t
d1
per ogni 1 (. Inoltre unica a meno di 1-equivalenze.
La dimostrazione dellesistenza si basa sul teorema di Radon-Nikodym, lunicit su
un semplice argomento prendendo levento 1 = A
t
A
tt
, se A
t
. A
tt
soddisfano le
stesse condizioni.
Denizione 5 Sia A una v.a. integrabile su (. T. 1) e sia ( una o-algebra, (
T. Chiamiamo speranza condizionale di A rispetto a ( ogni variabile aleatoria (-
misurabile A
t
tale che
_
1
Ad1 =
_
1
A
t
d1
per ogni 1 (. Chiameremo con lo stesso nome anche la classe di 1-equivalenza di
tali variabili. La speranza condizionale di A rispetto a ( viene indicata con 1 [A[(].
Quando scriveremo uguaglianze tra diverse speranze condizonali o tra una speranza
condizionale ed una v.a., si intender sempre luguaglianza come classi di equivalenza,
o 1-q.c.
Lintuizione che, avendo a disposizione il grado di informazione fornito da (, la
nostra attesa circa il valore di A pi precisa della semplice 1 [A] (attesa incon-
dizionata), dipende da ci che si avvera nei limiti della nezza di (, quindi una v.a.
(-misurabile. Inoltre, se 1 un atomo di ( con 1 (1) 0, per cui A
t
deve essere
costante su 1, lidentit della denizione dice che
A
t
[
1
=
1
1 (1)
_
1
Ad1
cio A
t
una sorta di media locale di A; per un 1 generale lidentit stabilisce una gen-
eralizzazione di tale propriet. Si risolva il seguente esercizio, per aiutare ulteriormente
lintuizione.
Esercizio 7 Sia ( generata da una partizione misurabile 1
1
. .... 1
a
. Allora 1 [A[(] =

a
i=1
_
1
1(1
.
)
_
1
.
Ad1
_
1
1
.
. In altre parole, 1 [A[(] costante su ciascun 1
i
e l vale
la media di A su 1
i
,
1
1(1
.
)
_
1
.
Ad1.
1.3. SPERANZA CONDIZIONALE E PROBABILIT CONDIZIONALE 19
Proof. La v.a. A
t
=

a
i=1
_
1
1(1
.
)
_
1
.
Ad1
_
1
1
.
(-misurabile. Prendiamo 1 = 1
1
1
.
Vale
1 [A1 ] =
_
1
1
Ad1
1 [A
t
1 ] =
a

i=1
_
1
1 (1
i
)
_
1
.
Ad1
_
1 [1
1
.
1
1
1
]
=
a

i=1
_
1
1 (1
i
)
_
1
.
Ad1
_
o
i1
1 (1
1
) =
_
1
1
Ad1
e quindi sono uguali.
Osservazione 6 La denizione data sopra equivale a chiedere che A
t
sia (-misurabile
e valga
1 [A1 ] = 1 [A
t
1 ]
per ogni v.a. 1 limitata (-misurabile. Unimplicazione ovvia (prendendo 1 della
forma 1
1
con 1 (). Per laltra, dalla denizione, che si riscrive 1 [A1
1
] = 1 [A
t
1
1
],
discende che 1 [A1 ] = 1 [A
t
1 ] per 1 della forma 1 =

i
1
1
.
,
i
R, 1
i
(. Con
variabili di quel tipo possiamo approssimare dal basso puntualmente ogni 1 limitata
(-misurabile e passare al limite per convergenza monotona.
Proposizione 10 Siano A, 1 , A
a
integrabili, ( una sotto o-algebra di T. Valgono
le seguenti aermazioni:
i) Se (
t
( T allora 1 [1 [A[(] [(
t
] = 1 [A[(
t
]; in particolare ((
t
= ?. ),
1 [1 [A[(]] = 1 [A]
ii) Se A (-misurabile ed A1 integrabile, allora 1 [A1 [(] = A1 [1 [(]
iii) Se A indipendente da ( allora 1 [A[(] = 1 [A]
iv) 1 [cA + /1 + c[(] = c1 [A[(] + /1 [1 [(] + c
v) Se A
a
una successione di v.a. monotona non decrescente, con A = lim
ao
A
a
integrabile, allora 1 [A
a
[(] 1 [A[(] q.c.
La verica di queste propriet un utile esercizio; rimandiamo comunque ai corsi di
base di Probabilit. Utile tecnicamente la seguente generalizzazione delle propriet
(ii)-(iii). Si noti che , (
t
-misurabile nel suo secondo argomento, A (-misurabile, e
(, (
t
sono o-algebre indipendenti.
Proposizione 11 Dato uno spazio probabilizzato (. T. 1) ed uno spazio misurabile
(1. c), siano ( T e (
t
T due o-algebre indipendenti. Sia , : (1 . c (
t
)
(R. E(R)) misurabile limitata e sia A : (. () (1. c) misurabile. Allora
1 [,(A. ) [(] = (A)
dove denita da
(r) := 1 [,(r. )] . r 1.
20 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
Proof. Supponiamo , a variabili separate, ,(r. .) = ,
1
(r) ,
2
(.), con ,
1
: (1. c)
(R. E(R)), ,
2
: (. (
t
) (R. E(R)) misurabili limitate. Allora
1 [,(A. ) [(] = 1 [,
1
(A) ,
2
() [(] = ,
1
(A) 1 [,
2
()]
(A) = 1 [,(r. )]
a=A
= 1 [,
1
(r) ,
2
()]
a=A
= ,
1
(A) 1 [,
2
()]
quindi la formula vericata. Per linearit, vale per combinazioni lineari di funzioni
, della forma ,(r. .) = ,
1
(r) ,
2
(.). Si passa al caso generale per convergenza
monotona, usando la stabilit della speranza condizionale rispetto a tale convergenza.
Apparentemente potrebbe sembrare che, rimuovendo lipotesi che (
t
sia indipen-
dente da (, ovvero prendendo una qualsiasi funzione , : (1 . c T) (R. E(R))
misurabile limitata, valga lidentit
1 [,(A. ) [(] = 1 [,(r. ) [(] [
a=A
di cui quella della proposizione un caso particolare. Qui per si pone un problema di
versioni: per ogni r la speranza condizionale 1 [,(r. ) [(] denita a meno di insiemi
di misura nulla e quindi la sostituzione 1 [,(r. ) [(] [
a=A
non ha un senso ovvio.
Tra i risultati rilevanti citiamo anche il seguente. Se A di quadrato integra-
bile, 1 [A[(] la proiezione ortogonale di A sul sottospazio chiuso 1
2
(. (. 1) di
1
2
(. T. 1) (funzioni di quadrato integrabile misurabili rispetto a ( e T rispettiva-
mente).
1.3.2 Probabilit condizionale
Sia (. T. 1) uno spazio probabilizzato. Dati due eventi . 1 T con 1 (1) 0,
chiamiamo probabilit condizionale di sapendo 1 il numero
1 ([1) :=
1 ( 1)
1 (1)
.
Data una partizione misurabile 1
1
. .... 1
a
di , possiamo denire in numeri
1 ([1
i
) per tutti gli i = 1. .... : tali che 1 (1
i
) 0. Potremmo dire che la famiglia di
numeri 1 ([1
i
) la probabilit di condizionata alla partizione 1
1
. .... 1
a
. In
analogia col caso della speranza condizionale, potremmo codicare questa informazione
nella funzione
a

i=1
1 ([1
i
) 1
1
.
(se per un certo i vale 1 (1
i
) = 0, la funzione 1
1
.
equivalente a quella nulla e quindi
possiamo denire 1 ([1
i
) arbitrariamente). C quindi una funzione (-misurabile,
1 ([() :=

a
i=1
1 ([1
i
) 1
1
.
, che racchiude le informazioni utili circa la probabilit
1.3. SPERANZA CONDIZIONALE E PROBABILIT CONDIZIONALE 21
condizionale di rispetto ai vari elementi della partizione 1
1
. .... 1
a
e quindi delle
informazioni contenute nella o-algebra (.
Tra laltro, si noti che, sempre nel caso particolare di ( generata da 1
1
. .... 1
a
,
vale
1 [1

[(] = 1 ([()
in quanto
_
1
.
1

d1 = 1 ( 1
i
). Inoltre,
1 () = 1 [1 ([()]
o pi in generale
1 ( 1) =
_
1
1 ([() d1
per ogni 1 ( (si verichino queste due identit). Queste ultime formule sono una
riscrittura compatta dellutilissima formula di fattorizzazione (o delle probabilit totali)
1 () =
a

i=1
1 ([1
i
) 1 (1
i
)
e sua generalizazione a 1 ( 1).
Possiamo estendere queste denizioni e propriet al caso di una o-algebra ( T
pi generale, raggiungendo due livelli di generalizzazione.
Innanzi tutto, data ( T qualsiasi, poniamo
1 ([() := 1 [1

[(]
detta probabilit condizionale di rispetto alla o-algebra (. Quindi 1 ([(), denita
a meno di 1-equivalenza (o come classe di equivalenza), una v.a. (-misurabile tale
che
_
1
1 ([() d1 =
_
1
1

d1 = 1 ( 1)
per ogni 1 (. Questa identit, data ora per denizione, una versione generalizzata
della formula di fattorizzazione. La probabilit condizionale di rispetto ad una o-
algebra ( denita tramite la formula di fattorizzazione; o in altre parole, quella
v.a. che fa funzionare la formula di fattorizzazione anche nel caso non nito (cio di
una o-algebra generale invece che generata da una partizione nita). Questo il primo
livello.
C poi un secondo livello, pi complesso. Nasce dalla seguente domanda natu-
rale. Per ogni T, 1 ([() una classe di equivalenza, o comunque denita a
meno di insiemi trascurabili. Non ha senso ssare . e considerare la funzione
1 ([() (.). Possiamo scegliere un rappresentante
^
1 ([() da ciascuna classe
di equivalenza in modo che la funzione dinsieme
^
1 ([() (.) sia una misura di
22 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
probabilit? Se prendiamo degli insiemi disgiunti
1
.
2
. ... T, nel senso delle classi
di equivalenza (oppure quasi certamente per ogni scelta di rappresentanti) vale
1
_
_
i

i
[(
_
=

i
1 (
i
[() .
Ma non possiamo sperare che valga per
^
1 ([() (.), con . ssato, senza operare una
scelta molto oculata e non banale dei rappresentanti.
Denizione 6 Dati (. T. 1) e ( T, chiamiamo versione regolare della probabilit
condizionale rispetto a ( una funzione (. .) 1

(. .), denita su T , con le


seguenti propriet:
i) per 1-q.o. ., la funzione dinsieme 1

(. .) una misura di probabilit


su (. T)
ii) per ogni T, la funzione . 1

(. .) misurabile ed appartiene alla


classe di equivalenza 1 ([().
Vale il seguente teorema non banale:
Teorema 3 Se (. d) uno spazio metrico completo e separabile (spazio polacco) ed
T = E(), esiste sempre versione regolare della probabilit condizionale rispetto ad
ogni ( E().
Per la versione regolare valgono, come sopra,
1

(. ) = 1 [1

[(]
_
1
1

(. ) d1 = 1 ( 1)
per ogni T, 1 (. In pi per, possiamo denire integrali del tipo
_

A (.
t
) 1

(d.
t
. .)
con . ssato ed A ad esempio limitata misurabile. Si pu allora dimostrare che vale
_

A (.
t
) 1

(d.
t
. ) = 1 [A[(]
(nel senso che lintegrale a sinistra un elemento della classe di equivalenza a destra).
Questo inverte il procedimento visto sopra: a livello uno si pu denire la probabil-
it condizionale a partire dalla speranza condizionale; a livello due si pu denire la
speranza condizionale a partire da una versione regolare della probabilit condizionale.
1.4. PROPRIET DI MARKOV 23
Concludiamo con alcune varianti dei concetti precedenti. Data una v.a. A su
(. T. 1) ed un evento T indichiamo con o (A) la pi piccola o-algebra rispetto a
cui A misurabile e con 1 ([A) la v.a. 1 ([o (A)). Per un teorema di Doob, esiste
una funzione misurabile q

: R R tale che 1 ([A) = q

(A). A causa di questo,


viene anche usata la notazione 1 ([A = r) per intendere q

(r):
1 ([A = r) = q

(r) .
Ovviamente in generale 1 (A = r) non positivo, per cui non sarebbe lecito denire
1 ([A = r) come 1 ( A = r) ,1 (A = r).
1.4 Propriet di Markov
La propriet di Markov si pu esprimere a vari livelli, sia per un singolo processo
stocastico, sia per una famiglia di processi, sia per una famiglia di misure di proba-
bilit relativamente ad uno stesso processo. Inoltre si pu riscrivere in innumerevoli
modi. Inne, esiste la propriet di Markov e quella di Markov forte. Illustriamo qui
una possibilit tra le tante, riservandoci in seguito di descrivere altri casi ed altre
formulazioni.
Sia A = (A
t
)
t0
un processo stocastico su (. T. 1) a valori nello spazio misurabile
(1. c). Sia (T
t
)
t0
una ltrazione (qualsiasi) in (. T. 1).
Denizione 7 Il processo A si dice di Markov se
1 [,(A
t+I
) [T
t
] = 1 [,(A
t+I
) [A
t
] (1.4)
per ogni funzione , : (1. c) (R. E(R)) misurabile limitata, ed ogni t _ 0, / 0.
Proposizione 12 Chiedere luguaglianza 1 [,(A
t+I
) [T
t
] = 1 [,(A
t+I
) [A
t
] equivale
semplicemente a chiedere che 1 [,(A
t+I
) [T
t
] sia o (A
t
)-misurabile. Inoltre, equivale a
chiedere che per ogni c valga
1 (A
t+I
[T
t
) = 1 (A
t+I
[A
t
) . (1.5)
Oppure, che per ogni c la v.a. 1 (A
t+I
[T
t
) sia o (A
t
)-misurabile.
Proof. Se vale lidentit (1.4), allora 1 [,(A
t+I
) [T
t
] o (A
t
)-misurabile. Viceversa,
supponiamo che 1 := 1 [,(A
t+I
) [T
t
] sia o (A
t
)-misurabile. Dal momento che 1
soddisfa luguaglianza 1 [1 2] = 1 [,(A
t+I
) 2] per ogni v.a. 2 che sia T
t
-misurabile,
la soddisfa anche per tutte le v.a. 2 che siano o (A
t
)-misurabili. Quindi 1 una
speranza condizionale di ,(A
t+I
) sapendo A
t
, ovvero vale (1.4).
Inne, se vale (1.4), allora prendendo ,(r) = 1
a
vale (1.5). Viceversa, se vale
(1.5) per ogni c, vale (1.4) per le indicatrici ,(r) = 1
a
e poi per linearit per le
24 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
loro combinazioni lineari. Si passa alle funzioni misurabili limitate o con un teorema
generale o con un esplicito passaggio al limite monotono (ogni funzione misurabile limi-
tata limite crescente puntuale di funzioni semplici; poi si usa la convergenza monotona
delle speranze condizionali). Lultima aermazione si dimostra con ragionamenti simili.
La propriet di Markov esprime il fatto che ci che possiamo prevedere del futuro
inuenzato in uguale misura dal presente come dal presente incluso il passato. Detto
altrimenti, il passato non inuisce sul futuro, noto il presente. Con un po di pazienza
si possono dimostrare varie formulazioni equivalenti, alcune delle quali ad esempio
enfatizzano il ruolo simmetrico del passato e del futuro. Ad esempio, vale:
Proposizione 13 Il processo A di Markov se e solo se
1
_

_
A[
[t,o)
_

_
A[
[0,t]
_
[A
t

= 1
_

_
A[
[t,o)
_
1
_

_
A[
[0,t]
_
per ogni coppia di funzioni :
_
1
[0,o)
. c
[0,o)
_
(R. E(R)), :
_
1
[0,t]
. c
[[0,t]
_

(R. E(R)), misurabili limitate, ed ogni t _ 0.
Il futuro indipendente dal passato, noto il presente.
Una classe interessante di processi di Markov quella dei processi a incrementi
indipendenti, che contiene processi di fondamentale importanza.
Denizione 8 Sia 1 uno spazio vettoriale. Diciamo che un processo stocastico A =
(A
t
)
t0
, rispetto ad una ltrazione (T
t
)
t0
, ha incrementi indipendenti, se per ogni
t. / _ 0 la v.a. A
t+I
A
t
indipendente da T
t
.
Proposizione 14 Un processo a incrementi indipendenti di Markov.
Proof. Applichiamo la Proposizione 11. Dati t. / _ 0, sia (
t
=o A
t+I
A
t
, ( = T
t
.
Le o-algebre ( e (
t
sono indipendenti. La v.a. A
t+I
A
t
(-misurabile. Pre-
sa una funzione misurabile limitata : (1. c) (R. E(R)), vogliamo vericare che
1 [ (A
t+I
) [T
t
] o A
t
-misurabile. Scriviamo
1 [ (A
t+I
) [T
t
] = 1 [ (A
t
+ A
t+I
A
t
) [T
t
]
e consideriamo la funzione ,(r. .) = (r + A
t+I
(.) A
t
(.)). Essa c(
t
-misurabile.
Quindi sono soddisfatte tutte le ipotesi della Proposizione 11 (con A = A
t
), che fornisce
lidentit
1 [ (A
t
+ A
t+I
A
t
) [T
t
] = 1 [,(r. )] [
a=AI
.
Quindi 1 [ (A
t+I
) [T
t
] o A
t
-misurabile. La dimostrazione completa.
Introduciamo ora un concetto collegato alla propriet di Markov.
1.4. PROPRIET DI MARKOV 25
Denizione 9 Su uno spazio misurabile (1. c), diciamo che una funzione j (:. t. r. ),
denita per t : _ 0, r 1, c, una funzione di transizione markoviana se:
i) per ogni (:. t. ), r j (:. t. r. ) c-misurabile
ii) per ogni (:. t. r), j (:. t. r. ) una misura di probabilit su (1. c)
iii) vale lequazione di Chapman-Kolmogorov
j (:. t. r. ) =
_
1
j (n. t. . ) j (:. n. r. d)
per ogni t n : _ 0, r 1, c.
Denizione 10 Data una funzione di transizione markoviana j ed una misura di prob-
abilit j
0
su (1. c), diciamo che un processo stocastico A = (A
t
)
t0
, rispetto ad una
ltrazione (T
t
)
t0
(su uno spazio probabilizzato (. T. 1)) un processo di Markov
associato a j con legge iniziale j
0
se:
i) A
0
ha legge j
0
ii) per ogni t _ 0, / 0, c vale
1 (A
t+I
[T
t
) = j (t. t + /. A
t
. ) . (1.6)
Si noti che se un processo soddisfa le condizioni di questultima denizione, allora
di Markov, per la Proposizione 12. La denizione quindi arricchisce la propriet di
Markov.
Come sopra, la propriet (1.6) equivalente a
1 [,(A
t+I
) [T
t
] =
_
,() j (t. t + /. A
t
. d) (1.7)
per ogni , misurabile limitata.
Lintroduzione della funzione j (:. t. r. ) concettualmente (ed anche tecnica-
mente) un eettivo arricchimento. Essa corrisponde allidea intuitiva che, ad ogni
istante : _ 0, a causa della propriet di Markov il processo riparta dalla posizione
r occupata in quellistante, scordandosi del passato. La posizione r al tempo : iden-
tica la probabilit j (:. t. r. ) di occupare una posizione in in un generico istante
successivo t.
Nascono due domande naturali:
1. dato un processo di Markov, esiste una funzione di transizione markoviana j ad
esso associata?
2. Data una funzione di transizione markoviana j ed una generica probabilit iniziale
j
0
, esiste un processo di Markov A ad esse associato?
La prima domanda delicata per cui ci accontenteremo di vericare lesistenza in
vari esempi o di supporla in certi teoremi.
26 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
Osservazione 7 Mostriamo alcuni passi nella direzione di una costruzione di j par-
tendo da un processo di Markov. Se il processo A denito su uno spazio (. T. 1)
in cui metrico completo e separabile, T = E(), presa la sotto-o-algebra ( = T
c
,
esiste una versione regolare della probabilit condizionale di 1 rispetto a (, che in-
dichiamo con 1
c
(
t
. .),
t
T, . . Essa soddisfa, oltre alla misurabilit rispetto
a T
c
ed allessere una misura di probabilit rispetto ad
t
,
1
c
(
t
. ) = 1 (
t
[T
c
) .
Preso
t
della forma
t
= A
t
con c, scriviamo
j (:. t. .. ) := 1
c
(A
t
. .) .
Questo soddisfa
j (:. t. . ) = 1 (A
t
[T
c
) = 1 (A
t
[A
c
)
dove abbiamo usato lipotesi di markovianit. La funzione j (:. t. .. ) una
misura di probabilit. Il problema passare da j (:. t. .. ), . , a j (:. t. r. ),
r 1.
La seconda domanda ha risposta aermativa in spazi degli stati o-compatti. Premet-
tiamo una proposizione che illustra come la conoscenza della funzione di transizione
markoviana e della legge iniziale sono sucienti a identicare la legge di un processo,
se si suppone che esso sia di Markov.
Proposizione 15 Se A un processo di Markov con funzione di transizione marko-
viana j, allora, per ogni t = (t
1
. .... t
a
) o,
1
. ....
a
c, vale
1 (A
tn

3
. . A
t
1

1
)
_

1
j
t
1
(d
1
)
_

2
j (t
1
. t
2
.
1
. d
2
)
_
n
j (t
a1
. t
a
.
a1
. d
a
)
dove j
t
1
la legge di A
t
1
.
Proof. Il caso : = 3 chiarisce completamente la dimostrazione, che va poi svolta per
induzione. Chi avesse visto la dimostrazione perle catene di Markov ne riconoscerebbe
la struttura, basata sulla disintegrazione rispetto allultimo istante di tempo. Vale
1 (A
t
3

3
. A
t
2

2
. A
t
1

1
) = 1 [1

3
(A
t
3
) 1

2
(A
t
2
) 1

1
(A
t
1
)]
= 1 [1 [1

3
(A
t
3
) 1

2
(A
t
2
) 1

1
(A
t
1
) [T
t
2
]]
= 1 [1

2
(A
t
2
) 1

1
(A
t
1
) 1 [1

3
(A
t
3
) [T
t
2
]]
= 1 [1

2
(A
t
2
) 1

1
(A
t
1
) j (t
2
. t
3
. A
t
2
.
3
)] .
1.4. PROPRIET DI MARKOV 27
Analogamente, usando (1.6),
1 [1

2
(A
t
2
) 1

1
(A
t
1
) j (t
2
. t
3
. A
t
2
.
3
)]
= 1 [1 [1

2
(A
t
2
) 1

1
(A
t
1
) j (t
2
. t
3
. A
t
2
.
3
) [T
t
1
]]
= 1 [1

1
(A
t
1
) 1 [1

2
(A
t
2
) j (t
2
. t
3
. A
t
2
.
3
) [T
t
1
]]
= 1
_
1

1
(A
t
1
)
_
1

2
() j (t
2
. t
3
. .
3
) j (t
1
. t
2
. A
t
1
. d)
_
1
_
1

1
(A
t
1
)
_

2
j (t
2
. t
3
. .
3
) j (t
1
. t
2
. A
t
1
. d)
_
.
Inne, questultima espressione si pu riscrivere nella forma
_
1

1
(
1
)
_

2
j (t
2
. t
3
.
2
.
3
) j (t
1
. t
2
.
1
. d
2
) j
t
1
(d
1
)
=
_

1
j
t
1
(d
1
)
_

2
j (t
1
. t
2
.
1
. d
2
)
_

3
j (t
2
. t
3
.
2
. d
3
) .
Proposizione 16 Supponiamo 1 metrico o-compatto. Date una funzione di tran-
sizione markoviana j ed una generica probabilit iniziale j
0
, esiste un processo di
Markov A ad esse associato, unico in legge.
Proof. Diamo solo la traccia. Cerchiamo di usare il Teorema di Kolmogorov di
costruzione dei processi. Per far questo, dobbiamo costruire quelle che saranno le
distribuzioni di dimensione nita del processo. Sulla base della proposizione precedente,
per ogni t = (t
1
. .... t
a
) o indichiamo con j
t
la misura di probabilit su (1
a
. c
a
) tale
che
j
t
(
1
...
a
) =
_

1
j
t
1
(d
1
)
_

2
j (t
1
. t
2
.
1
. d
2
)
_
n
j (t
a1
. t
a
.
a1
. d
a
) .
La consistenza si verica immediatamente usando lequazione di Chapman-Kolmogorov
(si deve prendere
i
= c). Le altre propriet richiedono un po di lavoro che non
riportiamo.
28 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI
Capitolo 2
Il moto browniano
2.1 Denizione, esistenza e propriet di Markov
Denizione 11 Un moto browniano grossolano un processo stocastico 1 = (1
t
)
t0
tale che
i) 1 (1
t
= 0) = 1
ii) per ogni t : _ 0, 1
t
1
c
una gaussiana ` (0. t :)
iii) per ogni : N ed ogni sequenza t
a
... t
1
_ 0, le v.a. 1
tn
1
t
n1
,
1
t
n1
1
t
n2
, ... , 1
t
2
1
t
1
sono indipendenti.
Se aggiungiamo che sia continuo, lo chiameremo moto browniano perfezionato o
semplicemente moto browniano. La sua legge su (C[0. ). E(C[0. ))) sar detta
misura di Wiener.
A causa della propriet (i) si suole dire che un moto browniano standard. Al-
trimenti si pu considerare il caso in cui il processo esca da un altro punto iniziale,
diverso dallo zero.
A volte utile considerare il concetto di moto browniano rispetto ad una ltrazione
data.
Denizione 12 Un moto browniano, rispetto ad una ltrazione (T
t
)
t0
, un processo
stocastico 1 = (1
t
)
t0
tale che
i) 1 (1
t
= 0) = 1
ii) adattato
iii) per ogni t : _ 0, 1
t
1
c
una gaussiana ` (0. t :) indipendente da T
c
.
Se non imponiamo che sia continuo, lo diremo moto browniano grossolano, altri-
menti lo chiameremo moto browniano perfezionato o semplicemente moto browniano.
Nel caso della denizione 11, sia (T
00
t
)
t0
la ltrazione naturale: T
00
t
la pi piccola
o-algebra che rende misurabili tutte le v.a. 1
c
, con : [0. 1].
29
30 CAPITOLO 2. IL MOTO BROWNIANO
Proposizione 17 Un processo soddisfa la denizione 12 rispetto alla ltrazione natu-
rale (T
00
t
)
t0
, se e solo se soddisfa la denizione 11.
Proof. Supponiamo che valga la denizione 12 rispetto alla ltrazione naturale (T
00
t
)
t0
.
Presi t
a
... t
1
_ 0, osserviamo che gli incrementi 1
t
n1
1
t
n2
, ... , 1
t
2
1
t
1
sono
misurabili rispetto a T
00
t
n1
, quindi 1
tn
1
t
n1
indipendente da essi:
1
_
1
tn
1
t
n1

a
.
_
1
t
n1
1
t
n2
. .... 1
t
2
1
t
1
_

t
_
= 1
_
1
tn
1
t
n1

a
_
1
__
1
t
n1
1
t
n2
. .... 1
t
2
1
t
1
_

t
_
per ogni
a
E(R) ed
t
E(R
a1
). Questo vale in particolare per insiemi del tipo

t
=
a1

2
con
i
E(R). Basta poi iterare il ragionamento per ottenere
1
_
1
tn
1
t
n1

a
. .... 1
t
2
1
t
1

2
_
=
a

i=2
1
_
1
t
.
1
t
.1

i
_
che la condizione (iii) della denizione 11. Le altre propriet sono ovvie.
Viceversa, supponiamo che valga la denizione 11. Presi t : _ 0, lunico problema
dimostrare che 1
t
1
c
indipendente da T
00
c
. Ricordando il criterio dellesercizio 8,
suciente dimostrare lindipendenza tra o (1
t
1
c
) e gli elementi di una base di T
00
c
.
Prendiamo la famiglia / T
00
c
degli eventi della forma 1
&
1

1
. .... 1
&n

a
al
variare di n
1
_ ... _ n
a
[0. :],
1
. ....
a
E(R). Questa una base, in quanto genera
T
00
c
, chiusa per intersezione nita, contiene . Basta allora dimostrare lindipenden-
za tra o (1
t
1
c
) e gli elementi di /. Fissati n
1
_ ... _ n
a
[0. :], basta quindi
dimostrare lindipendenza tra o (1
t
1
c
) e gli elementi di o (1
&
1
. 1
&
2
. .... 1
&n
). Le
due o-algebre o (1
&
1
. 1
&
2
. .... 1
&n
) e o
_
1
&
1
. 1
&
2
1
&
1
. .... 1
&n
1
&
n1
_
coincidono (i
vettori (1
&
1
. 1
&
2
. .... 1
&n
) e
_
1
&
1
. 1
&
2
1
&
1
. .... 1
&n
1
&
n1
_
sono legati da una trasfor-
mazione biunivoca). Quindi basta mostrare lindipendenza tra o (1
t
1
c
) ed una base
di o
_
1
&
1
. 1
&
2
1
&
1
. .... 1
&n
1
&
n1
_
, ad esempio quella formata dagli eventi della for-
ma
_
1
&
1

1
. 1
&
2
1
&
1

2
. .... 1
&n
1
&
n1

a
_
al variare di
1
. ....
a
E(R).
A questo punto la verica ovvia, basandoci sullindipendenza delle v.a. 1
t
1
c
,
1
c
1
&n
, 1
&n
1
&
n1
, ... , 1
&
2
1
&
1
. 1
&
1
. La dimostrazione completa.
Esistono numerose formulazioni equivalenti della denizione di moto browniano (si
veda anche la sezione 2.1.1). Eccone una utile per la costruzione successiva.
Proposizione 18 Se 1 = (1
t
)
t0
un moto browniano standard grossolano, presa
t = (t
1
. .... t
a
) o, la distribuzione marginale j
t
su (R
a
. E(R)
a
) una gaussiana di
media nulla e matrice di covarianza Q
(t)
di componenti
Q
(t)
i)
= t
i
. t
)
.
Quindi 1 un processo gaussiano, con funzione valor medio :(t) = 0 e funzione di
covarianza
C (t. :) = t . :.
2.1. DEFINIZIONE, ESISTENZA E PROPRIET DI MARKOV 31
Viceversa, un processo gaussiano con tali funzioni media e covarianza, un moto
browniano grossolano.
Proof. Il vettore
_
1
tn
1
t
n1
. 1
t
n1
1
t
n2
. .... 1
t
2
1
t
1
. 1
t
1
_
gaussiano (si noti
che possiamo scrivere 1
t
1
come 1
t
1
1
0
). Infatti, ha componenti indipendenti e
gaussiane (in generale non sarebbe vero se le componenti non fossero indipendenti),
quindi la densit congiunta si pu scrivere come prodotto delle marginali, che essendo
gaussiane conducono con facili calcoli ad una densit congiunta gaussiana.
Il vettore (1
t
1
. .... 1
tn
) si ottiene dal precedente con una trasformazione lineare,
quindi anchesso gaussiano. La sua media nulla (per verica diretta). Calcoliamo la
sua matrice di covarianza direttamente, piuttosto che con la regola di trasformazione
citata a suo tempo. Se , i, quindi t
)
t
i
, vale
Q
(j)
i)
= Co
_
1
t
.
. 1
t

_
= Co
_
1
t
.
. 1
t

1
t
.
_
+ Co (1
t
.
. 1
t
.
)
= Co (1
t
.
. 1
t
.
) = \ c: [1
t
.
] = t
i
per linearit della covarianza nei suoi argomenti, indipendenza tra 1
t

1
t
.
e 1
t
.
ed
altri fatti ovvi. Quindi Q
(j)
i)
= t
i
. t
)
.
Viceversa, supponiamo che 1 sia un processo gaussiano con funzioni :(t) = 0 e
C (t. :) = t .:. Al tempo t = 0 abbiamo 1 [1
0
] = 0, \ c: [1
0
] = C (0. 0) = 0, quindi 1
0
una v.a. che vale 0 quasi certamente (ad esempio si deduce dalla disuguaglianza di
Chebyshev). Quindi la (i) vericata. Il vettore (1
t
1
. .... 1
tn
) gaussiano. Usando la
trasformazione inversa di quella usata nella prima parte della dimostrazione, si deduce
che il vettore
_
1
tn
1
t
n1
. 1
t
n1
1
t
n2
. .... 1
t
2
1
t
1
. 1
t
1
_
gaussiano. La sua media
nulla per verica diretta. Gli elementi della sua matrice di covarianza valgono
Co
_
1
t
n.
1
t
n.1
. 1
t
n
1
t
n1
_
= Co
_
1
t
n.
. 1
t
n
_
Co
_
1
t
n.
. 1
t
n1
_
Co
_
1
t
n.1
. 1
t
n
_
+ Co
_
1
t
n.1
. 1
t
n1
_
che, per i , diventano (t
ai1
< t
ai
_ t
a)1
< t
a)
), usando la formula Co (1
t
. 1
c
) =
t . :,
= t
ai
t
ai
t
ai1
+ t
ai1
= 0
mentre per i = , diventano (t
ai1
= t
a)1
< t
ai
= t
a)
)
= t
ai
t
ai1
t
ai1
+ t
ai1
= t
ai
t
ai1
.
Quindi la covarianza diagonale, cio le componenti del vettore aleatorio sono scorre-
late e questo implica che sono indipendenti, perch si tratta di un vettore gaussiano.
Le componenti sono gli incrementi del moto browniano, che quindi sono indipendenti
(propriet (iii)), oltre che gaussiani. Vale inne la propriet (ii): abbiamo gi stabilito
32 CAPITOLO 2. IL MOTO BROWNIANO
che il generico incremento gaussiano e centrato; vale poi, con gli stessi calcoli appena
eseguiti, per t : _ 0,
\ c: [1
t
1
c
] = Co (1
t
. 1
t
) Co (1
t
. 1
c
) Co (1
c
. 1
t
) + Co (1
c
. 1
c
)
= t : : + : = t :.
La dimostrazione completa.
Esistono numerose costruzioni di un moto browniano grossolano. Fatta la fatica
della proposizione precedente, per noi la strada pi breve basarsi sul teorema di
costruzione di Kolmogorov, nella sua applicazione generale ai processi gaussiani.
Proposizione 19 Un moto browniano grossolano esiste. La legge su
_
R
[0,o)
. E(R)
[0,o)
_
univocamente determinata.
Proof. La legge su
_
R
[0,o)
. E(R)
[0,o)
_
univocamente determinata dalle marginali,
che sono univocamente note in base al lemma precedente. Veniamo alla costruzione.
Per lesistenza, grazie alla Proposizione 18, basta che mostriamo lesistenza di un
processo gaussiano con :(t) = 0 e C (t. :) = t.:. Possiamo usare il criterio di esistenza
di processi gaussiani con funzioni :(t) e C (t. :) date. Per far questo, basta vericare
che C (t. :) = t . : sia una funzione semidenita positiva, nel senso che valga
a

i,)=1
(t
i
. t
)
)
i

)
_ 0 (2.1)
per ogni (t
1
. .... t
a
) [0. )
a
, (
1
. ....
a
) R
a
. Il resto della dimostrazione si occupa
di questa verica.
Ispirandoci a quanto gi scoperto sopra (Proposizione 18), possiamo mostrare che
esiste un vettore aleatorio con matrice di covarianza avente componenti t
i
.t
)
. Siccome
una matrice di covarianza semidenita positiva, la propriet (2.1) sar dimostrata.
Prendiamo delle v.a. A
1
. .... A
a
indipendenti, centrate e di varianze t
1
. t
2
t
1
. .... t
a

t
a1
. Deniamo delle v.a. 1
1
. .... 1
a
tramite le relazioni
A
1
= 1
1
A
2
= 1
2
1
1
...
A
a
= 1
a
1
a1
(relazioni chiaramente invertibili). Per ogni i = 2. .... :, vale
1
i
= 1
i
1
i1
+ ... + 1
2
1
1
+ 1
1
= A
i
+ ... + A
2
+ A
1
quindi
\ c: [1
i
] = \ c: [A
i
] + ... + \ c: [A
1
] = t
i
t
i1
+ ... + t
2
t
1
+ t
1
= t
i
2.1. DEFINIZIONE, ESISTENZA E PROPRIET DI MARKOV 33
ovvero
Co (1
i
. 1
i
) = t
i
= t
i
. t
i
.
Inoltre, se , i, per ragioni analoghe (essendo cio 1
i
= A
i
+ ... + A
2
+ A
1
), le v.a.
A
)
. A
)1
.... A
i+1
sono indipendenti da 1
i
, quindi
Co (1
)
. 1
i
) = Co (1
)
1
)1
+ ... + 1
i+1
1
i
+ 1
i
. 1
i
)
= Co (A
)
+ ... + A
i+1
+ 1
i
. 1
i
)
= Co (1
i
. 1
i
) = t
i
= t
i
. t
)
.
Quindi la matrice di covarianza di (1
1
. .... 1
a
) ha le componenti desiderate. Questo
conclude la dimostrazione.
Volendo si possono perseguire dimostrazioni pi algebriche, o ragionando sui minori
della matrice, oppure vericando la condizione (2.1) per : basso e trovando poi una
struttura iterativa. Per : = 2 vale
2

i,)=1
(t
i
. t
)
)
i

)
= t
1
(
1
+
2
)
2
+ (t
2
t
1
)
2
2
mentre per : = 3 vale
3

i,)=1
(t
i
. t
)
)
i

)
= t
1
(
1
+
2
+
3
)
2
+(t
2
t
1
)
2
2
+ 2 (t
2
t
1
)
2

3
+ (t
3
t
1
)
2
3
dove la somma degli ultimi tre termini simile al punto di partenza del caso : = 2. Ci
vuole per molta pazienza a completare il conto in questo modo. La dimostrazione
completa.
Esaminiamo ora lesistenza di un moto browniano continuo. Premettiamo il seguente
teorema che non dimostriamo in quanto ha fatto parte di un corso precedente. E detto
teorema di regolarit di Kolmogorov.
Teorema 4 Se un processo stocastico A = (A
t
)
t1
denito in un aperto 1 R
a
soddisfa
1 [[A
t
A
c
[
j
] _ C [t :[
a+c
per certe costanti j. C. c 0, allora esiste una modicazione A
t
t
di A
t
tale che le
traiettorie di A
t
t
sono -hlderiane per ogni <
c
j
.
Proposizione 20 Esiste un moto browniano continuo e le sue traiettorie sono c-
hlderiane, per ogni c (0. 1,2). Precisamente, per ogni 1 0 ed ogni c (0. 1,2)
esiste una funzione C
T,c
: (0. ) tale che
[1
t
(.) 1
c
(.)[ _ C
T,c
(.) [t :[
c
per ogni t. : [0. 1] ed ogni . .
34 CAPITOLO 2. IL MOTO BROWNIANO
Proof. Sia 1 un moto browniano grossolano. La v.a.
1I1s
_
tc
(per t :) una normale
standard. Fissiamo : N, diciamo : 2. Siccome
_
+o
o
[r[
a
c
a
2
2
dr < , esiste una
costante C
a
0 tale che
1
_

1
t
1
c
_
t :

a
_
_ C
a
e quindi
1 [[1
t
1
c
[
a
] _ C
a
(t :)
a2
= C
a
(t :)
1+
n2
2
.
La costante C
a
non dipende da t : _ 0. In base al teorema di regolarit di Kol-
mogorov, esiste una modicazione 1
(a)
t
di 1
t
tale che le traiettorie di 1
(a)
t
sono -
hlderiane per ogni <
n2
2
a
=
a2
2a
. Innanzi tutto, preso ad es. : = 3, questo dimostra
lesistenza di un moto browniano continuo: infatti 1
(3)
t
un processo continuo che
soddisfa le propriet (i) ed (ii) della denizione 11; anche la (iii) facile, usando le-
sercizio 9. Quindi 1
(3)
t
un moto browniano continuo. Prendiamo ora 1
(a)
t
, con : 3
qualsiasi. E una modicazione continua di 1
t
, quindi anche di 1
(3)
t
. Ma due processi
A ed 1 continui che sono modicazione uno dellaltro sono indistinguibili: numerati
i tempi positivi razionali con la successione t
a
, posto `
a
= A
tn
,= 1
tn
, linsieme
` = '
a
`
a
ha misura nulla, per . `
c
vale A
t
(.) = 1
t
(.) per ogni t Q[0. ), e
quindi per ogni t _ 0 essendo processi continui.
Abbiamo cos dimostrato che 1
(a)
t
indistinguibile da 1
(3)
t
. Sia `
a
linsieme dove
dieriscono, di misura nulla. Sia ` = '
a
`
a
, di misura nulla. Per . `
c
, 1
(3)
t
ha la
regolarit delle traiettorie di qualsiasi 1
(a)
t
, quindi -hlderiane per ogni <
a2
2a
, con
: qualsiasi, quindi -hlderiane per ogni <
1
2
. Abbiamo trovato un moto browniano
che quasi certamente ha traiettorie -hlderiane per ogni <
1
2
. Sullinsieme di misura
nulla in cui questo non accade possiamo porlo identicamente uguale a zero. Il nuovo
processo soddisfa le condizioni della proposizione.
Proposizione 21 Il moto browniano (anche grossolano) un processo di Markov.
Proof. Basta applicare una proposizione vista nel paragrafo dei processi di Markov che
asserisce che ogni processo a incrementi indipendenti di Markov. Il moto browniano
ha infatti incrementi indipendenti.
Esercizio 8 Sia (. T. 1) uno spazio probabilizzato. Ricordiamo che un insieme di
generatori di T una famiglia H T () tale che T =o (H). Invece una base di T
un insieme di generatori chiuso per intersezione nita e contenente (o almeno tale
che lunione numerabile di opportuni elementi di H sia ). Ricordiamo ad esempio
che due misure coincidenti su una base coincidono su tutta la o-algebra. Ricordiamo
poi che due sotto o-algebre (, (
t
di T si dicono indipendenti se vale 1 ( 1) =
1 () 1 (1) per ogni (, 1 (
t
. Sia H una base di (
t
. Mostrare che, se vale
1 ( 1) = 1 () 1 (1) per ogni (, 1 H, allora ( e (
t
, sono indipendenti.
2.1. DEFINIZIONE, ESISTENZA E PROPRIET DI MARKOV 35
[Vericare che linsieme di tutti gli elementi 1 T tali che 1 ( 1) = 1 () 1 (1)
per ogni (, una o-algebra.]
Esercizio 9 Vericare che se A
1
. .... A
a
sono v.a. indipendenti, e A
t
1
. .... A
t
a
sono 1-
equivalenti alle A
1
. .... A
a
rispettivamente, allora le v.a. A
t
1
. .... A
t
a
sono indipendenti.
[Preso
1
E(R), esistono due insiemi `
1
. `
t
1
di misura nulla tali che A
t
1

1
'
`
t
1
= A
1

1
' `
1
.]
2.1.1 Una motivazione modellistica
Brown osserv che particelle molto leggere ma visibili (tipo polline) messe in sospen-
sione in un liquido si muovono incessantemente e molto irregolarmente. Chiamiamole
particelle browniane. La spiegazione del loro moto, cos erratico, che le particelle
browniane risentono degli innumerevoli urti molecolari delle molecole del uido e si
spostano in conseguenza di essi.
Alcuni studiosi (Ornstein, Uhlenbeck, Chandrasekar ecc.) hanno dato una de-
scrizione tramite equazioni di Newton, molto realistica. Adottiamo invece una de-
scrizione pi fenomenologica, basata pi su argomenti ragionevoli e semplici piuttosto
che su un dettagliato bilancio di forze.
Sia A
t
la posizione al tempo t della particella browniana. Per semplicit supponi-
amola uni-dimensionale (oppure descriviamo una delle due componenti). La traiettoria
t A
t
continua. Gli spostamenti A
tn
A
t
n1
, A
t
n1
A
t
n2
, ... , A
t
2
A
t
1
relativi
a intervalli temporali disgiunti si possono considerare ragionevolmente indipendenti,
visto che gli innumerevoli urti in ciascun intervallo [t
i1
. t
i
] sono relativi a molecole di-
verse. Lo spostamento A
t+I
A
t
ha ragionevolmente una legge statistica che dipende
solo da / e non da t. Possiamo inoltre supporre che i momenti di A
t+I
A
t
siano
niti, ad esempio no allordine 3 (questa una condizione puramente tecnica), per
/ piccolo, senza violare cos lintuizione sica (non ci aspettiamo spostamenti troppo
grandi, mediamente); e che abbia media nulla. Inne, poniamo la particella borwniana
nellorigine, al tempo t = 0.
Tra queste, lunica ipotesi che unidealizzazione della realt quella di indipen-
denza, ma sembra molto vicina al reale. Si noti che non abbiamo ipotizzato nulla di
quantitativo circa la legge (es. gaussiana) e la dipendenza della varianza da /.
Supponiamo quindi di avere un processo stocastico A
t
tale che:
i) 1 (A
t
= 0) = 1, A
t
ha traiettorie continue
ii) A
tn
A
t
n1
, A
t
n1
A
t
n2
, ... , A
t
2
A
t
1
sono v.a. indipendenti, per ogni
t
a
_ t
a1
_ ... _ t
1
_ 0
iii) la legge di A
t+I
A
t
dipende solo da /, ha media zero, ed esiste una costante
C 0 tale che 1
_
[A
I
[
3

_ C per / sucientemente piccolo.


Un simile processo unico, cio univocamente identicato da questi requisiti? Si
pu precisare la distribuzione statistica degli incrementi, o si pu calcolare quella della
36 CAPITOLO 2. IL MOTO BROWNIANO
posizione A
t
? La risposta aermativa. Omettiamo la dimostrazione completa del
teorema che richiede alcuni argomenti un po tecnici sulle funzioni caratteristiche.
Teorema 5 La varianza di A
t
nita per ogni t. Supponendo (per ssare ununit di
misura) che \ c: [A
1
] = 1, A una moto browniano.
Proof. Fissato t 0, preso : N e detto / =
t
a
, vale
A
t
=
_
A
t
An1
n
t
_
+ ... +
_
A2
n
t
A1
n
t
_
+
_
A1
n
t
A
0
_
.
Le v.a. tra parentesi sono indipendenti ed hanno varianza nita (almeno se : grande)
per cui A
t
ha varianza nita. Fissiamo la scala ponendo \ c: [A
1
] = 1.
Mostriamo che \ c: [A
t
] = t per ogni t razionale positivo. Se t =
a
n
con :. :
interi positivi, vale A
t
=
_
A
an
A
(a1)n
_
+... +
_
A
1n
A
0
_
, quindi \ c:
_
A
an

=
:\ c:
_
A
1n

. La relazione vale anche per : = :, quindi 1 = :\ c:


_
A
1n

. Vale
quindi
\ c:
_
A
n
r

=
:
:
.
Per lipotesi sul momento terzo e la continuit delle traiettorie, possiamo applicare il
criterio di passaggio al limite in valore atteso di Vitali e dedurre \ c: [A
t
] = t per
ogni t _ 0. Questa dimostrazione si pu ripetere per il generico incremento A
t
A
c
provando che \ c: [A
t
A
c
] = t : per ogni t : _ 0.
Manca solo la gaussianit di A
t
A
c
, per aver vericato tutte le condizioni di
un moto browniano. La gaussianit si dimostra nello stesso modo del teorema limite
centrale, ma facendo entrare in gioco la continuit delle traiettorie. Questa parte
piuttosto tecnica e la omettiamo.
2.2 Regolarit del moto browniano
2.2.1 Dicolt ad usare il MB come integratore
Nei capitoli successivi saremo interessati ad integrali del tipo
_
t
0
A
c
d1
c
dove 1 un moto browniano. Come potrebbe essere denito questo integrale? Elenchi-
amo alcune possibilit (nessuna funzionante), in ordine di dicolt.
1. Se le traiettorie del MB fossero funzioni dierenziabili, e la derivata
o1s(.)
oc
avesse
un minimo di integrabilit, potremmo denire lintegrale precedente in modo ovvio,
come
_
t
0
A
c
(.)
o1s(.)
oc
d:. Invece il MB ha traiettorie che, q.c., non sono dierenziabili
in alcun punto. Questa propriet cos speciale che la dimostreremo in dettaglio nel
seguito del capitolo.
2.2. REGOLARIT DEL MOTO BROWNIANO 37
2. Unapparente ancora di salvezza sembra venire da un ragionamento semplicissi-
mo. Se A sucientemente regolare, possiamo denire
_
t
0
A
c
(.) d1
c
(.) = [A
c
(.) 1
c
(.)]
c=t
c=0

_
t
0
1
c
(.) dA
c
(.)
cio scaricare il problema della regolarit su A. Basta ad esempio che A abbia traiet-
torie a variazione limitata. Ma questo, pur vero, troppo restrittivo per i nostri scopi.
Infatti, il caso per noi di maggior interesse sar quello di integrali del tipo
_
t
0
, (A
c
) d1
c
dove , regolare ed A risolve unequazione dierenziale contenente 1, e fatta in modo
che la (poca) regolarit delle traiettorie di A sia simile a quella di 1 (si immagini ad
esempio unequazione della forma A
t
= 1
t
+
t
, dove un processo con traiettorie
molto regolari). Allora A non ha traiettorie a variazione limitata, come non le ha 1,
e quindi il trucchetto di integrare per parti non si pu applicare.
3. Se le traiettorie di 1 fossero funzioni a variazione limitata (ricorderemo tra
poco cosa questo signichi), allora potremmo denire
_
t
0
A
c
(.) d1
c
(.) per q.o. .,
per processi A opportuni, come integrale di Lebesgue-Stieltjes. Ma questo non vero,
le traiettorie di 1 non sono a variazione limitata, come dimostreremo poco sotto nel
capitolo. La derivata delle traiettorie browniane d1
c
(.) ,d: non una misura, solo
una distribuzione di classe meno regolare e non utile per eettuare integrazioni.
4. Esiste poi un concetto di integrale secondo Young che si applicherebbe se 1

(.)
fosse di classe C
c
([c. /]) con c
1
2
(funzioni hlderiane di ordine c), cosa non vera,
come vedremo sotto. E una teoria utile ad esempio per integrare rispetto a varianti
del MB come il moto browniano frazionario con indice di Hurst H
1
2
.
5. In conclusione, serve un concetto nuovo di integrale, detto integrale secondo It,
di cui ci occuperemo in un capitolo successivo. Va detto che in anni recenti stata
sviluppata la teoria dellintegrazione dei rough paths, che, entro certi limiti e con molte
precisazioni piuttosto complesse, permette di integrare rispetto a traiettorie browniane,
senza bisogno della teoria di It. Sia per la complessit, sia per le limitazioni, non ha
rimpiazzato la teoria di It, per gli usuali scopi di questa teoria. E invece risultata
utile per scopi particolari ed attualmente in grande evoluzione.
2.2.2 Commenti sulle funzioni a variazione limitata
Consideriamo funzioni , : [c. /] R. Usiamo le seguenti notazioni: indichiamo
una generica partizione di [c. /] con : = c _ t
1
< ... < t
ar
_ / e scriviamo [:[ =
max
i=1,...,ar1
[t
i+1
t
i
[.
38 CAPITOLO 2. IL MOTO BROWNIANO
Una funzione , : [c. /] R si dice a variazione limitata, e scriviamo , 1\ [c. /],
se
sup

ar1

i=1
[, (t
i+1
) , (t
i
)[ < .
Se , 1\ [c. /] e q C ([c. /]) allora, presa una successione :
I

IN
di partizioni di
[c. /], con lim
Io
[:
I
[ = 0, della forma :
I
=
_
c _ t
I
1
< ... < t
I
ar
I
_ /
_
, esiste il limite
lim
[[0
ar
I
1

i=1
q (
i
)
_
,
_
t
I
i+1
_
,
_
t
I
i
__
per ogni scelta di
i

_
t
I
i
. t
I
i+1

, indicato con
_
b
o
qd, e chiamato integrale di Riemann-
Stieltjes. Tale integrale si estende poi ad altre funzioni, in particolare nella direzione
dellintegrazione di Lebesgue, ma sostanzialmente serve sempre lipotesi che , sia
1\ [c. /].
Useremo poco pi tardi la seguente proposizione. A parole, potremmo dire che
se la variazione quadratica non nulla, allora la funzione non a variazione limitata.
Indichiamo inoltre con C
c
([c. /]) lo spazio delle funzioni hlderiane di ordine c (0. 1).
Proposizione 22 Sia , una funzione continua e sia :
I

IN
una successione di par-
tizioni di [c. /], con lim
Io
[:
I
[ = 0, della forma :
I
=
_
c _ t
I
1
< ... < t
I
ar
I
_ /
_
.
Se
lim
Io
ar
I
1

i=1

,
_
t
I
i+1
_
,
_
t
I
i
_

2
0
allora , non di classe 1\ [c. /]. Non nemmeno di classe C
c
([c. /]) per qualche
c
_
1
2
. 1
_
. In altre parole, se , una funzione continua BV, oppure C
c
([c. /]) per
qualche c
_
1
2
. 1
_
, allora lim
Io

ar
I
1
i=1

,
_
t
I
i+1
_
,
_
t
I
i
_

2
= 0.
Proof. Osserviamo che vale
ar
I
1

i=1

,
_
t
I
i+1
_
,
_
t
I
i
_

2
_
ar
I
1

i=1

,
_
t
I
i+1
_
,
_
t
I
i
_

_
max
i=1,...,ar
I
1

,
_
t
I
i+1
_
,
_
t
I
i
_

_
_ . (,. :
I
) sup

ar1

i=1
[, (t
i+1
) , (t
i
)[
dove . (,. :
I
), oscillazione di , su :
I
, denita da
. (,. :
I
) = max
i=1,...,ar
I
1

,
_
t
I
i+1
_
,
_
t
I
i
_

.
2.2. REGOLARIT DEL MOTO BROWNIANO 39
Vale lim
Io
. (,. :
I
) = 0, essendo , uniformemente continua su [c. /]. Se per assurdo
fosse , 1\ [c. /], allora dedurremmo lim
Io

ar
I
1
i=1

,
_
t
I
i+1
_
,
_
t
I
i
_

2
= 0, in
contraddizione con lipotesi. Quindi , , 1\ [c. /].
Se per assurdo fosse , C
c
([c. /]) per un qualche c
_
1
2
. 1
_
, cio se relativamente
ad una costante C 0 valesse
[, (t) , (:)[ _ C [t :[
c
. t. : [c. /]
allora
ar
I
1

i=1

,
_
t
I
i+1
_
,
_
t
I
i
_

2
_ C
ar
I
1

i=1

t
I
i+1
t
I
i

2c
= C
ar
I
1

i=1

t
I
i+1
t
I
i

t
I
i+1
t
I
i

2c1
_ C
ar
I
1

i=1

t
I
i+1
t
I
i

[:
I
[
2c1
= C (/ c) [:
I
[
2c1
da cui dedurremmo dedurremmo lim
Io

ar
I
1
i=1

,
_
t
I
i+1
_
,
_
t
I
i
_

2
= 0, in contrad-
dizione con lipotesi. La dimostrazione completa.
2.2.3 Variazione quadratica del MB e variazione non limitata
Teorema 6 Sia 1 un moto browniano (continuo) e sia 1 0. Sia :
I

IN
una succes-
sione di partizioni di [0. 1], con lim
Io
[:
I
[ = 0, della forma :
I
=
_
0 = t
I
1
< ... < t
I
ar
I
= 1
_
.
Allora
lim
Io
1
_
_
_
_
ar
I
1

i=1

1
t
I
.+1
1
t
I
.

2
1
_
_
2
_
_
= 0
e

ar
I
1
i=1

1
t
I
.+1
1
t
I
.

2
converge a 1 in probabilit. Ne discende che, q.c., le traiettorie
browniane non sono di classe 1\ [0. 1] e non appartengono ad alcun C
c
([c. /]) per
c
_
1
2
. 1
_
.
Proof. La v.a.
1
I
I
.+1
1
I
I
.
_
t
I
.+1
t
I
.
` (0. 1), quindi la v.a. 1
I,i
=

1
I
I
.+1
1
I
I
.

2
t
I
.+1
t
I
.
ha legge in-
dipendente da / ed i. Inoltre, ssato /, le v.a. 1
I,1
. .... 1
I,ar
I
1
sono indipendenti.
Pertanto
1
_
_
_
_
ar
I
1

i=1

1
t
I
.+1
1
t
I
.

2
1
_
_
2
_
_
= 1
_
_
_
_
ar
I
1

i=1
1
I,i
_
t
I
i+1
t
I
i
_
1
_
_
2
_
_
= 1
_
_
_
_
ar
I
1

i=1
(1
I,i
1)
_
t
I
i+1
t
I
i
_
_
_
2
_
_
40 CAPITOLO 2. IL MOTO BROWNIANO
= 1
_
_
ar
I
1

i,)=1
(1
I,i
1) (1
I,)
1)
_
t
I
i+1
t
I
i
_ _
t
I
)+1
t
I
)
_
_
_
=
ar
I
1

i,)=1
_
t
I
i+1
t
I
i
_ _
t
I
)+1
t
I
)
_
1 [(1
I,i
1) (1
I,)
1)] .
I termini con i ,= , sono nulli: per lindipendenza
1 [(1
I,i
1) (1
I,)
1)] = 1 [1
I,i
1] 1 [1
I,)
1]
e ciascun fattore nullo:
1 [1
I,i
1] = 1 [1
I,i
] 1 =
1
t
I
i+1
t
I
i
1
_

1
t
I
.+1
1
t
I
.

2
_
1 = 0.
Quindi
1
_
_
_
_
ar
I
1

i=1

1
t
I
.+1
1
t
I
.

2
1
_
_
2
_
_
=
ar
I
1

i,)=1
_
t
I
i+1
t
I
i
_
2
1
_
(1
I,i
1)
2

= C
ar
I
1

i,)=1
_
t
I
i+1
t
I
i
_
2
dove C = 1
_
(1
I,1
1)
2

(nita perch le v.a. gaussiane hanno momenti di ogni ordine


niti)
_ C [:
I
[
ar
I
1

i,)=1
_
t
I
i+1
t
I
i
_
= C [:
I
[ 1
da cui la convergenza in media quadratica, e da essa la convergenza in probabilit per il
lemma di Chebyshev. Inne, da queste convergenze discende la convergenza quasi certa
di una sottosuccessione; ma allora vale (per le partizioni di quella sottosuccessione)
lipotesi della Proposizione 22, da cui il fatto che le traiettorie non sono 1\ [0. 1], con
probabilit uno.
Esercizio 10 Mostrare che lungo le partizioni diadiche vale la convergenza quasi certa
di

ar
I
1
i=1

1
t
I
.+1
1
t
I
.

2
a 1.
2.2.4 Non dierenziabilit
Per capire la dimostrazione della non dierenziabilit, arontiamo prima un problema
pi semplice: la non dierenziabilit in un punto pressato.
2.2. REGOLARIT DEL MOTO BROWNIANO 41
Proposizione 23 Dato t
0
_ 0, q.c. le traiettorie di un moto browniano non sono
dierenziabili in t
0
. Detto pi formalmente,
1
_
. : lim
I0
1
t
0
+I
(.) 1
t
0
(.)
/
esiste nito
_
= 0.
Proof. Per ogni 1 0, sia `
1
levento
`
1
=
_
. : | (.) := lim
I0
1
t
0
+I
(.) 1
t
0
(.)
/
esiste, [| (.)[ _ 1
_
.
Vogliamo dimostrare che 1 (`
1
) = 0 (dallarbitrariet di 1 segue la tesi della propo-
sizione). Come osservazione generale, se per un evento ` abbiamo ` '
I0

aI

a
e vale lim
ao
1 (
a
) = 0, allora 1 (`) = 0. Infatti, ` '
I0
`
I
con `
I
=
aI

a
;
quindi `
I

a
per ogni : _ /, da cui segue 1 (`
I
) _ inf
aI
1 (
a
) = 0; questo
implica inne 1 (`) = 0.
Premettiamo un facile fatto di analisi. Se | (.) := lim
I0
1
I
0
+I
(.)1I
0
(.)
I
esiste, con
[| (.)[ _ 1, allora esiste o (.) 0 tale che per ogni / con [/[ _ o (.) vale
[1
t
0
+I
(.) 1
t
0
(.)[ _ (1 + 1) [/[ .
Infatti, per denizione di limite, (preso = 1) esiste o (.) 0 tale che per ogni / con
[/[ _ o (.) vale | (.)1 _
1
I
0
+I
(.)1I
0
(.)
I
_ | (.)+1, da cui 11 _
1
I
0
+I
(.)1I
0
(.)
I
_
1 + 1, da cui [1
t
0
+I
(.) 1
t
0
(.)[ _ (1 + 1) [/[.
In particolare, esiste / (.) 0 tale che per ogni : con : _ / (.) vale

1
t
0
+
1
n
(.) 1
t
0
(.)

_
1 + 1
:
.
Quindi
`
1
'
I0

aI

(1)
I,a

(1)
a
: =
_
. :

1
t
0
+
1
n
(.) 1
t
0
(.)

_
1 + 1
:
_
.
Ma
1
_

(1)
a
_
= 1
_

1
t
0
+
1
n
1
t
0

_
1 + 1
:
_
= 1
_

1
t
0
+
1
n
1
t
0
_
1,:

_
1 + 1
_
:
_
= 1
_
[2[ _
1 + 1
_
:
_
dove 2 una ` (0. 1). Si verica facilmente che lim
ao
1
_

(1)
a
_
= 0, quindi 1 (`
1
) =
0. La dimostrazione completa.
42 CAPITOLO 2. IL MOTO BROWNIANO
Corollario 1 Dato un insieme numerabile T [0. ), q.c. le traiettorie di un moto
browniano non sono dierenziabili in alcun punto di T:
1
_
. : esiste t
0
T tale che lim
I0
1
t
0
+I
(.) 1
t
0
(.)
/
esiste nito
_
= 0.
Proof. Detto `
t
0
linsieme di misura nulla della proposizione precedente e detto `
T
quello di questo corollario, vale
`
T
= '
t
0
T
`
t
0
da cui discende subito la tesi.
Teorema 7 Sia 1 un moto browniano. Allora
1
_
. : esiste t
0
[0. ) tale che lim
I0
1
t
0
+I
(.) 1
t
0
(.)
/
esiste nito
_
= 0.
Proof. Dati 1 0, / N, sia `
1,I
linsieme degli . tali che la funzione
t 1
t
(.) dierenziabile almeno in un punto t
0
[/. / + 1] con derivata in modulo
non superiore ad 1. Basta vericare che 1 (`
1,I
) = 0 per ogni 1 0, / N. Si capisce
che se lo dimostriamo per / = 0, il caso generale sar uguale. Quindi dimostriamo
1 (`
1
) = 0 dove
`
1
=
_
. : esiste t
0
[0. 1] tale che esiste lim
I0
1
t
0
+I
(.) 1
t
0
(.)
/
[1. 1]
_
.
Volendo ricalcare la dimostrazione vista sopra, si deve cercare di esprimere `
1
tramite unioni ed intersezioni numerabili riconducendosi ad insiemi pi elementari
aventi probabilit molto piccola. Ma qui la prima dicolt che la condizione dif-
ferenziabile almeno in un punto coinvolge a priori lunione pi che numerabile di
eventi. Cerchiamo allora di dedurre, dalla condizione che denisce `
1
, una condizione
esprimibile in modo numerabile.
Abbiamo gi vericato nella dimostrazione della Proposizione 23 che, se 1
t
(.)
dierenziabile in t
0
con derivata in modulo non superiore ad 1, allora esiste o (.) 0
tale che [1
t
0
+I
(.) 1
t
0
(.)[ _ (1 + 1) / per ogni / [0. o (.)]. Allora, posto

A,c
:= . : esiste t
0
[0. 1] tale che [1
t
0
+I
(.) 1
t
0
(.)[ _ `/ per ogni / [0. o]
vale
`
1

_
c0

1+1,c
.
Ma vale anche
_
c0

1+1,c
=
_
aN

1+1,1a
, quindi se dimostriamo che 1 (
A,c
) = 0 per
ogni ` 0, o 0, possiamo dedurre 1 (`
1
) = 0 per ogni 1 0. Mostriamo quindi
che 1 (
A,c
) = 0.
2.2. REGOLARIT DEL MOTO BROWNIANO 43
Per inquadrare i calcoli che seguono, pu essere utile introdurre anche gli eventi
(ssato t
0
[0. 1])

A,c,t
0
:= . : [1
t
0
+I
(.) 1
t
0
(.)[ _ `/ per ogni / [0. o] .
Vale
A,c
=
_
t
0
[0,1]

A,c,t
0
ma, come gi osservato, si tratta di ununione pi che
numerabile.
Tuttavia, per ogni : tale che
2
2
n
< o, e per ogni t
0
[0. 1], vale

A,c,t
0
1
A,a,I(t
0
)

_
I=0,...,2
n
1
A,a,I
dove
1
A,a,I
:=
_
. :

1I+1
2
n
(.) 1 I
2
n
(.)

_
3`
2
a
_
e / (t
0
) il valore in 0. .... 2
a
per cui
I(t
0
)1
2
n
< t
0
_
I(t
0
)
2
n
. Infatti, se .
A,c,t
0
,
vale [1
t
0
+I
(.) 1
t
0
(.)[ _ `/ per ogni / [0. o]; quindi, osservando che grazie alla
condizione
2
2
n
< o i numeri
I(t
0
)
2
n
e
I+1
2
n
stanno in [t
0
. t
0
+ o], e che
I(t
0
)
2
n
t
0
_
1
2
n
e
I(t
0
)+1
2
n
t
0
_
2
2
n
, vale

1I(I
0
)+1
2
n
(.) 1I(I
0
)
2
n
(.)

1I(I
0
)
2
n
(.) 1
t
0
(.)

1I(I
0
)+1
2
n
(.) 1
t
0
(.)

che per la condizione .


A,c,t
0
risulta
_ `
__
/ (t
0
)
2
a
t
0
_
+
_
/ (t
0
) + 1
2
a
t
0
__
_
3`
2
a
.
Linclusione
A,c,t
0

_
I=0,...,2
n
1
A,a,I
cos dimostrata vale per ogni t
0
[0. 1] e levento
di destra non dipende da t
0
, quindi possiamo dire che
A,c

_
I=0,...,2
n
1
A,a,I
. Siamo
riusciti a tradurre lunione pi che numerabile
A,c
in ununione numerabile (con
uninclusione, non unidentit).
Purtroppo questa fatica non basta. Infatti
1
_
_
I=0,...,2
n
1
A,a,I
_
_
2
n

I=0
1 (1
A,a,I
) _
2
n

I=0
C
_
1
2
a
che diverge, dove la disuguaglianza 1 (1
A,a,I
) _ C
_
1
2
n
si dimostra come descritto
sotto. Bisogna allora introdurre lultimo elemento non banale della dimostrazione.
44 CAPITOLO 2. IL MOTO BROWNIANO
Per ogni : tale che
4
2
n
< o, e per ogni t
0
[0. 1], vale

A,c,t
0


1
A,a,I(t
0
)

_
I=0,...,2
n

1
A,a,I
dove

1
A,a,I
:=
_

1I+1
2
n
1 I
2
n

_
3`
2
a
.

1I+2
2
n
1I+1
2
n

_
5`
2
a
.

1I+3
2
n
1I+2
2
n

_
7`
2
a
_
.
Infatti, dalla condizione [1
t
0
+I
1
t
0
[ _ `/ per ogni / [0. o], osservando che
I(t
0
)
2
n
.
I(t
0
)+1
2
n
.
I(t
0
)+2
2
n
.
I(t
0
)+3
2
n
stanno in [t
0
. t
0
+ o], e che
I(t
0
)+)
2
n
t
0
_
1+)
2
n
, vale

1I(I
0
)+1
2
n
1I(I
0
)
2
n

_
3A
2
n
(gi dimostrato),

1I(I
0
)+2
2
n
1I(I
0
)+1
2
n

1I(I
0
)+1
2
n
1
t
0

1I(I
0
)+2
2
n
1
t
0

_ `
__
/ (t
0
) + 1
2
a
t
0
_
+
_
/ (t
0
) + 2
2
a
t
0
__
_
5`
2
a
ed analogamente

1I(I
0
)+3
2
n
1I(I
0
)+2
2
n

_
7A
2
n
. Quindi
A,c

_
I=0,...,2
n

1
A,a,I
, per cui
1 (
A,c
) _
2
n

I=0
1
_

1
A,a,I
_
.
Ora, per lindipendenza degli incrementi vale
1
_

1
A,a,I
_
_ 1
_

1I+1
2
n
1 I
2
n

_
7`
2
a
_
1
_

1I+2
2
n
1I+1
2
n

_
7`
2
a
_
1
_

1I+3
2
n
1I+2
2
n

_
7`
2
a
_
= 1
_
[2[ _ 7`
_
1
2
a
_
3
dove 2 una ` (0. 1). Quindi
1 (
A,c
) _
2
n

I=0
1
_
[2[ _ 7`
_
1
2
a
_
3
= (2
a
+ 1) 1
_
[2[ _ 7`
_
1
2
a
_
3
.
Ricordiamo che questa disuguaglianza vale per ogni : tale che
4
2
n
< o. Usando la
densit gaussiana si verica subito che
lim
ao
(2
a
+ 1) 1
_
[2[ _ 7`
_
1
2
a
_
3
_ C lim
ao
(2
a
+ 1)
_
1
2
a
_
32
= 0
2.2. REGOLARIT DEL MOTO BROWNIANO 45
dove C =
_
2

_
32
(7`)
3
, in quanto 1 ([2[ _ :) _
_
2

: per ogni : 0 (basta osservare


che 1 ([2[ _ :) =
_
v
v
1
_
2
exp
_

a
2
2
_
dr _
_
v
v
1
_
2
dr). Quindi 1 (
A,c
) = 0. La
dimostrazione completa.
Osservazione 8 Col linguaggio della misura di Wiener, lenunciato precedente fa un
certo eetto: linsieme delle funzioni continue che sono derivabili almeno in un punto,
ha misura di Wiener nulla, un insieme trascurabile. Se immaginassimo la misura di
Wiener alla stregua della misura di Lebesgue negli spazi R
a
, questo enunciato direbbe
che le funzioni dierenziabili in almeno un punto sono un insieme davvero piccolissimo
rispetto alla totalit delle funzioni continue!
46 CAPITOLO 2. IL MOTO BROWNIANO
Capitolo 3
Martingale
3.1 Denizioni
Sia ` = (`
t
)
t0
un processo stocastico a valori reali su uno spazio (. T. 1) ed (T
t
)
t0
una ltrazione. Supponiamo che sia 1 [[`
t
[] < per ogni t _ 0 e che sia adattato.
Diciamo che ` una martingala rispetto alla ltrazione (T
t
)
t0
se per ogni t : _ 0
vale
1
1 [`
t
[T
c
] = `
c
.
Se invece vale 1 [`
t
[T
c
] _ `
c
parliamo di submartingala, mentre se vale 1 [`
t
[T
c
] _
`
c
parliamo di supermartingala
2
.
Calcolando il valore atteso di ambo i membri della condizione di martingala (risp.
submartigala) si vede che 1[`
t
] = 1[`
c
] (risp. 1[`
t
] _ 1[`
c
]) quindi la funzione
valore atteso :(t) costante (risp. crescente). Una martingala in media e costante
(risp. una supermartingala in media cresce).
Le stesse denizioni si applicano al caso di un processo a tempo discreto ` =
(`
a
)
aN
. In questo caso suciente che valga la condizione quando i tempi : e t sono
consecutivi; vediamolo nel caso delle martingale. Se vale
1 [`
a+1
[T
a
] = `
a
per ogni : N, allora vale
1 [`
a+2
[T
a
] = 1 [1 [`
a+2
[T
a+1
] [T
a
] = 1 [`
a+1
[T
a
] = `
a
1
Ricordiamo che ogni identit coinvolgente una speranza condizionale va intesa quasi certamente
o come identit tra classi di equivalenza
2
I termini sub e super martinagala sono dicili da interiorizzare perch sembrano opposti allin-
tuizione: il presso sub sembra richiamare la decrescenza, mentre la miglior previsione del futuro
(X
t
) al momento attuale (T
s
) maggiore del presente (X
s
), cio in un certo senso il processo ha una
tendenza a crescere. Se per si associa la parola coda (temporalmente intesa come il passato) a quella
di martingala, si pu pensare che una submartingala abbia la coda in ribasso e questo pu aiutare la
memoria.
47
48 CAPITOLO 3. MARTINGALE
e quindi iterativamente si verica che vale 1 [`
n
[T
a
] = `
a
per ogni : : N.
La denizione di martingala equivale alla seguente: i) (`
t
)
t0
integrabile ed
adattato a (T
t
)
t0
, ii) per ogni t : _ 0 vale
1 [`
t
`
c
[T
c
] = 0.
Infatti, per ladattamento, vale 1 [`
c
[T
c
] = A
c
. Forse da questo punto di vista non
stupisce la seguente proposizione, che stabilisce la vicinanza del concetto di martingala
col concetto di processo a incrementi indipendenti e centrati (valore atteso nullo).
Premettiamo due denizioni.
Un processo A = (A
t
)
t0
si dice a incrementi indipendenti rispetto ad una ltrazione
(T
t
)
t0
se adattato e A
t
A
c
indipendente da T
c
per ogni t _ : _ 0. [La condizione
di indipendenza, quando T
t
= o (A
&
; n [0. t]), equivale alla seguente: per ogni : N
ed ogni t
a
_ t
a1
_ ... _ t
1
_ 0 le v.a. A
tn
A
t
n1
. .... A
t
2
A
t
1
. A
t
1
sono indipendenti.
La dimostrazione di questa equivalenza identica a quella svolta ne caso del moto
browniano, Proposizione 17]. Diciamo che un processo A, tale che 1 [A
2
t
] < per
ogni t _ 0, ha incrementi scorrelati se
Co (A
t
A
c
. A
&
A

) = 0
per ogni t _ : _ n _ _ 0.
Proposizione 24 Se A un processo, con 1 [[A
t
[] < per ogni t _ 0, ha incrementi
centrati e indipendenti rispetto a (T
t
)
t0
, allora una martingala rispetto a (T
t
)
t0
.
Se A una martingala rispetto ad una ltrazione (T
t
)
t0
, con 1 [A
2
t
] < per
ogni t _ 0, allora un processo a incrementi scorrelati e centrati. Se inoltre un
processo gaussiano, allora ha incrementi indipendenti rispetto alla ltrazione generata
dal processo (T
00
t
)
t0
.
Proof. La prima aermazione immediata: presi t _ : _ 0, per lindipendenza da T
c
ed il valore atteso nullo dellincremento A
t
A
c
, vale
1 [A
t
A
c
[T
c
] = 1 [A
t
A
c
] = 0.
Vediamo la seconda. Il valore atteso nullo si vede cos: per la propriet 1 [A
t
A
c
[T
c
] =
0 ed una propriet dei valori attesi condizionali (analogo della formula di fattoriz-
zazione), vale
0 = 1 [1 [A
t
A
c
[T
c
]] = 1 [A
t
A
c
] .
Mostriamo che gli incrementi sono scorrelati. Presi t _ : _ n _ _ 0, ed avendo gi
stabilito che il valore atteso di ogni incremento nullo, vale (usando varie propriet
della speranza condizionale)
Co (A
t
A
c
. A
&
A

) = 1 [(A
t
A
c
) (A
&
A

)] = 1 [1 [(A
t
A
c
) (A
&
A

) [T
c
]]
= 1 [(A
&
A

) 1 [(A
t
A
c
) [T
c
]] = 0.
3.1. DEFINIZIONI 49
lultimo passaggio essendo valido in quanto 1 [(A
t
A
c
) [T
c
] = 0. Inne, se il processo
pure gaussiano, presi t
a
t
a1
... t
1
_ 0, il vettore
_
A
tn
A
t
n1
. .... A
t
2
A
t
1
_
gaussiano ed ha matrice di covarianza diagonale, per cui ha componenti indipendenti.
Da questo discende che, per ogni t _ : _ 0, A
t
A
c
indipendente da T
00
c
(lo abbiamo
gi dimostrato in occasione delle riformulazioni della denizione di moto browniano.
La dimostrazione completa.
Il secondo esempio illustrato nella prossima sezione una martingala ma non ha
incrementi indipendenti (solo scorrelati). Quindi c spazio tra queste due categorie
apparentemente molto vicine (processi a incrementi indipendenti e scorrelati) e le
martingale si collocano in tale spazio.
3.1.1 Esempi
Vediamo due esempi fondamentali. Per noi le martingale saranno rilevanti princi-
palmente per due ragioni (collegate): il moto browniano una martingala e lo sono
(sotto opportune ipotesi) gli integrali stocastici rispetto al moto browniano. E utilis-
simo vedere poi numerosi altri tipi di esempi, soprattutto a tempo discreto, anche pi
elementari di questi, ma li rimandiamo agli esercizi.
La teoria delle martingale uno snodo unico nel calcolo stocastico. La propriet
di martingala tutto sommato apparentemente scarna, ed ha invece incredibili con-
seguenze. Allora importante sapere che i processi che a noi servono maggiormente
sono martingale (o sono collegati a martingale, vedi il teorema di decomposizione di
Doob). Questo motiva i due esempi seguenti, anche se il secondo pu apparire un po
tecnico.
Esempio 1 Sia 1 = (1
t
)
t0
un moto browniano rispetto ad una ltrazione (T
t
)
t0
.
Allora 1 una martingala rispetto a (T
t
)
t0
, in quanto un processo centrato a
incrementi indipendenti (Proposizione 24).
Veniamo al secondo esempio. Sia 1 = (1
t
)
t0
un moto browniano rispetto ad una
ltrazione (T
t
)
t0
e sia A = (A
t
)
t0
un processo adattato a (T
t
)
t0
ma costante a tratti
relativamente ad una sequenza di tempi t
a
_ t
a1
_ ... _ t
1
= 0, cio della forma
A
t
=
a1

i=1
A
t
.
1
[t
.
,t
.+1
)
(t) . A
t
.
misurabile rispetto a T
t
.
, 1
_
A
2
t
.

< .
Deniamo, per questo particolare processo
3
, per ogni / _ c _ 0,
_
b
o
A
c
d1
c
=
a1

i=1
A
t
.
_
1
(ovt
.+1
)/b
1
(ovt
.
)/b
_
.
3
Ora ragioniamo su un processo X ssato, di questo tipo. Se si considera invece la classe di tutti
questi processi, detti elementari, introducendo il simbolo
_
b
a
X
s
dB
s
si deve vericare che la denizione
non dipende dalla rappresentazione di X, che non univoca.
50 CAPITOLO 3. MARTINGALE
Le espressioni (c . t
i+1
) ./ e (c . t
i
) ./ sono un po laboriose da interpretare, per cui
pu convenire luso della seguente riscrittura. Osserviamo che, ssati / _ c _ 0, si
pu arricchire la sequenza di tempi considerando la nuova sequenza t
t
a+2
_ t
t
a1
_
... _ t
t
1
= 0 formata dai tempi t
i
e da c. /; poi si pu scrivere A
t
nella forma
A
t
=

a+1
i=1
A
t
t
0
.
1
[t
0
.
,t
0
.+1
)
(t) con A
t
t
0
.
misurabile rispetto a T
t
0
.
cos deniti: se t
t
i
= t
)

t
1
. .... t
a
, poniamo A
t
t
0
.
= A
t

; se t
t
i
= c (risp. t
t
i
= /) e t
)
t
1
. .... t
a
il pi grande
con la propriet t
)
_ c (risp. t
)
_ /), allora poniamo A
t
t
0
.
= A
t

. A questo punto
_
b
o
A
c
d1
c
=

ot
0
.
t
0
.+1
b
A
t
0
.
_
1
t
0
.+1
1
t
0
.
_
.
Naturalmente i punti t
t
i
dipendono da c. /. Si pu vericare che vale
_
b
o
A
c
d1
c
+
_
c
b
A
c
d1
c
=
_
c
o
A
c
d1
c
per ogni c _ / _ c _ 0; se ci si ragura la successione di tempi
t
i
ed i tempi c _ / _ c _ 0, lidea evidente, anche se noiosa da scrivere.
Osservazione 9 Lintegrale stocastico ora introdotto ha una naturale interpretazione
in nanza matematica. Supponiamo di considerare un titolo nanziario (azioni, titoli
di stato,...) il cui prezzo cambia nel tempo. Indichiamo con o
t
il prezzo al tempo t.
Immaginiamo poi una partizione temporale t
a
_ t
a1
_ ... _ t
1
= 0 corrispondente agli
istanti in cui noi eseguiamo operazioni nanziarie. Allistante t
i
acquistiamo una quan-
tit A
t
.
del titolo nanziario suddetto. Paghiamo quindi A
t
.
o
t
.
. Al tempo A
t
.+1
ven-
diamo la quantit acquistata A
t
.
, incassando A
t
.
o
t
.+1
. Complessivamente, con questa
singola operazione abbiamo guadagnato (o perso, dipende dal segno) A
t
.

_
o
t
.+1
o
t
.
_
.
Supponiamo di ripetere loperazione su ogni intervallino. Il guadagno complessivo sar
a

i=1
A
t
.
_
o
t
.+1
o
t
.
_
.
Vediamo quindi che integrali del tipo visto sopra rappresentano il guadagno complessivo
in un certo periodo di tempo. Naturalmente, sopra abbiamo denito questo integrale
nel caso in cui sia o = 1, ma tale operazione si potr generalizzare ad altri casi, una
volta capita nel caso browniano.
Poniamo `
t
=
_
t
0
A
c
d1
c
.
Proposizione 25 ` = (`
t
)
t0
una martingala rispetto a (T
t
)
t0
.
Proof. Intanto
1 [[`
t
[] _
a1

i=1
1
_
[A
t
.
[

1
t
.+1
/t
1
t
.
/t

3.1. DEFINIZIONI 51
e 1
_
[A
t
.
[

1
t
.+1
/t
1
t
.
/t

< per ogni i, grazie alla disuguaglianza di Hlder. Poi,


`
t
=
_
t
0
A
&
d1
&
T
t
-misurabile, essendo somma e prodotto di variabili tutte T
t
-
misurabili. Resta allora da dimostrare che 1 [`
t
`
c
[T
c
] = 0, ovvero che 1
_
_
t
c
A
&
d1
&
[T
c
_
=
0. Si noti che lincremento
_
t
c
A
&
d1
&
non indipendente da T
c
: contiene (attraver-
so A) alcune delle v.a. A
t
.
, che non sono supposte indipendenti da T
c
. Riscriviamo
_
t
c
A
&
d1
&
come detto sopra nella forma
_
t
c
A
&
d1
&
=

ct
0
.
t
0
.+1
t
A
t
0
.
_
1
t
0
.+1
1
t
0
.
_
.
Vale
1
__
t
c
A
&
d1
&
[T
c
_
=

ct
0
.
t
0
.+1
t
1
_
A
t
0
.
_
1
t
0
.+1
1
t
0
.
_
[T
c
_
.
Mostriamo che ciascun termine 1
_
A
t
0
.
_
1
t
0
.+1
1
t
0
.
_
[T
c
_
nullo, concludendo cos la
dimostrazione. Vale
1
_
A
t
0
.
_
1
t
0
.+1
1
t
0
.
_
[T
c
_
= 1
_
1
_
A
t
0
.
_
1
t
0
.+1
1
t
0
.
_
[T
t
0
.
_
[T
c
_
= 1
_
A
t
0
.
1
_
1
t
0
.+1
1
t
0
.
_
[T
c
_
= 0
avendo usato varie propriet della speranza condizionale, linclusione T
c
T
t
0
.
(ricor-
diamo che nella somma precedente prendiamo solo i t
t
i
_ :), lindipendenza di 1
t
0
.+1
1
t
0
.
da T
t
0
.
, il fatto che A
t
0
.
T
t
0
.
-misurabile, ed inne la propriet 1
_
1
t
0
.+1
1
t
0
.
_
= 0. La
dimostrazione completa.
Osservazione 10 Come gi osservato, abbiamo cos costruito unampia classe di es-
empi che stanno nellintercapedine (apparentemente molto piccola) tra scorrelazione
e indipendenza (intesa per gli incrementi temporali). Gli integrali stocastici han-
no incrementi scorrelati ma non necessariamente indipendenti (perch il processo A li
lega).
3.1.2 Altri esempi e preliminari
Esempio 2 Ricordiamo che un processo stocastico (`
t
)
t0
si dice di Poisson di inten-
sit ` 0, rispetto ad una ltrazione (T
t
)
t0
, se 1 (`
0
= 0) = 1, cadlag e per ogni
t _ : _ 0 lincremento `
t
`
c
indipendente da T
c
ed ha distribuzione di Poisson di
parametro `(t :):
1 (`
t
`
c
= /) = c
A(tc)
(`(t :))
I
/!
. / N.
Vale 1 [`
t
`
c
] = `(t :). Posto
`
t
= `
t
`t
52 CAPITOLO 3. MARTINGALE
il processo (`
t
)
t0
una martingala rispetto a (T
t
)
t0
(a causa di questo, la funzione `t
viene detta compensatore). Infatti la propriet di indipendenza degli incrementi resta
vera (non si modica per addizione di una costante) e gli incrementi ora sono centrati:
1 [`
t
`
c
] = 0. Quindi una martingala per la Proposizione 24.
Esempio 3 Sia A una v.a. integrabile e (T
t
)
t0
una ltrazione. Allora
`
t
= 1 [A[T
t
]
una martingala. Preliminarmente, osserviamo che 1 [[`
t
[] _ 1 [1 [[A[ [T
t
]] =
1 [[A[], quindi `
t
integrabile. Inoltre, 1 [A[T
t
] T
t
-misurabile, quindi `
t
adat-
tato. Vale poi
1 [`
t
[T
c
] = 1 [1 [A[T
t
] [T
c
] = 1 [A[T
c
] = `
c
dove abbiamo usato la propriet di doppia proiezione della speranza condizionale. Quin-
di ` una martingala. A volte detta martingala chiusa da A. Il processo 1 [A[T
t
]
ha un chiaro signicato in varie applicazioni, ad esempio in nanza matematica: A rap-
presenta una grandezza incognita del futuro (ammontare di vendite del prossimo mese
di luglio, valore di un titolo nanziario tra sei mesi, ecc.), T
t
descrive il grado di in-
formazione disponibile al tempo t, 1 [A[T
t
] rappresenta la miglior stima di A fattibile
al momento t. La formula 1 [`
t
[T
c
] = `
c
esprime una coerenza tra le stime.
Proposizione 26 Se (`
t
)
t0
una martingala, , : R R una funzione convessa e
1 [[,(`
t
)[] < per ogni t _ 0 allora (,(`
t
))
t0
una submartingala. In particolare,
lo sono [`
t
[ e `
2
t
(nel secondo caso se ` di quadrato integrabile).
Se (`
t
)
t0
una submartingala, , : R R una funzione non decrescente convessa
e 1 [[,(`
t
)[] < per ogni t _ 0 allora (,(`
t
))
t0
una submartingala.
Proof. Grazie alla convessit, per ogni punto r
0
R esiste :(r
0
) R tale che
,(r) _ ,(r
0
) + :(r
0
) (r r
0
) . r R.
Per il seguito ci serve che la funzione : sia misurabile; una tale funzione esiste, come
si pu vericare prendendo ad es. la derivata destra in r
0
. Presi t _ : _ 0, vale allora
,(`
t
) _ ,(`
c
) + :(`
c
) (`
t
`
c
) (3.1)
e quindi (per monotonia e linearit della speranza condizionale)
1 [,(`
t
) [T
c
] _ 1 [,(`
c
) [T
c
] + 1 [:(`
c
) (`
t
`
c
) [T
c
]
= ,(`
c
) + :(`
c
) 1 [(`
t
`
c
) [T
c
]
(per la misurabilit di ,(`
c
) e :(`
c
) rispetto a T
c
). A questo punto, se ` una
martingala, 1 [(`
t
`
c
) [T
c
] = 0; se invece una submartingala e , non decrescente
3.2. TEMPI DARRESTO 53
(quindi : _ 0 in ogni punto), 1 [(`
t
`
c
) [T
c
] _ 0 e quindi :(`
c
) 1 [(`
t
`
c
) [T
c
] _
0. In entrambi i casi,
1 [,(`
t
) [T
c
] _ ,(`
c
)
ovvero ,(`
t
) una submartingala.
La dimostrazione ora data per completa solo se :(`
c
) (`
t
`
c
) integrabile.
La funzione : limitata su intervalli limitati ma `
c
non assume necessariamente valori
in un intervallo limitato, per cui servirebbe una stima della crescita di : allinnito
ed altro ancora. Si risolve tutto con un troncamento: si introduce levento
1
=
[`
c
[ _ 1, si moltiplica la disuguaglianza (3.1) per 1

T
e si prosegue come sopra (con
le stesse motivazioni dei passaggi, pi il fatto che ora la v.a. 1

T
:(`
c
) limitata):
1 [1

T
,(`
t
) [T
c
] _ 1 [1

T
,(`
c
) [T
c
] + 1 [1

T
:(`
c
) (`
t
`
c
) [T
c
]
= 1

T
,(`
c
) + 1

T
:(`
c
) 1 [(`
t
`
c
) [T
c
]
da cui, come sopra,
1 [1

T
,(`
t
) [T
c
] _ 1

T
,(`
c
) .
Se 1 < 1
t
,
1

1
0 , quindi 1

T
_ 1

T
0
. Basta allora passare al limite, per 1
col teorema di convergenza monotona per la speranza condizionale, osservando che
lim
1o
1

T
= 1
quasi certamente (in quanto '
1

1
= [`
c
[ < che ha probabilit 1). La di-
mostrazione completa.
Osservazione 11 Se ` una submartingala, non detto che lo siano [`
t
[ e `
2
t
, in
quanto le funzioni r [r[ e r r
2
non sono crescenti. Se per ` a valori posi-
tivi, si pu modicare la dimostrazione e vericare che [`
t
[ e `
2
t
sono submartingale
(nel secondo caso se ` di quadrato integrabile).
3.2 Tempi darresto
Fondamentali nello studio delle martingale sono i tempi aleatori. Genericamente,
potremmo chiamare tempo aleatorio (non una denizione canonica) ogni v.a. a
valori in [0. ), o addirittura a valori in [0. ]. Un tempo aleatorio t : [0. ] si
dir tempo darresto, rispetto ad una ltrazione data (T
t
)
t0
, se per ogni t _ 0 levento
t _ t appartiene a T
t
:
t _ t T
t
\t _ 0.
Quindi anche t t T
t
. Se t : [0. ), diremo che un tempo darresto nito.
Se esiste 1 0 tale che [t[ _ 1, diremo che un tempo darresto limitato.
Quando tratteremo martingale a tempo discreto, relativamente a ltrazioni (T
a
)
aN
,
considereremo sempre (e a volte tacitamente) tempi darresto a tempo discreto, cio
54 CAPITOLO 3. MARTINGALE
tempi aleatori t : N ' + tali che t _ : T
a
per ogni : N. Si verica
subito che questa condizione equivale a t = : T
a
per ogni : N. Infatti, se vale
la prima (t _ : T
a
), allora
t = : = t _ : t _ : 1 T
a
perch t _ : T
a
, t _ : 1 T
a1
T
a
ed T
a
chiusa per dierenza.
Viceversa, se vale la seconda (t = : T
a
), allora
t _ : =
a
_
I=0
t = / T
a
perch t = / T
I
T
a
per ogni / = 0. .... : ed T
a
chiusa per unione nita.
Il signicato intuitivo di tempo darresto il seguente: ssato t
0
_ 0 (ad esempio
lorario di chiusura di un negozio) ci chiediamo se listante aleatorio t (ad esempio
larrivo di un cliente che deve ritirare della merce) avvenga prima o dopo t
0
. Tale evento,
t _ t
0
, conoscibile al tempo t
0
, se per conoscibili intendiamo gli eventi della
ltrazione data (nellesempio del negozio, se la ltrazione associata alle informazioni
note a chi sta lavorando nel negozio, vale t _ t
0
T
t
0
: lo vedono se il cliente
arrivato o no in tempo; se invece una ltrazione associata alle informazioni note ad
un gestore a distanza che viene informato il giorno successivo di ci che accaduto in
negozio, t _ t
0
, T
t
0
).
Abbiamo descritto questa nozione nel caso a tempo continuo, ma identica a tempo
discreto.
Un tempo deterministico t = 1 un tempo darresto, perch gli eventi della forma
t _ t appartengono a ?. .
Tra le numerose propriet generali a volte utili segnaliamo la seguente, usata spesso
per ridurre un tempo darresto qualsiasi ad uno limitato:
Proposizione 27 Se t
1
. t
2
sono tempi darresto, allora lo anche t
1
. t
2
. In parti-
colare, lo t
1
. 1 per ogni tempo determinsitico 1 0.
Proof. Dato t _ 0,
t
1
. t
2
_ t = t
1
_ t ' t
2
_ t
e ciascuno di questi eventi appartiene a T
t
.
Sia A = (A
t
)
t0
un processo stocastico a valori in uno spazio metrico 1 (c = E(1)),
adattato alla ltrazione (T
t
)
t0
. Sia E(1). Introduciamo un tempo aleatorio
t

: [0. ] ponendo t

(.) = inf t _ 0 : A
t
(.) per ogni . tale che
linsieme t _ 0 : A
t
(.) non vuoto, t

(.) = altrimenti. Useremo scrivere


pi compattamente
t

= inf t _ 0 : A
t

3.2. TEMPI DARRESTO 55
intendendo tutte le frasi precedenti. Diciamo che t

il tempo (o istante) di ingresso


del processo nellinsieme . Chiediamoci se sia un tempo darresto.
Intanto vediamo il caso a tempo discreto. Deniamo cio
t

= inf : _ 0 : A
a

se linsieme : _ 0 : A
a
non vuoto, t

= altrimenti. Fissato :
0
N, ci
chiediamo se t

_ :
0
T
a
0
. Vale
t

_ :
0
= : _ :
0
: A
a
=
_
aa
0
A
a
T
a
0
dove lultima disuguaglianza deriva dal fatto che A
a
T
a
e che T
a
T
a
0
se
: _ :
0
. Quindi vero: t

un tempo di arresto. Non serve alcuna altra ipotesi.


A tempo continuo non cos. Proviamo a ripetere i passaggi precedenti, relativa-
mente ad un tempo ssato t
0
_ 0:
t

_ t
0
= \ 0. t _ t
0
+ : A
t

_
\: N. t _ t
0
+
1
:
: A
t

_
=

aN
_
tt
0
+
1
n
A
t
.
Levento A
t
appartiene a T
t
e quindi a T
t
0
+
1
n
se t _ t
0
+
1
a
. Ma prima di tutto
lunione
_
tt
0
+
1
n
(a priori) pi che numerabile. Quandanche potessimo riesprimerla
come unione numerabile, quindi potessimo asserire che
_
tt
0
+
1
n
A
t
T
t
0
+
1
n
, poi
lintersezione

aN
starebbe in T
t
0
se la ltrazione fosse continua a destra, altrimenti
non potremmo concluderlo.
Proposizione 28 Se A un processo continuo, un aperto e (T
t
)
t0
continua
a destra, allora t

un tempo di arresto. Lo stesso vale se A continuo a destra o


continuo a sinistra.
Proof. Se A continuo e aperto allora
_
\: N. t _ t
0
+
1
:
: A
t

_
=
_
\: N. t _ t
0
+
1
:
. t Q : A
t

_
.
Basta vericare linclusione . Sia . tale che \: N, t _ t
0
+
1
a
tale che A
t
.
Se, relativamente ad : e t che vericano questa condizione, prendiamo una successione
56 CAPITOLO 3. MARTINGALE
t
a
t, t
a
Q, t
a
_ t
0
+
1
a
, abbiamo A
tn
(.) A
t
(.), ma quindi A
tn
(.) per :
abbastanza grande, in quanto aperto.
Lidentit precedente permette di scrivere
t

_ t
0
=

aN
_
tt
0
+
1
n
,tQ
A
t

da cui discende la tesi per i ragionamenti gi fatti sopra. Le veriche nel caso continuo
a destra o continuo a sinistra sono simili.
Quando , che ora chiameremo C, chiuso ed A continuo, si pu modicare la
dimostrazione precedente dallinizio e concludere che t
C
un tempo darresto. Non
serve la continuit a destra della ltrazione. Il criterio quindi anche pi semplice del
precedente, ma la dimostrazione pi complicata. Si noti anche la riscrittura di t
C
come minimo corrisponde ancor pi allidea di primo istante di ingresso in C.
Proposizione 29 Se A un processo continuo e C un chiuso, allora t
C
un tempo
di arresto e vale
t
C
= min t _ 0 : A
t
C .
Proof. Se A continuo e C chiuso allora, preso . , se linsieme t _ 0 : A
t
(.) C , =
?, vale
t

(.) = min t _ 0 : A
t
(.) C .
Infatti, per denizione di t
C
(.) come inf t _ 0 : A
t
(.) C, esiste una successione
t
a
(.) | t
C
(.) tale che A
tn(.)
(.) C; ma per continuit delle traiettorie A
tn(.)
(.)
A
t
C
(.)
(.) e per chiusura di C vale A
t
/
(.)
(.) C. Quindi linsieme t _ 0 : A
t
(.) C
possiede minimo. Abbiamo dimostrato lultima aermazione della proposizione. Vedi-
amo la prima.
Ora possiamo dire che
t
C
_ t
0
= t _ t
0
: A
t
C =
_
tt
0
A
t
C .
Non possiamo per ridurre questa unione ad una numerabile perch dobbiamo im-
maginare ad esempio il caso in cui C sia un singolo punto, ed il processo lo tocchi a
certi istanti (non necessariamente membri di un insieme numerabile pressato) ma non
permanga in C.
Il caso t
0
= 0 per si risolve: t
C
_ 0 = A
0
C T
0
. Possiamo restringerci a
t
0
0.
Introduciamo allora lintorno aperto di raggio 0 di C:
C
.
= r 1 : d (r. C) < .
3.2. TEMPI DARRESTO 57
Vale
_
tt
0
A
t
C =

aN
_
tt
0
,tQ
_
A
t
C1
n
_
T
t
0
.
Lappartenenza a T
t
0
ovvia. Verichiamo lidentit tra i due insiemi. Linclusione
concettualmente pi facile. Sia . nellinsieme di sinistra. Se per un certo t _ t
0
vale
A
t
(.) C, allora per ogni : N esiste un numero razionale t
a
_ t
0
tale che A
tn
(.)
C1
n
, per continuit della traiettoria A

(.). Quindi linclusione dimostrata.


Vediamo linclusione . Sia . nellinsieme di destra. Per ogni : N esiste un
numero razionale t
a
_ t
0
tale che A
tn
(.) C1
n
. Dalla successione limitata t
a
si pu
estrarre una sottosuccessione convergente t
a
I
; sia t il suo limite; vale t _ t
0
. Per
continuit di A

(.) vale lim


Io
A
tn
I
(.) = A
t
(.). Se dimostriamo che A
t
(.) C,
allora . appartiene anche allinsieme di sinistra.
Ma A
tn
I
(.) C 1
n
I
. Questo implica che esiste un elemento c
I
(.) C tale che
d
_
A
tn
I
(.) . c
I
(.)
_
_
2
a
I
. Siccome lim
Io
d
_
A
tn
I
(.) . A
t
(.)
_
= 0,
lim
Io
d (A
t
(.) . c
I
(.)) _ lim
Io
d
_
A
tn
I
(.) . A
t
(.)
_
+ lim
Io
d
_
A
tn
I
(.) . c
I
(.)
_
= 0.
Questo signica c
I
(.) A
t
(.), quindi A
t
(.) C perch C chiuso. La di-
mostrazione completa.
3.2.1 La o-algebra associata ad un tempo darresto
Sia (. T. 1) uno spazio probabilizzato e t : [0. ] un tempo darresto rispetto
ad una ltrazione (T
t
)
t0
. Sappiamo che se per ogni t _ 0 levento t _ t appartiene
a T
t
. Prendiamo un evento T
o
= .
t
T
t
. Esaminiamo la condizione
t _ t T
t
per ogni t _ 0.
La famiglia di tutti gli insiemi T
o
che soddisfano questa condizione una o-
algebra, che indichiamo con T
t
. Infatti T
t
perch t _ t = t _ t T
t
; se
T
t
allora
c
T
t
perch

c
t _ t = t _ t ( t _ t) ;
ed inne, se
a
T
t
allora '
a

a
T
t
per la propriet distributiva di unione e
intersezione.
Si noti che se T
t
0
per qualche t
0
_ 0, non detto che sia T
t
, perch la
condizione T
t
richiede che sia t _ t T
t
per ogni t _ 0, non solo al tempo
t
0
. Quindi pu apparire non ovvio esibire eventi di T
t
. Invece, ad esempio un evento
del tipo
t [0. 1]
58 CAPITOLO 3. MARTINGALE
con 1 0 ci sta. Infatti
t [0. 1] t _ t = t [0. t . 1] T
t/T
T
t
.
Quindi t T
t
-misurabile. Pertanto, gli eventi della forma t 1, con 1 E(R),
sono esempi di eventi di T
t
.
Non si deve per pensare che T
t
sia la o-algebra generata da t. La seguente
proposizione fornisce ulteriori eventi di T
t
.
Proposizione 30 Sia t un tempo darresto nito. Sia (A
t
)
t0
un processo progressi-
vamente misurabile. Allora A
t
(denito da . A
t(.)
(.)) una v.a. T
t
-misurabile.
Proof. Consideriamo lapplicazione misurabile . (t (.) . .) da (. T
o
) in ([0. ) . E([0. )) T
o
)
e lapplicazione misurabile (:. .) A
c
(.) da ([0. ) . E([0. )) T
o
) in (R. E(R)).
La loro composizione lapplicazione . A
t(.)
(.) che quindi risulta misurabile da
(. T
o
) in (R. E(R)). Questo chiarisce che ogni evento della forma A
t
1 con
1 E(R) T
o
-misurabile. Preso poi t _ 0, esaminiamo la condizione A
t
1
t _ t T
t
; se vale, signica che A
t
1 T
t
, quindi A
t
T
t
-misurabile.
Osserviamo che
A
t
1 t _ t = A
t/t
1 t _ t
quindi basta vericare che A
t/t
1 T
t
.
Consideriamo allora lapplicazione . (t (.) . t. .) da (. T
t
) in ([0. t] . E([0. t]) T
t
)
e lapplicazione (:. .) A
c
(.) da ([0. t] . E([0. t]) T
t
) in (R. E(R)). La loro
composizione lapplicazione . A
t(.)/t
(.). Se le due applicazioni che componi-
amo sono misurabili, allora lo la loro composizione, da (. T
t
) in (R. E(R)) e questo
implica che A
t/t
1 T
t
per ogni 1 E(R). La seconda delle due applicazioni
misurabile per lipotesi di progressiva misurabilit. Vediamo la prima.
Lapplicazione . (t (.) . t. .) da (. T
t
) in ([0. t] . E([0. t]) T
t
) misura-
bile. Basta vericarlo su un insieme di generatori. Prendiamo un insieme della forma
[0. t
0
] 1 con t
0
(0. t) e 1 T
t
. La sua controimmagine linsieme
. : t (.) . t [0. t
0
] . 1 = t _ t
0
1
che appartiene a T
t
perch 1 T
t
e t _ t
0
T
t
0
T
t
. La dimostrazione completa.
3.3 Teoremi darresto e disuguaglianze
La strategia generale che seguiremo sar di dimostrare prima i teoremi fondamentali
nel caso a tempo discreto, poi di dedurre da essi il caso continuo con un passaggio al
limite, da tempi diadici a tempi qualsasi (che coinvolger qualche ipotesi di continuit
del processo).
3.3. TEOREMI DARRESTO E DISUGUAGLIANZE 59
3.3.1 Il caso a tempo discreto
Sia ` = (`
a
)
aN
una martingala a tempo discreto. I tempi darresto di cui si parler
nel seguito sono sempre a valori nei numeri naturali, eventualmente con laggiunta di
+. Un tempo darresto si dir limitato superiormente se esiste una costante (intera
nel caso a tempo discreto) ` 0 tale che t (.) _ ` per ogni . . Se ` una
martingala (quindi integrabile) e t un tempo darresto limitato superiormente dalla
costante intera ` 0, allora le v.a. `
t
4
e max
a=1,...,.
[`
a
[ sono integrabili:
1 [[`
t
[] _ 1
_
max
a=1,...,.
[`
a
[
_
_ 1
_
.

a=1
[`
a
[
_
=
.

a=1
1 [[`
a
[] < .
Lo stesso vale per sub e super martingale o per qualsiasi processo discreto integrabile.
Questa premessa interviene in molte delle dimostrazioni seguenti e non verr ripetuta.
Nel seguente teorema laermazione 1 [`
.
] = 1 [`
0
] ovvia, come abbiamo
osservato subito dopo la denizione di martingala.
Teorema 8 (darresto) Se t un tempo darresto limitato superiormente da un
intero `, allora
1 [`
t
] = 1 [`
.
] = 1 [`
0
] .
Se ` una submartingala, allora vale 1 [`
t
] _ 1 [`
.
].
Proof. Con le notazioni precedenti vale
1 [`
t
] =
.

a=0
1 [`
t
1
t=a
] =
.

a=0
1 [`
a
1
t=a
] .
Per la propriet di martingala 1 [`
a
1
t=a
] = 1 [`
.
1
t=a
], quindi
1 [`
t
] =
.

a=0
1 [`
.
1
t=a
] = 1 [`
.
] .
Ma 1 [`
.
] = 1 [`
0
]. La propriet dimostrata. Il caso della submartingala identico,
senza il passaggio nale.
Corollario 2 Se t
1
_ t
2
sono due tempi darresto limitati superiormente, allora vale
1 [`
t
2
[T
t
1
] = `
t
1
.
Se ` una submartingala e t
2
= ` costante, allora vale
1 [`
.
[T
t
1
] _ `
t
1
.
4
Denita da (M

) (!) = M
(!)
(!)
60 CAPITOLO 3. MARTINGALE
Proof. Preso T
t
1
dobbiamo dimostrare che
_

`
t
2
d1 =
_

`
t
1
d1 (risp.
_

`
.
d1 =
_

`
t
1
d1 nel caso della submartingala). Consideriamo la funzione t
3
: [0. )
denita da
t
3
(.) =
_
t
1
(.) se .
t
2
(.) se . ,
.
Verichiamo che sia un tempo darresto. Preso t _ 0, vale
t
3
_ t = ( t
1
_ t) ' (
c
t
2
_ t) .
Linsieme t
1
_ t appartiene a T
t
per lipotesi su .
c
T
t
1
, quindi
c
T
t
2
(si veda lesercizio 11), pertanto
c
t
2
_ t T
t
. Quindi t
3
_ t T
t
, cio t
3

un tempo darresto. Ovviamente anchesso limitato.
Per il teorema darresto vale allora
1 [`
t
3
] = 1 [`
.
] = 1 [`
t
2
]
(risp. 1 [`
t
3
] _ 1 [`
.
] nel caso della submartingala) cio, ricordando la denizione
di t
3
,
1 [`
t
1
1

+ `
t
2
1

c] = 1 [`
t
2
]
da cui 1 [`
t
1
1

] = 1 [`
t
2
1

], che ci che volevamo dimostrare (risp. 1 [`


t
1
1

+ `
.
1

c] _
1 [`
.
] da cui 1 [`
t
1
1

] _ 1 [`
.
1

] nel caso della submartingala). La dimostrazione


completa.
Osservazione 12 I due risultati precedenti sono equivalenti. Abbiamo dimostrato il
corollario a partire dal teorema. Se invece avessimo dimostrato prima il corollario,
basterebbe prendere la speranza di ambo i membri delle sue formule per ottenere quelle
del teorema.
Osservazione 13 Vedremo pi avanti che si pu rimuovere lipotesi t
2
= `, nel
corollario.
Teorema 9 (disuguaglianza massimale) Sia ` una martingala oppure una sub-
martingala positiva. Allora, per ogni ` intero positivo e per ogni ` 0, vale
1
_
max
a=1,...,.
[`
a
[ _ `
_
_
1
`
1
_
[`
.
[ 1
max
n=1,...,^
[An[A

_
1
`
1 [[`
.
[] .
Proof. Per capire la naturalezza del primo passaggio della dimostrazione utile ricor-
dare la dimostrazione della disuguaglianza di Chebyshev: essa asserisce che 1 ([A[ _ `) _
1
A
1 [[A[], per ogni ` 0 ed ogni v.a. A, e la dimostrazione si svolge semplicemente
applicando la monotonia del valore atteso alla disuguaglianza
`1
[A[A
_ [A[ 1
[A[A
.
3.3. TEOREMI DARRESTO E DISUGUAGLIANZE 61
Veniamo al caso delle submartingale. Data la submartingala originaria ` =
(`
a
)
aN
e dato ` intero positivo, introduciamo una nuova submartingala `
.
=
_
`
.
a
_
aN
denita da `
.
a
= `
a
per : _ `, `
.
a
= `
.
per : `. E equiva-
lente dimostrare la tesi del teorema per `
.
. Quindi possiamo supporre sin dallinizio,
senza restrizione, che ` sia costante dal tempo ` in poi; facciamo questa ipotesi ed
usiamo la notazione ` per la nostra submartingala.
Introduciamo la funzione t
.
: 0. .... ` denita da
t
.
= min : _ ` : [`
a
[ _ `
se tale insieme non vuoto, t
.
= ` +1 altrimenti. E un tempo darresto: se :
0
_ `,
t
.
_ :
0
=
_
aa
0
[`
a
[ _ ` T
a
0
mentre, se :
0
`,
t
.
_ :
0
= t
.
= ` + 1 =

a.
[`
a
[ < ` T
.
T
a
0
.
Vale
`1
max
n=1,...,^
[An[A
_ [`
t
^
[ 1
max
n=1,...,^
[An[A
.
Infatti, sullevento max
a=1,...,.
[`
a
[ _ ` vale t
.
_ ` e `
t
^
_ `.
Integrando,
1
_
max
a=1,...,.
[`
a
[ _ `
_
_
1
`
1
_
[`
t
^
[ 1
max
n=1,...,^
[An[A

.
Ora, levento max
a=1,...,.
[`
a
[ _ ` = t
.
_ ` appartiene a T
t
^
ed il processo
[`
a
[ una submartingala (se `
a
una martingala, allora [`
a
[ una submartingala
come trasformazione convessa; se `
a
una martingala positiva, allora [`
a
[ una
submartingala come trasformazione convessa crescente), quindi vale, per il Corollario
2,
1
_
[`
t
^
[ 1
max
n=1,...,^
[An[A

_ 1
_
[`
.+1
[ 1
max
n=1,...,^
[An[A

= 1
_
[`
.
[ 1
max
n=1,...,^
[An[A

dove abbiamo usato il fatto che t


.
_ ` + 1 e che `
.+1
= `
.
. La dimostrazione
completa.
Corollario 3 Dato j _ 1, se 1 [[`
a
[
j
] < per ogni :, allora
1
_
max
a=1,...,.
[`
a
[ _ `
_
_
1
`
j
1 [[`
.
[
j
] .
Dato o 0, se 1
_
c
0[An[

< per ogni :, allora


1
_
max
a=1,...,.
[`
a
[ _ `
_
_ c
0A
1
_
c
0[A
^
[

.
62 CAPITOLO 3. MARTINGALE
Proof. Il processo [`
a
[
j
una submartingala, per la Proposizione 26. Per la disug-
uaglianza massimale applicata a [`
a
[
j
e `
j
1
_
max
a=1,...,.
[`
a
[ _ `
_
= 1
_
max
a=1,...,.
[`
a
[
j
_ `
j
_
_
1
`
j
1 [[`
.
[
j
] .
La dimostrazione della seconda disuguaglianza identica, usando la funzione convessa
e crescente r c
0a
.
Le stime delle code di una v.a. implicano stime sui valori medi. Ricordiamo:
Lemma 3 Se A una v.a. integrabile non negativa, allora
1 [A
j
] =
_
o
0
jc
j1
1 (A _ c) dc
per ogni j _ 1.
Proof.
_
o
0
jc
j1
1 (A _ c) dc =
_
o
0
jc
j1
1 [1
Ao
] dc = 1
__
o
0
jc
j1
1
Ao
dc
_
= 1
__
A
0
jc
j1
dc
_
= 1 [A
j
] .
Nellambito delle equazioni dierenziali stocastiche, il seguente risultato molto
utile.
Teorema 10 (disuguaglianza di Doob) Se ` una martingala oppure una sub-
martingala positiva, per ogni j 1 vale
1
_
max
a=1,...,.
[`
a
[
j
_
_
_
j
j 1
_
j
1 [[`
.
[
j
] .
Precisamente, se 1 [[`
.
[
j
] = +, la disuguaglianza ovvia; se 1 [[`
.
[
j
] < allora
anche max
a=1,...,.
[`
a
[
j
integrabile e vale la disuguaglianza.
Proof. Poniamo `
+
.
= max
a=1,...,.
[`
a
[. Allora
1
_
max
a=1,...,.
[`
a
[
j
_
=
_
o
0
jc
j1
1 (`
+
.
_ c) dc _
_
o
0
jc
j1
1
c
1
_
[`
.
[ 1
A

^
o

dc
= 1
_
[`
.
[
_
A

^
0
jc
j2
dc
_
=
j
j 1
1
_
[`
.
[ (`
+
.
)
j1

.
Per la disuguaglianza di Hlder, ricordando che
1
j
+
j1
j
= 1,
1
_
[`
.
[ (`
+
.
)
j1

_ 1 [[`
.
[
j
]
1

1 [(`
+
.
)
j
]
1

quindi, dividendo per 1 [(`


+
.
)
j
]
1

,
1 [(`
+
.
)
j
]
1

_
j
j 1
1 [[`
.
[
j
]
1

da cui la tesi.
Esercizio 11 Se t
1
_ t
2
sono due tempi darresto, allora T
t
1
T
t
2
.
3.3. TEOREMI DARRESTO E DISUGUAGLIANZE 63
3.3.2 Il caso a tempo continuo
Le dimostrazioni che seguono sono basate tutte sulla stessa strategia. Data una mar-
tingala (resp. submartingala) ` = (`
t
)
t0
, dato un tempo 1 0, si considerano gli
istanti diadici della forma
IT
2
n
, con : N e / = 0. 1. .... 2
a
e si introduce, per ogni
: N, il processo a tempo discreto
`
(a,T)
I
:= `IT
2
n
. / N.
Esso una martingala (resp. submartingala) a tempo discreto, rispetto alla ltrazione
_
TIT
2
n
_
IN
. Ad essa si applicano quindi i risultati precedenti. Bisogna poi eseguire un
passaggio al limite per : e per controllare il limite di alcune quantit servono
delle ipotesi di continuit di `. I primi due teoremi necessitano solo della seguente
ipotesi:
sup
t[0,T]
[`
t
[ = lim
ao
max
I=1,...,2
n

`
(a,T)
I

. (3.2)
Questa vale ad esempio se ogni (o q.o.) traiettoria di ` continua a destra o a sinistra
in ogni punto.
Teorema 11 (disuguaglianza massimale) Sia ` una martingala, oppure una sub-
martingala positiva, che soddisfa (3.2). Allora, per ogni 1 0, ` 0, vale
1
_
sup
t[0,T]
[`
t
[ _ `
_
_
1
`
1 [[`
T
[] .
Proof. Per ogni : N, introduciamo levento

a
=
_
max
I=1,...,2
n

`
(a,T)
I

_ `
_
.
Per la disuguaglianza massimale discreta applicata alla submartingala `
(a,T)
I
, vale
1 (
a
) _
1
`
1
_

`
(a,T)
2
n

_
=
1
`
1 [[`
T
[]
osservando che `
(a,T)
2
n = `
T
. Gli eventi
a
sono non decrescenti, quindi 1 ('
a

a
) =
lim
ao
1 (
a
). Preso 0, grazie allipotesi (3.2), se sup
t[0,T]
[`
t
[ = j (o ancor
meglio se sup
t[0,T]
[`
t
[ _ j) allora esiste : tale che max
I=1,...,2
n

`
(a,T)
I

j .
Preso j = ` + , questo dice che
_
sup
t[0,T]
[`
t
[ _ ` +
_

_
aN

a
64 CAPITOLO 3. MARTINGALE
quindi
1
_
sup
t[0,T]
[`
t
[ _ ` +
_
_ lim
ao
1 (
a
) _
1
`
1 [[`
T
[] .
I numeri `. 0 sono arbitrari, quindi abbiamo anche dimostrato che, per < `,
1
_
sup
t[0,T]
[`
t
[ _ `
_
_
1
`
1 [[`
T
[] .
Pendendo il limite per 0 si ottiene la tesi. La dimostrazione completa.
Corollario 4 Dato j _ 1, se 1 [[`
t
[
j
] < per ogni t, allora
1
_
sup
t[0,T]
[`
t
[ _ `
_
_
1
`
j
1 [[`
T
[
j
] .
Dato o 0, se 1
_
c
0[AI[

< per ogni t, allora


1
_
sup
t[0,T]
[`
t
[ _ `
_
_ c
0A
1
_
c
0[A
T
[

.
La dimostrazione identica a quella del Corollario 3.
Teorema 12 (disuguaglianza di Doob) Sia dato j 1. Se ` una martingala,
oppure una submartingala positiva, che soddisfa (3.2) e 1 [[`
t
[
j
] < per ogni t,
allora, per ogni 1 0, la v.a. sup
t[0,T]
[`
t
[
j
integrabile e vale
1
_
sup
t[0,T]
[`
t
[
j
_
_
_
j
j 1
_
j
1 [[`
T
[
j
] .
Proof. Per ogni : N, introduciamo la v.a. A
a
= max
I=1,...,2
n

`
(a,T)
I

j
. Per la
disuguaglianza di Doob discreta applicata alla submartingala `
(a,T)
I
, vale
1 [A
a
] _
_
j
j 1
_
j
1 [[`
T
[
j
] .
La successione di v.a. A
a

aN
non descrescente e non negativa, quindi, per il teorema
di convergenza monotona,
1
_
lim
ao
A
a
_
_
_
j
j 1
_
j
1 [[`
T
[
j
] .
Ma la v.a. lim
ao
A
a
coincide con sup
t[0,T]
[`
t
[
j
per lipotesi (3.2). Questo completa
la dimostrazione.
3.3. TEOREMI DARRESTO E DISUGUAGLIANZE 65
Teorema 13 (darresto) Supponiamo che esista j 1 tale che 1 [[`
t
[
j
] < per
ogni t. Se ` una martingala continua a destra e t un tempo darresto limitato,
allora
1 [`
t
] = 1 [`
0
] .
Proof. Per ogni : N, introduciamo il tempo aleatorio t
a
: [0. ) cos denito:
t
a
=
/ + 1
2
a
se
/
2
a
< t _
/ + 1
2
a
.
E un tempo aleatorio:
t
a
_ t =
_
I,
I+1
2
n
t
_
t
a
=
/ + 1
2
a
_
=
_
I,
I+1
2
n
t
_
/
2
a
< t _
/ + 1
2
a
_
T
t
.
Inoltre, lim
ao
t
a
= t. Inne, esiste un intero ` 0 tale che t
a
_ ` per ogni : N.
Per il teorema di arresto discreto,
1 [`
tn
] = 1 [`
.
] = 1 [`
0
] .
Per la continuit a destra, lim
ao
`
tn
= `
t
. Inoltre,
[`
tn
[ _ sup
t[0,.]
[`
t
[
che integrabile per la disuguaglianza di Doob, e quindi, per il teorema di convergenza
dominata, lim
ao
1 [`
tn
] = 1 [`
t
]. La dimostrazione completa.
Esistono tante varianti del teorema darresto. Ne enunciamo una duso pratico nel
caso di processi continui.
Corollario 5 Supponiamo che esista j 1 tale che 1 [[`
t
[
j
] < per ogni t. Se `
una martingala continua, t nito e la successione `
t/a
uniformemente integrabile
(oppure limitata in modulo da una funzione integrabile), allora
1 [`
t
] = 1 [`
0
] .
Proof. Consideriamo i tempi darresto limitati t . : al variare di : N. Vale (per il
teorema di arresto)
1 [`
t/a
] = 1 [`
0
]
e lim
ao
`
t/a
= `
t
per la continuit a sinistra. La tesi discende alluniforme inte-
grabilit ed il relativo teorema di passaggio al limite in valore atteso (o dal teorema
di convergenza dominata di Lebesgue, se la successione `
t/a
limitata in modulo da
una funzione integrabile). La dimostrazione completa.
66 CAPITOLO 3. MARTINGALE
3.4 Applicazioni
3.4.1 Disuguaglianza esponenziale per il moto browniano
Si possono dimostrare le seguenti disuguaglianze, per ` 0:
_
` +
1
`
_
1
c

A
2
2
_
_
o
A
c

i
2
2
dr _
1
`
c

A
2
2
.
Da quella di destra si ottiene, per ogni 1 0,
1 (1
T
_ `) _
Infatti
1 (1
T
_ `) = 1
_
1
T
,
_
1 _ `,
_
1
_
_
1
2:
_
1
`
c

A
2
2T
.
Trascurando il fattore di fronte allesponenziale, possiamo dire che la coda della v.a.
1
T
decade come c

A
2
2T
(in realt decade un po pi velocemente, grazie al fattore che
moltiplica lesponenziale). La seguente disuguaglianza esponenziale raorza questo
risultato dal punto di vista delluniformit nel tempo, o se si vuole stabilisce un risultato
simile per le traiettorie del moto browniano.
Proposizione 31 Sia 1 un moto browniano. Allora, per ogni ` 0, vale
1
_
sup
t[0,T]
1
t
_ `
_
_ c
A
2
2T
.
1
_
sup
t[0,T]
[1
t
[ _ `
_
_ 2c
A
2
2t
.
Proof. Per la Proposizione 26, preso o 0, il processo `
t
:= c
01I
una submartingala
e quindi, per la disuguaglianza massimale,
1
_
sup
t[0,T]
1
t
_ `
_
= 1
_
sup
t[0,T]
c
01I
_ c
0A
_
_ c
0A
1
_
c
01I

.
Se A una v.a. ` (0. o
2
) si dimostra con un calcolo elementare che 1
_
c
0A

= c
0
2

2
2
.
Pertanto 1
_
c
01I

= c
0
2
I
2
. Otteniamo quindi
1
_
sup
t[0,T]
1
t
_ `
_
_ inf
00
c
0A+
0
2
I
2
= c
inf
00

0
2
I
2
0A

.
3.4. APPLICAZIONI 67
Per concludere basta osservare che il punto di minimo della parabola
0
2
t
2
o` si trova
in o =
A
t
0 e vale
A
2
2t
.
Inne, osserviamo che 1 ancora un moto browniano, quindi vale
1
_
sup
t[0,T]
(1
t
) _ `
_
_ c
A
2
2t
.
Daltra parte
_
sup
t[0,T]
[1
t
[ _ `
_

_
sup
t[0,T]
1
t
_ `
_
_
_
sup
t[0,T]
(1
t
) _ `
_
per cui passando alle probabilit si ottiene la seconda disuguaglianza della proposizione.
3.4.2 Problema della rovina
Sia 1 un moto browniano (continuo) e, presi c. / 0, consideriamo il problema
delluscita di 1 dallintervallo [c. /].
Osservazione 14 Possiamo immaginare, per aiutare lintuizione, che 1
t
+ c rappre-
senti il patrimonio di un giocatore al tempo t, patrimonio che ammonta al valore c 0
al tempo t = 0, e che / sia la quantit che il giocatore si pressa di vincere: smetter
di giocare quanto il suo patrimonio sar pari ad c +/, ovvero quando 1
t
= /. Se per,
prima di allora, il suo patrimonio si sar ridotto a zero (1
t
= c), il giocatore sar
caduto in rovina prima di raggiungere il suo scopo. Questo problema serve a mostrare
che la strategia di continuare a giocare no al momento in cui si raggiunge la vincita
desiderata (che in teoria prima o poi accadr) si scontra col fatto che si dispone di un
patrimonio iniziale limitato e quindi si pu cadere in rovina prima di raggiungere il
successo.
Introduciamo il tempo di ingresso in (c. /)
c
, detto anche tempo duscita da (c. /),
o primo istante in cui 1 raggiunge il valore c oppure /:
t
o,b
= min t _ 0 : 1
t
(c. /)
c
.
Essendo 1 continuo ed (c. /)
c
chiuso, t
o,b
un tempo darresto.
Supponiamo di poter stabilire che t
o,b
sia nito. Siccome 1 continuo e 1
t
[c. /]
per t _ t
o,b
(quindi la successione di v.a.
_

1
t
a,l
/a

_
aN
equilimitata), possiamo
applicare la versione del teorema darresto data dal Corollario 5 ed ottenere
1
_
1
t
a,l

= 1 [1
0
] = 0.
68 CAPITOLO 3. MARTINGALE
Daltra parte, sempre nellipotesi che t
o,b
sia nito, avremmo
1
_
1
t
a,l

= 1
_
1
t
a,l
1
1:
a,l
=o
_
+ 1
_
1
t
a,l
1
1:
a,l
=b
_
= 1
_
c1
1:
a,l
=o
_
+ 1
_
/1
1:
a,l
=b
_
= c1
_
1
t
a,l
= c
_
+ /1
_
1
t
a,l
= /
_
ed anche
1
_
1
t
a,l
= c
_
+ 1
_
1
t
a,l
= /
_
= 1.
Quindi avremmo le due relazioni
c1
_
1
t
a,l
= c
_
+ /1
_
1
t
a,l
= /
_
= 0
1
_
1
t
a,l
= c
_
+ 1
_
1
t
a,l
= /
_
= 1
da cui dedurremmo
1
_
1
t
a,l
= c
_
=
/
c /
. 1
_
1
t
a,l
= /
_
=
c
c /
. (3.3)
Proposizione 32 Vale (3.3). Inoltre,
1 [t
o,b
] = c/
c + /
c /
.
Proof. Consideriamo il processo
`
t
:= 1
2
t
t.
E una martingala (inquadreremo questo fatto pi in generale nel seguito):
1 [`
t
[T
c
] = 1
_
1
2
t
[T
c

t = 1
_
(1
t
1
c
)
2
[T
c

+ 21 [1
t
1
c
[T
c
] 1
_
1
2
c
[T
c

t
= 1
_
(1
t
1
c
)
2

+ 21
c
1 [1
t
[T
c
] 1
2
c
t
= t : + 21
2
c
1
2
c
t = 1
2
c
: = `
c
.
Preso 1 0, introduciamo il tempo darresto limitato t
o,b
. 1. Vale
1
_
`
t
a,l
/T

= 1 [`
0
] = 0
ovvero
1 [t
o,b
. 1] = 1
_
1
2
t
a,l
/T
_
.
Esiste una costante (il ragionamento simile a quello fatto sopra) C 0 tale che
1
2
t
a,l
/T
_ C, indipendentemente da 1, quindi
1 [t
o,b
. 1] _ C.
3.5. TEOREMADI DECOMPOSIZIONEDI DOOBPERSUBMARTINGALEDISCRETE69
Per convergenza monotona, si ottiene 1 [t
o,b
] _ C e quindi t
o,b
< quasi certamente.
Valgono quindi i calcoli sviluppati sopra, che portano alle formule (3.3).
Inoltre, possiamo applicare il Corollario 5 ad ` ed ottenere
1
_
`
t
a,l

= 1 [`
0
] = 0.
Daltra parte,
1
_
`
t
a,l

= 1
_
`
t
a,l
1
1:
a,l
=o
_
+ 1
_
`
t
a,l
1
1:
a,l
=b
_
= 1
_
_
c
2
t
o,b
_
1
1:
a,l
=o
_
+ 1
_
_
/
2
t
o,b
_
1
1:
a,l
=b
_
= c
2
1
_
1
t
a,l
= c
_
+ /
2
1
_
1
t
a,l
= /
_
1 [t
o,b
] .
da cui
1 [t
o,b
] = c
2
1
_
1
t
a,l
= c
_
+ /
2
1
_
1
t
a,l
= /
_
= c
2
/
c /
+ /
2
c
c /
= c/
c + /
c /
.
La dimostrazione completa.
3.5 Teorema di decomposizione di Doob per sub-
martingale discrete
Teorema 14 Se A una submartingala rispetto ad una ltrazione (T
a
)
a0
, allora
esistono una martingala ` = (`
a
)
a0
ed un processo crescente = (
a
)
a0
tali che
A
a
= `
a
+
a
.
Inoltre,
a
T
a1
misurabile, per ogni :.
Proof. Deniamo `
a
iterativamente in modo che valga
`
a+1
`
a
= A
a+1
1 [A
a+1
[T
a
] .
Poniamo ad esempio `
0
= 0, `
1
= A
1
1 [A
1
[T
0
], e cos via `
a+1
= `
a
+ A
a+1

1 [A
a+1
[T
a
].
Vale
1 [`
a+1
`
a
[T
a
] = 1 [A
a+1
1 [A
a+1
[T
a
] [T
a
]
= 1 [A
a+1
[T
a
] 1 [A
a+1
[T
a
] = 0.
Quindi ` una martingala. Il processo

a
:= A
a
`
a
70 CAPITOLO 3. MARTINGALE
soddisfa

a+1
= A
a+1
`
a+1
= 1 [A
a+1
[T
a
] `
a
_ A
a
`
a
=
a
quindi crescente. Inoltre, sempre da qui si vede che
a+1
T
a
misurabile. La
dimostrazione completa.
Possiamo nalmente tornare al teorema darresto e svincolarci da una limitazione
antipatica per le submartingale.
Corollario 6 Siano A una submartingala discreta e t
1
_ t
2
due tempi darresto
limitati. Allora
1 [A
t
2
[T
t
1
] _ A
t
1
ed in particolare
1 [A
t
2
] _ 1 [A
t
1
] .
Proof. Scriviamo A nella forma
A
a
= `
a
+
a
come nel teorema di decomposizione. Allora
1 [A
t
2
[T
t
1
] = 1 [`
t
2
[T
t
1
] + 1 [
t
2
[T
t
1
] .
Siccome crescente,
t
2
_
t
1
(q.c.) e quindi, per la monotonia della speranza
condizionale, 1 [
t
2
[T
t
1
] _ 1 [
t
1
[T
t
1
]. Essendo poi
t
1
misurabile rispetto a T
t
1
(esercizio 12), vale
1 [
t
2
[T
t
1
] _
t
1
.
Inoltre,
1 [`
t
2
[T
t
1
] = `
t
1
per il risultato darresto delle martingale. Quindi
1 [A
t
2
[T
t
1
] _ `
t
1
+
t
1
= A
t
1
.
Laermazione 1 [A
t
2
] _ 1 [A
t
1
] discende dalla precedente calcolando il valore atteso
di ambo i membri. La dimostrazione completa.
Esercizio 12 Se A un processo a tempo discreto e t un tempo darresto nito, allora
A
t
misurabile rispetto a T
t
.
3.6. TEOREMA DI CONVERGENZA PER SUPER-MARTINGALE DISCRETE71
3.6 Teorema di convergenza per super-martingale
discrete
Proviamo ad apprezzare intuitivamente il problema ragionando sulle traiettorie di una
martingala. Abbiamo visto allinizio del capitolo che gli incrementi sono indipendenti o
quasi, e centrati. Limmagine che ci facciamo quindi di traiettorie altamente oscillanti,
con oscillazioni ugualmente distribuite verso lalto e verso il basso (qui usiamo le parole
in modo molto intuitivo); si pensi ad esempio al moto browniano. Il teorema che
vedremo in questo paragrafo aerma che, sotto certe ipotesi, esiste nito il limite per
t , delle traiettorie (q.c.). Come pu questo essere compatibile con le oscillazioni
suddette? Le traiettorie browniane sono illimitate sia dallalto sia dal basso, per t .
Ci che forse ci inganna pensando al moto browniano la stazionariet dei suoi
incrementi. Una martingala, invece, pu avere incrementi sempre pi piccoli, al
crescere del tempo. Essi continueranno ad essere quasi indipendenti dal passato, ma
se sono sempre pi piccoli non assurdo immaginare che le traiettorie abbiano limite;
un po come per la funzione , (t) =
1
t
sin t.
3.6.1 Tentativo di euristica
Il teorema che stiamo per esporre davvero inaspettato, rispetto alla media dei nostri
teoremi e la sua dimostrazione non aatto concettualmente semplice, pur molto
sintetica. Proviamo allora ad avvicinarci per gradi con ragionamenti il pi possibile
plausibili (pur costruiti a posteriori).
Prendiamo una submartingala a tempo discreto ` = (`
a
)
a0
, rispetto ad una
ltrazione (T
a
)
a0
:
1 [`
a+1
`
a
[T
a
] _ 0
per ogni : N. Limmagine intuitiva, almeno nel caso delle martingale (che vogliamo
includere nel teorema), che le sue traiettorie oscillino continuamente, per : .
Un modo di esplorare se abbia limite o meno, per : , quello di prendere due
generiche soglie c < / ed esplorare se le traiettorie attraversano lintervallo [c. /]
innite volte oppure no.
Osservazione 15 Spieghiamo cosa si intende per attraversamento di [c. /] dal basso
verso lalto, per una successione numerica (r
a
)
a0
. Analogamente a quanto vedremo
sotto, poniamo
o
1
= inf : _ 0 : r
a
< c . t
1
= inf : o
1
: r
a
/
o
i+1
= inf : t
a
: r
a
< c . t
i+1
= inf : o
a+1
: r
a
/ . i _ 1
con la convenzione che questi numeri sono inniti se il corrispondente insieme vuoto.
Se t
1
< , diremo che tra gli istanti o
1
e t
1
c un attraversamento di [c. /] dal basso
72 CAPITOLO 3. MARTINGALE
verso lalto; e cos via se t
i+1
< . La quantit (eventualmente innita)

o,b
= Cc:d i _ 1 : t
i
<
rappresenta il numero di attraversamenti di [c. /] dal basso verso lalto.
Osservazione 16 Se il numero di questi attraversamenti nito, qualsiasi siano c <
/, allora esiste lim
ao
r
a
(nito o innito). Infatti, il limite lim
ao
r
a
esiste se e
solo se i limiti superiore e inferiore coincidono (eventualmente inniti); se questo non
vericato, allora si possono trovare (partendo da due sottosuccessioni che tendono
ai limiti estremi) due numeri reali c < / (basta prenderli strettamente contenuti tra
i due limiti estremi) e due sottosuccessioni :
o
I
,
_
:
b
I
_
tali che r
a
a
I
< c, r
a
l
I
c,
:
o
I
< :
b
I
< :
o
I+1
per ogni /.
Torniamo alla submartingala. Vogliamo capire se gli attraversamenti di un generico
intervallo [c. /], dal basso verso lalto, delle sue traiettorie, sono niti o inniti. Poniamo
o
1
(.) = inf : _ 0 : `
a
(.) < c
t
1
(.) = inf : o
1
(.) : `
a
(.) /
ponendo o
1
(.) = o t
1
(.) = se i relativi insiemi sono vuoti. Poi iterativamente
introduciamo, per i _ 1,
o
i+1
(.) = inf : t
a
(.) : `
a
(.) < c
t
i+1
(.) = inf : o
a+1
(.) : `
a
(.) /
sempre con la convenzione suddetta se gli insiemi sono vuoti. La quantit aleatoria, a
valori interi non negativi o +,

o,b
(.) = Cc:d i _ 1 : t
i
(.) <
il numero di attraversamenti di [c. /] in modo ascendente. Come detto sopra, se
nita, allora c limite, per la realizzazione (`
a
(.))
a0
.
Gli istanti o
i
e t
i
sono tempi darresto (sono simili agli istanti di primo ingresso,
solo con un vincolo dal basso (es. : t
a
nella denizione di o
i+1
, ma la verica
identica, per ricorrenza).
Osservazione 17 Se fossero limitati, avremmo (per il teorema darresto)
1 [`
t
.
] _ 1
_
`
o
.+1

.
Questo impossibile: `
o
.+1
< c e `
t
.
/ (se o
i
e t
i
sono niti) quindi
1
_
`
o
.+1

_ c < / _ 1 [`
t
.
] .
3.6. TEOREMA DI CONVERGENZA PER SUPER-MARTINGALE DISCRETE73
Quindi o
i+1
e t
i
non sono limitati. Per avere il primo attraversamento, per certi .
si deve aspettare moltissimo. Questo per non (come invece si potrebbe pensare) un
primo indizio di convergenza: vale anche per il moto browniano, dove la convergenza
sicuramente non vale (non basta la propriet di martingala per garantire la convergenza
e per ora abbiamo usato solo questa).
Tronchiamo questi tempi aleatori per poter applicare i risultati darresto. Dato un
intero positivo 1 (lo si immagini molto grande), introduciamo i tempi aleatori o
i
. 1,
t
i
. 1. Fissato 1, essi sono tempi darresto e sono limitati: i tempi deterministici
sono tempi darresto, il minimo di due tempi darresto un tempo darresto, e sono
ovviamente limitati da 1. Allora, per il Corollario 6,
1 [`
t
.
/T
] _ 1
_
`
o
.+1
/T

(3.4)
per ogni i. Questo il primo ingrediente cruciale della dimostrazione.
Il secondo parte da una stima per
o,b
in termini della martingala. La disuguaglianza
pi facile da capire (non la dimostriamo perch non verr usata)

o,b
(/ c) _
o

i=1
(`
t
.
`
o
.
) 1
t
.
<o
.
Tuttavia, come sopra, dobbiamo lavorare con tempi troncati. Introduciamo allora il
numero di attraversamenti precedenti a 1

T
o,b
(.) = Cc:d i _ 1 : t
i
(.) < 1
ed osserviamo che

T
o,b
(/ c) _
T

i=1
(`
t
.
/T
`
o
.
/T
) 1
t
.
<T
.
Infatti, se (relativamente ad un certo .) ci sono esattamente / attraversamenti prece-
denti a 1, cio
T
o,b
= /, per un qualche / = 0. 1. .... 1 (si noti che il numero di
attraversamenti prima di 1 limitato almeno da 1, ed in realt da un numero minore
o uguale a 1,2), signica che o
1
< t
1
< o
2
< ... < t
I
< 1 _ t
I+1
(non sappiamo
per dove sta o
I+1
rispetto a 1), e quindi (il caso / = 0 va fatto separatamente; lo
omettiamo)
T

i=1
(`
t
.
/T
`
o
.
/T
) 1
t
.
<T
=
I

i=1
(`
t
.
`
o
.
) + (`
T
`
o
.
/T
) 1
t
I+1
<T
_ / (/ c) =
T
o,b
(/ c) .
Purtroppo per il termine 1
t
.
<T
produce delle complicazioni pi tardi (si pensi al fatto
che volgiamo usare la (3.4)). Eppure questo termine cruciale per cancellare laddendo
74 CAPITOLO 3. MARTINGALE
(`
T
`
o
.
/T
) 1
t
I+1
<T
. Unalternativa la disuguaglianza

T
o,b
(/ c) _
T

i=1
(`
t
.
/T
`
o
.
/T
) inf
i=1,...,T
(`
T
`
o
.
/T
)
che si dimostra esattamente come la precedente. Si noti che, se sapessimo che `
a
_ c
per ogni :, allora sarebbe
inf
i=1,...,T
(`
T
`
o
.
/T
) _ 0
perch, se o
i
< 1 allora `
o
.
/T
< c _ `
T
, mentre se o
i
_ 1 allora `
o
.
/T
= `
T
. In
questo caso allora avremmo

T
o,b
(/ c) _
T

i=1
(`
t
.
/T
`
o
.
/T
) .
Pertanto, se riusciamo a ricondurci al caso di una submartingala tale che `
a
_ c per
ogni :, allora una delle disuguaglianze cruciali si semplica enormemente. Ma questo
sempre possibile: data una submartingala ` e dati c < /, basta introdurre
`
o
a
= (`
a
c)
+
+ c.
Il processo `
a
c ovviamente una submartingala e quindi lo anche (`
a
c)
+
per
il teorema sulle trasformazioni convesse crescenti e quindi anche `
o
a
. la submartin-
gala `
o
a
soddisfa `
o
a
_ c per ogni :. Inoltre, la quantit
T
o,b
non varia con queste
trasformazioni. Vale quindi

T
o,b
(/ c) _
T

i=1
_
`
o
t
.
/T
`
o
o
.
/T
_
. (3.5)
Il terzo ingrediente, che ora forse si pu immaginare mettendo insieme i due prece-
denti, la semplice identit
`
T
`
o
1
/T
=
T

i=1
_
`
o
.+1
/T
`
t
.
/T
+ `
t
.
/T
`
o
.
/T
_
=
T

i=1
_
`
o
.+1
/T
`
t
.
/T
_
+
T

i=1
(`
t
.
/T
`
o
.
/T
) .
Osserviamo solo, circa la sua validit, che `
o
T+1
/T
= `
T
perch non ci possono essere
1 attraversamenti entro il tempo 1. In realt, vista la (3.5), utilizzeremo lanaloga
identit per il processo `
o
.
3.6. TEOREMA DI CONVERGENZA PER SUPER-MARTINGALE DISCRETE75
Mettendo insieme i tre ingredienti, abbiamo
`
o
T
`
o
o
1
/T
_
T

i=1
_
`
o
o
.+1
/T
`
o
t
.
/T
_
+
T
o,b
(/ c)
da cui, ricordando (3.4) (che vale ovviamente anche per `
o
),
1 [`
o
T
] 1
_
`
o
o
1
/T

_ 1
_

T
o,b

(/ c) .
Non si scordi che `
o
non una martingala, altrimenti avremmo 1 [`
o
T
]1
_
`
o
o
1
/T

=
0 che implicherebbe 1
_

T
o,b

= 0 (assurdo negli esempi).


Possiamo proseguire la dimostrazione cos: vale 1
_
`
o
o
1
/T

_ 1 [`
o
0
] per il teorema
di arresto per submartingale, quindi
1
_

T
o,b

_
1
/ c
(1 [`
o
T
] 1 [`
o
0
]) =
1
/ c
_
1
_
(`
T
c)
+

1
_
(`
0
c)
+
_
_
1
/ c
1
_
(`
T
c)
+

.
Si arriva alla stessa conclusione senza il teorema di arresto, con la seguente osservazione:
`
o
T
`
o
o
1
/T
_ (`
T
c)
+
.
Questa disuguaglianza ovvia se o
1
_ 1, mentre se o
1
< 1 vale perch
`
o
T
`
o
o
1
/T
= `
o
T
`
o
o
1
= (`
T
c)
+
+ c (`
o
1
c)
+
+ c _ (`
T
c)
+
.
A questo punto abbiamo dimostrato una stima per il numero medio di attraversa-
menti, prima di un tempo 1 qualsiasi. La stima non dipende da 1 e quindi intu-
itivamente plausibile che si deduca che il numero di attraversamenti nito. Bisogna
poi escludere la possibilit di limite innito, se vogliamo un teorema sulla convergenza.
Nel prossimo paragrafo sistemiamo tutti questi i dettagli.
3.6.2 Risultati rigorosi
Siano
o,b
e
T
o,b
le grandezze aleatorie denite nella sottosezione precedente: numero
di attraversamenti in salita di [c. /] e numero prima del tempo 1.
Lemma 4 Se ` = (`
a
)
a0
una submartingala a tempo discreto, allora per ogni
c < / e 1 0 intero vale
1
_

T
o,b

_
1
/ c
1
_
(`
T
c)
+

1
_

o,b

_
1
/ c
sup
a.
1
_
(`
a
c)
+

.
76 CAPITOLO 3. MARTINGALE
Proof. La dimostrazione della prima disuguaglianza illustrata al paragrafo prece-
dente completa. Volendo sintetizzare a posteriori i suoi passi, senza le discussioni
intermedie:
si introduce la submartingala ausiliaria `
o
= (`
a
c)
+
+c e si verica che vale

T
o,b
(/ c) _
T

i=1
_
`
o
t
.
/T
`
o
o
.
/T
_
si osserva che vale la semplice lidentit
`
o
T
`
o
o
1
/T
=
T

i=1
_
`
o
o
.+1
/T
`
o
t
.
/T
_
+
T

i=1
_
`
o
t
.
/T
`
o
o
.
/T
_
da cui si deduce
`
o
T
`
o
o
1
/T
_
T

i=1
_
`
o
o
.+1
/T
`
o
t
.
/T
_
+
T
o,b
(/ c)
usando il teorema darresto si deduce
1
_

T
o,b

_
1
/ c
_
1 [`
o
T
] 1
_
`
o
o
1
/T
_
ed inne si conclude osservando che `
o
T
`
o
o
1
/T
_ (`
T
c)
+
.
La stima per 1
_

o,b

discende dalla precedente e dal teorema di convergenza monotona,


visto che
o,b
= lim
ao

a
o,b
, e che 1
_

T
o,b

_
1
bo
sup
a.
1
_
(`
a
c)
+

per ogni 1 0.
La dimostrazione completa.
Teorema 15 Se ` = (`
a
)
a0
una submartingala a tempo discreto tale che
sup
aN
1
_
`
+
a

<
allora la successione (`
a
(.))
a0
converge q.c., per : .
Proof. Per il lemma,
o,b
< q.c., per ogni c < / pressati. Ne discende subito che
1
_

o,b
< . \c < /. c. / Q
_
= 1.
E un facile esercizio vericare che laermazione
o,b
< , \c < /, c. / Q implica
laermazione
o,b
< , \c < /, c. / R. Quindi
1
_

o,b
< . \c < /
_
= 1.
3.6. TEOREMA DI CONVERGENZA PER SUPER-MARTINGALE DISCRETE77
Abbiamo gi dimostrato (osservazione 16) che se vale
o,b
(.) < , \c < /, allora
esiste lim
ao
`
a
(.). Resta quindi solo da dimostrare che tale limite nito, q.c.
Ricordiamo il lemma di Fatou: 1
_
liminf
ao
A
a
_
_ liminf
ao
1 [A
a
], ad esempio se le v.a.
A
a
sono non negative (si accetta il caso di valori inniti, ad esempio di liminf
ao
A
a
).
Allora
1
_
lim
ao
[`
a
[
_
_ liminf
ao
1 [[`
a
[] _ sup
aN
1 [[`
a
[] .
Se avessimo ipotizzato sup
aN
1 [[`
a
[] < , concluderemmo subito: dedurremmo che
lim
ao
[`
a
[ < q.c., come volevamo. Questa condizione per discende dallipotesi
del teorema, usando nuovamente la propriet di submartingala: siccome [r[ = 2r
+
r
per ogni numero reale r, abbiamo
1 [[`
a
[] = 21
_
`
+
a

1 [`
a
] _ 21
_
`
+
a

1 [`
0
] _ 2 sup
aN
1
_
`
+
a

1 [`
0
]
da cui sup
aN
1 [[`
a
[] < . La dimostrazione completa.
I seguenti corollari sono immediati.
Corollario 7 Se per una martingala (o sub o super martingala) ` esiste una costante
C 0 tale che 1 [[`
a
[] _ C per ogni :, allora `
a
converge.
Corollario 8 Una martingala (o super martingala) positiva converge.
Vediamo un teorema sulle martingale chiuse a tempo discreto.
Corollario 9 Teorema 16 Data una v.a. A integrabile ed una ltrazione (T
a
)
a0
,
il processo `
a
= 1 [A[T
a
] una martingala, vale 1 [[`
a
[] _ 1 [[A[] e quindi `
a
converge. Inoltre, il limite 1 [A[T
o
] dove T
o
= .
a
T
a
. In particolare 1 [A[T
a
]
converge ad A se A T
o
-misurabile.
Proof. Abbiamo gi dimostrato che ` una martingala, esempio 3. L avevamo gi
osservato che
1 [[`
a
[] _ 1 [1 [[A[ [T
a
]] = 1 [[A[]
quindi lipotesi del Corollario 7 soddisfatta. Ne discende che `
a
converge q.c.
Indichiamo con 2 il suo limite.
Per dimostrare in totale generalit che 2 = 1 [A[T
o
] dovremmo usare il concetto
di uniforme integrabilit ed alcune veriche supplementari, che omettiamo. Per sem-
plicit, limitiamoci a dimostrare lultima parte del teorema nel caso in cui A sia di
quadrato integrabile: 1 [A
2
] < . Vale come sopra
1
_
`
2
a

_ 1
_
1
_
A
2
[T
a

= 1
_
A
2

fatto che useremo tra un momento.


78 CAPITOLO 3. MARTINGALE
Dobbiamo dimostrare che 2 = 1 [A[T
o
]. Usiamo la denizione di speranza con-
dizionale. Innanzi tutto, 2 T
o
-misurabile. Infatti, `
a
T
a
e quindi T
o
-misurabile,
e 2 limite quasi certo di `
a
. Ora basta vericare che 1 [21

] = 1 [A1

] per
ogni T
o
. E suciente dimostrarlo per ogni appartenente ad una base di
T
o
. Il fatto che basti vericarlo per una base molto simile al ragionamento fatto
in unaltra occasione, per lindipendenza tra o-algebre, che non riportiamo (lidea
considerare linsieme degli eventi T tali che 1 [21

] = 1 [A1

] e mostrare che
una o-algebra).
Sia / la famiglia
_
a
T
a
, che non una o-algebra (non T
o
). E per una base di
T
o
. Prendiamo /, precisamente T
a
0
per un certo :
0
. Vale 1
_
(`
a
1

)
2

_
1 [`
2
a
] _ 1 [A
2
], e `
a
1

21

q.c., quindi per un teorema di Vitali possiamo


passare al limite sotto il segno di valore atteso: 1 [`
a
1

] 1 [21

]. Pertanto
1 [21

] = lim
ao
1 [`
a
1

] = lim
ao
1 [1 [A[T
a
] 1

] = lim
ao
1 [1 [1

A[T
a
]]
= lim
ao
1 [1

A] = 1 [1

A] .
Abbiamo usato, al terzo passaggio, il fatto che nel calcolo del limite bastano i valori
di : maggiori di :
0
e per essi 1

T
a
-misurabile (in quanto T
a
0
-misurabile). La
dimostrazione completa.
3.7 Altri risultati per martingale a tempo continuo
Avendo dimostrato in grande dettaglio le aermazioni precedenti, per non appesantire
la trattazione ci limitiamo qui ad un elenco di enunciati. Alcuni sono facili esercizi,
altri meno. Supponiamo completo lo spazio di probabilit (. T. 1).
Teorema 17 Sia 1 [0. ) un insieme numerabile denso. Sia ` = (`
t
)
t1
una
submartingala rispetto ad una ltrazione (T
t
)
t1
. Supponiamo
sup
t1
1 [[`
t
[] < .
Allora, su un insieme di probabilit uno, esistono niti il limite per t ed i limiti
destro e sinistro per t t
0
in ogni punto t
0
(t 1).
Teorema 18 Sia ` = (`
t
)
t0
una submartingala continua a destra. Supponiamo
sup
t1
1 [[`
t
[] < .
Allora, q.c., esistono niti il limite per t ed i limiti sinistri in ogni punto t
0
.
3.8. MARTINGALE LOCALI E SEMIMARTINGALE 79
Teorema 19 Sia ` = (`
t
)
t0
una martingala rispetto ad una ltrazione (T
t
)
t0
che
soddis le condizioni abituali. Allora esiste una modicazione cdlg di `, che ancora
una martingala.
Teorema 20 Sia ` = (`
t
)
t0
una martingala continua a destra, rispetto ad una
ltrazione (T
t
)
t0
, e t
1
_ t
2
due tempi darresto limitati. Allora
1 [`
t
2
[T
t
1
] = `
t
1
.
Se t un tempo darresto q.c. nito (non necessariamente limitato), allora (`
t/t
)
t0
una martingala rispetto a (T
t
)
t0
.
Ricordiamo che, se (`
t
)
t0
una martingala continua e di quadrato integrabile, allora
(`
2
t
)
t0
una submartingala. Nellottica del teorema di decomposizione di Doob visto
sopra nel caso discreto, ci chiediamo se `
2
t
si decomponga. Il processo crescente
t
che ne emerge, di fondamentale importanza, che ricorda il concetto di variazione
quadratica.
Teorema 21 Sia (`
t
)
t0
una martingala continua e di quadrato integrabile, rispetto
a (T
t
)
t0
; si supponga che (T
t
)
t0
sia completa. Allora vale la decomposizione
`
2
t
= `
t
+
t
dove (`
t
)
t0
una martingala continua ed (
t
)
t0
un processo crescente continuo,
con
0
= 0. La decomposizione unica e vale, in probabilit,

t
= lim
[
I
[0
a
I
1

i=0

`
t
.+1
`
t
.

2
dove :
I

IN
una successione di partizioni di [0. t] della forma :
I
= 0 = t
0
< t
1
< ... < t
a
I
= t.
3.8 Martingale locali e semimartingale
Abbiamo visto sopra che se ` = (`
t
)
t0
una martingala continua a destra, rispetto
ad una ltrazione (T
t
)
t0
, e t un tempo darresto q.c. nito, allora (`
t/t
)
t0
una
martingala rispetto a (T
t
)
t0
. Questo risultato d lo spunto per una nuova denizione.
Diciamo che un processo (`
t
)
t0
una martingala locale rispetto a (T
t
)
t0
se esiste
una successione crescente t
a

aN
di tempi darresto, con lim
ao
t
a
= +, tale che
(`
t/tn
)
t0
una martingala rispetto a (T
t
)
t0
, per ogni : N. Diciamo che i tempi
t
a
riducono `.
Una martingala una martingala locale (t
a
= + per ogni :). Per noi linteresse
maggiore per questo concetto risieder nel fatto che gli integrali stocastici di processi
abbastanza generali sono martingale locali, ma non sempre martingale. Un esempio
molto particolare di questa situazione il seguente, che comunque illustra unidea
generale, quella di troncamento o localizzazione.
80 CAPITOLO 3. MARTINGALE
Esempio 4 Sia 1 un moto browniano rispetto a (T
t
)
t0
e sia A
0
una v.a. T
0
-
misurabile. Poniamo
`
t
= A
0
\
t
.
Se ipotizziamo che A
0
sia di quadrato integrabile, o in questo semplice esempio anche
solo integrabile, allora `
t
integrabile perch prodotto di v.a. indipendenti integrabili,
e vale
1 [A
0
\
t
[T
c
] = A
0
1 [\
t
[T
c
] = A
0
\
c
cio `
t
una martingala. Se invece non supponiamo alcuna integrabilit di A
0
, `
t
non sar in generale integrabile e quindi non possiamo porci il problema se sia o meno
una martingala. Introduciamo per il tempo aleatorio
t
a
=
_
se [A
0
[ _ :
0 se [A
0
[ :
.
E un tempo darresto:
t
a
_ t = (t
a
_ t [A
0
[ _ :) ' (t
a
_ t [A
0
[ :)
= ?' [A
0
[ : T
0
T
t
per ogni t _ 0. Inoltre, t
a
q.c. Inne,
`
t/tn
= A
0
\
t/tn
=
_
A
0
\
t
se [A
0
[ _ :
0 se [A
0
[ :
quindi
`
t/tn
= A
0
1
[A
0
[a
\
t
.
Il processo `
t/tn
quindi una martingala, perch della forma 1
0
\
t
con 1
0
integrabile.
Diciamo per brevit che un processo a variazione limitata se q.c. le sue traiettorie
hanno variazione limitata su ogni intervallo nito.
Diciamo inne che un processo (A
t
)
t0
una semimartingala rispetto a (T
t
)
t0
se
la somma di una martingala locale e di un processo adattato a variazione limitata. In
base ad uno dei risultati precedenti, un importante esempio di semimartingala `
2
t
,
dove ` una martingala continua. Vedremo pi in generale nel seguito che anche
, (`
t
) con , C
2
una semimartingala, ed ancor pi in generale vedremo che se A
una semimartingala continua, allora lo anche , (A
t
) con , C
2
. Per questa ed
altre ragioni, la classe delle semimartingale in un certo senso chiusa per il cosiddetto
calcolo stocastico, contiene gli oggetti di maggior interesse (moto browniano, integrali
stocastici) e quindi la classe privilegiata in cui svolgere il calcolo.
Si pu dimostrare il seguente risultato. Diciamo che una semimartingala continua
se somma di una martingala locale continua e di un processo continuo a variazione
limitata.
3.8. MARTINGALE LOCALI E SEMIMARTINGALE 81
Teorema 22 Sia (A
t
)
t0
una semimartingala continua. La decomposizione in mar-
tingala locale e processo a variazione limitata unica. Dato t e data una successione
:
I

IN
di partizioni di [0. t] della forma :
I
= 0 = t
0
< t
1
< ... < t
a
I
= t, esistono
in probabilit i seguenti limiti e coincidono
lim
[
I
[0
a
I
1

i=0

A
t
.+1
A
t
.

2
= lim
[
I
[0
a
I
1

i=0

`
t
.+1
`
t
.

2
.
La grandezza
A
t
= 1 lim
[
I
[0
a
I
1

i=0

A
t
.+1
A
t
.

2
detta variazione quadratica di A su [0. t].
Non vedremo la dimostrazione nel suo complesso ed in totale generalit, ma si-
curamente esamineremo alcune classi di processi (deniti tramite integrali stocastici)
per cui alcune di queste aermazioni saranno dimostrate. Gi conosciamo una prima
classe: i processi della forma
A
t
= 1
t
+ \
t
dove 1 un moto browniano e \ un processo continuo a variazione limitata. Infatti,
per 1 abbiamo dimostrato che esiste la variazione quadratica (anche come limite in me-
dia quadratica) e, sempre nel capitolo del moto browniano, abbiamo visto che una fun-
zione , continua a variazione limitata ha la propriet lim
[
I
[0

a
I
1
i=0
[, (t
i+1
) , (t
i
)[
2
=
0, quindi per \ esiste lim
[
I
[0

a
I
1
i=0

\
t
.+1
\
t
.

2
quasi certamente (quindi anche in
probabilit), e vale zero.
Per la stessa ragione, la coincidenza dei due limiti nel teorema un fatto ovvio, non
appena uno dei due esiste. Quello che un po laborioso mostrare che esiste `
t
per
ogni martingala locale continua. Ci accontentiamo di saperlo per il moto browniano e,
come vedremo, per gli integrali stocastici.
La grandezza A
t
caratterizza molte propriet del processo A. Si presti attenzione
a questo fatto quando sar il momento.
82 CAPITOLO 3. MARTINGALE
Capitolo 4
Lintegrale stocastico
4.1 Integrale di processi elementari
Lo scopo di questo capitolo quello di denire ed esaminare un integrale del tipo
_
b
o
A
t
d1
t
dove 1 un moto browniano ed A un processo, soggetto ad opportune ipotesi (ma
non pi regolare di 1, altrimenti la teoria non sarebbe applicabile alle equazioni
stocastiche).
Nel capitolo sul moto browniano abbiamo gi discusso le dicolt che si incontrano
a tentare di denire tale integrale usando concetti classici, come lintegrale di Lebesgue-
Stieltjes. Vediamo come K. It, nei primi anni quaranta, ha risolto questo problema.
Usiamo le notazioni gi introdotte nel capitolo delle martingale. Sia 1 = (1
t
)
t0
un
moto browniano rispetto ad una ltrazione (T
t
)
t0
. Chiamiamo processo elementare
ogni processo stocastico A = (A
t
)
t0
adattato a (T
t
)
t0
ma costante a tratti relati-
vamente ad una sequenza di tempi t
a
_ t
a1
_ ... _ t
1
= 0, cio ogni processo della
forma
A
t
=
a1

i=1
A
t
.
1
[t
.
,t
.+1
)
(t) . A
t
.
misurabile rispetto a T
t
.
.
Se in pi richiediamo
1
_
A
2
t
.

< per ogni i = 1. .... :


allora lo diremo di quadrato integrabile.
Per ogni / _ c _ 0, poniamo
_
b
o
A
c
d1
c
=
a1

i=1
A
t
.
_
1
(ovt
.+1
)/b
1
(ovt
.
)/b
_
.
83
84 CAPITOLO 4. LINTEGRALE STOCASTICO
Come gi osservato in quel capitolo, siccome le espressioni (c . t
i+1
)./ e (c . t
i
)./
sono troppo laboriose, si pu adottare la seguente convenzione. Fissati / _ c _ 0, si pu
arricchire la sequenza di tempi considerando la nuova sequenza t
t
a+2
_ t
t
a1
_ ... _ t
t
1
=
0 formata dai tempi t
i
e da c. /, e riscrivendo A
t
nella forma A
t
=

a+1
i=1
A
t
t
0
.
1
[t
0
.
,t
0
.+1
)
(t)
con le v.a. A
t
t
0
.
misurabili rispetto a T
t
0
.
cos denite: se t
t
i
= t
)
t
1
. .... t
a
, poniamo
A
t
t
0
.
= A
t

; se t
t
i
= c (risp. t
t
i
= /) e t
)
t
1
. .... t
a
il pi grande con la propriet
t
)
_ c (risp. t
)
_ /), allora poniamo A
t
t
0
.
= A
t

.
Qui, per semplicit di notazione, indichiamo la nuova sequenza ancora con t
a
_
t
a1
_ ... _ t
1
= 0; oppure, se si vuole, ssati / _ c _ 0, si considerano solo quelle
sequenze t
a
_ t
a1
_ ... _ t
1
= 0 che contengono c e / (una terza strategia di
considerare suddivisioni dellintervallo [c. /] solamente, invece che processi deniti per
tutti i t _ 0).
Poniamo allora
_
b
o
A
c
d1
c
=

ot
.
t
.+1
b
A
t
.
_
1
t
.+1
1
t
.
_
.
Con un po di pazienza si pu riconoscere che le due denizioni ora scritte di
_
b
o
A
c
d1
c
coincidono. Possiamo anche introdurre linsieme di indici
J
o,b
= i = 1. .... : : c _ t
i
_ t
i+1
_ /
e scrivere
_
b
o
A
c
d1
c
=

iJ
a,l
A
t
.
_
1
t
.+1
1
t
.
_
.
Dati c _ / _ c, si pu vericare con pazienza che vale
_
c
o
A
c
d1
c
=
_
b
o
A
c
d1
c
+
_
c
b
A
c
d1
c
(omettiamo i dettagli). Il risultato forse pi importante di questo inizio di teoria il
seguente. La seconda identit detta a volte formula di isometria.
Proposizione 33 Sia A un processo elementare di quadrato integrabile. Allora la v.a.
_
b
o
A
c
d1
c
ha media e varianza nite e vale
1
__
b
o
A
c
d1
c
_
= 0
1
_
__
b
o
A
c
d1
c
_
2
_
=
_
b
o
1
_
A
2
c

d:.
4.1. INTEGRALE DI PROCESSI ELEMENTARI 85
Proof. Ricordiamo che, date due v.a. A. 1 indipendenti e integrabili, il loro prodotto
A1 integrabile e vale 1 [A1 ] = 1 [A] 1 [1 ]. Ciascun addendo A
t
.
_
1
t
.+1
1
t
.
_
che
compone
_
b
o
A
c
d1
c
di tale forma, perch 1
t
.+1
1
t
.
indipendente da T
t
.
ed A
t
.

T
t
.
-misurabile, quindi
_
b
o
A
c
d1
c
integrabile, e vale
1
__
b
o
A
c
d1
c
_
=

iJ
a,l
1
_
A
t
.
_
1
t
.+1
1
t
.
_
=

iJ
a,l
1 [A
t
.
] 1
_
1
t
.+1
1
t
.

= 0
in quanto gli incrementi browniani hanno attesa nulla.
Vale poi, con la notazione
i
1 = 1
t
.+1
1
t
.
,
__
b
o
A
c
d1
c
_
2
=

iJ
a,l

)J
a,l
A
t
.
A
t

i
1
)
1 =

iJ
a,l
A
2
t
.
(
i
1)
2
+2

i,)J
a,l
,i<)
A
t
.
A
t

i
1
)
1.
Gli addendi A
2
t
.
(
i
1)
2
sono integrabili perch A
2
t
.
e (
i
1)
2
sono indipendenti (trasfor-
mazioni di v.a. indipendenti) ed integrabili (A
2
t
.
per ipotesi, (
i
1)
2
perch gli in-
crementi browniani hanno tutti i momenti niti). Esaminiamo lintegrabilit degli
addendi A
t
.
A
t

i
1
)
1. Le v.a. A
t
.
e
i
1 sono indipendenti, quindi anche A
2
t
.
e
(
i
1)
2
, che sono integrabili, quindi A
t
.

i
1 di quadrato integrabile. Anche A
t


di quadrato integrabile, quindi A
t
.
A
t

i
1 integrabile, essendo prodotto di v.a. di
quadrato integrabile. Siccome A
t
.
A
t

i
1 indipendente da
)
1 (come spiegheremo
tra un attimo), allora A
t
.
A
t

i
1
)
1 integrabile. Questo completa la verica che
_
_
b
o
A
c
d1
c
_
2
integrabile. Lindipendenza tra A
t
.
A
t

i
1 e
)
1 si spiega cos: la v.a.

)
1 indipendente da T
t

ed A
t
.
A
t

i
1 T
t

-misurabile (A
t
.
T
t
.
-misurabile, quin-
di T
t

-misurabile perch i < ,,


i
1 T
t
.+1
-misurabile, quindi T
t

-misurabile perch
i + 1 _ ,).
Usando questi stessi fatti, vale
1
_
__
b
o
A
c
d1
c
_
2
_
=

iJ
a,l
1
_
A
2
t
.

1
_
(
i
1)
2

+ 2

i,)J
a,l
,i<)
1
_
A
t
.
A
t

i
1

1 [
)
1]
=

iJ
a,l
1
_
A
2
t
.

(t
i+1
t
i
) =
_
b
o
1
_
A
2
c

d:.
Abbiamo usato anche le propriet 1
_
(
i
1)
2

= t
i+1
t
i
, 1 [
)
1] = 0. Si osservi che
_
b
o
1
_
A
2
c

d: =

iJ
a,l
_
t
.+1
t
.
1
_
A
2
c

d: =

iJ
a,l
1
_
A
2
t
.

(t
i+1
t
i
) .
La dimostrazione completa.
Vale in realt una versione raorzata del risultato precedente:
86 CAPITOLO 4. LINTEGRALE STOCASTICO
Proposizione 34 Sia A un processo elementare di quadrato integrabile. Allora
1
__
t
c
A
&
d1
&
[T
c
_
= 0
1
_
__
t
c
A
&
d1
&
_
2

T
c
_
= 1
__
t
c
A
2
&
dn

T
c
_
.
Proof. Sappiamo gi che
_
t
c
A
&
d1
&
e
_
_
t
c
A
&
d1
&
_
2
sono integrabili. Vale
1
__
t
c
A
&
d1
&
[T
c
_
=

iJs,I
1 [A
t
.

i
1[T
c
]
ma, contrariamente a varie situazioni apparentemente simili, non possiamo ad esempio
portare A
t
.
fuori dalla speranza condizionale, perch t
i
pi grande di :. Se per
riscriviamo
1 [A
t
.

i
1[T
c
] = 1 [1 [A
t
.

i
1[T
t
.
] [T
c
]
allora vale
1 [A
t
.

i
1[T
c
] = 1 [A
t
.
1 [
i
1[T
t
.
] [T
c
] = 1 [A
t
.
1 [
i
1] [T
c
] = 0
dove abbiamo usato il fatto che
i
1 indipendente da T
t
.
ed centrato. Quindi
1
_
_
t
c
A
&
d1
&
[T
c
_
= 0.
Sappiamo poi gi che vale
__
t
c
A
&
d1
&
_
2
=

iJs,I
A
2
t
.
(
i
1)
2
+ 2

i,)Js,I,i<)
A
t
.
A
t

i
1
)
1.
Allora, usando lo stesso trucco e le solite propriet si ottiene
1
_
__
t
c
A
&
d1
&
_
2

T
c
_
=

iJs,I
1
_
A
2
t
.
(
i
1)
2
[T
c

+ 2

i,)Js,I,i<)
1
_
A
t
.
A
t

i
1
)
1[T
c

=

iJs,I
1
_
1
_
A
2
t
.
(
i
1)
2
[T
t
.

[T
c

+ 2

i,)Js,I,i<)
1
_
1
_
A
t
.
A
t

i
1
)
1[T
t

[T
c

=

iJs,I
1
_
A
2
t
.
1
_
(
i
1)
2

[T
c

+ 2

i,)Js,I,i<)
1
_
A
t
.
A
t

i
11 [
)
1] [T
c

=

iJs,I
1
_
A
2
t
.
[T
c

(t
i+1
t
i
) = 1
_
_

iJs,I
A
2
t
.
(t
i+1
t
i
) [T
c
_
_
da cui la tesi. La dimostrazione completa.
La prima parte del seguente corollario era gi stata dimostrata, in modo un po
diverso, nel capitolo delle martingale.
4.1. INTEGRALE DI PROCESSI ELEMENTARI 87
Corollario 10 Sia A un processo elementare di quadrato integrabile. Allora `
t
=
_
t
0
A
c
d1
c
una martingala rispetto a (T
t
)
t0
. Inoltre, `
2
t

_
t
0
A
2
&
dn una martingala
rispetto a (T
t
)
t0
.
Proof. E adattato perch, ad ogni istante t _ 0,
_
t
0
A
c
d1
c
somma di v.a. T
t
-
misurabili. E integrabile. Vale poi, ricordando che per t _ : _ 0 abbiamo
_
t
0
A
&
d1
&
=
_
c
0
A
&
d1
&
+
_
t
c
A
&
d1
&
,
1 [`
t
`
c
[T
c
] = 1
__
t
c
A
&
d1
&
. [T
c
_
= 0.
Quindi ` una martingala.
Per ragioni simili, anche `
2
t

_
t
0
A
2
&
dn adattato. `
2
t
integrabile.
_
t
0
A
2
&
dn
integrabile perch (per il teorema di Fubini)
1
__
t
0
A
2
&
dn
_
=
_
t
0
1
_
A
2
&

dn < .
Vale poi
1
_
`
2
t

_
t
0
A
2
&
dn[T
c
_
= 1
_
(`
t
`
c
)
2

_
t
c
A
2
&
dn[T
c
_
+1
_
2`
t
`
c
`
2
c

_
c
0
A
2
&
dn[T
c
_
= 2`
c
1 [`
t
[T
c
] `
2
c

_
c
0
A
2
&
dn = `
2
c

_
c
0
A
2
&
dn
quindi `
2
t

_
t
0
A
2
&
dn una martingala. La dimostrazione completa.
Con un linguaggio introdotto al termine del capitolo sulle martingale, si pu dire
che
_
t
0
A
2
&
dn il processo crescente associato alla submartigala `
2
t
. Elenchiamo a
questo proposito alcune situazioni viste no ad ora.
1. Se `
a
una martingala a tempo discreto, di quadrato integrabile, allora per
la sub-martigala `
2
a
vale la decomposizione di Doob `
2
a
= `
a
+
a
, dove
a
crescente. Quindi esiste un processo crescente
a
tale che `
2
a

a
una
martingala.
2. Se 1 un moto browniano, allora 1
2
t
t una martingala (facile esercizio oppure
caso particolare del Corollario 10). Il processo
t
= t crescente.
3. Se A un processo elementare di quadrato integrabile ed introduciamo la mar-
tingala `
t
=
_
t
0
A
c
d1
c
, allora `
2
t

_
t
0
A
2
&
dn una martingala (e
t
=
_
t
0
A
2
&
dn
un processo crescente).
4. In generale abbiamo enunciato un teorema che aerma che, se ` una martingala
continua, di quadrato integrabile, allora esiste un processo crescente
t
tale che
`
2
t

t
una martingala.
88 CAPITOLO 4. LINTEGRALE STOCASTICO
4.1.1 Estensione a integratori martingale
Proviamo ad estendere la teoria precedente al caso dellintegrale del tipo
_
b
o
A
t
d`
t
dove ` una martingala rispetto ad una ltrazione (T
t
)
t0
.
Supponiamo che A sia una processo elementare limitato, cio della forma A
t
=

a1
i=1
A
t
.
1
[t
.
,t
.+1
)
(t) dove le v.a. A
t
.
, T
t
.
-misurabili, sono limitate. Supponiamo che la
sequenza t
a
_ t
a1
_ ... _ t
1
= 0 contenga / _ c _ 0 e poniamo
_
b
o
A
t
d`
t
=

iJ
a,l
A
t
.
_
`
t
.+1
`
t
.
_
.
Supponiamo inoltre che la martingala sia continua e di quadrato integrabile. Pertanto
esiste uno ed un solo processo crescente
t
tale che `
2
t

t
sia una martingala (se
non si vuole usare tale teorema, dal momento che non stato dimostrato, si prenda
lesistenza di
t
come unipotesi sulla martingala `). Vale quindi
1
_
(`
t
`
c
)
2
(
t

c
) [T
c

= 1
_
`
2
t

t
[T
c

2`
c
1 [`
t
[T
c
] + `
2
c
+
c
= `
2
c

c
2`
2
c
+ `
2
c
+
c
= 0
ovvero
1
_
(`
t
`
c
)
2
[T
c

= 1 [(
t

c
) [T
c
] .
Proposizione 35 La v.a.
_
t
c
A
&
d`
&
di quadrato integrabile e vale
1
__
t
c
A
&
d`
&

T
c
_
= 0
1
_
__
t
c
A
&
d`
&
_
2

T
c
_
= 1
__
t
c
A
2
&
d
&

T
c
_
.
Proof. Dalla formula
__
t
c
A
&
d`
&
_
2
=

iJs,I
A
2
t
.
(
i
`)
2
+ 2

i,)Js,I,i<)
A
t
.
A
t

i
`
)
`
si vede che
_
_
t
c
A
&
d`
&
_
2
integrabile (le A
t
.
sono limitate). Allora, usando le solite
propriet della speranza condizionale e la propriet di martingala per `, vale
1
__
t
c
A
&
d`
&

T
c
_
=

iJs,I
1 [A
t
.

i
`[T
c
] =

iJs,I
1 [1 [A
t
.

i
`[T
t
.
] [T
c
]
=

iJs,I
1 [A
t
.
1 [
i
`[T
t
.
] [T
c
] = 0
4.2. INTEGRALEDI PROCESSI PROGRESSIVAMENTEMISURABILI, DI QUADRATOINTEGRABILE89
(in quanto 1 [
i
`[T
t
.
] = 0) ed analogamente
1
_
__
t
c
A
&
d`
&
_
2

T
c
_
=

iJs,I
1
_
A
2
t
.
(
i
`)
2
[T
c

+ 2

i,)Js,I,i<)
1
_
A
t
.
A
t

i
`
)
`[T
c

=

iJs,I
1
_
1
_
A
2
t
.
(
i
`)
2
[T
t
.

[T
c

+ 2

i,)Js,I,i<)
1
_
1
_
A
t
.
A
t

i
`
)
`[T
t

[T
c

=

iJs,I
1
_
A
2
t
.
1
_
(
i
`)
2
[T
t
.

[T
c

+ 2

i,)Js,I,i<)
1
_
A
t
.
A
t

i
`1
_

)
`[T
t

[T
c

=

iJs,I
1
_
A
2
t
.
[T
c
_

t
.+1

t
.
_
= 1
_
_

iJs,I
A
2
t
.
_

t
.+1

t
.
_
[T
c
_
_
da cui la tesi. La dimostrazione completa.
4.2 Integrale di processi progressivamente misura-
bili, di quadrato integrabile
Sia 1 = (1
t
)
t0
un moto browniano rispetto ad una ltrazione (T
t
)
t0
. Dati / _ c _
0, diciamo che un processo A = (A
t
)
t0
di classe `
2
1
(c. /) se progressivamente
misurabile e vale
1
__
b
o
A
2
t
dt
_
< .
Per dare questa denizione basterebbe che il processo fosse denito e progressivamente
misurabile su [c. /]. I processi elementari, cio della forma A
t
=

a1
i=1
A
t
.
1
[t
.
,t
.+1
)
(t) con
A
t
.
misurabile rispetto a T
t
.
, sono progressivamente misurabili; sono di classe `
2
1
(c. /)
se e solo se sono di quadrato integrabile su [c. /], cio 1
_
A
2
t
.

< per ogni i J


o,b
,
in quanto
1
__
b
o
A
2
t
dt
_
=

iJ
a,l
1
_
A
2
t
.

(t
i+1
t
i
) .
Si potrebbe anche dire che `
2
1
(c. /) la famiglia delle classi di equivalenza dei
processi suddetti, identicando processi A. A
t
tali che 1
_
_
b
o
(A
t
A
t
t
)
2
dt
_
= 0; lo
spazio `
2
1
(c. /) con il prodotto scalare A. A
t
= 1
_
_
b
o
A
t
A
t
t
dt
_
risulterebbe uno
spazio di Hilbert. Non useremo esplicitamente queste convenzioni e questi fatti.
Teorema 23 Se A di classe `
2
1
(c. /), allora esiste una successione di processi
elementari A
(a)
, anchessi di classe `
2
1
(c. /), tale che
lim
ao
1
__
b
o
_
A
t
A
(a)
t
_
2
dt
_
= 0. (4.1)
90 CAPITOLO 4. LINTEGRALE STOCASTICO
Esiste anche una successione di processi continui A
(a)
, di classe `
2
1
(c. /), che converge
ad A nel senso (4.1).
La dimostrazione piuttosto laboriosa anche se sostanzialmente elementare. Bisogna
prima dimostrare che A si pu approssimare con processi continui adattati, poi che un
processo continuo e adattato si pu approssimare con processi costanti a tratti adattati.
La prima cosa si fa tramite convoluzione con mollicatori unilaterali (cio che integra-
no solo la parte di processo precedente allistante in cui si calcola la convoluzione).
La seconda si fa semplicemente prendendo il valore del processo continuo nellestremo
sinistro di ogni intervallino di una partizione, sempre pi ne. Vanno per vericate
numerose propriet, anche un po laboriose, per cui omettiamo i dettagli, anche perch
simili a quelli di tante dimostrazioni di Analisi relative ai pi svariati spazi di funzioni.
Vediamo invece le conseguenze di questo teorema.
Proposizione 36 Se A
(a)
una successione di processi elementari di classe `
2
1
(c. /)
che converge ad un processo A di classe `
2
1
(c. /) nel senso (4.1), allora la successione
di v.a.
_
b
o
A
(a)
t
d1
t
di Cauchy in 1
2
(. T. 1). Il suo limite, elemento di 1
2
(. T. 1), dipende solo da
A (non dalla successione scelta) e verr indicato con
_
b
o
A
t
d1
t
, detto integrale di It
di A.
Proof. Per la formula di isometria dimostrata per i processi elementari, vale
1
_
__
b
o
_
A
(a)
t
A
(n)
t
_
d1
t
_
2
_
=
_
b
o
1
_
_
A
(a)
t
A
(n)
t
_
2
_
dt
da cui discende subito che
_
b
o
A
(a)
t
d1
t
una successione di Cauchy in 1
2
(. T. 1),
quindi ha limite, essendo questo spazio completo. Se

A
(a)
unaltra successione con le
stesse caratteristiche convergente ad A, allora la successione 1
(a)
data da 1
(2a)
= A
(a)
,
1
(2a+1)
=

A
(a)
ha le stesse caratteristiche e converge ad A, nel senso (4.1). Quindi
_
b
o
1
(a)
t
d1
t
una successione di Cauchy in 1
2
(. T. 1). Il suo limite deve essere lo
stesso delle due sottosuccessioni di indici pari e dispari, limiti che quindi coincidono.
La dimostrazione completa.
Osservazione 18 Lintegrale stocastico
_
b
o
A
t
d1
t
, per denizione, una classe di
equivalenza, o se si preferisce una v.a. denita a meno di modicazioni su insie-
mi di misura nulla. Non ha senso, ssato un certo . , chiedersi quanto valga
_
_
b
o
A
t
d1
t
_
(.). In particolare, non ha senso scrivere cose del tipo
_
_
b
o
A
t
d1
t
_
(.) =
_
b
o
A
t
(.) d1
t
(.) (per i processi elementari invece ha senso e vale lidentit). Lunica
4.2. INTEGRALEDI PROCESSI PROGRESSIVAMENTEMISURABILI, DI QUADRATOINTEGRABILE91
teoria che, al momento attuale, in grado di dare un signicato a questo tipo di scrit-
ture, per particolari processi A, quella dei rough paths, per molto pi laboriosa di
quella ora sviluppata.
Teorema 24 Sia A di classe `
2
1
(0. 1), per un certo 1 0. Allora
1
__
T
0
A
c
d1
c
_
= 0
1
_
__
T
0
A
c
d1
c
_
2
_
=
_
T
0
1
_
A
2
c

d:.
Pi in generale, per ogni 0 _ : _ t _ 1 vale
1
__
t
c
A
&
d1
&
[T
c
_
= 0
1
_
__
t
c
A
&
d1
&
_
2

T
c
_
= 1
__
t
c
A
2
&
dn

T
c
_
.
Inoltre, `
t
=
_
t
0
A
c
d1
c
e `
2
t

_
t
0
A
2
&
dn sono martingale rispetto a (T
t
)
t0
, quindi
_
t
0
A
2
&
dn il processo crescente associato alla submartigala `
2
t
.
Proof. Sia A
(a)
una successione di processi elementari di classe `
2
1
(0. 1) che con-
verge ad A nel senso (4.1) (con c = 0, / = 1). Allora
_
T
0
A
(a)
c
d1
c
converge a
_
T
0
A
c
d1
c
in 1
2
(. T. 1), quindi (tramite semplici disuguaglianze) 1
_
_
T
0
A
(a)
c
d1
c
_
converge a
1
_
_
T
0
A
c
d1
c
_
, 1
_
_
_
T
0
A
(a)
c
d1
c
_
2
_
converge a 1
_
_
_
T
0
A
c
d1
c
_
2
_
e
_
T
0
1
_
_
A
(a)
c
_
2
_
d:
converge a
_
T
0
1 [A
2
c
] d:. Da questo si deducono le prime due identit.
Per mostrare le altre, si prendano (senza restrizione) i processi A
(a)
aventi t ed
: come nodi, e convergenti ad A su [0. 1] nel senso (4.1); ne segue che convergono
ad A anche su [:. t], nello stesso senso. Quindi
_
t
c
A
(a)
&
d1
&
converge a
_
t
c
A
&
d1
&
in
1
2
(. T. 1). Inoltre, a causa di (4.1),
_
t
c
_
A
(a)
&
_
2
dn converge a
_
t
c
A
2
&
dn in 1
2
(. T. 1).
Grazie a questi fatti si pu passare al limite nelle speranze condizionali e vericare le due
identit. Infatti, ricordiamo che se 2
a
2 in 1
1
(. T. 1), allora 1 [2
a
[(] 1 [2[(]
in 1
1
(. T. 1):
1 [[1 [2
a
[(] 1 [2[(][] = 1 [[1 [2
a
2[(][] _ 1 [1 [[2
a
2[ [(]] = 1 [[2
a
2[] 0.
Le aermazioni nali sulle propriet di martingala sono ovvie conseguenze delle
identit precedenti, come nel caso dei processi elementari. La dimostrazione completa.
Nel seguito diremo che A di classe `
2
1
se di classe `
2
1
(0. 1) per ogni 1 0.
92 CAPITOLO 4. LINTEGRALE STOCASTICO
Teorema 25 Sia A di classe `
2
1
. Allora il processo `
t
=
_
t
0
A
c
d1
c
, t _ 0, ha una
versione continua.
Proof. Sia A
(a)
una successione di processi elementari di classe `
2
1
(0. 1) che con-
verge ad A nel senso (4.1) (con c = 0, / = 1). I processi `
(a)
t
=
_
t
0
A
(a)
c
d1
c
sono
martingale continue. La continuit si vede subito dalla denizione che abbiamo usato
meno spesso: se A
t
=

a1
i=1
A
t
.
1
[t
.
,t
.+1
)
(t),
_
t
0
A
c
d1
c
=

a1
i=1
A
t
.
1
t
.+1
/t
1
t
.
/t
. Quindi
vale la disuguaglianza massimale per la submartingala

`
(a)
t
`
(n)
t

2
:
1
_
sup
t[0,T]

`
(a)
t
`
(n)
t


_
= 1
_
sup
t[0,T]

`
(a)
t
`
(n)
t

2

2
_
_
1

2
1
_

`
(a)
T
`
(n)
T

2
_
=
1

2
_
T
0
1
_

A
(a)
c
A
(n)
c

2
_
d:
dove allultimo passaggio abbiamo usato la propriet di isometria. Da questa disug-
uaglianza, deduciamo la seguente aermazione: esiste una sottosuccessione `
(a
I
)
t
che
converge q.c. ad un processo continuo `
t
, uniformemente in t:
1
_
lim
Io
sup
t[0,T]

`
(a
I
)
t
`
t

= 0
_
= 1. (4.2)
Lidea intuitiva (formalizzabile con luso di opportuni spazi funzionali) : la disug-
uaglianza precedente indica che `
(a)

di Cauchy in probabilit nello spazio C ([0. 1] ; R)


munito della topologia della convergenza uniforme; dallessere di Cauchy in probabil-
it discende che converge in probabilit e quindi ha una sottosuccessione che converge
quasi certamente.
Verichiamolo a mano. Lasciamo al lettore il fatto elementare di costruire una
successione :
I
tale che
1
_
sup
t[0,T]

`
(a
I
)
t
`
(a
I+1
)
t


1
2
I
_
_
1
/
2
.
Da questo discende che
o

I=1
1
_
sup
t[0,T]

`
(a
I
)
t
`
(a
I+1
)
t


1
2
I
_
<
e quindi, per il lemma di Borel-Cantelli (prima parte), esiste un evento
0
T di
probabilit uno tale che, per ogni .
0
, vale
sup
t[0,T]

`
(a
I
)
t
(.) `
(a
I+1
)
t
(.)

_
1
2
I
4.3. INTEGRALEDI PROCESSI PROGRESSIVAMENTEMISURABILI PIGENERALI93
denitivamente in /. Quindi
_
`
(a
I
)
t
(.)
_
IN
di Cauchy in C ([0. 1] ; R) munito della
topologia della convergenza uniforme; quindi converge ad una funzione continua `
t
(.).
Fissato, t, la convergenza q.c. di v.a. implica che il limite misurabile, una v.a.,
quindi `
t
un processo stocastico; continuo (q.c.; in realt va denito per . ,
0
e possiamo denirlo identicamente nullo, quindi continuo per ogni .). Abbiamo
dimostrato lasserzione (4.2).
Basta ora ricordare che, ssato t [0. 1], la v.a. `
(a
I
)
t
converge in 1
2
(. T. 1)
a `
t
. Siccome converge q.c. a `
t
, vale 1 (`
t
= `
t
) = 1 (entrambe le convergen-
ze implicano quella in probabilit, ed il limite in probabilit unico, come classe di
equivalenza). Quindi `, che un processo continuo, una modicazione di `. La
dimostrazione completa.
4.3 Integrale di processi progressivamente misura-
bili pi generali
Sia 1 = (1
t
)
t0
un moto browniano rispetto ad una ltrazione (T
t
)
t0
. Dati / _ c _
0, diciamo che un processo A = (A
t
)
t0
di classe
2
1
(c. /) se progressivamente
misurabile e vale
1
__
b
o
A
2
t
dt <
_
= 1
I processi elementari, cio della forma A
t
=

a1
i=1
A
t
.
1
[t
.
,t
.+1
)
(t) con A
t
.
misurabile
rispetto a T
t
.
, sono progressivamente misurabili e di classe
2
1
(c. /), senza bisogno di
alcuna ipotesi di integrabilit sulle A
t
.
.
Si potrebbe anche dire che
2
1
(c. /) la famiglia delle classi di equivalenza dei
processi suddetti, identicando processi A. A
t
tali che 1
_
_
b
o
(A
t
A
t
t
)
2
dt <
_
= 1.
Non useremo esplicitamente questa convenzione.
Teorema 26 Se A di classe
2
1
(c. /), allora esiste una successione di processi
elementari A
(a)
tale che
lim
ao
_
b
o
_
A
t
A
(a)
t
_
2
dt = 0 (4.3)
quasi certamente. Esiste anche una successione di processi continui A
(a)
, di classe

2
1
(c. /), che converge ad A nel senso (4.3).
La dimostrazione simile a quella dei processi di classe `
2
1
(c. /), forse un po pi
facile perch non bisogna tenere sotto controllo certe integrabilit rispetto ad .. E
comunque molto lunga e di moderato interesse probabilistico, per cui la omettiamo.
Vogliamo ora denire lintegrale stocastico
_
b
o
A
t
d1
t
, usando questo teorema. Un
modo quello di basarsi sul seguente lemma molto interessante.
94 CAPITOLO 4. LINTEGRALE STOCASTICO
Lemma 5 Sia A un processo elementare. Allora, per ogni . j 0, vale
1
_

_
b
o
A
t
d1
t


_
_ 1
__
b
o
A
2
t
dt j
_
+
j

2
.
Proof. Separiamo nei due eventi =
_
_
b
o
A
2
t
dt j
_
ed
c
=
_
_
b
o
A
2
t
dt _ j
_
:
1
_

_
b
o
A
t
d1
t


_
= 1
__

_
b
o
A
t
d1
t


_

_
+ 1
__

_
b
o
A
t
d1
t


_

c
_
e maggioriamo il primo termine con 1 ():
1
_

_
b
o
A
t
d1
t


_
= 1
__
b
o
A
2
t
dt j
_
+ 1
__

_
b
o
A
t
d1
t


_

c
_
.
Resta da vericare che
1
_

_
b
o
A
t
d1
t

.
_
b
o
A
2
t
dt _ j
_
_
j

2
.
Introduciamo il processo 1
t
denito cos (con la solita notazione A
t
=

a1
i=1
A
t
.
1
[t
.
,t
.+1
)
(t)):
1
t
=
_
A
t
per t _ t
i+1
[t
i
. t
i+1
) se
_
t
.+1
o
A
2
t
dt _ j
0 altrimenti
(per i J
o,b
). Vale
_
b
o
1
2
t
dt _ j. Inoltre, se
__
b
o
A
2
t
dt _ j
_
1 = A su [c. /]
__
b
o
A
t
d1
t
=
_
b
o
1
t
d1
t
_
(per la verica dellultima inclusione si pensi alla denizione di integrale stocastico per
processi elementari). Quindi
1
_

_
b
o
A
t
d1
t

.
_
b
o
A
2
t
dt _ j
_
_ 1
_

_
b
o
1
t
d1
t

.
_
b
o
A
2
t
dt _ j
_
_ 1
_

_
b
o
1
t
d1
t


_
_
1
_

_
b
o
1
t
d1
t

2
_

2
=
1
_
_
b
o
1
2
t
dt
_

2
_
j

2
.
La dimostrazione completa.
4.3. INTEGRALEDI PROCESSI PROGRESSIVAMENTEMISURABILI PIGENERALI95
Corollario 11 Se A
(a)
una successione di processi elementari che converge ad un
processo A di classe
2
1
(c. /) nel senso (4.3), allora la successione di v.a.
_
b
o
A
(a)
t
d1
t
di Cauchy in probabilit. Il suo limite in probabilit dipende solo da A (non dalla
successione scelta) e verr indicato con
_
b
o
A
t
d1
t
, detto integrale di It di A.
Proof. Abbiamo
1
_

_
b
o
_
A
(a)
t
A
(n)
t
_
d1
t


_
_ 1
__
b
o
_
A
(a)
t
A
(n)
t
_
2
dt j
_
+
j

2
.
La convergenza quasi certa (4.3), implica che, preso j 0, esiste :
j
N tale che
1
__
b
o
_
A
(a)
t
A
(n)
t
_
2
dt j
_
_ j
per ogni :. : _ :
j
(si pensi ad una delle varie ragioni). Quindi, ssato 0,
1
_

_
b
o
_
A
(a)
t
A
(n)
t
_
d1
t


_
_ j +
j

2
per ogni :. : _ :
j
. Relativamente al valore scelto di , prendiamo j
.
=
3
:
1
_

_
b
o
_
A
(a)
t
A
(n)
t
_
d1
t


_
_
3
+
per ogni :. : _ :
j
s
. Questo signica che
_
b
o
A
(a)
t
d1
t
di Cauchy in probabilit. La
dimostrazione completa.
Si pu dimostrare facilmente (omettiamo i dettagli):
Proposizione 37 Sia A un processo di classe
2
1
(c. /),. Allora, per ogni . j 0,
vale
1
_

_
b
o
A
t
d1
t


_
_ 1
__
b
o
A
2
t
dt j
_
+
j

2
.
In particolare, se A
a
t
una successione di processi di classe
2
1
(c. /) tale che
_
b
o
(A
a
t
A
t
)
2
dt
tende a zero in probabilit, allora
_
b
o
A
a
t
d1
t
converge a
_
b
o
A
t
d1
t
in probabilit.
Nel seguito diremo che A di classe
2
1
se di classe
2
1
(0. 1) per ogni 1 0.
Ricordiamo che un processo ` = (`
t
)
t0
una martingala locale se c una successione
di tempi darresto t
a
, crescente a +, tale che `
t/tn
una martingala per ogni :;
diremo che una tale successione di tempi darresto riduce la martingala locale.
96 CAPITOLO 4. LINTEGRALE STOCASTICO
Teorema 27 Sia A di classe
2
1
. Allora il processo `
t
=
_
t
0
A
c
d1
c
, t _ 0, ha una
versione continua ed una martingala locale. Una successione di tempi darresto che
riduce la martingala locale data da
t
a
= inf
_
t 0 :
_
t
0
A
2
c
d: _ :
_
se linsieme non vuoto, altrimenti t
a
= +.
Proof. Diamo solo alcuni elementi della dimostrazione. Le v.a. t
a
sono tempi di
arresto (basta considerare il processo 1
t
=
_
t
0
A
2
c
d: e il suo istante di ingresso in [:. )),
sono crescenti (1
t
crescente) e tendono a +. Infatti, per ogni 1 0, esiste :
0
(.)
tale che per ogni : _ :
0
(.) vale t
a
(.) _ 1, quasi certamente. Questo perch

a,T
:=
__
T
0
A
2
c
d: _ :
_
= t
a
_ 1
e levento

T
:=
_
aN

a,T
=
__
T
0
A
2
c
d: <
_
ha probabilit uno per la propriet
2
1
.
Il processo 1
a,t
= A
t
1
ttn
(simile a quello usato nella dimostrazione del Lemma 5)
di classe `
2
1
:
_
T
0
1
2
a,t
d: =
_
T
0
A
2
c
1
ctn
d: =
_
T/tn
0
A
2
c
d: _ :
quindi 1
_
_
T
0
1
2
a,t
d:
_
_ : (si verica anche la progressiva misurabilit di 1
t
). Allora
`
a,t
=
_
t
0
1
a,c
d1
c
una martingala continua (applichiamo la convenzione che il simbolo
indichi la versione continua).
Su
a,T
, 1
a,t
= A
t
per ogni t [0. 1]. Per il Lemma 6 esposto poco sotto, applicato
su ogni intervallo [0. t], vale
`
t
=
_
t
0
A
c
d1
c
=
_
t
0
1
a,c
d1
c
= `
a,t
su
a,T
quasi certamente, per ogni t [0. 1]. Si noti che in questa aermazione, il
quasi certamente dipende da t. Se
a,T
avesse probabilit uno, avremmo nito: `
a,t
sarebbe una versione continua di `
t
.
Se : :, siccome 1
n,t
= 1
a,t
per ogni t [0. 1] su
a,T
, per il Lemma 6, applicato
su ogni intervallo [0. t], vale
`
n,t
=
_
t
0
1
n,c
d1
c
=
_
t
0
1
a,c
d1
c
= `
a,t
4.3. INTEGRALEDI PROCESSI PROGRESSIVAMENTEMISURABILI PIGENERALI97
su
a,T
quasi certamente, per ogni t [0. 1]; con un ragionamento basato sui razionali,
si vede che vale
`
n,t
= `
a,t
per ogni t [0. 1]
quasi certamente su
a,T
. E che la propriet si pu rendere uniforme in :. Pertanto,
intersecando su ambo gli indici : ed :, esiste un insieme misurabile ` di probabilit
nulla tale che per ogni :, per ogni .
a,T
`,
`
n,t
(.) = `
a,t
(.) per ogni t [0. 1] ed : _ :.
Su
T
` deniamo un processo (`
o,t
)
t[0,T]
nel seguente modo: preso .
T
`,
poniamo
`
o,t
(.) = `
a,t
(.)
dove : un qualsiasi indice tale che .
a,T
` (per quanto visto poco sopra, questa
denizione non dipende da :). Per le cose osservate precedentemente, `
o,t
un
processo continuo. Inoltre, una versione di `
t
. Infatti, ssato t [0. 1], vale
1 (`
o,t
= `
t
) = lim
ao
1 (`
o,t
= `
t

a,T
`)
= lim
ao
1 (`
a,t
= `
t

a,T
`) = lim
ao
1 (
a,T
`) = 1.
Questo dimostra la prima aermazione del teorema, cio che ` ha una versione
continua.
Sapere che la famiglia di classi di equivalenza (`
0
t
)
t[0,T]
, `
0
t
:=
_
t
0
A
c
d1
c
, ha una
versione continua `
t
, aiuta a dare un signicato univoco al processo stoppato `
t/tn
.
Infatti, `
t
, continuo, diventa ora denito univocamente a meno di indistinguibilit,
quindi la posizione (`
t/tn
) (.) := `
t/tn(.)
(.) non pone interrogativi di signicato.
Usando allora la versione continua, vale (omettiamo la verica dettagliata della
seconda uguaglianza)
`
t/tn
=
_
t/tn
0
A
c
d1
c
=
_
t
0
A
c
1
ctn
d1
c
=
_
t
0
1
a,c
d1
c
e questa una martingala in quanto 1
a,t
un processo di classe `
2
1
. La dimostrazione
completa.
Abbiamo usato il seguente fatto, di interesse indipendente.
Lemma 6 Siano A. 1 di classe
2
1
ed T tali che A
t
(.) = 1
t
(.) per ogni t [0. 1]
e . . Allora
_
T
0
A
c
d1
c
=
_
T
0
1
c
d1
c
su quasi certamente (cio esiste un insieme
di misura nulla ` tale che
_
T
0
A
c
d1
c
=
_
T
0
1
c
d1
c
per ogni . `).
Non possiamo dare la dimostrazione completa perch poggia sul metodo di approssi-
mazione di processi di classe
2
1
con processi elementari, ma almeno vediamo lidea.
98 CAPITOLO 4. LINTEGRALE STOCASTICO
Vale, a proposito di tale approssimazione, che si possano prendere due successioni di
processi elementari A
a
. 1
a
che convergono a A. 1 nel modo richiesto, tali che A
a
t
(.) =
1
a
t
(.) per ogni t [0. 1] e . . Da ci discende che
_
T
0
A
a
c
d1
c
=
_
T
0
1
a
c
d1
c
su
. La convergenza in probabilit implica quella quasi certa, quindi dallidentit prece-
dente e dalla convergenza quasi certa di
_
T
0
A
a
c
d1
c
e
_
T
0
1
a
c
d1
c
a
_
T
0
A
c
d1
c
e
_
T
0
1
c
d1
c
rispettivamente, si ottiene
_
T
0
A
c
d1
c
=
_
T
0
1
c
d1
c
su .
Il lemma dice che, se pur lintegrale stocastico non denito . per . ma solo con
un procedimento globale in ., tuttavia rispetta una certa forma di dipendenza locale
da ..
Concludiamo con un risultato nello stile delle somme di Riemann.
Proposizione 38 Se A un processo continuo di classe
2
1
e (:
a
) una successione di
partizioni di [0. 1], con [:
a
[ 0, con :
a
= t
a
i
. i = 0. .... `
a
allora vale in probabilit
lim
ao
.n1

i=0
A
t
n
.
_
1
t
n
.+1
1
t
n
.
_
=
_
T
0
A
c
d1
c
.
Proof. Si denoti con A
(a)
t
il processo elementare

A
t
n
.
1
[t
n
.
,t
n
.+1
)
. Vale
.n1

i=0
A
t
n
.
_
1
t
n
.+1
1
t
n
.
_
=
_
T
0
A
a
c
d1
c
.
Inoltre, per la continuit di A, quasi certamente accade che A
(a)
t
converge ad A
t
uniformemente in t, quindi vale lipotesi dellaermazione di convergenza della Propo-
sizione 37, che garantisce pertanto che
_
T
0
A
a
c
d1
c

_
T
0
A
c
d1
c
in probabilit. La
dimostrazione completa.
4.4 Il caso multidimensionale
4.4.1 Moto browniano in R
d
Denizione 13 Un moto browniano in R
o
, denito su uno spazio probabilizzato (. T. 1),
rispetto ad una ltrazione (T
t
)
t0
un vettore di processi stocastici 1
t
=
_
1
(1)
t
. .... 1
(o)
t
_
tale che ciascuna componente 1
(i)
t
un moto browniano in R rispetto ad (T
t
)
t0
e le
componenti sono indipendenti.
Si possono dare varie formulazioni equivalenti, ad esempio:
Denizione 14 Un moto browniano in R
o
, denito su uno spazio probabilizzato (. T. 1),
rispetto ad una ltrazione (T
t
)
t0
un processo stocastico (1
t
)
t0
su (. T. 1) a valori
in
_
R
o
. E
_
R
o
__
tale che:
4.4. IL CASO MULTIDIMENSIONALE 99
i) 1 (1
0
= 0) = 1
ii) adattato a (T
t
)
t0
e continuo
iii) per ogni t _ : _ 0, lincremento 1
t
1
c
un vettore gaussiano in R
o
a media
nulla e matrice di covarianza pari a (t :) 1d, indipendente da T
c
.
Lindipendenza di 1
t
1
c
da T
c
, con t _ : _ 0 arbitrari, si pu riformulare dicendo
che per ogni t
a
_ t
a1
_ ... _ t
1
_ 0 i vettori aleatori 1
tn
1
t
n1
, ... , 1
t
2
1
t
1
, 1
t
1
sono indipendenti.
Essendo particolarmente elegante, mostriamo una realizzazione (approssimata) di
un moto browniano in R
2
, ottenuta col software R, basata sulla formula
1
(i)
aI
= 1
(i)
I
+
_
1
(i)
2I
1
(i)
I
_
+ ... +
_
1
(i)
aI
1
(i)
(a1)I
_
. i = 1. 2
dove gli incrementi sono indipendenti (anche da una componente allaltra) e sono tutte
gaussiane a media nulla e varianza /. Basta chiedere al software di generare tanti
numeri gaussiani centrati aventi deviazione standard
_
/, tramite i comandi:
h=0.01
W1=rnorm(10000,0,sqrt(h))
W2=rnorm(10000,0,sqrt(h))
B1=cumsum(W1)
B2=cumsum(W2)
plot(B1,B2,type=lines)
A titolo di confronto, disegnamo la sua prima componente:
ts.plot(B1)
Osservazione 19 Se l una matrice ortogonale di R
o
, allora l1
t
ancora un moto
browniano in R
o
. Lo si pu vedere usando la seconda denizione.
100 CAPITOLO 4. LINTEGRALE STOCASTICO
4.4.2 Integrale stocastico rispetto ad un moto browniano in
R
d
Dato un moto browniano 1
t
=
_
1
(1)
t
. .... 1
(o)
t
_
in R
o
rispetto ad una ltrazione (T
t
)
t0
ed un processo stocastico A
t
di classe
2
(qui omettiamo lindicazione 1 in quanto
fuorviante), progressivamente misurabile rispetto a (T
t
)
t0
, sono ben deniti tutti gli
integrali di It
_
t
0
A
c
d1
(i)
c
per i = 1. .... d. [Si noti che qui importante essere svincolati dalla ltrazione naturale
del moto browniano rispetto a cui si integra.] Se consideriamo un processo stocastico
A
t
=
_
A
(1)
t
. .... A
(o)
t
_
a valori in R
o
avente tutte le componenti di classe
2
(diremo
che il processo di classe
2
; analogamente per la classe `
2
), ben denita la somma
di integrali stocastici
_
t
0
A
c
d1
c
:=
o

i=1
_
t
0
A
(i)
c
d1
(i)
c
.
E una martingala locale continua e, se A di classe `
2
, anche una martingala,
centrata. Vediamo che forma assume la formula di isometria. Intanto si noti il seguente
fatto, forse apparentemente innaturale: gli integrali
_
t
0
A
(i)
c
d1
(i)
c
e
_
t
0
A
())
c
d1
())
c
sono
scorrelati, nonostante contengano processi A
(i)
c
e A
())
c
che possono anche coincidere
(gli integrali non sono per indipendenti).
Lemma 7 Se A di classe `
2
, allora
1
__
t
0
A
(i)
c
d1
(i)
c
_
t
0
A
())
c
d1
())
c
_
= 0
per i ,= ,.
4.4. IL CASO MULTIDIMENSIONALE 101
Proof. Per evitare troppi indici, supponiamo i = 1, , = 2. Supponiamo A
(1)
c
, A
(2)
c
processi elementari e, senza restrizione, basati sulla stessa partizione t
a
_ t
a1
_ ... _
t
1
_ t
0
= 0:
A
(i)
c
=
a1

I=0
A
(i)
I
1
[t
I
,t
I+1
)
per i = 1. 2.
Allora, con la notazione
I
1
(i)
= 1
(i)
t
I+1
1
(i)
t
I
, abbiamo
1
__
t
0
A
(i)
c
d1
(i)
c
_
t
0
A
())
c
d1
())
c
_
=
a1

I,I=0
1
_
A
(1)
I
A
(2)
I

I
1
(1)

I
1
(2)
_
.
Se / = / abbiamo
1
_
A
(1)
I
A
(2)
I

I
1
(1)

I
1
(2)
_
= 1
_
A
(1)
I
A
(2)
I
_
1
_

I
1
(1)

1
_

I
1
(2)

= 0
perch A
(1)
I
A
(2)
I
T
t
I
misurabile, e gli incrementi
I
1
(i)
sono indipendenti da T
t
I
e
quindi da A
(1)
I
A
(2)
I
ed anche tra loro perch componenti diverse del moto browniano
in R
o
.
Se / / (il caso / < / identico) abbiamo
1
_
A
(1)
I
A
(2)
I

I
1
(1)

I
1
(2)
_
= 1
_
A
(1)
I
A
(2)
I

I
1
(1)
_
1
_

I
1
(2)

= 0
perch A
(1)
I
A
(2)
I

I
1
(1)
T
t
I
misurabile,
I
1
(2)
indipendente da T
t
I
e quindi da
A
(1)
I
A
(2)
I

I
1
(1)
. La dimostrazione nel caso di processi elementari completa e da essi
si passa al caso generale con argomenti di approssimazione simili a quelli usati gi altre
volte, che omettiamo.
Proposizione 39 Se A di classe `
2
, allora
1
_
__
t
0
A
c
d1
c
_
2
_
= 1
__
t
0
[A
c
[
2
d:
_
dove [r[ indica la norma euclidea del vettore r R
o
.
Proof. Abbiamo
1
_
__
t
0
A
c
d1
c
_
2
_
= 1
_
_
_
o

i=1
_
t
0
A
(i)
c
d1
(i)
c
_
2
_
_
=
o

i,)=1
1
__
t
0
A
(i)
c
d1
(i)
c
_
t
0
A
())
c
d1
())
c
_
.
102 CAPITOLO 4. LINTEGRALE STOCASTICO
I termini con i ,= , sono nulli per il lemma precedente. La somma per i = , produce il
risultato della formula, in quanto
1
_
__
t
0
A
(i)
c
d1
(i)
c
_
2
_
= 1
__
t
0
_
A
(i)
c
_
2
d:
_
.
La dimostrazione completa.
Ragionando componente per componente, sono deniti anche gli integrali stocastici
della forma
_
t
0
A
c
d1
c
dove A un processo a valori matrici d /, con componenti A
i)
tutte di classe almeno
2
. Il risultato 1
t
=
_
t
0
A
c
d1
c
un processo a valori in R
I
, di
componenti
1
i
t
=
o

)=1
_
t
0
A
i)
c
d1
)
c
.
Se le componenti A
i)
sono di classe `
2
, la formula di isometria in questo caso assume la
seguente forma. Ora con [[ indicheremo la norma euclidea in R
I
(o altra dimensione)
e con ||
1S
la norma Hilbert-Schmidt di una matrice R
oI
, ovvero la norma
euclidea in R
oI
, denita da
||
2
1S
=
I

i=1
o

)=1

2
i)
.
Proposizione 40 Se le componenti A
i)
sono di classe `
2
, allora
1
_

_
T
0
A
c
d1
c

2
_
= 1
__
T
0
|A
c
|
2
1S
d:
_
.
Proof. Infatti, essendo 1
_
[1
T
[
2

I
i=1
1
_
(1
i
T
)
2
_
,
1
_

_
T
0
A
c
d1
c

2
_
=
I

i=1
1
_
_
_
o

)=1
_
T
0
A
i)
c
d1
)
c
_
2
_
_
=
I

i=1
1
_
o

)=1
_
T
0
_
A
i)
c
_
2
d:
_
= 1
__
T
0
|A
c
|
2
1S
d:
_
dove abbiamo usato la Proposizione 39.
Anche le disuguaglianze per le martingale si trasportano al caso vettoriale. A titolo
di esempio, vediamo la disuguaglianza di Doob per j = 2.
Proposizione 41 Se le componenti A
i)
sono di classe `
2
, allora
1
_
sup
t[0,T]

_
t
0
A
c
d1
c

2
_
_ 41
__
T
0
|A
c
|
2
1S
d:
_
.
4.4. IL CASO MULTIDIMENSIONALE 103
Proof.
1
_
sup
t[0,T]

_
t
0
A
c
d1
c

2
_
= 1
_
_
sup
t[0,T]
I

i=1
_
o

)=1
_
t
0
A
i)
c
d1
)
c
_
2
_
_
_
I

i=1
1
_
_
sup
t[0,T]
_
o

)=1
_
t
0
A
i)
c
d1
)
c
_
2
_
_
.
Ciascun processo

o
)=1
_
t
0
A
i)
c
d1
)
c
una martingala di quadrato integrabile e quindi,
per la disuguaglianza di Doob,
_ 4
I

i=1
1
_
_
_
o

)=1
_
T
0
A
i)
c
d1
)
c
_
2
_
_
= 4
I

i=1
1
_
o

)=1
_
T
0
_
A
i)
c
_
2
d:
_
= 41
__
T
0
|A
c
|
2
1S
d:
_
avendo usato nuovamente la Proposizione 39.
Valgono tanti altri fatti simili al caso uni-dimensionale, che non descriviamo in
dettaglio.
104 CAPITOLO 4. LINTEGRALE STOCASTICO
Capitolo 5
La formula di It
Seguiamo un approccio a questo tema non completamente tradizionale ma estrema-
mente istruttivo, dovuto a Hans Fllmer. In sintesi, esso sviluppa prima una formula
di It per funzioni deterministiche, che poi viene applicata traiettoria per traiettoria
ad alcune classi di processi stocastici.
5.1 La chain rule per funzioni poco regolari
Vogliamo dimostrare una formula della catena (chain rule) per una composizione del
tipo , (r
t
) dove , : R R regolare, anzi di classe C
2
, ma (r
t
)
t[0,T]
una fun-
zione non necessariamente dierenziabile (e nemmeno a variazione limitata), con una
propriet speciale di variazione quadratica. Per non approfondire alcuni dettagli tec-
nici, supponiamo 1 ssato e nito, ma si potrebbe riscrivere tutto per funzioni (r
t
)
t0
.
Senza restrizione, prendiamo 1 = 1.
Indichiamo con : una generica partizione di [0. 1] della forma 0 = t
0
_ t
1
_ ... _
t
a
= 1, con [:[ il numero max
i=0,...,a1
[t
i+1
t
i
[, con [r. r]

t
il numero
[r. r]

t
=

t
.
t
_
r
t
.+1
r
t
.
_
2
. t [0. 1]
con la convenzione che t
a+1
= t
a
, quindi r
t
n+1
r
tn
= 0. Questa convenzione, che serve
semplicemente a cancellare un ultimo termine spurio nella somma precedente, verr
sempre adottata tacitamente in questi paragra. Oppure, quando questo semplichi la
scrittura, useremo la notazione
J

t
= i = 0. .... : 1 : t
a
i
_ t
con la quale scriveremo
[r. r]

t
=

iJ
r
I
_
r
t
.+1
r
t
.
_
2
. t [0. 1]
105
106 CAPITOLO 5. LA FORMULA DI IT
Introduciamo inoltre la misura su ([0. 1] . E([0. 1]))
j

=
a1

i=0
_
r
t
.+1
r
t
.
_
2
o
aI
.
di cui t [r. r]

t
la funzione di ripartizione.
Denizione 15 Sia (:
a
)
aN
una successione di partizioni con [:
a
[ 0 per :
ed r : [0. 1] R una funzione continua. Diciamo che r ha variazione quadratica
lungo la successione :
a
se esiste una funzione continua, indicata nel seguito con [r. r]
t
,
t [0. 1], tale che
lim
ao
[r. r]
n
t
= [r. r]
t
(5.1)
per ogni t [0. 1].
Osservazione 20 Siccome [r. r]
n
t
non decrescente, anche [r. r]
t
non decrescente.
Osservazione 21 Il simbolo [r. r]
t
non completamente appropriato perch dipende
anche dalla successione (:
a
)
aN
, oltre che da r. In tutti i nostri esempi, per, dipender
solo da r, per cui non ci sembra utile appesantire la notazione tramite una dipendenza
esplicita dalla successione.
Osservazione 22 Se r di classe C
c
con c
1
2
allora la variazione quadrata (esiste
ed) pari a zero. Per avere una variazione quadratica non nulla, r devessere meno
regolare.
La funzione continua non decrescente [r. r]
t
, t [0. 1], denisce una misura nita
d [r. r]
t
su ([0. 1] . E([0. 1])). Vale
_
b
o
d [r. r]
c
= [r. r]
b
[r. r]
o
per ogni 0 _ c _ / _ 1. La funzione [r. r]
t
la funzione di ripartizione di questa misura.
Gli integrali del tipo
_
t
0
,(:) d [r. r]
c
che scriveremo nel seguito, con , : [0. t] R
continua, sono da intendersi rispetto a tale misura.
Proposizione 42 i) Sia 1 [0. 1] un insieme denso tale che 1 1. Se esiste una
funzione uniformemente continua t [r. r]
t
, denita su 1, tale che vale (5.1) per
ogni t 1, allora r ha variazione quadratica lungo la successione :
a
.
ii) Se r ha variazione quadratica lungo la successione :
a
, allora per ogni t [0. 1]
lim
ao

iJ
rn
I
,(t
a
i
)
_
r
t
n
.+1
r
t
n
.
_
2
=
_
t
0
,(:) d [r. r]
c
(5.2)
per ogni funzione , : [0. t] R continua. Abbiamo indicato con t
a
i
, i = 0. 1. .... `
a
, i
punti della partizione :
a
.
5.1. LA CHAIN RULE PER FUNZIONI POCO REGOLARI 107
Proof. Ricordiamo preliminarmente alcuni fatti sulla convergenza di misure sulla
retta reale. Sia (j
a
) una successione di misure nite, j una misura nita, 1
a
(r) =
j
a
((. r]) e 1 (r) = j((. r]) le loro funzioni di ripartizione. Ricordiamo che:
a) la convergenza vaga (cio contro le funzioni continue a supporto compatto) implica
la stretta (cio contro le funzioni continue limitate) se j
a
(R) j(R); b) se vale la
convergenza stretta allora 1
a
(r) 1 (r) in tutti i punti in cui 1 continua; c) se
1
a
(r) 1 (r) in tutti i punti di un insieme denso allora vale la convergenza vaga.
Siano ora (j
a
) e j a supporto in [0. 1]. Particolarizzando le aermazioni precedenti
vediamo che: a) la convergenza vaga e la stretta coincidono; b) se vale la convergenza
stretta allora 1
a
(r) 1 (r) in tutti i punti in cui 1 continua; c) se esiste un insieme
denso 1 [0. 1] con 1 1, per cui vale 1
a
(r) 1 (r) per ogni r 1, allora vale
la convergenza vaga. In particolare se ne deduce il seguente criterio: d) se esiste un
insieme denso 1 [0. 1] con 1 1, per cui vale 1
a
(r) 1 (r) per ogni r 1, allora
1
a
(r) 1 (r) in tutti i punti in cui 1 continua.
La dimostrazione dellaermazione (i) ora ovvia. La funzione t [r. r]
t
ha
estensione unica ad una funzione continua non decrescente (perch limite su un denso
di funzioni non decrescenti) a tutto [0. 1], che continuiamo a indicare con t [r. r]
t
.
Introduciamo la misura j su ([0. 1] . E([0. 1])) avente t [r. r]
t
come funzione di
ripartizione e ricordiamo che t [r. r]
n
t
la funzione di ripartizione di j
n
. Poniamo
per chiarezza espositiva 1
a
(t) = [r. r]
n
t
, 1 (t) = [r. r]
t
, funzioni di ripartizione di j
n
e j rispettivamente. Si tratta di misure a supporto in [0. 1]. Siccome 1
a
(t) 1 (t)
per t in un insieme denso di [0. 1] con 1 1, 1
a
(t) 1 (t) per tutti i t in cui 1 (t)
continua, quindi per ogni t [0. 1].
Dimostriamo (ii). Per t = 1, (5.2) stata appena dimostrata, perch equivale alla
convergenza stretta j
n
j cio a
lim
ao
_
1
0
,(t) j
n
(dt) =
_
1
0
,(t) j(dt) (5.3)
per ogni funzione continua , : [0. 1] R. Per t [0. 1], dobbiamo mostrare che
la successione di misure j
n
[
[0,t]
converge a j[
[0,t]
, dove le restrizioni sono denite nel
seguente modo: preso E([0. t]), lo si vede come elemento di E([0. 1]), e si applica
la misura. Le funzioni di ripartizione di queste restrizioni sono le restrizioni delle
funzioni di ripartizione originarie. Per esse vale la convergenza in ogni punto (per
ipotesi del punto (ii) di [0. t], quindi vale la convergenza stretta di j
n
[
[0,t]
a j[
[0,t]
. La
dimostrazione completa.
Teorema 28 Sia r : [0. 1] R una funzione continua avente variazione quadratica
[r. r]
t
lungo una successione :
a
. Sia , : R R di classe C
2
. Allora esiste nito il
limite lim
ao

iJ
rn
I
,
t
_
r
t
n
.
_
_
r
t
n
.+1
r
t
n
.
_
, che indichiamo con
_
t
0
,
t
(r
c
) dr
c
, e vale
, (r
t
) = , (r
0
) +
_
t
0
,
t
(r
c
) dr
c
+
1
2
_
t
0
,
tt
(r
c
) d [r. r]
c
108 CAPITOLO 5. LA FORMULA DI IT
Abbiamo indicato con t
a
i
, i = 0. 1. .... `
a
, i punti della partizione :
a
.
Proof. Abbreviamo J
a
t
= J
n
t
. Vale
, (r
t
) , (r
0
) = lim
ao

iJ
n
I
_
,
_
r
t
n
.+1
_
,
_
r
t
n
.
_
_
essendo r continua. Cerchiamo di esprimere ,
_
r
t
n
.+1
_
,
_
r
t
n
.
_
opportunamente.
Ricordiamo la formula di Taylor, in un generico punto r
0
:
, (r) = , (r
0
) + ,
t
(r
0
) (r r
0
) +
1
2
,
tt
_

a,a
0
_
(r r
0
)
2
dove
a,a
0
un punto intermedio tra r ed r
0
. Possiamo riscriverla nella forma
, (r) = , (r
0
) + ,
t
(r
0
) (r r
0
) +
1
2
,
tt
(r
0
) (r r
0
)
2
+ : (r. r
0
)
dove : (r. r
0
) =
1
2
_
,
tt
_

a,a
0
_
,
tt
(r
0
)
_
(r r
0
)
2
. Per r. r
0
appartenenti allimmagine
di t r
t
(o a qualsiasi compatto, da cui dipender la funzione c), : (r. r
0
) soddisfa
[: (r. r
0
)[ _ c ([r r
0
[) (r r
0
)
2
dove : c (:), : _ 0, una funzione crescente e innitesima nellorigine, con c(0) =
0. Basta porre, relativamente ad un compatto 1 ssato,
c (:) = sup
a,a
0
1
[aa
0
[v
1
2

,
tt
_

a,a
0
_
,
tt
(r
0
)

che nito per ogni : grazie alla continuit di ,


tt
, e verica lim
v0
c (:) = 0 per
luniforme continuit di ,
tt
.
Usiamo questa versione della formula di Taylor:

iJ
n
I
_
,
_
r
t
n
.+1
_
,
_
r
t
n
.
_
_
=

iJ
n
I
,
t
_
r
t
n
.
_
_
r
t
n
.+1
r
t
n
.
_
+
1
2

iJ
n
I
,
tt
_
r
t
n
.
_
_
r
t
n
.+1
r
t
n
.
_
2
+

iJ
n
I
:
_
r
t
n
.+1
. r
t
n
.
_
.
Il secondo termine a destra delluguale converge a
1
2
_
t
0
,
tt
(r
c
) d [r. r]
c
. Il terzo termine
tende a zero, essendo

iJ
n
I
:
_
r
t
n
.+1
. r
t
n
.
_
_

iJ
n
I
c
_

r
t
n
.+1
r
t
n
.

__
r
t
n
.+1
r
t
n
.
_
2
_ max
iJ
n
I
c
_

r
t
n
.+1
r
t
n
.

iJ
n
I
_
r
t
n
.+1
r
t
n
.
_
2
_ c
_
max
iJ
n
I

r
t
n
.+1
r
t
n
.

_
[r. r]
n
t
5.1. LA CHAIN RULE PER FUNZIONI POCO REGOLARI 109
ed usando il fatto che max
iJ
n
I

r
t
n
.+1
r
t
n
.

0 per : (essendo r uniformemente


continua e [:
a
[ 0), c innitesima e [r. r]
n
t
limitato perch converge. Il termine
a sinistra delluguale converge a , (r
t
) , (r
0
). Quindi anche il primo termine a
destra delluguale converge e vale la formula enunciata dal teorema. La dimostrazione
completa.
Osservazione 23 Se r dierenziabile con continuit, vale
, (r
t
) = , (r
0
) +
_
t
0
,
t
(r
c
) dr
c
dove
_
t
0
,
t
(r
c
) dr
c
va inteso come
_
t
0
,
t
(r
c
) r
t
c
d:. Il correttore
1
2
_
t
0
,
tt
(r
c
) d [r. r]
c
la novit di questa formula, nel caso di r meno regolare ma avente variazione
quadratica.
5.1.1 Caso multidimensionale e dipendente dal tempo
Denizione 16 Date due funzione continue r
1
. r
2
: [0. 1] R ed una successione di
partizioni (:
a
)
aN
con [:
a
[ 0 per : , diciamo che r
1
e r
2
hanno variazione
mutua [r
1
. r
2
]
t
, t [0. 1], lungo :
a
, se per ogni t [0. 1] esiste nito il limite
lim
ao

IJ
rn
I
_
r
1
t
n
I+1
r
1
t
n
I
__
r
2
t
n
I+1
r
2
t
n
I
_
e denisce una funzione continua, che indichiamo appunto con [r
i
. r
)
]
t
, t [0. 1]. Se
r
1
= r
2
, il concetto si riduce a quello di variazione quadratica lungo :
a
.
Consideriamo ora una funzione r : [0. 1] R
o
di componenti r
i
, i = 1. .... d.
Denizione 17 Sia (:
a
)
aN
una successione di partizioni con [:
a
[ 0 per : .
Diciamo che una funzione continua r : [0. 1] R
o
ha variazione quadratica congiunta
lungo la successione :
a
se per ogni i. , = 1. .... d (anche i = ,) le componenti r
i
e r
)
hanno variazione mutua [r
i
. r
)
]
t
, t [0. 1], lungo :
a
, ovvero
_
r
i
. r
)

t
= lim
ao

IJ
rn
I
_
r
i
t
n
I+1
r
i
t
n
I
__
r
)
t
n
I+1
r
)
t
n
I
_
. (5.4)
110 CAPITOLO 5. LA FORMULA DI IT
Lemma 8 La funzione continua r : [0. 1] R
o
ha variazione quadratica congiunta
lungo :
a
se e solo se per ogni i. , = 1. .... d (anche i = ,) le funzioni r
i
+ r
)
hanno
variazione quadratica lungo :
a
. Le variazioni suddette sono legate dalle formule
_
r
i
. r
)

t
=
1
2
__
r
i
+ r
)
. r
i
+ r
)

_
r
i
. r
i

_
r
)
. r
)

t
_
_
r
i
+ r
)
. r
i
+ r
)

t
=
_
r
i
. r
i

t
+
_
r
)
. r
)

t
+ 2
_
r
i
. r
)

t
.
Proof. Supponiamo che valga la condizione della denizione. Dallindentit
__
r
i
t
n
I+1
+ r
)
t
n
I+1
_

_
r
i
t
n
I
+ r
)
t
n
I
__
2
=
_
r
i
t
n
I+1
r
i
t
n
I
_
2
+
_
r
)
t
n
I+1
r
)
t
n
I
_
2
+ 2
_
r
i
t
n
I+1
r
i
t
n
I
__
r
)
t
n
I+1
r
)
t
n
I
_
deduciamo che r
i
+ r
)
ha variazione quadratica lungo :
a
. Viceversa, se vale la con-
dizione del lemma, dallindentit
_
r
i
t
n
I+1
r
i
t
n
I
__
r
)
t
n
I+1
r
)
t
n
I
_
=
1
2
_
__
r
i
t
n
I+1
+ r
)
t
n
I+1
_

_
r
i
t
n
I
+ r
)
t
n
I
__
2

_
r
i
t
n
I+1
r
i
t
n
I
_
2

_
r
)
t
n
I+1
r
)
t
n
I
_
2
_
deduciamo che r
i
e r
)
hanno variazione mutua lungo :
a
.
Lutilit del lemma quella di riportare il problema della variazione mutua a quello
della variazione quadratica, a cui possiamo applicare la Proposizione 42. Ne discende
subito la variante in dimensione d:
Proposizione 43 i) Sia 1 [0. 1] un insieme denso tale che 1 1. Se, per ogni
i. , = 1. .... d, esiste una funzione uniformemente continua t [r
i
. r
)
]
t
, denita su
1, tale che vale (5.4) per ogni t 1, allora r ha variazione quadratica congiunta lungo
:
a
.
ii) Se r : [0. 1] R
o
ha variazione quadratica lungo :
a
allora, per ogni i. , = 1. .... d
ed ogni t [0. 1] esiste il seguente limite
lim
ao

IJ
rn
I
,(t
a
i
)
_
r
i
t
n
I+1
r
i
t
n
I
__
r
)
t
n
I+1
r
)
t
n
I
_
=
_
t
0
,(:) d
_
r
i
. r
)

c
per ogni funzione , : [0. t] R continua e limitata. Lintegrale
_
t
0
,(:) d [r
i
. r
)
]
c
pu
essere inteso per dierenza, secondo la denizione di [r
i
. r
)
]
t
.
Teorema 29 Sia r : [0. 1] R
o
una funzione continua avente variazione quadratica
congiunta lungo una successione :
a
. Sia , : [0. 1] R
o
R una funzione continua
5.1. LA CHAIN RULE PER FUNZIONI POCO REGOLARI 111
avente le derivate
0)
0t
,
0)
0a
.
,
0
2
)
0a
.
0a

continue (diremo di classe C


1,2
). Allora esiste nito
il limite
lim
ao

IJ
rn
I
o

i=1
J,
Jr
i
_
t
a
I
. r
t
n
I
_
_
r
i
t
n
I+1
r
i
t
n
I
_
che indichiamo con
_
t
0
\, (:. r
c
) dr
c
e vale
, (t. r
t
) = , (0. r
0
) +
_
t
0
J,
Jt
(:. r
c
) d: +
_
t
0
\, (:. r
c
) dr
c
+
1
2
o

i,)=1
_
t
0
J
2
,
Jr
i
Jr
)
(:. r
c
) d
_
r
i
. r
)

c
.
Osservazione 24 Gli integrali
_
t
0
0)
0a
.
(:. r
c
) dr
i
c
non sono autonomamente deniti, so-
lo la loro somma. Questo il difetto principale di questa teoria deterministica del
calcolo di It. Il problema sparisce nel caso di processi stocastici, in quanto questi
integrali saranno deniti nel senso di It.
Proof. La dimostrazione identica al caso d = 1; la diamo per completezza. Scriviamo
J
a
t
per J
n
t
. Diamo la dimostrazione solo nel caso di , indipendente dal tempo. Vale
, (r
t
) , (r
0
) = lim
ao

IJ
n
I
_
,
_
r
t
n
I+1
_
,
_
r
t
n
I
_
_
essendo r continua. Cerchiamo di esprimere ,
_
r
t
n
I+1
_
,
_
r
t
n
I
_
opportunamente.
Ricordiamo la formula di Taylor, in un generico punto r
0
:
, (r) = , (r
0
) +
o

i=1
J,
Jr
i
(r
0
)
_
r
i
r
i
0
_
+
1
2
o

i,)=1
J
2
,
Jr
i
Jr
)
_

a,a
0
_ _
r
i
r
i
0
_ _
r
)
r
)
0
_
dove
a,a
0
un punto intermedio tra r ed r
0
. Possiamo riscriverla nella forma
, (r) = , (r
0
) +
o

i=1
J,
Jr
i
(r
0
)
_
r
i
r
i
0
_
+
1
2
o

i,)=1
J
2
,
Jr
i
Jr
)
(r
0
)
_
r
i
r
i
0
_ _
r
)
r
)
0
_
+ : (r. r
0
)
112 CAPITOLO 5. LA FORMULA DI IT
dove
: (r. r
0
) =
1
2
o

i,)=1
_
J
2
,
Jr
i
Jr
)
_

a,a
0
_

J
2
,
Jr
i
Jr
)
(r
0
)
_
_
r
i
r
i
0
_ _
r
)
r
)
0
_
.
Per r. r
0
appartenenti alla chiusura convessa dellimmagine di t r
t
, : (r. r
0
) soddisfa
[: (r. r
0
)[ _ c ([r r
0
[) [r r
0
[
2
dove c una funzione crescente e innitesima nellorigine.
Usiamo questa versione della formula di Taylor:

IJ
n
I
_
,
_
r
t
n
I+1
_
,
_
r
t
n
I
_
_
=

IJ
n
I
o

i=1
J,
Jr
i
_
r
t
n
I
_
_
r
i
t
n
I+1
r
i
t
n
I
_
+
1
2

IJ
n
I
o

i,)=1
J
2
,
Jr
i
Jr
)
_
r
t
n
I
_
_
r
i
t
n
I+1
r
i
t
n
I
__
r
)
t
n
I+1
r
)
t
n
I
_
+

IJ
n
I
:
_
r
t
n
I+1
. r
t
n
I
_
.
Il secondo termine a destra delluguale converge a
1
2

o
i,)=1
_
t
0
0
2
)
0a
.
0a

(r
c
) d [r
i
. r
)
]
c
, gra-
zie al lemma. Il terzo termine tende a zero, essendo

IJ
n
I
:
_
r
t
n
I+1
. r
t
n
I
_
_

IJ
n
I
c
_

r
t
n
I+1
r
t
n
I

r
t
n
I+1
r
t
n
I

2
_ max
I
c
_

r
t
n
I+1
r
t
n
I

_

IJ
n
I
o

i=1
_
r
i
t
n
I+1
r
i
t
n
I
_
2
e ragionando come nel caso unidimensionale. Il termine a sinistra delluguale converge
a , (r
t
) , (r
0
). Quindi anche il primo termine a destra delluguale converge e vale la
formula enunciata dal teorema. La dimostrazione completa.
5.1.2 Integrale secondo Stratonovich
Nella teoria precedente il termine del secondo ordine della formula di Taylor gioca un
ruolo essenziale. Esiste per un modo alternativo di denire gli integrali che perme-
tte di ottenere formule pi somiglianti al caso classico dellanalisi matematica. Sono
detti integrali secondo Stratonovich. Hanno un innegabile vantaggio in contesti dove le
composizioni sono frequentissime, come nel caso di processi stocastici su variet in cui
tutto sempre denito tramite composizione con carte. Hanno per anche dei difetti,
che descriveremo al momento buono.
5.1. LA CHAIN RULE PER FUNZIONI POCO REGOLARI 113
Introduciamo il seguente simbolo, ove denito:
_
t
0

c
dr
c
=
_
t
0

c
dr
c
+
1
2
[. r]
t
dove [. r]
t
la variazione mutua sopra introdotta e
_
t
0

c
dr
c
indica, se esiste, il limite
_
t
0

c
dr
c
= lim
ao

iJ
rn
I

t
n
.
_
r
t
n
.+1
r
t
n
.
_
.
Vale (quando esiste il limite)
_
t
0

c
dr
c
= lim
ao

iJ
rn
I

t
n
.+1
+
t
n
.
2
_
r
t
n
.+1
r
t
n
.
_
in quanto
[. r]
t
= lim
ao

iJ
rn
I
_

t
n
.+1

t
n
.
__
r
t
n
.+1
r
t
n
.
_
.
Teorema 30 Sia r : [0. 1] R una funzione continua avente variazione quadratica
lungo una successione :
a
. Sia , : R R una funzione di classe C
2
. Allora esiste la
variazione mutua [,
t
(r) . r]
t
e vale
, (r
t
) = , (r
0
) +
_
t
0
,
t
(r
c
) dr
c
.
Proof. Sappiamo che vale
, (r
t
) = , (r
0
) +
_
t
0
,
t
(r
c
) dr
c
+
1
2
_
t
0
,
tt
(r
c
) d [r. r]
c
.
Dobbiamo dimostrare che [,
t
(r) . r]
t
esiste e vale
[,
t
(r) . r]
t
=
_
t
0
,
tt
(r
c
) d [r. r]
c
.
Abbiamo, se esiste,
[,
t
(r) . r]
t
= lim
ao

iJ
rn
I
_
,
t
_
r
t
n
.+1
_
,
t
_
r
t
n
.
_
__
r
t
n
.+1
r
t
n
.
_
mentre sappiamo che
_
t
0
,
tt
(r
c
) d [r. r]
c
= lim
ao

iJ
rn
I
,
tt
_
r
t
n
.
_
_
r
t
n
.+1
r
t
n
.
_
2
.
114 CAPITOLO 5. LA FORMULA DI IT
Inoltre sappiamo che
,
t
_
r
t
n
.+1
_
,
t
_
r
t
n
.
_
= ,
tt
_
r
t
n
.
_
_
r
t
n
.+1
r
t
n
.
_
+ :
_
r
t
n
.
. r
t
n
.+1
_
con
[: (r. r
0
)[ _ c ([r r
0
[) (r r
0
)
2
dove c una funzione crescente e innitesima nellorigine. Quindi basta dimostrare
che
lim
ao

iJ
rn
I
:
_
r
t
n
.
. r
t
n
.+1
_
= 0.
Ma questo segue facilmente dalla propriet suddetta di :.
5.2 Applicazione ai processi stocastici
In questa sezione indichiamo la linea generale con cui si pu applicare la chain rule
nellambito dei processi stocastici. Da un lato, dobbiamo superare una dcolt: che
per gli usuali processi stocastici non si riesce ad esaminare direttamente la variazione
quadratica delle loro singole traiettorie, ma solo secondo una denizione con la con-
vergenza in probabilit. Dallaltro per, nel caso dei processi stocastici, gli integrali
stocastici sono autonomamente deniti, non solo come sottoprodotto della chain rule
stessa; dobbiamo per vericare che la denizione autonoma coincide col la formula
data dalla chain rule. Iniziamo discutendo il problema della variazione quadratica.
Formuliamo il risultato su [0. 1] ma vale su ogni [0. 1] oppure per t _ 0 (intendendo
che vale su [0. 1] per ogni 1 0, con il risultato che non dipende da 1). Sia (:
a
) una
successione di partizioni di [0. 1] con [:
a
[ 0.
Denizione 18 Diciamo che un processo stocastico continuo A = (A
t
)
t[0,1]
in R
o
ha
variazione quadratica congiunta [A
i
. A
)
]
t
, i. , = 1. .... d, lungo :
a
se per ogni i. , =
1. .... d, esiste un processo stocastico continuo, che indichiamo con [A
i
. A
)
]
t
, tale che
per ogni t [0. 1] sia
_
A
i
. A
)

t
= 1 lim
ao

iJ
rn
I
_
A
i
t
n
.+1
A
i
t
n
.
__
A
)
t
n
.+1
A
)
t
n
.
_
.
Chiamiamo [A
i
. A
)
]
t
variazione mutua tra A
i
e A
)
, o variazione quadratica quando
i = ,.
E equivalente a chiedere che, per ogni i. , = 1. .... d ed ogni t [0. 1], il processo
A
i
+ A
)
abbia variazione quadratica.
5.2. APPLICAZIONE AI PROCESSI STOCASTICI 115
Proposizione 44 Sia A = (A
t
)
t[0,1]
un processo stocastico continuo in R
o
che ha
variazione quadratica congiunta [A
i
. A
)
]
t
, i. , = 1. .... d, lungo :
a
Allora esiste una sot-
tosuccessione (:
t
a
) ed un evento
0
T con 1 (
0
) = 1 tali che per ogni .
0
la fun-
zione vettoriale t A
t
(.) ha variazione quadratica congiunta su [0. 1] lungo :
a
, e vale
[A
i
(.) . A
)
(.)]
t
= [A
i
. A
i
]
t
(.) per ogni i. , = 1. .... d. Quando tutto questo accade,
diremo semplicemente che il processo ha variazione quadratica congiunta [A
i
. A
)
]
t
.
Proof. Scriviamo la dimostrazione in dimensione uno; il caso generale identico. Sia
t Q[0. 1]. Esiste una sottosuccessione (:
t
a
) per cui valga la convergenza quasi certa:
1
_
_
_
lim
ao

iJ
r
I
n
I
_
A
t
n
.+1
A
t
n
.
_
2
= [A. A]
t
_
_
_
= 1.
Con un procedimento diagonale (numerando gli elementi di Q [0. 1]), si pu trovare
ununica sottosuccessione, che indichiamo con (:
t
a
), tale che
1
_
_
_
lim
ao

iJ
r
I
n
I
_
A
t
n
.+1
A
t
n
.
_
2
= [A. A]
t
_
_
_
= 1 per ogni t Q [0. 1] .
Siccome lintersezione numerabile di insiemi di probabilit uno ha probabilit uno,
linsieme
=
_

_
. : lim
ao

iJ
r
I
n
I
_
A
t
n
.+1
(.) A
t
n
.
(.)
_
2
= [A. A]
t
(.) . \t Q [0. 1]
_

_
ha la propriet 1 () = 1. Per la Proposizione 42 (parte (i)),
=
_

_
. : lim
ao

iJ
r
I
n
I
_
A
t
n
.+1
(.) A
t
n
.
(.)
_
2
= [A. A]
t
(.) . \t [0. 1]
_

_
.
La dimostrazione completa.
Corollario 12 Sia A = (A
t
)
t[0,1]
un processo stocastico continuo in R
o
avente vari-
azione quadratica congiunta lungo una successione di partizioni; indichiamo poi con
(:
a
) una successione per cui sia vera la tesi della proposizione precedente. Sia , :
[0. 1] R R una funzione di classe C
1,2
. Allora, per ogni t [0. 1], esiste il limite
in probabilit e q.c.
lim
ao

IJ
rn
I
o

i=1
J,
Jr
i
_
t
a
I
. A
t
n
I
_
_
A
i
t
n
I+1
A
i
t
n
I
_
116 CAPITOLO 5. LA FORMULA DI IT
che indichiamo con
_
t
0
\, (:. A
c
) dA
c
e vale q.c.
, (t. A
t
) = , (0. A
0
) +
_
t
0
J,
Jt
(:. A
c
) d: +
_
t
0
\, (:. A
c
) dA
c
+
1
2
o

i,)=1
_
t
0
J
2
,
Jr
i
Jr
)
(:. A
c
) d
_
A
i
. A
)

c
.
Per rendere ancor pi operativa questa formula servono due ingredienti. Da un lato,
avere unampia classe di processi A aventi variazione quadratica congiunta [A
i
. A
)
]
t
e che questa sia calcolabile. Dallaltro, sapere che la v.a.
_
t
0
\, (:. A
c
) dA
c
si pu
riscrivere tramite integrali noti (di It o di Lebesgue). Arontiamo i due problemi nelle
prossime due sezioni.
5.2.1 Variazione quadratica
Discutiamo lesistenza della variazione quadratica congiunta per diversi processi.
ll moto browniano unidimensionale
Sia 1 un moto browniano in R. Il Teorema 6 aerma che, data una successione (:
a
)
con [:
a
[ 0, vale
lim
ao
1
_
[[1. 1]
n
t
t[
2
_
= 0 (5.5)
per ogni t _ 0. In verit, a essere puntigliosi, in tale teorema, :
a
sono partizioni dello
specico intervallo [0. t] trattato, quindi cambiando t si devono prendere partizioni
diverse; ma correggendo di poco quella dimostrazione di pu prendere la successione
di partizioni a priori, e farla valere per ogni t. Scriviamo tutto per [0. 1] ma vale per
qualsiasi intervallo.
Proposizione 45 Data una successione di partizioni (:
a
) di [0. 1], con [:
a
[ 0, per
ogni t [0. 1] vale (5.5). Quindi il moto browniano ha variazione quadratica, e vale
[1. 1]
t
= t.
Proof. Fissato t [0. 1], indichiamo con :
t
a
la partizione :
a
completata dal punto t.
Chiamando t
a
i
i nodi di :
a
e :
a
i
i nodi di :
t
a
, vale
[1. 1]

I
n
t
[1. 1]
n
t
=

iJ
r
I
n
I
_
1
c
n
.+1
1
c
n
.
_
2


iJ
rn
I
_
1
t
n
.+1
1
t
n
.
_
2
=
_
1
t
1
t
n
.max
_
2
5.2. APPLICAZIONE AI PROCESSI STOCASTICI 117
dove i
max
= max J
n
t
. Sappiamo gi che
lim
ao
1
_

[1. 1]

I
n
t
t

2
_
= 0.
Allora (5.5) discende dal fatto che
1
_

[1. 1]

I
n
t
[1. 1]
n
t

2
_
= 1
_
_
1
t
1
t
n
.max
_
4
_
_ C
_
t t
a
imax
_
2
che tende a zero per : .
Il moto browniano in R
o
Sia 1 =
_
1
1
. .... 1
o
_
un moto browniano in R
o
. Ogni componente 1
i
ha variazione
quadratica, pari a t. Invece la variazione mutua tra le componenti nulla:
Proposizione 46 Data una successione di partizioni (:
a
) di [0. 1], con [:
a
[ 0, per
i ,= ,,
lim
ao
1
_

_
1
i
. 1
)

n
t

2
_
= 0.
Quindi esiste la variazione mutua [1
i
. 1
)
]
t
e vale zero.
Proof. Prendiamo i = 1, , = 2. Abbiamo
_
1
1
. 1
2

n
t
=

IJ
n
I
_
1
1
t
n
I+1
1
1
t
n
I
__
1
2
t
n
I+1
1
2
t
n
I
_
quindi, con la solita notazione
I
1
i
= 1
i
t
n
I+1
1
i
t
n
I
,
1
_

_
1
1
. 1
2

n
t

2
_
=

I,IJ
n
I
1
_

I
1
1

I
1
2

I
1
1

I
1
2

=

I,IJ
n
I
1
_

I
1
1

I
1
1

1
_

I
1
2

I
1
2

per lindipendenza delle componenti. Se / ,= /, 1 [


I
1
1

I
1
1
] = 0. Quindi
1
_

_
1
1
. 1
2

n
t

2
_
=

IJ
n
I
1
_
_

I
1
1
_
2
_
1
_
_

I
1
2
_
2
_
=

IJ
n
I
_
t
a
I+1
t
a
I
_
2
da cui facile dedurre la tesi.
In conclusione, la variazione quadratica congiunta di un moto browniano 1 =
_
1
1
. .... 1
o
_
in R
o
[1
i
. 1
)
]
t
= o
i)
t.
118 CAPITOLO 5. LA FORMULA DI IT
Gli integrali stocastici
Teorema 31 Sia 1 =
_
1
1
. .... 1
o
_
un moto browniano in R
o
. Siano 2
1
. 2
2
due proces-
si di classe
2
. Sia (:
a
) una successione di partizioni di [0. 1], con [:
a
[ 0. Allora, per
ogni i. , = 1. 2 (anche i = ,) e per ogni t, la successione di v.a.
__

0
2
1
c
d1
i
c
.
_

0
2
2
c
d1
)
c

n
t
converge in probabilit ed il limite vale
__

0
2
1
c
d1
i
c
.
_

0
2
2
c
d1
)
c
_
t
= o
i)
_
t
0
2
1
c
2
2
c
d:.
La dimostrazione completa piuttosto lunga. Accontentiamoci di comprendere due
casi particolari. Il primo quando 2
1
. 2
2
sono semplicemente due costanti, che senza
restrizione prendiamo pari ad uno. In questo caso la formula si riduce a [1
i
. 1
)
]
t
= to
i)
,
che abbiamo gi dimostrato. Il secondo il caso in cui 2
1
. 2
2
sono processi continui.
Non diamo la dimostrazione completa nemmeno in questo caso particolare, ma solo
lidea. Presa una successione di partizioni :
a
, lungo essa le componenti del moto
browniano hanno variazione quadratica e mutua, con [1
i
. 1
)
]
t
= to
i)
. Usando un
analogo per processi stocastici della Proposizione 43, perte (ii), abbiamo
lim
ao

IJ
rn
I
2
1
t
n
.
2
2
t
n
.
_
1
i
t
n
I+1
1
i
t
n
I
__
1
)
t
n
I+1
1
)
t
n
I
_
=
_
t
0
2
1
c
2
2
c
d:.
Ma

IJ
rn
I
2
1
t
n
.
2
2
t
n
.
_
1
i
t
n
I+1
1
i
t
n
I
__
1
)
t
n
I+1
1
)
t
n
I
_
=

iJ
rn
I
_
t
n
.+1
t
n
.
2
1
t
n
.
d1
i
c
_
t
n
.+1
t
n
.
2
2
t
n
.
d1
)
c
circa uguale a
__

0
2
1
c
d1
i
c
.
_

0
2
2
c
d1
)
c
_
n
t
=

iJ
rn
I
_
t
n
.+1
t
n
.
2
1
c
d1
i
c
_
t
n
.+1
t
n
.
2
2
c
d1
)
c
.
Con un po di fatica si pu controllare il resto e completare la dimostrazione.
Il caso generale richiede ad esempio di sviluppare pi teoria sulla variazione quadrat-
ica in s, includendo un teorema di dipendenza continua dai processi dei quali si calcola.
In tal modo, avendo il risultato per 2
i
continui, lo si estende a 2
i
di classe
2
. I dettagli
sono troppo numerosi per cui li omettiamo.
I processi di It
Sia 1 un moto browniano in R
a
rispetto ad una ltrazione (T
t
)
t0
.
5.2. APPLICAZIONE AI PROCESSI STOCASTICI 119
Denizione 19 Chiamiamo processo di It in R
o
un processo A = (A
t
)
t[0,T]
a valori
in R
o
della forma
A
t
= A
0
+
_
t
0
/
c
d: +
_
t
0
o
c
d1
c
con A
0
misurabile rispetto a T
0
, / un processo vettoriale in R
o
di classe
1
1
(cio
progressivamente misurabile e tale che
_
T
0
[/
c
[ d: < q.c.), o processo matriciale in
R
ao
di classe
2
1
. Per componenti,
A
i
t
= A
i
0
+
_
t
0
/
i
c
d: +
a

I=1
_
t
0
o
iI
c
d1
I
c
.
Scriveremo anche
dA
t
= /
t
dt + o
t
d1
t
.
Le componenti dei processi di It sono somma di processi continui a variazione
limitata (il termine A
i
0
+
_
t
0
/
i
c
d:) e di martingale locali. Per questo sono semimartingale.
Per calcolare la loro variazione quadratica abbiamo bisogno dei seguenti lemmi. Sia
(:
a
) una successione di partizioni di [0. 1], con [:
a
[ 0.
Lemma 9 Nelle ipotesi precedenti, preso / = 1. .... d, \
t
:=
_
t
0
/
I
c
d: ha variazione
quadratica nulla lungo (:
a
) ([\. \ ]
n
t
converge in probabilit a zero, per ogni t [0. 1]).
Proof. Basta osservare che le traiettorie di \ sono continue e 1\ ed applicare la
Proposizione 22; va solo curato il fatto che, dato t [0. 1], le partizioni :
a
non sono
partizioni di [0. t]; ma la dimostrazione la stessa. Per completezza svolgiamo il conto
esplicitamente:
[\. \ ]
n
t
=

iJ
rn
I
_
\
t
n
.+1
\
t
n
.
_
2
_ max
iJ
rn
I

\
t
n
.+1
\
t
n
.


iJ
rn
I

\
t
n
.+1
\
t
n
.

_ max
iJ
rn
T

\
t
n
.+1
\
t
n
.


iJ
rn
T
_
t
n
.+1
t
n
.
/
I
c
d: = max
iJ
rn
T

\
t
n
.+1
\
t
n
.

_
T
0
/
I
c
d:.
Ora basta osservare che max
iJ
rn
T

\
t
n
.+1
\
t
n
.

tende a zero q.c. perch le traiettorie di


\ sono uniformemente continue. Quindi [\. \ ]
n
t
converge in probabilit a zero.
Lemma 10 Siano \ ed ` due processi continui a valori reali, \ avente variazione
quadratica nulla lungo :
a
, ` variazione quadratica [`. `]
t
. Allora ` + \ ha vari-
azione quadratica [`. `]
t
.
120 CAPITOLO 5. LA FORMULA DI IT
Proof. E immediato vericare che
[` + \. ` + \ ]
n
t
= [`. `]
n
t
+ [\. \ ]
n
t
+ 2 [`. \ ]
n
t
dove, come sopra, [`. \ ]
n
t
=

iJ
rn
I
_
`
t
n
.+1
`
t
n
.
__
\
t
n
.+1
\
t
n
.
_
. Basta quindi di-
mostrare che [`. \ ]
n
t
tende a zero in probabilit. Ma si verica immediatamente
anche la disuguaglianza
[[`. \ ]
n
t
[ _
_
[`. `]
n
t
_
[\. \ ]
n
t
e quindi [`. \ ]
n
t
0 in probabilit (si verichi che il prodotto di una successione con-
vergente in probabilit ed una innitesima in probabilit innitesimo in probabilit).
Teorema 32 Sia A = (A
t
)
t[0,T]
un processo di It in R
o
della forma
A
t
= A
0
+
_
t
0
/
c
d: +
_
t
0
o
c
d1
c
con / in R
o
di classe
1
1
e o in R
ao
di classe
2
1
. Allora A ha variazione quadratica
congiunta; precisamente, per ogni i. , = 1. .... d e per ogni t, la successione di v.a.
[A
i
. A
)
]
n
t
converge in probabilit ed il limite vale
_
A
i
. A
)

t
=
_
t
0
o
iI
c
o
)I
c
d: =
_
t
0
_
o
c
o
T
c
_
i)
d:.
Proof. Loperazione [. ]
n
t
lineare in ambo gli argomenti, quindi, posto \
i
t
= A
i
0
+
_
t
0
/
i
c
d:, `
iI
t
=
_
t
0
o
iI
c
d1
I
c
, vale
_
A
i
. A
)

n
t
=
_
\
i
. A
)

n
t
+
_
A
i
. \
)

n
t

_
\
i
. \
)

n
t
+

I,I
0
_
`
iI
. `
)I
0
_
n
t
.
I primi tre termini a destra tendono a zero per i due lemmi precedenti. Usando poi il
teorema sulla variazione quadratica degli integrali di It,
1 lim
ao
_
`
iI
. `
)I
0
_
n
t
= o
II
0
_
t
0
o
iI
c
o
)I
0
c
d:
quindi
1 lim
ao
_
A
i
. A
)

n
t
=
a

I=1
_
t
0
o
iI
c
o
)I
c
d:.
5.2. APPLICAZIONE AI PROCESSI STOCASTICI 121
Osservazione 25 Osserviamo che la traccia della matrice ([A
i
. A
)
]
t
)
i)
vale
1:
__
A
i
. A
)

t
_
i)
=
_
t
0
|o
c
|
2
1S
d:.
C una forte somiglianza tra le formule in valore atteso quadratico e quelle in vari-
azione quadratica (si ricordi la formula di isometria 1
_

_
t
0
o
c
d1
c

2
_
= 1
_
_
t
0
|o
c
|
2
1S
d:
_
).
5.2.2 Integrale stocastico rispetto ad un processo di It
Sia A = (A
t
)
t[0,T]
un processo di It in R
o
della forma
A
t
= A
0
+
_
t
0
/
c
d: +
_
t
0
o
c
d1
c
con / in R
o
di classe
1
1
e o in R
ao
di classe
2
1
. Per componenti,
A
i
t
= A
i
0
+
_
t
0
/
i
c
d: +
a

I=1
_
t
0
o
iI
c
d1
I
c
.
Sia 1 un processo di classe
2
1
. Allora, per ogni i = 1. .... d, poniamo
_
t
0
1
c
dA
i
c
=
_
t
0
1
c
/
i
c
d: +
a

I=1
_
t
0
1
c
o
iI
c
d1
I
c
.
Proposizione 47 Se 1 continuo,
_
t
0
1
c
dA
i
c
= lim
ao

IJ
rn
I
1
t
n
I
_
A
i
t
n
I+1
A
i
t
n
I
_
.
Proof. Vale

IJ
rn
I
1
t
n
I
_
A
i
t
n
I+1
A
i
t
n
I
_
=

IJ
rn
I
1
t
n
I
_
t
n
I+1
t
n
I
/
i
c
d: +
a

)=1

IJ
rn
I
1
t
n
I
_
t
n
I+1
t
n
I
o
i)
c
d1
)
c
=

IJ
rn
I
_
t
n
I+1
t
n
I
1
t
n
I
/
i
c
d: +
a

)=1

IJ
rn
I
_
t
n
I+1
t
n
I
1
t
n
I
o
i)
c
d1
)
c
(lultimo passaggio richiederebbe una dimostrazione che omettiamo)
=
_
t
0
1
a
c
/
i
c
d: +
a

)=1
_
t
0
1
a
c
o
i)
c
d1
)
c
dove 1
a
c
il processo che vale 1
t
n
I
su [t
a
I
. t
a
I+1
). Basta ora usare la continuit di 1 ed
alcuni argomenti di passaggio al limite tradizionali.
122 CAPITOLO 5. LA FORMULA DI IT
5.3 Formula di It
Teorema 33 Sia , : [0. 1] R
o
R una funzione di classe C
1,2
ed A = (A
t
)
t[0,T]
un
processo di It in R
o
, della forma
A
t
= A
0
+
_
t
0
/
c
d: +
_
t
0
o
c
d1
c
con / in R
o
di classe
1
1
e o in R
ao
di classe
2
1
. Allora
, (t. A
t
) = , (0. A
0
) +
_
t
0
J,
Jt
(:. A
c
) d: +
o

i=1
_
t
0
J,
Jr
i
(:. A
c
) /
i
c
d:
+
o

i=1
a

I=1
_
t
0
J,
Jr
i
(:. A
c
) o
iI
c
d1
I
c
+
1
2
o

i,)=1
a

I=1
_
t
0
J
2
,
Jr
i
Jr
)
(:. A
c
) o
iI
c
o
)I
c
d:.
In particolare, , (t. A
t
) un processo di It.
Osservazione 26 Si noti che
o

i,)=1
a

I=1
J
2
,
Jr
i
Jr
)
(A
c
) o
iI
c
o
)I
c
= 1:ccc
_
o
c
o
T
c
1
2
, (A
c
)
_
.
Proof. Partiamo dal risultato del Corollario 12. Lipotesi, che A = (A
t
)
t[0,1]
abbia
variazione quadratica congiunta lungo una successione di partizioni, vericata per
il Teorema 32. Indichiamo poi con (:
a
) una successione lungo cui abbiano variazione
quadratica congiunta quasi tutte le traiettorie di A. Per il Corollario 12, sappiamo che
per ogni t [0. 1], esiste il limite in probabilit e q.c.
lim
ao

IJ
rn
I
o

i=1
J,
Jr
i
_
t
a
I
. A
t
n
I
_
_
A
i
t
n
I+1
A
i
t
n
I
_
che abbiamo indicato con
_
t
0
\, (:. A
c
) dA
c
. Ma per la Proposizione 47, esiste il limite
in probabilit di ciascun addendo

IJ
rn
I
0)
0a
.
_
t
a
I
. A
t
n
I
_
_
A
i
t
n
I+1
A
i
t
n
I
_
della precedente
somma e vale
_
t
0
J,
Jr
i
(:. A
c
) dA
i
c
=
_
t
0
J,
Jr
i
(:. A
c
) /
i
c
d: +
a

I=1
_
t
0
J,
Jr
i
(:. A
c
) o
iI
c
d1
I
c
.
5.3. FORMULA DI IT 123
Pertanto, possiamo riscrivere la formula dimostrata nel Corollario 12 nella forma
, (t. A
t
) = , (0. A
0
) +
_
t
0
J,
Jt
(:. A
c
) d:
+
o

i=1
_
t
0
J,
Jr
i
(:. A
c
) /
i
c
d: +
o

i=1
a

I=1
_
t
0
J,
Jr
i
(:. A
c
) o
iI
c
d1
I
c
+
1
2
o

i,)=1
_
t
0
J
2
,
Jr
i
Jr
)
(:. A
c
) d
_
A
i
. A
)

c
.
Inne, dal Teorema 32 sappiamo che
_
A
i
. A
)

t
=
_
t
0
o
iI
c
o
)I
c
d:
Basta allora usare il fatto che
_
t
0
0
2
)
0a
.
0a

(:. A
c
) d [A
i
. A
)
]
c
_
t
0
J
2
,
Jr
i
Jr
)
(:. A
c
) d
_
A
i
. A
)

c
=
_
t
0
J
2
,
Jr
i
Jr
)
(:. A
c
) o
iI
c
o
)I
c
d:
che si pu dimostrare prima nel caso in cui o continuo (in tal caso [A
i
. A
)
]
t
dieren-
ziabile e la misura d [A
i
. A
)
]
c

o[A
.
,A

]
s
oc
d:), poi nel caso generale per approssimazione.
La dimostrazione completa.
5.3.1 Notazione dierenziale
E uso scrivere molte delle equazioni precedenti in forma dierenziale, pur intendendo
con questo la forma integrale corrispondente. Ad esempio, un processo di It in R
o

un processo A = (A
t
)
t[0,T]
a valori in R
o
che ha dierenziale stocastico della forma
dA
t
= /
t
dt + o
t
d1
t
e a formula di It corrispondente, per , C
1,2
,
d, (t. A
t
) =
J,
Jt
(t. A
t
) dt +
o

i=1
J,
Jr
i
(t. A
t
) /
i
t
dt
+
o

i=1
a

I=1
J,
Jr
i
(t. A
t
) o
iI
t
d1
I
t
+
1
2
o

i,)=1
a

I=1
J
2
,
Jr
i
Jr
)
(t. A
t
) o
iI
t
o
)I
t
dt.
124 CAPITOLO 5. LA FORMULA DI IT
Si tratta chiaramente di una notazione, ma utile per sveltire i calcoli. Anche utile
contrarre il termine /
i
t
dt +

a
I=1
o
iI
t
d1
I
t
in dA
i
t
per cui scriveremo
d, (t. A
t
) =
J,
Jt
(t. A
t
) dt +
o

i=1
J,
Jr
i
(t. A
t
) dA
i
t
+
1
2
o

i,)=1
a

I=1
J
2
,
Jr
i
Jr
)
(t. A
t
) o
iI
t
o
)I
t
dt.
Inne, pu essere utile sostituire

a
I=1
o
iI
t
o
)I
t
dt con d [A
i
. A
)
]
t
e scrivere
d, (t. A
t
) =
J,
Jt
(t. A
t
) dt +
o

i=1
J,
Jr
i
(t. A
t
) dA
i
t
+
1
2
o

i,)=1
J
2
,
Jr
i
Jr
)
(t. A
t
) d
_
A
i
. A
)

t
.
Se poi, inne (ma questo un molto informale) scriviamo
d
_
A
i
. A
)

t
= dA
i
t
dA
)
t
la formula assume una forma facilissima da ricordare:
d, (t. A
t
) =
J,
Jt
(t. A
t
) dt +
o

i=1
J,
Jr
i
(t. A
t
) dA
i
t
+
1
2
o

i,)=1
J
2
,
Jr
i
Jr
)
(t. A
t
) dA
i
t
dA
)
t
in quanto sembra la riscrittura della formula di Taylor. Possiamo anche scrivere
d, (t. A
t
) =
J,
Jt
(t. A
t
) dt +\, (t. A
t
) dA
t
+
1
2

1
2
, (t. A
t
) dA
t
. dA
t
_
.
Abbiamo un po rifatto il passaggio allindietro, dai coecienti espliciti / e o del
processo di It alla notazione con dA e d [A
i
. A
)
]
t
. Ogni volta si pu scegliere la
pi conveniente per svolgere i calcoli.
5.3.2 Esempi
Esempio 1. Se
dA
i
t
= /
i
t
dt + o
i
t
d1
t
. i = 1. 2
allora
d
_
A
1
t
A
2
t
_
= A
1
t
dA
2
t
+ A
2
t
dA
1
t
+ d
_
A
1
. A
2

t
5.3. FORMULA DI IT 125
avendo usato la funzione
,
_
r
1
. r
2
_
= r
1
r
2
\,
_
r
1
. r
2
_
=
_
r
2
. r
1
_
1
2
,
_
r
1
. r
2
_
=
_
0 1
1 0
_
.
Siccome d [A
1
. A
2
]
t
= o
1
t
o
2
t
dt, troviamo
d
_
A
1
t
A
2
t
_
= A
1
t
dA
2
t
+ A
2
t
dA
1
t
+ o
1
t
o
2
t
dt.
Si pu anche esplicitare nella forma
d
_
A
1
t
A
2
t
_
= A
1
t
/
2
t
dt + A
1
t
o
2
t
d1
t
+ A
2
t
/
1
t
dt + A
2
t
o
1
t
d1
t
+ o
1
t
o
2
t
dt
che per risulta meno interpretabile.
Esempio 2. Se (in R
o
)
dA
t
= /
t
dt + o
t
d1
t
.
allora
d [A
t
[
2
= 2A
t
dA
t
+
o

i=1
a

I=1
o
iI
t
o
iI
t
dt
avendo usato la funzione
, (r) = [r[
2
\, (r) = 2r
1
2
, (r) = 2
_
1 0
0 1
_
.
126 CAPITOLO 5. LA FORMULA DI IT
Capitolo 6
Applicazioni della formula di It
6.1 Caratterizzazione del moto browniano secondo
Lvy
Ricordiamo che un moto browniano 1 =
_
1
1
. .... 1
o
_
in R
o
una martingala continua e
vale [1
i
. 1
)
]
t
= t o
i)
. Il teorema di questa sezione dice che vale il viceversa. Vale anche
se si suppone solamente la propriet di martingala locale. Premettiamo un criterio di
indipendenza.
Lemma 11 Dato (. T. 1), sia ( una sotto o-algebra di T. Se un vettore aleatorio
A in R
o
ha la propriet che la v.a. 1
_
c
iAA
[(

costante, per ogni ` R


o
, allora A
indipendente da (.
Proof. Innanzi tutto, se 1
_
c
iAA
[(

costante, allora pari a 1


_
c
iAA

. Quindi
1
_
1

c
iAA

= 1
_
c
iAA

1 ()
per ogni (. Usiamo ora alcuni fatti sulla trasformata di Fourier. Ricirdiamo che,
data , 1
2
_
R
o
_
, ben denita la sua trasformata di Fourier
,(`) =
1
2:
_
R
u
c
iAa
,(r) dr
come funzione di 1
2
_
R
o
_
, e che vale la formula di antitrasformata
,(r) =
_
R
u
c
iAa
,(`) d`.
Prendiamo allora , 1
2
_
R
o
_
e la sua trasformata di Fourier , 1
2
_
R
o
_
, integri-
amo ambo i membri dellidentit iniziale,
_
R
u
,(`) 1
_
1

c
iAA

d` = 1 ()
_
R
u
,(`) 1
_
c
iAA

d`
127
128 CAPITOLO 6. APPLICAZIONI DELLA FORMULA DI IT
ed applichiamo Fubini
1
_
1

_
R
u
,(`) c
iAA
d`
_
= 1 () 1
__
R
u
,(`) c
iAA
d`
_
.
Usando il fatto che
_
R
u
,(`) c
iAA
d` = ,(A) otteniamo
1 [1

,(A)] = 1 () 1 [,(A)] .
Da qui lindipendenza segue approssimando una generica indicatrice 1

, E
_
R
o
_
,
con funzioni , 1
2
_
R
o
_
.
Teorema 34 (caratterizzazione di P. Lvy) Sia ` =
_
`
1
. .... `
o
_
una martin-
gala continua vettoriale, rispetto alla ltrazione (T
t
)
t0
, nulla in zero. Se [`
i
. `
)
]
t
=
o
i)
t allora ` un moto browniano vettoriale, rispetto a (T
t
)
t0
.
Proof. Nota. In un punto della dimostrazione useremo la teoria generale dellinte-
grazione per martingale continue e la corrispondente formula di It, elementi che non
abbiamo completamente sviluppato. In realt si tratta semplicemente della formula di
It del Corollario 12; ma dovremmo dimostrare che una qualsiasi martingala continua
vettoriale ha variazione quadratica congiunta. Lo abbiamo fatto per per i processi
di It e, osserviamo, quando useremo questo teorema di caratterizzazione nellambito
della formula di Girsanov, l la martingala ` sar un processo di It. In conclusione,
anche se la dimostrazione che svolgiamo ora non del tutto completa, lo nel caso che
verr utilizzato in seguito.
Basta vericare che, presi t _ : _ 0, il vettore `
t
`
c
gaussiano di media nulla e
covarianza t1d, ed indipendente da T
c
. Preso ` R
o
, se verichiamo che `(`
t
`
c
)
una v.a. gaussiana `
_
0. [`[
2
(t :)
_
, allora `
t
`
c
gaussiano di media nulla e
covarianza t 1d. Usando il teorema di inversione delle funzioni caratteristiche, basta
vericare che
1
_
c
iA(AIAs)

= c

1
2
[A[
2
(tc)
.
Cerchiamo di capire le propriet di
1
A
t
:= c
iAAI+
1
2
[A[
2
t
tramite la formula di It. Questa, per funzioni a valori complessi, segue le regole usuali,
come si pu vericare applicandola a parte reale e parte immaginaria. Usiamo, come
gi detto, la versione del Corollario 12.
6.2. IL TEOREMA DI GIRSANOV 129
Allora, presa , (t. r) = c
iAa+
1
2
[A[
2
t
(
0)
0t
=
1
2
[`[
2
,, \, = i`,, 1
2
, = ` `,),
1
A
t
= , (t. `
t
), abbiamo (qui usiamo in modo cruciale lipotesi [`
i
. `
)
]
t
= o
i)
t)
d1
A
t
=
1
2
[`[
2
1
A
t
dt + 1
A
t
i` d`
t

1
2
1
A
t
o

i,)=1
`
i
`
)
d
_
`
i
. `
)

t
=
1
2
[`[
2
1
A
t
dt + 1
A
t
i` d`
t

1
2
1
A
t
o

i=1
`
2
i
dt
= 1
A
t
i` d`
t
ovvero
1
A
t
=
_
t
0
1
A
c
i` d`
c
Non abbiamo sviluppato la teoria dellintegrazione rispetto a martingale continue qual-
siasi, ma possiamo immaginare che lintegrale
_
t
0
1
A
c
i` d`
c
sia una martingala, se
lintegrando 1
A
c
i` soddisfa opportune ipotesi di sommabilit. Nel nostro caso 1
A
c
i`
addirittura limitato:

1
A
c
i`

c
iAAI
c
1
2
[A[
2
t
i`

= c
1
2
[A[
2
t
[`[ _ c
1
2
[A[
2
T
[`[ .
In tal caso si pu dimostrare che
_
t
0
1
A
c
i` d`
c
, e quindi 1
A
t
, una martingala.
Ma allora, per t _ : _ 0, 1
_
1
A
t
[T
c

= 1
A
c
, ovvero
1
_
c
iAAI
[T
c

= c
iAAs
c
1
2
[A[
2
c
c

1
2
[A[
2
t
da cui
1
_
c
iA(AIAs)
[T
c

= 1
_
c
iAAI
c
iAAs
[T
c

= c
iAAs
1
_
c
iAAI
[T
c

= c

1
2
[A[
2
(tc)
.
Ne segue 1
_
c
iA(AIAs)

= c

1
2
[A[
2
(tc)
, come volevamo dimostrare. Inoltre la v.a.
1
_
c
iA(AIAs)
[T
c

costante, per ogni ` R


o
e questo implica, per il lemma precedente,
che `
t
`
c
indipendente da T
c
.
6.2 Il teorema di Girsanov
6.2.1 Cambi di misura
Ci accingiamo ad eseguire unoperazione non comune no ad ora: modicare la prob-
abilit 1 su (. T) tramite una densit. Premettiamo quindi alcune semplici idee per
inquadrare il problema.
130 CAPITOLO 6. APPLICAZIONI DELLA FORMULA DI IT
Sia (. T) uno spazio probabilizzabile. Fino ad ora abbiamo sempre ssato una
misura di probabilit 1 su di esso ed indicato con 1 il valore atteso corrispondente.
Dora in poi, quando servir, lo indicheremo con 1
1
per evidenziare che si tratta del
valore atteso calcolato tramite la misura 1.
Supponiamo di avere due diverse misure di probabilit 1 e Q, su (. T). Ricordiamo
che Q << 1 (Q assolutamente continua rispetto a 1) se 1 () = 0 implica Q() = 0,
T, e questo equivale allesistenza di una densit di probabilit j =
0Q
01
, ovvero una
funzione non negativa misurabile j : [0. ) tale che
Q() =
_

jd1
per ogni T. Oppure
1
Q
[A] = 1
1
[jA]
per ogni v.a. A limitata (ed altre). Scriviamo anche dQ = jd1.
Le misure 1 e Q si dicono equivalenti se Q << 1 e 1 << Q. Se Q << 1 e j =
0Q
01
strettamente positiva q.c., allora sono equivalenti: j
1

01
0Q
:
1
Q
_
j
1
A

= 1
1
_
jj
1
A

= 1
1
[A]
per ogni v.a. A limitata.
Il concetto di martingala cambia a seconda della misura: un processo pu essere
una martingala rispetto a 1 e non rispetto a Q (il valore atteso, che dipende dalla
misura scelta, entra in gioco nella denizione di martingala).
Invece il concetto di convergenza in probabilit non dipende dalla misura, se si
considerano misure equivalenti. Infatti, se A
a
1
A allora per ogni 0
lim
ao
1 ([A
a
A[ ) = 0
e quindi
Q([A
a
A[ ) =
_
[AnA[.
jd1 0
per lassoluta continuit dellintegrale. E viceversa.
Pertanto il concetto di variazione quadratica di un processo stocastico non dipende
dalla misura, se si considerano misure equivalenti, essendo legato alla misura solo
attraverso una condizione di convergenza in probabilit.
Circa le classi per cui deniamo integrali stocastici, la classe `
2
dipende dalla
misura 1 di riferimento, mentre la classe
2
no se si considerano misure equivalenti.
6.2. IL TEOREMA DI GIRSANOV 131
6.2.2 Martingale esponenziali e misure equivalenti
Sia (. T. 1) uno spazio probabilizzato, (T
t
)
t0
una ltrazione, 1 un moto browniano
in R
o
. Sia (A
t
)
t[0,T]
un processo in R
o
di classe
2
. Consideriamo il processo stocastico
1
t
=
_
t
0
A
c
d1
c
avente variazione quadratica
[1. 1]
t
=
_
t
0
[A
c
[
2
d:.
Consideriamo poi il processo stocastico
j
t
= c
1I
1
2
[1,1]
I
= c
R
I
0
Aso1s
1
2
R
I
0
[As[
2
oc
.
Vale:
Lemma 12
j
t
=
_
t
0
j
c
A
c
d1
c
.
In generale,
1 [j
T
] _ 1.
Se 1
_
_
T
0
j
2
c
[A
c
[
2
d:
_
< , allora j
t
una martingala, rispetto a 1, ed in particolare
1 [j
T
] = 1.
Proof. Abbiamo che j
t
= , (1
t
) dove , (r) = c
a
e
d1
t
= A
t
d1
t

1
2
[A
t
[
2
dt
quindi, per la formula di It,
dj
t
= ,
t
(1
t
) d1
t
+
1
2
,
tt
(1
t
) d [1. 1 ]
t
= c
YI
_
A
t
d1
t

1
2
[A
t
[
2
dt
_
+
1
2
c
YI
[A
t
[
2
dt
= c
YI
A
t
d1
t
.
Prendiamo poi t
a
= inf t 0 : j
t
_ : (innito altrimenti). Vale
j
t/tn
=
_
t
0
1
ctn
j
c
A
c
d1
c
132 CAPITOLO 6. APPLICAZIONI DELLA FORMULA DI IT
ed ora 1
ctn
j
c
[A
c
[ limitato (si ricordi che A limitato) e quindi di classe `
2
, quindi
j
t/tn
una martingala e vale 1
_
j
t/tn

= 1 [j
0
] = 1. Per Fatou, usando la continuit
delle traiettorie di j
t
,
1 [j
t
] = 1
_
lim
ao
j
t/tn
_
_ 1.
Le restanti aermazioni sono ovvie.
Esaminiamo delle condizioni sucienti anch j
t
sia una martingala.
Proposizione 48 Se A limitato (esiste C 0 tale che [A
t
[ _ C per ogni t q.c.),
allora j
t
una martingala. Vale inoltre
sup
t[0,T]
1 [j
j
t
] <
per ogni j _ 1.
Proof. Vogliamo usare la condizione suciente 1
_
_
T
0
j
2
c
[A
c
[
2
d:
_
< . Per lipotesi
su A, basta vericare che 1
_
_
T
0
j
2
c
d:
_
< . Abbiamo
j
2
t
= c
21I[1,1]
I
= c
21Ic[1,1]
I
c
o[1,1]
I
con c , = 1. Allora
1
_
j
2
t

_ 1
_
c
2j1Icj[1,1]
I

1j
1
_
c
oj
0
[1,1]
I
_
1j
0
Scriviamo
c
2j1Icj[1,1]
I
= c
2j1I
o
4
[2j1,2j1]
I
e scegliamo c e j in modo che sia
c
4j
=
1
2
. Applicando il lemma precedente al processo
2j1
t
(cio 2jA
t
) abbiamo 1
_
c
2j1Icj[1,1]
I

_ 1. Quindi
1
_
j
2
t

_ 1
_
c
oj
0
[1,1]
I
_
1j
0
.
Ma A limitato da C, quindi anche [1. 1]
t
da C
2
1, da cui sup
t[0,T]
1 [j
2
t
] < .
Con la stessa dimostrazione, solo simbolicamente pi complicata, si verica che
sup
t[0,T]
1 [j
j
t
] < per ogni j _ 1. La dimostrazione completa.
Con un po pi di sforzo (ragionamenti simili ma non pi basati sulla condizione
suciente 1
_
_
T
0
j
2
c
[A
c
[
2
d:
_
< ), si pu dimostrare il seguente criterio, detto di
Novikov.
Teorema 35 Se
1
_
c
A
R
T
0
[As[
2
oc
_
<
per qualche `
1
2
allora vale 1
_
_
T
0
j
2
c
[A
c
[
2
d:
_
< e quindi j
t
una martingala.
6.2. IL TEOREMA DI GIRSANOV 133
La martingala esponenziale j
t
= c
1I
1
2
[1,1]
I
(quando appunto una martingala)
permette di denire una nuova misura su (. T). Per la propriet di martingala,
1 [j
T
] = 1. La funzione j
T
: R non negativa e tale che
_

j
T
d1 = 1, cio una
densit di probabilit, per cui possiamo introdurre la nuova misura di probabilit Q su
(. T) denita da
dQ = j
T
d1
ovvero
1
Q
[A] =
_

AdQ =
_

Aj
T
d1 = 1
1
[Aj
T
]
per ogni v.a. A limitata. Abbiamo j
T
0, quindi 1 e Q sono equivalenti (sezione
precedente).
Useremo il seguente fatto.
Lemma 13 Se 1 una v.a. T
t
-misurabile e limitata, t [0. 1], allora
1
Q
[1 ] = 1
1
[1 j
t
]
ovvero dQ = j
t
d1 limitatamente agli eventi T
t
. Scriveremo
j
t
=
dQ
d1

TI
.
Proof. Per la propriet di martingala di j
t
e per denizione di Q,
1
Q
[1 ] = 1
1
[1 j
T
] = 1
1
[1 j
t
] .
Osservazione 27 Il risultato vale anche per v.a. 1 , T
t
-misurabili, tali che uno dei
due valori attesi 1
Q
[1 ] o 1
1
[1 j
t
] sia nito. Basta scomporre 1 in parte positiva e
negativa ed approssimare dal basso con troncamenti limitati.
Osservazione 28 Se avessimo preso dallinizio 1 = +, avendo cos una martingala
j
t
denita per tutti i tempi t _ 0, avremmo potuto introdurre inizialmente una famiglia
di misure dQ
T
= j
T
d1 indicizzata da 1 _ 0, osservando poi per che, in base al
lemma,
dQ
T
d1

TI
=
dQ
t
d1

TI
per ogni 1 _ t _ 0. Possiamo quindi dire che esiste una funzione Q :

t0
T
t
[0. 1],
o-additiva su ogni T
t
, tale che
oQ
o1

TI
= j
t
per ogni t _ 0. Anche per questo non
abbiamo sottolineato la dipendenza da 1 nella notazione Q, precedentemente.
134 CAPITOLO 6. APPLICAZIONI DELLA FORMULA DI IT
6.2.3 Teorema di Girsanov
Il risultato che stiamo per esporre vale pi in generale ma lo formuliamo e dimostriamo
in un caso particolare per evitare troppi dettagli tecnici.
Sia (. T. 1) uno spazio probabilizzato, (T
t
)
t0
una ltrazione, 1 un moto brown-
iano in R
o
. Sia (A
t
)
t[0,T]
un processo in R
o
di classe
2
. Supponiamo per semplicit
che sia limitato: esiste C 0 tale che [A
t
[ _ C per ogni t q.c.; quindi in realt di
classe `
2
. Consideriamo come sopra il processo stocastico
1
t
=
_
t
0
A
c
d1
c
che, nelle attuali ipotesi, una martingala e introduciamo la martingala esponenziale
(Proposizione 48)
j
t
= c
1I
1
2
[1,1]
I
.
Come detto sopra, questa denisce la misura equivalente
dQ = j
T
d1.
Lemma 14 Sia ` un processo stocastico adattato. Se j
t
`
t
una martingala rispetto
a 1, allora `
t
una martingala rispetto a Q.
Proof. Intanto bisogna vericare che ` sia integrabile rispetto a Q. Per ogni : N
vale, in virt del Lemma 13,
1
Q
[[`
t
[ . :] = 1
1
[j
t
([`
t
[ . :)]
e quindi per convergenza monotona
1
Q
[[`
t
[] = 1
1
[j
t
[`
t
[]
ma 1
1
[j
t
[`
t
[] = 1
1
[[j
tAt
[] nito perch j
tAt
integrabile rispetto a 1 ( una
1-martingala). Quindi 1
Q
[[`
t
[] nito.
Dobbiamo ora dimostrare che, presi t _ : _ 0,
1
Q
[`
t
2] = 1
Q
[`
c
2]
per ogni v.a. T
c
-misurabile e limitata 2. Usando il Lemma 13 (si veda anche losser-
vazione che lo segue) e lipotesi che j
t
`
t
sia una 1-martingala, vale
1
Q
[`
t
2] = 1
1
[j
t
`
t
2] = 1
1
[j
c
`
c
2] = 1
Q
[`
c
2] .
6.2. IL TEOREMA DI GIRSANOV 135
Lemma 15 Il processo stocastico
`
t
:= 1
t

_
t
0
A
c
d:.
una martingala continua rispetto a Q ed (T
t
)
t0
. Vale
_
`
i
. `
)

t
= o
i)
t
(si noti che questa la variazione mutua sia rispetto a 1 che Q).
Proof. La continuit di ` nota. Per dimostrare che ` una martingala rispetto a
Q basta vericare, per il Lemma 14, che j
t
`
t
una martingala rispetto a 1.
Sappiamo poi che dj
t
= j
t
A
t
d1
t
e che d`
t
= d1
t
A
t
d:. Quindi per la formula
di It
d
_
j
t
`
i
t
_
= `
i
t
j
t
A
t
d1
t
+ j
t
_
d1
i
t
A
i
t
dt
_
+ d
_
j. `
i

t
.
Ora, posto 1
)
t
=
_
t
0
j
c
A
)
c
d1
)
c
, cos che j
t
=

)
1
)
t
, vale
_
j. `
i

t
=

)
_
1
)
. `
i

t
=

)
o
i)
_
t
0
j
c
A
)
c
d: =
_
t
0
j
c
A
i
c
d:.
Quindi
d
_
j
t
`
i
t
_
= `
i
t
j
t
A
t
d1
t
+ j
t
_
d1
i
t
A
i
t
dt
_
+ j
t
A
i
t
dt
= `
i
t
j
t
A
t
d1
t
+ j
t
d1
i
t
ovvero
j
t
`
i
t
= j
0
`
i
0
+
_
t
0
`
i
c
j
c
A
c
d1
c
+
_
t
0
j
c
d1
i
c
.
Per avere che j
t
`
i
t
una martingala, basta sapere che `
i
t
j
t
A
t
e j
t
sono di classe `
2
rispetto a 1. La seconda aermazione discende subito dalla stima della Proposizione
48. Per la prima suciente, ricordando che A limitato, vericare che
1
__
T
0

`
i
t

2
j
2
t
dt
_
< .
Vale
1
__
T
0

`
i
t

2
j
2
t
dt
_
_ 1
__
T
0

`
i
t

4
dt
_
12
1
__
T
0
j
4
t
dt
_
12
.
Da un lato
1
__
T
0
j
4
t
dt
_
_ sup
t[0,T]
1
_
j
4
t

<
136 CAPITOLO 6. APPLICAZIONI DELLA FORMULA DI IT
per quanto vericato poco sopra. Dallaltro,
1
__
T
0

`
i
t

4
dt
_
_ 41
__
T
0

1
i
t

4
dt
_
+ 41
_
_
T
0

_
t
0
A
i
c
d:

4
dt
_
_ 4 sup
t[0,T]
1
_

1
i
t

4
_
+ 41
_
_
T
0
__
t
0

A
i
c

d:
_
4
dt
_
.
Il primo termine limitato per note propriet di integrabilit del moto browniano, il
secondo perch A limitato.
Laermazione sulla variazione quadratica nota (se vista rispetto a 1). Il fatto
rilevante che valga anche rispetto a Q, fatto generale essendo 1 e Q equivalenti. La
dimostrazione completa.
Mettendo insieme questi lemmi ed il criterio di Lvy abbiamo dimostrato il seguente:
Teorema 36 (Girsanov) Il processo stocastico

1
t
:= 1
t

_
t
0
A
c
d:.
un moto browniano rispetto a Q ed (T
t
)
t0
.
Capitolo 7
Equazioni dierenziali stocastiche
7.1 Richiami sulle equazioni dierenziali ordinarie
Il classico problema di Cauchy in R
o
, su un intervallo di tempo limitato [0. 1], ha la
forma
_
oaI
ot
= , (t. r
t
) t [0. 1]
r[
t=0
= r
0
. (7.1)
La sua forma integrale
r
t
= r
0
+
_
t
0
, (:. r
c
) d: t [0. 1] . (7.2)
Supponiamo , : [0. 1] R
o
R
o
almeno continua. Una funzione r

: [0. 1] R
o
si dice soluzione di (7.1) se di classe C
1
_
[0. 1] ; R
o
_
e soddisfa le condizioni scritte
in (7.1). Si dice soluzione di (7.2) se di classe C
_
[0. 1] ; R
o
_
e soddisfa lequazione
integrale (7.2). Si verica senza dicolt che una soluzione di (7.1) anche soluzione
di (7.2), e che una soluzione di (7.2) (grazie a (7.2) stessa) di classe C
1
_
[0. 1] ; R
o
_
ed
soluzione di (7.1). Quindi le due formulazioni sono equivalenti; ma la formulazione
integrale permette di lavorare nello spazio pi grande C
_
[0. 1] ; R
o
_
, o se si vuole,
permette di lavorare con meno regolarit (un fatto chiave in vista del caso stocastico).
Ricordiamo alcuni risultati ed alcune tecniche. Introduciamo, la seguente ipotesi:
, continua, esiste 1 0 tale che (7.3)
[, (t. r) , (t. )[ _ 1[r [ per ogni t [0. 1] e r. R
o
.
Proposizione 49 Supponiamo (7.3). Nella classe C
_
[0. 1] ; R
o
_
c unicit per (7.2).
Proof. Siano r
1
e r
2
due soluzioni e sia = r
1
r
2
. Abbiamo

t
=
_
t
0
_
,
_
:. r
1
c
_
,
_
:. r
2
c
__
d:
137
138 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE
da cui
[
t
[ _
_
t
0

,
_
:. r
1
c
_
,
_
:. r
2
c
_

d: _ 1
_
t
0

r
1
c
r
2
c

d: = 1
_
t
0
[
c
[ d:.
Ricordiamo il Lemma di Gronwall: se
t
. c
t
, t [0. 1], sono funzioni non negative che
soddisfano

t
_
0
+
_
t
0
c
c

c
d:. t [0. 1]
allora

t
_
0
c
R
I
0
osoc
. t [0. 1] .
Applicato al nostro caso produce [
t
[ _ 0, da cui r
1
t
r
2
t
, per ogni t [0. 1]. La
dimostrazione completa.
Teorema 37 Supponiamo (7.3). Nella classe C
_
[0. 1] ; R
o
_
c esistenza per (7.2).
Proof. Ricordiamo due dimostrazioni.
1. Dimostrazione col principio delle contrazioni. Per ogni t [0. 1], consideriamo
lo spazio A
t
= C
_
[0. t] ; R
o
_
e lapplicazione
t
: A
t
A
t
denita da

t
(

) (t) = r
0
+
_
t
0
, (:.
c
) d:.
Su A
t
consideriamo la metrica d
t
(
1
.
2
) = max
t[0,t]
[
1
t

2
t
[. Vale

t
_

1
_
(t)
t
_

2
_
(t) =
_
t
0
_
,
_
:.
1
c
_
,
_
:.
2
c
__
d:
da cui, come sopra,

t
_

1
_
(t)
t
_

2
_
(t)

_ 1
_
t
0

1
c

2
c

d:.
Possiamo ulteriormente maggiorare con
_ 1t max
t[0,t]

1
t

2
t

_ 1td
t
_

1
.
2
_
.
Abbiamo dimostrato quindi che
d
t
_

t
_

1
_
.
t
_

2
__
_ 1td
t
_

1
.
2
_
.
Se prendiamo t in modo che 1t < 1, lapplicazione
t
una contrazione e quindi ha
un unico punto sso in A
t
, ovvero c una ed una sola funzione r A
t
che risolve
(7.2), limitatamente ai tempi t [0. t].
7.1. RICHIAMI SULLE EQUAZIONI DIFFERENZIALI ORDINARIE 139
Si deve poi ripetere il procedimento su un intervallo della forma [t. t
2
] con dato
iniziale al tempo t dato dal valore r
t
della soluzione trovata su [0. t]. Si scopre che,
grazie allipotesi (7.3), si pu prendere t
2
= 2t e provare che esiste una sola funzione r
C
_
[t. 2t] ; R
o
_
che risolve (7.2), per tempi t [t. 2t], con dato iniziale r
t
. Incollandole,
si trova una soluzione r C
_
[0. 2t] ; R
o
_
che risolve (7.2), per tempi t [0. 2t], con
dato iniziale r
0
. Procedendo nello stesso modo su intervalli successivi, si ricopre [0. 1]
in un numero nito di passi. Questa dimostrazione, per inciso, fornisce anche lunicit.
2. Dimostrazione con le approssimazioni successive. Deniamo una successione di
funzioni r
a

C
_
[0. 1] ; R
o
_
per ricorrenza, ponendo r
0

= r
0
e, per : _ 0,
r
a+1
t
= r
0
+
_
t
0
, (:. r
a
c
) d: t [0. 1] .
Con gli stessi calcoli fatti al punto precedente, si verica che
d
t
_
r
a+1
. r
a
_
_ 1td
t
_
r
a
. r
a1
_
.
Quindi
d
t
_
r
a+1
. r
a
_
_ (1t)
a
d
t
_
r
1
. r
0
_
.
Da qui facile dedurre che (r
a
) di Cauchy in A
t
, se si prende, come sopra, t in modo
che sia 1t < 1. Lo spazio A
t
completo, quindi r
a
r A
t
e si verica facilmente
che r risolve (7.2) su [0. t]. Il procedimento si deve poi ripetere su intervallini successivi
come nella dimostrazione precedente. In realt, la dimostrazione fatta ora non altro
che la dimostrazione del principio delle contrazioni.
3. Dimostrazione in un solo passo. Si pu sviluppare una variante delle di-
mostrazioni precedenti, es. della 2, che agisce in un solo passo. Si consideri sullo
spazio A
T
la distanza o
A
(
1
.
2
) = max
t[0,t]
_
c
At
[
1
t

2
t
[
_
, per ogni ` _ 0. Con le
notazione del punto 2, abbiamo come sopra

r
a+1
t
r
a
t

_
_
t
0

, (:. r
a
c
) ,
_
:. r
a1
c
_

d: _ 1
_
t
0

r
a
c
r
a1
c

d:
ma ora maggioriamo stimiamo
c
At

r
a+1
t
r
a
t

_ 1
_
t
0
c
A(tc)
c
Ac

r
a
c
r
a1
c

d:
_ 1 max
c[0,t]
_
c
Ac

r
a
c
r
a1
c

_
_
t
0
c
A(tc)
d:
_ `
1
1o
A
_
r
a
. r
a1
_
in quanto
_
t
0
c
A(tc)
d: = `
1
_
1 c
At
_
. Quindi
o
A
_
r
a+1
. r
a
_
_
_
`
1
1
_
a
o
A
_
r
1
. r
0
_
.
Ora basta prendere ` = 21. Naturalmente, le norme o
21
e d
T
sono equivalenti.
140 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE
7.2 Equazioni dierenziali stocastiche con noise ad-
ditivo
Sia (. T. 1) uno spazio probabilizzato, (T
t
)
t0
una ltrazione, 1 un moto browniano
in R
a
. Chiameremo base stocastica la famiglia
_
. T. (T
t
)
t0
. 1. (1
t
)
t0
_
.
Sia o R
ao
una matrice. Vorremmo dare senso ad unequazione della forma
dA
t
dt
= / (t. A
t
) + o
d1
t
dt
dove / : [0. 1] R
o
R
o
.
Osservazione 29 Lidea da cui nasce questo tipo di equazione la seguente. Si im-
magina che il sistema sico, economico, nanziario, biologico ecc. che stiamo esam-
inando sia descritto da alcune leggi riassunte dallequazione
oAI
ot
= , (t. A
t
); ma che
questa descrizione non sia esaustiva, in quanto siano presenti delle perturbazioni che
non sappiamo descrivere con lo stesso gradi di precisione e che consideriamo causali.
La scelta particolare del termine o
o1I
ot
dettata da queste sue caratteristiche intuitive:
gaussianit, media nulla, indipendenza istante per istante, invarianza temporale. Si
suggerisce di accontentarsi di comprendere intuitivamente queste aermazioni, visto
che la loro formalizzazione sarebbe dicile.
In analogia con quanto visto sopra, scriviamo la forma integrale
A
t
= A
0
+
_
t
0
/ (:. A
c
) d: + o1
t
. t [0. 1] . (7.4)
Questa ha perfettamente senso (tutti i termini sono ben deniti). Supponiamo che /
sia almeno continua e che A
0
sia un vettore aleatorio assegnato, denito su (. T. 1)
a valori in R
o
, T
0
-misurabile; e che o R
ao
sia una matrice data.
Possiamo anche ssare . e considerare lequazione completamente determinis-
tica
r
t
= A
0
(.) +
_
t
0
/ (:. r
c
) d: + o1
t
(.) . t [0. 1] . (7.5)
Denizione 20 Fissata una base stocastica
_
. T. (T
t
)
t0
. 1. (1
t
)
t0
_
ed una v.a. T
0
-
misurabile A
0
, chiamiamo soluzione forte di (7.4) ogni processo stocastico A = (A
t
)
t[0,T]
denito su (. T. 1), continuo, adattato alla ltrazione (T
t
)
t0
, che soddisfa (7.4)
uniformemente in t [0. 1] con probabilit uno:
1
_
A
t
= A
0
+
_
t
0
/ (:. A
c
) d: + o1
t
. \t [0. 1]
_
= 1.
Diciamo che c esistenza forte quando questo vale a partire da qualsiasi base stocastica
e qualsiasi v.a. T
0
-misurabile A
0
.
7.2. EQUAZIONI DIFFERENZIALI STOCASTICHE CON NOISE ADDITIVO 141
Ora che abbiamo dato una denizione precisa di soluzione, permettiamoci di intro-
durre una notazione pi leggera, a patto di ricordare sempre che si tratta solo di una
notazione. Scriveremo lequazione (7.4) nella forma
dA
t
= / (t. A
t
) dt + od1
t
.
Veniamo ai concetti di unicit, rilevanti per questa equazione.
Denizione 21 Diciamo che vale lunicit forte (pathwise uniqueness, in lingua in-
glese), se, data una qualsiasi base stocastica
_
. T. (T
t
)
t0
. 1. (1
t
)
t0
_
ed una qualsiasi
v.a. T
0
-misurabile A
0
, prese due soluzioni forti A
1
e A
2
, esse sono indistinguibili.
Denizione 22 Diciamo che c unicit per quasi ogni . se, data una qualsiasi base
stocastica
_
. T. (T
t
)
t0
. 1. (1
t
)
t0
_
ed una qualsiasi v.a. T
0
-misurabile A
0
, esiste un
insieme di misura uno
0
T tale che, per ogni .
0
, lequazione deterministica
(7.5) ha unicit in C
_
[0. 1] ; R
o
_
.
Si pu vericare che se c unicit per quasi ogni . allora c unicit forte.
Teorema 38 Se / soddisfa lipotesi (7.3) c esistenza forte ed unicit forte, anzi
unicit per quasi ogni ..
Proof. Introduciamo un problema ausiliario:
1
t
= A
0
+
_
t
0
/ (:. 1
c
+ o1
c
) d:. t [0. 1] . (7.6)
Per questo problema deniamo il concetto di soluzione forte nello stesso modo. Se A
soluzione forte di (7.4) allora 1
t
:= A
t
o1
t
soluzione forte di (7.6). Viceversa, se 1
soluzione forte di (7.6) allora A
t
:= 1
t
+o1
t
soluzione forte di (7.4). Se dimostriamo
esistenza e unicit forte per il problema (7.6) allora abbiamo esistenza e unicit forte
per il problema (7.4). Infatti, dallesistenza per (7.6) discende lesistenza per (7.4); se
poi abbiamo due soluzioni di (7.4), queste generano due soluzioni di (7.6), che devono
coincidere per unicit, dando lunicit anche per (7.4). Con lo stesso ragionamento,
lunicit per quasi ogni . per (7.6) implica quella per (7.4).
Sia
0
T un insieme di misura uno tale che, per ogni .
0
, t 1
t
(.) sia
continua. Consideriamo, per .
0
ssato, lequazione deterministica

t
= A
0
(.) +
_
t
0
/ (:.
c
+ o1
c
(.)) d:. t [0. 1] .
Consideriamo la funzione q
.
(t. .) = / (t. . + o1
t
(.)). E una funzione continua e
verica
[q
.
(t. .) q
.
(t. n)[ = [/ (t. . + o1
t
(.)) / (t. n + o1
t
(.))[
_ 1[. + o1
t
(.) (n + o1
t
(.))[ = 1[. n[
142 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE
cio vale per q
.
(t. .) lipotesi (7.3). Pertanto, per i risultati della sezione precedente,
esiste una ed una sola C
_
[0. 1] ; R
o
_
che risolve questa equazione. Indichiamo
questa soluzione con 1
t
(.) per evidenziare la dipendenza dal punto .
0
ssato a
priori.
In questo modo abbiamo denito una funzione (t. .) 1
t
(.), da [0. 1] in R
o
.
Essa un processo adattato: per ogni t [0. 1], la funzione . 1
t
(.) T
t
-misurabile.
La verica dettagliata di questa propriet lunga da scrivere ma concettualmente
elementare. Infatti, si ispezioni la dimostrazione di esistenza del paragrafo precedente
(specialmente la seconda). Le approssimanti denite per ricorrenza sono processi adat-
tati, per ragioni elementari ed esplicite. Da questo si deduce che il loro limite un
processo adattato.
Il processo 1
t
(.) anche continuo e risolve (7.6) uniformemente in t, con proba-
bilit uno. Quindi soluzione forte. Inne, vale lunicit per quasi ogni ., per (7.6)
(lo abbiamo appena descritto), per cui c anche unicit forte. La dimostrazione
completa.
Mostriamo anche una propriet quantitativa della soluzione.
Proposizione 50 Sempre sotto lpotesi (7.3), se 1 [A
2
0
] < , allora A di classe
`
2
.
Proof. Che sia progressivamente misurabile, gi noto (continuo e adattato). Dobbi-
amo vericare che di quadrato integrabile in entrambe le variabili. Da (7.6) ricaviamo
(si applica la disuguaglianza di Hlder)
[1
t
[
2
_ 2 [A
0
[
2
+ 2

_
t
0
/ (:. 1
c
+ o1
c
) d:

2
_ 2 [A
0
[
2
+ 2
__
t
0
[/ (:. 1
c
+ o1
c
)[ d:
_
2
_ 2 [A
0
[
2
+ 2t
_
t
0
[/ (:. 1
c
+ o1
c
)[
2
d:.
Ora osserviamo che lipotesi (7.3) implica che esiste C
0
0 tale che
[/ (t. r)[ _ C
0
(1 +[r[) .
Infatti
[/ (t. r)[ _ [/ (t. r) / (t. 0)[ +[/ (t. 0)[ _ 1[r[ + max
t[0,T]
[/ (t. 0)[
per cui basta prendere C
0
= max
_
1. max
t[0,T]
[/ (t. 0)[
_
. Ma allora [/ (t. r)[
2
_ 2C
_
1 +[r[
2
_
cio esiste C 0 tale che
[/ (t. r)[
2
_ C
_
1 +[r[
2
_
(7.7)
7.2. EQUAZIONI DIFFERENZIALI STOCASTICHE CON NOISE ADDITIVO 143
da cui (indicheremo con C
i
varie costanti che semplicano le scritture volta per volta)
[1
t
[
2
_ 2 [A
0
[
2
+ 4t
_
t
0
C
2
_
1 +[1
c
+ o1
c
[
2
_
d:
_ 2 [A
0
[
2
+ C
1
+ C
2
_
t
0
[1
c
[
2
d: + C
3
_
t
0
[o1
c
[
2
d:
con opportune costanti che dipendono da 1. Da qui si deduce
1
_
[1
t
[
2

_ 21
_
[A
0
[
2

+ C
1
+ C
2
_
t
0
1
_
[1
c
[
2

d: + C
3
_
t
0
1
_
[o1
c
[
2

d:
che implicherebbe tramite il lemma di Gronwall una stima su 1
_
[1
t
[
2

se gi sapessimo
che 1
_
[1
t
[
2

< . Ma non lo sappiamo e quindi la disuguaglianza ora scritta potrebbe


essere _ . Introduciamo per il tempo di arresto
t
a
= inf
_
t _ 0 : [1
t
[
2
_ :
_
(innito se linsieme vuoto) ed osserviamo che
[1
t/tn
[
2
_ 2 [A
0
[
2
+ C
1
+ C
2
_
t/tn
0
[1
c
[
2
d: + C
3
_
t/tn
0
[o1
c
[
2
d:
_ 2 [A
0
[
2
+ C
1
+ C
2
_
t/tn
0
[1
c/tn
[
2
d: + C
3
_
T
0
[o1
c
[
2
d:
_ 2 [A
0
[
2
+ C
1
+ C
2
_
t
0
[1
c/tn
[
2
d: + C
3
_
T
0
[o1
c
[
2
d:.
Quindi
1
_
[1
t/tn
[
2

_ 21
_
[A
0
[
2

+ C
1
+ C
2
_
t
0
1
_
[1
c/tn
[
2

d: + C
3
_
T
0
1
_
[o1
c
[
2

d:
ed ora 1
_
[1
t/tn
[
2

_ :, quindi possiamo applicare il lemma di Gronwall e trovare


1
_
[1
t/tn
[
2

_
_
21
_
[A
0
[
2

+ C
1
+ C
3
_
T
0
1
_
[o1
c
[
2

d:
_
c
tC
2
_ C
4
.
Vale lim
ao
t
a
= + ed 1 un processo continuo, quindi lim
ao
1
t/tn
= 1
t
q.c. e
quindi, per il lemma di Fatou,
1
_
[1
t
[
2

= 1
_
lim
ao
[1
t/tn
[
2
_
_ liminf
ao
1
_
[1
t/tn
[
2

_ C
4
.
Questo vale per ogni t [0. 1]. Ne discende
1
_
[A
t
[
2

_ C
5
per ogni t [0. 1] ed in particolare che A di classe `
2
.
144 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE
7.2.1 Esempio di motivazione per il calcolo stocastico
Potrebbe sembrare dal paragrafo precedente che, almeno per equazioni stocastiche
molto semplici, il calcolo stocastico (integrale di It, formula di It) non servano. Per
il teorema di esistenza e unicit cos ma basta addentrarsi in altre propriet per
vedere che senza calcolo stocastico non si va avanti. Vediamo un esempio.
Si consideri lequazione dierenziale in R
2
dr
t
dt
= r
t
dove
=
_
0 1
1 0
_
.
Posto r
t
=
_

t
j
t
_
, vale
d
t
dt
= j
t
.
dj
t
dt
=
t
e quindi
d
2

t
dt
2
=
t
che lequazione di un oscillatore armonico di massa unitaria. Le soluzioni r
t
ruotano
nel piano R
2
; in particolare conservano lenergia, se con questo nome intendiamo
lespressione
c
t
:=
1
2
[r
t
[
2
=
1
2
_

2
t
+ j
2
t
_
(conservano anche [r
t
[, la distanza dallorigine). Infatti
d
dt
[r
t
[
2
= 2
_
r
t
.
dr
t
dt
_
= 2 r
t
. r
t
= 0
ovvero [r
t
[
2
costante. Abbiamo usato le notazioni [[ e . per norma e prodotto
scalare euclideo e la propriet r. r = 0 valida per matrici antisimmetriche.
Veniamo al caso stocastico. Consideriamo lequazione
dA
t
= A
t
dt + od1
t
dove 1 un moto browniano unidimensionale e o il vettore (o
0
R)
o =
_
0
o
0
_
.
Per componenti, si tratta del sistema
d
t
dt
= j
t
. dj
t
=
t
dt + o
0
d1
t
7.2. EQUAZIONI DIFFERENZIALI STOCASTICHE CON NOISE ADDITIVO 145
o, pi informalmente,
d
2

t
dt
2
=
t
+ o
0
d1
t
dt
.
Chiediamoci: cosa accade ora allenergia? Il termine aggiuntivo o
0
o1I
ot
introduce, sot-
trae energia oppure neutrale? Dobbiamo capire come cambia c
t
=
1
2
[A
t
[
2
. Ma per
far questo serve la formula di It, ed in essa compaiono automaticamente degli inte-
grali di It, anche se non cerano nellequazione originaria. Vediamo il calcolo. Vale
(, (r) = [r[
2
, \, (r) = r, 1
2
, (r) = 1d)
d
[A
t
[
2
2
= A
t
. dA
t
+
o
2
0
2
dt
= A
t
. A
t
dt +A
t
. od1
t
+
o
2
0
2
dt
= A
t
. od1
t
+
o
2
0
2
dt
perch A
t
. A
t
= 0. Non chiaro cosa accada allenergia delle singole traiettorie, da
questa identit, ma scrivendola in forma integrale
c
t
= c
0
+
_
t
0
A
c
. od1
c
+
o
2
0
2
t
ed usando il fatto che il processo A di classe `
2
(Proposizione 50) possiamo usare il
fatto che 1
_
_
t
0
A
c
. od1
c

_
= 0 e concludere
1 [c
t
] = 1 [c
0
] +
o
2
0
2
t
cio lenergia media aumenta linearmente nel tempo. Il disturbo casuale introduce
sistematicamente energia nel sistema, mediamente parlando.
Osservazione 30 Si noti che un disturbo deterministico
t
pu anche introdurre en-
ergia ma lo fa in modo meno chiaro e controllato. Consideriamo lequazione determin-
istica
dr
t
dt
= r
t
+
t
.
Con calcoli identici ai precedenti si dimostra che
c
t
= c
0
+
_
t
0
A
c
.
c
d:
Non chiaro a priori se il termine
_
t
0
A
c
.
c
d: sia positivo o negativo (dipende dal-
la soluzione, non solo direttamente dal disturbo assegnato) e come cresca nel tempo.
Vediamo quindi che il modo di immettere energia in un sistema proprio del moto brow-
niano assai speciale e conveniente per avere sotto controllo con precisione il bilancio
dellenergia del sistema.
146 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE
7.3 SDE con coeciente di diusione non costante
Lacronimo SDE, che useremo ogni tanto per abbreviare, sta per stochastic dierential
equations. In questa sezione studiamo equazioni della forma
A
t
= A
0
+
_
t
0
/ (:. A
c
) d: +
_
t
0
o (:. A
c
) d1
c
. t [0. 1] (7.8)
che scriveremo anche nella forma
dA
t
= / (t. A
t
) dt + o (t. A
t
) d1
t
. A[
t=0
= A
0
.
Qui 1 un moto browniano in R
a
denito su (. T. 1) rispetto a (T
t
)
t0
, A
0
una
v.a. in R
o
misurabile rispetto a T
0
, / : [0. 1] R
o
R
o
e o : [0. 1] R
o
R
ao
sono funzioni continue e lipschitziane in r uniformemente in t (si veda sotto). Le
soluzioni che si cercano sono processi a valori in R
o
, continui e adattati, che risolvano
lequazione integrale uniformemente in t, quasi certamente. Le denizioni di esistenza
forte ed unicit pathwise sono le stesse del caso con o costante.
Denizione 23 Fissata una base stocastica
_
. T. (T
t
)
t0
. 1. (1
t
)
t0
_
ed una v.a. T
0
-
misurabile A
0
, chiamiamo soluzione forte di (7.8) ogni processo stocastico A = (A
t
)
t[0,T]
denito su (. T. 1), continuo, adattato alla ltrazione (T
t
)
t0
, che soddisfa (7.8)
uniformemente in t [0. 1] con probabilit uno:
1
_
A
t
= A
0
+
_
t
0
/ (:. A
c
) d: +
_
t
0
o (:. A
c
) d1
c
. \t [0. 1]
_
= 1.
Diciamo che c esistenza forte quando questo vale a partire da qualsiasi base stocastica
e qualsiasi v.a. T
0
-misurabile A
0
.
Denizione 24 Diciamo che vale lunicit forte se, data una qualsiasi base stocastica
_
. T. (T
t
)
t0
. 1. (1
t
)
t0
_
ed una qualsiasi v.a. T
0
-misurabile A
0
, prese due soluzioni
forti A
1
e A
2
, esse sono indistinguibili.
Osservazione 31 Se A un processo continuo, allora : / (:. A
c
) e : o (:. A
c
)
sono processi continui (stiamo sempre supponendo che / e o siano funzioni contin-
ue) e quindi di classe
1
e
2
rispettivamente; pertanto gli integrali che compaiono
nellequazione hanno senso.
Osservazione 32 Non possiamo dare la denizione di unicit per quasi ogni ., invece,
perch lintegrale stocastico
_
t
0
o (:. A
c
) 1
c
non ha signicato puntuale in ..
7.3. SDE CON COEFFICIENTE DI DIFFUSIONE NON COSTANTE 147
Su / e o imponiamo:
/ continua, esiste 1 0 tale che
[/ (t. r) / (t. )[ _ 1[r [ per ogni t [0. 1] e r. R
o
o continua, esiste 1 0 tale che
|o (t. r) o (t. )|
1S
_ 1[r [ per ogni t [0. 1] e r. R
o
dove ricordiamo che ||
2
1S
=

i)

2
i)
. Osserviamo che esiste C 0 tale che (si veda
(7.7))
[/ (t. r)[
2
_ C
_
1 +[r[
2
_
ed analogamente (eventualmente rinominando C)
|o (t. r)|
2
1S
_ C
_
1 +[r[
2
_
in quanto
|o (t. r)|
2
1S
_ 2 |o (t. r) o (t. 0)|
2
1S
+ 2 |o (t. 0)|
2
1S
_ 21
2
[r[
2
+ 2 max
t[0,T]
|o (t. 0)|
2
1S
.
Teorema 39 Sotto queste ipotesi, se 1
_
[A
0
[
2

< , allora c esistenza forte per


lequazione (7.8), di una soluzione che verica anche
1
_
sup
t[0,T]
[A
t
[
2
_
< .
Nella classe dei processi che vericano anche questa condizione quantitativa (basta
1
_
_
T
0
[A
c
[
2
d:
_
< ) c anche unicit forte.
Osservazione 33 Con opportuni argomenti (tempi di arresto ecc.) si pu omettere la
condizione 1
_
[A
0
[
2

< , rinunciando cos alla propriet 1


_
sup
t[0,T]
[A
t
[
2

< , ed
avere tuttavia ancora esistenza ed unicit forte. Omettiamo i dettagli.
Proof. Passo 1. Vediamo lunicit pathwise. Data una base stocastica
_
. T. (T
t
)
t0
. 1. (1
t
)
t0
_
,
una v.a. T
0
-misurabile A
0
con la propriet 1
_
[A
0
[
2

< , e due soluzioni A


1
e
A
2
tali che 1
_
sup
t[0,T]
[A
i
t
[
2
_
< , i = 1. 2, dobbiamo dimostrare che esse sono
indistinguibili. Vale
A
1
t
A
2
t
=
_
t
0
_
/
_
:. A
1
c
_
/
_
:. A
2
c
__
d: +
_
t
0
_
o
_
:. A
1
c
_
o
_
:. A
2
c
__
d1
c
148 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE
da cui

A
1
t
A
2
t

2
_ 2

_
t
0
/
_
:. A
1
c
_
/
_
:. A
2
c
_
d:

2
+ 2

_
t
0
_
o
_
:. A
1
c
_
o
_
:. A
2
c
__
d1
c

2
.
Da un lato, vale

_
t
0
/
_
:. A
1
c
_
/
_
:. A
2
c
_
d:

2
_
__
t
0

/
_
:. A
1
c
_
/
_
:. A
2
c
_

d:
_
2
_ t
_
t
0

/
_
:. A
1
c
_
/
_
:. A
2
c
_

2
d:
usando la disuguaglianza di Hlder. Dallaltro, osservando che : (o (:. A
1
c
) o (:. A
2
c
))
un processo di classe `
2
(spiegato poco oltre), per la formula di isometria vettoriale,
Proposizione 40, abbiamo
1
_

_
t
0
_
o
_
:. A
1
c
_
o
_
:. A
2
c
__
d1
c

2
_
= 1
__
t
0
_
_
o
_
:. A
1
c
_
o
_
:. A
2
c
__
_
2
1S
d:
_
.
Pertanto,

A
1
t
A
2
t

2
_ 21
_
t
0

/
_
:. A
1
c
_
/
_
:. A
2
c
_

2
d: + 2

_
t
0
_
o
_
:. A
1
c
_
o
_
:. A
2
c
__
d1
c

2
1
_

A
1
t
A
2
t

2
_
_ 21
_
t
0
1
_

/
_
:. A
1
c
_
/
_
:. A
2
c
_

2
_
d: + 21
__
t
0
_
_
o
_
:. A
1
c
_
o
_
:. A
2
c
__
_
2
1S
d:
_
_ 211
2
_
t
0
1
_

A
1
c
A
2
c

2
_
d: + 21
2
_
t
0
1
_

A
1
c
A
2
c

2
_
d:
=
_
211
2
+ 21
2
_
_
t
0
1
_

A
1
c
A
2
c

2
_
d:
e quindi, per il lemma di Gronwall applicato alla funzione t 1
_
[A
1
t
A
2
t
[
2
_
, abbiamo
1
_

A
1
t
A
2
t

2
_
= 0
per ogni t [0. 1]. Da questo discende che A
1
t
= A
2
t
q.c., per ogni t [0. 1],
ovvero che i due processi sono modicazione uno dellaltro; ma essendo continui, sono
indistinguibili.
Resta da vericare che : o (:. A
i
c
), i = 1. 2, un processo di classe `
2
. Questo
deriva dalle disuguaglianze (ricordando che |o (t. r)|
2
1S
_ C
_
1 +[r[
2
_
)
1
__
T
0
_
_
o
_
:. A
i
c
__
_
2
1S
d:
_
_ 1
__
T
0
_
C +

A
i
c

2
_
d:
_
= C1 + 1
__
T
0

A
i
c

2
d:
_
<
7.3. SDE CON COEFFICIENTE DI DIFFUSIONE NON COSTANTE 149
per ipotesi.
Passo 2. Per dimostrare lesistenza, usiamo il metodo delle approssimazioni suc-
cessive (si potrebbe fare benissimo col principio delle contrazioni). Poniamo A
0
t
= A
0
,
t [0. 1] e
A
a+1
t
= A
0
+
_
t
0
/ (:. A
a
c
) d: +
_
t
0
o (:. A
a
c
) d1
c
. t [0. 1]
per ogni : _ 0.
Vediamo innanzi tutto che le iterazioni siano ben denite e che processi deniscano.
Supponiamo di sapere che A
a
un processo continuo che soddisfa 1
_
sup
t[0,T]
[A
a
t
[
2

<
. Allora / (:. A
a
c
) e o (:. A
a
c
) sono processi continui e adattati, per cui, per lo meno,
_
t
0
/ (:. A
a
c
) d: e
_
t
0
o (:. A
a
c
) 1
c
sono processi ben deniti, continui e adattati. Ma, pi
precisamente,
[/ (:. A
a
c
)[
2
_ C
_
1 +[A
a
c
[
2
_
quindi

_
t
0
/ (:. A
a
c
) d:

2
_ t
_
t
0
[/ (:. A
a
c
)[
2
d: _ 1C
_
t
0
_
1 +[A
a
c
[
2
_
d:
da cui discende che
1
_
sup
t[0,T]

_
t
0
/ (:. A
a
c
) d:

2
_
< .
Inoltre vale
|o (:. A
a
c
)|
2
1S
_ C
_
1 +[A
a
c
[
2
_
per cui o (:. A
a
c
) un processo (matriciale) di classe `
2
,
_
t
0
o (:. A
a
c
) 1
c
una mar-
tingala (vettoriale) di quadrato integrabile, e vale (disuguaglianza di Doob vettoriale,
Proposizione 41)
1
_
sup
t[0,T]

_
t
0
o (:. A
a
c
) 1
c

2
_
_ 41
__
T
0
|o (:. A
a
c
)|
2
1S
d:
_
.
Abbiamo vericato che la propriet 1
_
sup
t[0,T]
[A
a
t
[
2

< si trasferisce da : a : +1
e siccome vale per : = 0, vale per ogni :.
Passo 3. Discutiamo ora la convergenza della successione A
a
. Lo facciamo in due
modi, in analogia col caso deterministico. Il primo basato su una stima del tipo
1
_
sup
t[0,t]

A
a+1
t
A
a
t

2
_
_ c
a
t
1
_
sup
t[0,t]

A
1
t
A
0
t

2
_
(7.9)
dove c
t
< 1 se t abbastanza piccolo. Da qui si deduce lesistenza di una soluzione su
[0. t] e poi si deve iterare il procedimento su intervallini successivi di eguale ampiezza.
Vediamo alcuni dettagli. Il secondo modo verr illustrato al passo successivo.
150 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE
Vale, come sopra, per t [0. t] con t [0. 1] ssato,

A
a+1
t
A
a
t

2
_ 2t
_
t
0

/ (:. A
a
c
) /
_
:. A
a1
c
_

2
d:+2

_
t
0
_
o (:. A
a
c
) o
_
:. A
a1
c
__
d1
c

2
ed inoltre
2t
_
t
0

/ (:. A
a
c
) /
_
:. A
a1
c
_

2
d: _ 2t1
2
_
t
0

A
a
c
A
a1
c

2
d:
_ 2t
2
1
2
sup
c[0,t]
_

A
a
c
A
a1
c

2
_
.
Quindi
1
_
sup
t[0,t]

A
a+1
t
A
a
t

2
_
_ 2t
2
1
2
1
_
sup
c[0,t]
_

A
a
c
A
a1
c

2
_
_
+21
_
sup
t[0,t]

_
t
0
_
o (:. A
a
c
) o
_
:. A
a1
c
__
d1
c

2
_
.
Il secondo termine a destra si maggiora, tramite la disuguaglianza di Doob vettoriale,
Proposizione 41, con
21
_
sup
t[0,t]

_
t
0
_
o (:. A
a
c
) o
_
:. A
a1
c
__
d1
c

2
_
_ 81
__
t
0
_
_
o (:. A
a
c
) o
_
:. A
a1
c
__
_
2
1S
d:
_
_ 81
2
1
__
t
0

A
a
c
A
a1
c

2
d:
_
_ 81
2
t1
_
sup
c[0,t]
_

A
a
c
A
a1
c

2
_
_
.
In denitiva,
1
_
sup
t[0,t]

A
a+1
t
A
a
t

2
_
_
_
2t
2
1
2
+ 81
2
t
_
1
_
sup
c[0,t]
_

A
a
c
A
a1
c

2
_
_
.
Se prendiamo t 0 cos piccolo che sia c
t
:= 2t
2
1
2
+ 81
2
t < 1, abbiamo (7.9).
Da (7.9) si pu dedurre che esiste un processo continuo adattato (A
t
)
t[0,t]
, con
1
_
sup
t[0,t]
[A
t
[
2

< , tale che


lim
ao
1
_
sup
t[0,t]
[A
a
t
A
t
[
2
_
= 0.
7.3. SDE CON COEFFICIENTE DI DIFFUSIONE NON COSTANTE 151
O lo si deduce usando lo spazio di Banach 1
2
_
; C
_
[0. t] ; R
o
__
, in cui A
a
una
successione di Cauchy grazie a (7.9), oppure si sviluppa una serie di ragionamenti pi
elementari ma lunghi (ad esempio si ragiona prima a t ssato, usando la completezza
dello spazio 1
2
_
; R
o
_
, e poi si riuniscono i tempi a posteriori).
Dalla convergenza delle A
a
t
a A
t
si deduce facilmente che A soluzione, applicando
calcoli simili a quelli appena visti, nella versione pi facile del passo 1: per ogni t [0. t]
1
_

_
t
0
/ (:. A
a
c
) d:
_
t
0
/ (:. A
c
) d:

2
_
_ t1
__
t
0
[/ (:. A
a
c
) / (:. A
c
)[
2
d:
_
_ t1
2
1
__
t
0
[A
a
c
A
c
[
2
d:
_
0
1
_

_
t
0
o (:. A
a
c
) d1
c

_
t
0
o (:. A
c
) d1
c

2
_
= 1
__
t
0
|o (:. A
a
c
) o (:. A
c
)|
2
1S
d:
_
_ 1
2
1
__
t
0
[A
a
c
A
c
[
2
d:
_
0.
Bisogna inne ripartire dal tempo t, con la condizione iniziale A
t
, ovvero il valore
della soluzione appena trovata, al tempo t. Le stime non cambiano per cui si pu
ripetere il ragionamento sullintervallo [t. 2t]. In un numero nito di passi si ricopre
[0. 1].
Passo 4. Se si vuole lavorare in un passo solo si pu usare il trucco, illustrato nel
caso deterministico, della penalizzazione esponenziale. Purtroppo esso impedisce di
usare le disuguaglianze delle martingale, per cui le stime che inizialmente si dimostrano
sono pi deboli di (7.9):
sup
t[0,T]
1
_
c
2At

A
a+1
t
A
a
t

2
_
_ c
a
A
sup
t[0,T]
1
_
c
2At

A
1
t
A
0
t

2
_
(7.10)
dove c
A
< 1 se ` 0 abbastanza grande. Esse permettono comunque di trovare un
processo (A
t
)
t[0,T]
, con sup
t[0,T]
1
_
[A
t
[
2

< , tale che


lim
ao
sup
t[0,T]
1
_
[A
a
t
A
t
[
2

= 0.
Questo suciente per passare al limite (con gli stessi conti del passo precedente) per
cui A
t
soddisfa lequazione integrale (7.8). Per la soddisfa nel seguente senso: per ogni
t [0. 1], lidentit in (7.8) vale quasi certamente (non quindi come identit uniforme
in t). Da essa si deduce, a posteriori, che A ha una modicazione continua

A, perch il
termine di destra dellequazione un processo continuo. Negli integrali si pu a questo
punto sostituire A con

A e quindi

A soluzione continua e tradizionale dellequazione
(7.8).
152 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE
Dimostriamo (7.10). Ripartiamo da

A
a+1
t
A
a
t

2
_ 21
_
t
0

/ (:. A
a
c
) /
_
:. A
a1
c
_

2
d:+2

_
t
0
_
o (:. A
a
c
) o
_
:. A
a1
c
__
d1
c

2
moltiplichiamo per c
2At
:
c
2At

A
a+1
t
A
a
t

2
_ 21
_
t
0
c
2A(tc)
c
2Ac

/ (:. A
a
c
) /
_
:. A
a1
c
_

2
d:
+2

_
t
0
c
A(tc)
c
Ac
_
o (:. A
a
c
) o
_
:. A
a1
c
__
d1
c

2
e prendiamo il valore atteso (senza :nj):
1
_
c
2At

A
a+1
t
A
a
t

2
_
_ 21
_
t
0
c
2A(tc)
1
_
c
2Ac

/ (:. A
a
c
) /
_
:. A
a1
c
_

2
_
d:
+21
__
t
0
c
2A(tc)
c
2Ac
_
_
o (:. A
a
c
) o
_
:. A
a1
c
__
_
2
1S
d:
_
_
_
211
2
+ 21
2
_
_
t
0
c
2A(tc)
1
_
c
2Ac

A
a
c
A
a1
c

2
_
d:
_
_
211
2
+ 21
2
_
sup
c[0,T]
1
_
c
2Ac

A
a
c
A
a1
c

2
_
_
t
0
c
2A(tc)
d:
_
11
2
+ 1
2
`
sup
c[0,T]
1
_
c
2Ac

A
a
c
A
a1
c

2
_
.
Quindi
sup
t[0,T]
1
_
c
2At

A
a+1
t
A
a
t

2
_
_ c
A
sup
c[0,T]
1
_
c
2Ac

A
a
c
A
a1
c

2
_
con c
A
=
T1
2
+1
2
A
. Questo implica la (7.10) e la dimostrazione completa.
Facendo un uso pi accurato delle disuguaglianze per le martingale si pu studiare
il caso in cui 1 [[A
0
[
j
] < per un j _ 1 qualsiasi; inoltre, riconducendosi al caso
precedente tramite tempi darresto, si pu studiare il caso in cui non si abbiano ipotesi
di integrabilit su A
0
. Preferiamo tralasciare tutti questi dettagli e rinunciare ad un
po di generalit. Il risultato comunque il seguente.
Teorema 40 Se A
0
misurabile rispetto a T
0
, / e o soddisfano le ipotesi precedenti,
allora c esistenza forte e unicit pathwise per lequazione (7.8). Se, per un certo
j _ 1, vale 1 [[A
0
[
j
] < , allora
1
_
sup
t[0,T]
[A
t
[
j
_
< .
7.4. PRESENTAZIONE INFORMALE DEL LEGAME CON LE PDE 153
7.4 Presentazione informale del legame con le PDE
Lequazione dierenziale stocastica (SDE)
dA
t
= / (t. A
t
) dt + o (t. A
t
) d1
t
si lega a varie equazioni dierenziali alle derivate parziali. Per semplicit di esposizione,
limitiamoci al caso o (t. A
t
) = 1d, quindi allequazione con noise additivo
dA
t
= / (t. A
t
) dt + d1
t
(7.11)
dove supponiamo che 1 sia un moto browniano in R
o
, / : [0. 1] R
o
R
o
sia sucien-
temente regolare (se si vuole ssare unipotesi unica che vada bene per tutti i teoremi,
si prenda ad esempio per semplicit C
o
con derivate limitate; ma caso per caso basta
molto meno) e la soluzione sia un processo continuo adattato in R
o
.
Oltre ad alcune altre varianti, le tre equazioni di base a cui leghiamo la SDE sono:
1. lequazione parabolica, scritta in forma retrograda nel tempo, detta equazione di
Kolmogorov:
Jn
Jt
+
1
2
n + / \n = 0 su [0. 1] R
o
n[
t=T
= n
T
dove la soluzione n = n(t. r) una funzione n : [0. 1] R
o
R,
n =
o

i=1
J
2
n
Jr
2
i
. / \n =
o

i=1
/
i
Jn
Jr
i
e si impone la condizione al tempo nale 1, n(1. r) = n
T
(r);
2. lequazione parabolica (in forma di equazione di continuit con viscosit), detta
equazione di Fokker-Planck:
Jj
Jt
=
1
2
j + div (/j) su [0. 1] R
o
j[
t=0
= j
0
dove la soluzione j = jn(t. r) una funzione n : [0. 1] R
o
R
+
, in genere una
densit di probabilit (ad ogni istante t ssato), e
div (/j) =
o

i=1
J
Jr
i
(/
i
j)
e si impone la condizione al tempo iniziale, j (0. r) = j
0
(r), anchessa densit di
probabilit;
154 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE
3. il problema di Dirichlet
1
2
n + / \n = 0 su 1
n[
01
= q
dove 1 R
o
un insieme limitato regolare, e la funzione q assegnata al bordo
pure sucientemente regolare.
I legami sono i seguenti. Fissato un qualsiasi t
0
[0. 1], risolviamo lequazione
(7.11) sullintervallo [t
0
. 1] con dato iniziale r R
o
al tempo t
0
:
dA
t
= / (t. A
t
) dt + d1
t
per t [t
0
. 1]
A
t
0
= r
ovvero in forma integrale
A
t
= r +
_
t
t
0
/ (:. A
c
) d: + 1
t
per t [t
0
. 1] .
Indichiamo con A (t; t
0
. r) la soluzione forte, unica. Allora vale:
1. per lequazione di Kolmogorov:
n(t. r) = 1 [n
T
(A (1; t. r))] (7.12)
per ogni (t. r) [0. 1] R
o
2. per lequazione di Fokker-Planck: se si prende la soluzione A
t
dellequazione
(7.11) con dato iniziale aleatorio A
0
avente densit di probabilit j
0
(r), allora
ad ogni istante t [0. 1] la v.a. A
t
ha densit di probabilit, data da j (t. r),
soluzione dellequazione di Fokker-Planck
3. per il problema di Dirichlet: detto t
1
il tempo di uscita da 1 (primo istante di
ingresso in 1
c
), vale
n(r) = 1 [q (A
t
T
)] .
Osservazione 34 Lequazione di Fokker-Planck ha notevole utilit pratica nelle appli-
cazioni perch ore un modo di calcolare (magari anche solo numericamente) la densit
di probabilit della soluzione A
t
, da cui si possono calcolare valori attesi e probabilit di
interesse applicativo. Inoltre, di un certo interesse sico il legame tra le due equazioni
(per questo se ne sono interessati Fokker e Planck).
7.4. PRESENTAZIONE INFORMALE DEL LEGAME CON LE PDE 155
Osservazione 35 I legami invece tra lequazione (7.11) e le altre due equazioni alle
derivate parziali vengono di solito usati per scopi interni alla matematica, o per stu-
diare le SDE tramite risultati e metodi della teoria delle PDE (equazioni alle derivate
parziali), o viceversa.
Osservazione 36 Circa il legame con lequazione di Kolmogorov, si pu notare che
esso una variante probabilistica del noto legame tra PDE del primordine di tipo
trasporto e le loro curve caratteristiche associate. Infatti, noto che se si vuole studiare
la PDE
Jn
Jt
+ / \n = 0 su [0. 1] R
o
n[
t=T
= n
T
si pu dare una formula esplicita della soluzione in termini di caratteristiche, cio
risolvendo lequazione ordinaria associata
dA
t
dt
= / (t. A
t
) dt per t [t
0
. 1]
A
t
0
= r
ed il legame (usando la notazione A (t; t
0
. r) come sopra)
n(t. r) = n
T
(A (1; t. r)) .
Concludiamo con un cenno alla dimostrazione della prima formula, quella per le-
quazione di Kolmogorov. Se volessimo partire dalla (7.11) e mostrare che la funzione
n(t. r) denita dalla formula (7.12) soluzione dellequazione di Kolmogorov, dovrem-
mo svolgere molti calcoli (es. dovremmo derivare due volte A (t; t
0
. r) rispetto ad r).
Non esponiamo questo tipo di calcoli. Invece, moto semplice mostrare il seguente
risultato.
Proposizione 51 Se n una soluzione di classe C
1,2
dellequazione di Kolmogorov,
con derivate
0&
0a
.
limitate, allora vale (7.12).
Proof. Per la regolarit di n possiamo applicare la formula di It:
dn(t. A (t; t
0
. r)) =
Jn
Jt
dt +\n (dA) +
1
2

i)
J
2
n
Jr
i
Jr
)
d
_
A
i
. A
)

ma d [A
i
. A
)
]
t
= d [1
i
. 1
)
]
t
= o
i)
dt, quindi
dn(t. A (t; t
0
. r)) =
Jn
Jt
dt +\n /dt +\n d1 +
1
2
ndt.
156 CAPITOLO 7. EQUAZIONI DIFFERENZIALI STOCASTICHE
Siccome vale
0&
0t
+
1
2
n + / \n, rimane
dn(t. A (t; t
0
. r)) = \n(t. A (t; t
0
. r)) d1
t
ovvero, scrivendo in forma integrale su [t
0
. 1],
n(1. A (1; t
0
. r)) = n(t
0
. A (t
0
; t
0
. r)) +
_
T
t
0
\n(:. A (:; t
0
. r)) d1
c
.
Per lipotesi di limitatezza delle derivate di n, vale 1
_
_
T
t
0
\n(:. A (:; t
0
. r)) d1
c
_
= 0.
Inoltre, A (t
0
; t
0
. r) = r, n(1. A (1; t
0
. r)) = n
T
(A (1; t
0
. r)), quindi
1 [n
T
(A (1; t
0
. r))] = n(t
0
. r) .
La dimostrazione completa.