Sei sulla pagina 1di 42

Unintroduzione al processo di Wiener e alle equazioni stocastiche

16 Maggio 2005 ()

Enrico Priola
Dipartimento di Matematica, Universit` a di Torino, via Carlo Alberto 10, 10123, Torino, Italy. e-mail priola@dm.unito.it

Indice
1 Richiami di Probabilit` a 2 Prime nozioni sui processi stocastici 3 Il processo di Wiener 3.1 Denizione e costruzione del processo di Wiener . . . . . . . . . . . . . . 3.2 Propriet` a delle traiettorie del processo di Wiener . . . . . . . . . . . . . 3.3 Osservazioni nali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Equazioni stocastiche con rumore additivo 4.1 Un teorema di esistenza e unicit` a . . . . . . . . . . . . . . . . . . . . . . 5 Lintegrale di Ito 6 La formula di Ito 6.1 La formula di Ito multidimensionale . . . . . . . . . . . . . . . . . . . . 6.2 Dimostrazione della formula di Ito unidimensionale . . . . . . . . . . . 2 10 11 11 17 22 24 25 30 32 32 34

7 Cenni sui semigruppi di Markov e le equazioni paraboliche di Kolmogorov 38


Ciclo di Lezioni tenute presso il Dipartimento di Matematica Ulisse Dini di Firenze (dal 2/05 al 13/05/2005).

Richiami di Probabilit` a

Per maggiori dettagli ed esempi relativi a questa sezione, si possono consultare dei testi di Probabilit` a come, per esempio, Baldi [1], Billingsley [2], Dudley [3], Durret [4], Flandoli [9]. Assumiamo che il lettore sia familiare con la teoria della misura e lintegrale di Lebesgue. Uno spazio di probabilit` a` e una terna (, F , P), dove ` e un insieme, F una -algebra su e P : F [0, 1], una misura di probabilit` a su (cio` eP` e una misura (non negativa) -additiva e tale che P() = 1). Non ` e restrittivo supporre che P sia completa. Ricordiamo che P ` e completa se preso A F con P(A) = 0, allora per ogni B A risulta B F (e quindi anche P(B ) = 0).
Se P non ` e completa, si pu` o completarla nel modo seguente. Si considera N = {B tali che , la pi` esiste A F , con P(A) = 0 e B A}. Si pu` o sostituire F con la algebra F u piccola -algebra = {C : C = A B, con A F , B N }. che contiene F ed N . Si dimostra che F

Si dice che una certa propriet` a che coinvolge gli vale quasi certamente (o q.c.) su se essa ` e vera tranne che su un F con P( ) = 0 ( si chiama anche evento trascurabile). Prima di presentare alcuni esempi, ssiamo altre notazioni. Sia A una famiglia di sottinsiemi di ; la pi` u piccola -algebra che contiene A si chiama la -algebra generata da A e si indica con (A). Dato A , 1A indica la funzione indicatrice di A (1A ( ) = 0, se A, 1A ( ) = 1, se A). Dato uno spazio metrico E , indichiamo con B (E ) la -algebra di Borel di E (` e la pi` u piccola -algebra che contiene tutti gli aperti in E ). Esempio 1.1. Esempi di Spazi di probabilit` a (i) Lancio di due dadi non truccati. Si pu` o scegliere = {1, 2, . . . , 6} {1, 2, . . . , 6}; F A| ` e la famiglia di tutti i sottinsiemi di . Possiamo porre P(A) = |36 , A F (dove |A| ` e la cardinalit` a di A). (ii) = [0, 1]; F = B ([0, 1]) ` e la algebra di Borel di [0, 1]; P = (misura di Lebesgue su [0,1]). (iii) = R; F = B (R);
(xa)2

P(A) =
A

e 2 2 dx, 2

A F , a R, > 0.

(1.1)

La misura P si dice misura di probabilit` a normale (o Gaussiana) N (a, 2 ) (o


(xa)2

N (a, q ), con q > 0). La funzione x ` e la densit` a di N (a, 2 ). Si denisce anche N (a, 0) come la misura di Dirac concentrata in a. (iv) = C ([0, ), Rn ) = { : [0, ) Rn continue }. diventa uno spazio metrico, 2

e 22 2

completo e separabile, con la metrica: d(f, g ) = f 1 f g n , f, g , 2n 1 + f g n sup |f (t) g (t)|, n 1.


t[0,n]

n1 g n =

(1.2)

Nel seguito incontreremo una misura di probabilit` a P su (, B ()), la misura di Wiener.

Sia assegnato uno spazio di probabilit` a (, F , P). Una funzione misurabile X : Rn si chiama variabile aleatoria (brevemente v.a.). Quindi si richiede che per ogni A B (Rn ), X 1 (A) F . Per indicare esplicitamente la -algebra a volte scriveremo che la v.a. X ` e F -misurabile. Se Rn = R, si parla di v.a. reale. Sia X : Rn una funzione. La pi` u piccola -algebra che rende misurabile X si chiama -algebra generata da X e si indica con (X ). E chiaro che (X ) = {X 1 (B )}B B (Rn ) . Se X ` e una v.a. risulta (X ) F . Pi` u in generale se (Xi )iJ ` e una famiglia di funzioni da in Rn , La pi` u piccola -algebra che rende misurabili tutte le Xi si chiama -algebra generata da (Xi )iJ e si indica con (Xi , i J ). Sia X : Rn una v.a.; se A B (Rn ), useremo spesso la notazione (X A) o {X A}, per indicare linsieme (o evento) X 1 (A) = { : X ( ) A}. Inoltre poniamo P(X A) := P({ : X ( ) A}). (1.3) La legge (o distribuzione) di X ` e la misura di probabilit` a X su B (Rn ) data da X (B ) = P(X B ), B B (Rn ). (per esempio se X = c Rn , q.c., allora X = c , la misura di Dirac concentrata in c). Una v.a. reale si dice v.a. normale o Gaussiana, se la sua legge ` e N (a, 2 ), per qualche a R, 0. Sia X : R una v.a.; Se X ` e integrabile secondo Lebesgue su (, F ), cio` e se esiste nito lintegrale di Lebesgue |X ( )|P(d ), diciamo che X ` e una v.a. integrabile. In tale caso si pone EX :=

X ( )P(d ).

EX is dice attesa (o media o speranza) di X (osserviamo che se X 0 allora ha sempre senso EX ; essa pu` o essere nita o innita). In modo simile sia X = (Xi )i=1,...n : Rn una v.a. (n-dimensionale). Se E|X | < (dove | | indica la norma euclidea di Rn , n 1) allora si pone EX = (EXi )i=1,...n . Il calcolo delle attese si pu` o ricondurre al calcolo di integrali su Rn , grazie al seguente risultato: 3

Teorema 1.2. (Formula di cambiamento di variabile) Sia X : Rn una v.a. con legge X . Sia f : Rn R una funzione Borelliana, tale che o f (y ) 0, y Rn , o Rn |f (y )|X (dy ) < . Allora si ha: Ef (X ) = f (y )X (dy ).
Rn

(1.4)

Per esempio, se X ` e una variabile aleatoria con legge N (a, 2 ), risulta:


(xa)2

e 2 2 x EX = dx = a. 2 R Sia X una v.a. reale tale che EX 2 < . La varianza di X ` e var(X ) = E(X m)2 = 2 2 EX m , dove m = EX . Per esempio se X ` e normale con legge N (a, 2 ), si trova che var(X ) = 2 . Lemma 1.3. (Disuguaglianze di Chebyshev) 1. Sia X una v.a. reale e non negativa. Allora per ogni P(X ) EX p
p

> 0, p > 0, risulta:

2. Sia X una v.a. reale con EX 2 < . Poniamo m = EX . Allora risulta: P(|X m| ) Parliamo ora del concetto di indipendenza.
Partiamo dal concetto elementare di probabilit` a condizionale. Siano A, B F , con P(B ) > 0. Quale pu` o essere una ragionevole denizione di P(A/B ), la probabilit` a che capiti levento A sapendo che B si ` e vericato? Poich` e sappiamo che B , possiamo guardare a B come ad un = P . In questo nuovo spazio con F = {F B, F F} e P nuovo spazio di probabilit` a
P(B )

var(X )
2

> 0.

) la probabilit` (A B ) = ,F ,P ( a che sia in A ` eP P(A/B ) =

P(AB ) P(B ) .

Pertanto scriviamo

P(A B ) , P(B ) > 0. P(B )

Dire che A ` e indipendente da B signica dire che P(A/B ) = P(A), cio` e che P(A B ) = P(B )P(A).

Introduciamo le seguenti denizioni. (1) Diciamo che due eventi A, B F sono indipendenti se P(A B ) = P(B )P(A). La denizione si estende ad un numero nito di eventi. Siano A1 , ..., An F ; essi si dicono indipendenti se per ogni scelta di i1 , . . . , im tra 1 ed n, risulta P(Ai1 . . . Aim ) = P(Ai1 ) P(Aim ). (2) Date due v.a. reali X, Y : Rn . Esse si dicono v.a. indipendenti se per ogni F, G B (Rn ), si ha: P(X F, Y G) = P(X F ) P(Y G), 4

dove P(X F, Y G) = P({ : X ( ) F } { : Y ( ) G}). (3) Due algebre G e H contenute in F si dicono indipendenti se per ogni scelta di G G e H H, gli eventi G e H sono indipendenti.
La denizione (1) ` e un caso particolare della denizione (2) (infatti siano A, B F ; si verica che A e B sono indipendenti se e solo se le v.a. 1A e 1B sono indipendenti). La denizione (2) ` e un caso particolare della denizione (3) (infatti siano X, Y v.a.; si verica che X e Y sono indipendenti se e solo se le algebra (X ) e (Y ) sono indipendenti).

Le precedenti denizioni di indipendenza si estendono a famiglie di oggetti. Le denizioni (2) e (3) diventano: (2) Siano (Xj )j J v.a. a valori in Rn . Esse si dicono indipendenti se per ogni scelta (nita) di j1 , .. jm J , risulta che Xj1 , ... Xjm sono indipendenti; ovvero per ogni scelta di Aji B (Rn ), risulta che P(Xj1 Aj1 , . . . , Xjm Ajm ) = P(Xj1 Aj1 ) P(Xjm Ajm ). (3) Siano (Fj )j J -algebre contenute in F . Esse si dicono indipendenti se per ogni scelta (nita) di j1 , .. jm J , risulta che Fj1 , ... Fjm sono indipendenti (ovvero per ogni Fi1 Fj1 , ..., Fjm Fjm , gli eventi Fi1 , ..., Fjm sono indipendenti). ` utile il - lemma di Dynkin che ora introduciamo (vedere [2] o [22]). E Una famiglia L di sottinsiemi di si dice -system se presi A, B L, risulta che A B L. Una famiglia M di sottinsiemi di si dice -system se verica 1. M; 2. se A M allora Ac M (dove Ac ` e il complementare di A); 3. se Aj M, j N, e Aj Ai = , per i = j , allora j N Aj M (M ` e stabile per unioni disgiunte). Lemma 1.4. ( Lemma) Se A ` e un -system e M un system allora A M implica che (A) M (dove (A) ` e la pi` u piccola -algebra contenente A). Con il precedente risultato si pu` o provare la seguente propriet` a. Proposizione 1.5. Siano X1 , .. Xm v.a. su a valori in Rn . Sia X = (X1 , . . . , Xm ) : Rmn . Allora le seguenti aermazioni sono equivalenti: (i) X1 , ..., Xm sono indipendenti; (ii) X = X1 ... Xm su B (Rnm ) (dove X indica le legge di X e X1 ... Xm indica la misura prodotto);
Dimostrazione. Diamo unidea della dimostrazione che (i) implica (ii). Si ha che X (A1 . . . Am ) = X1 (A1 ) Xm (Am ), Ai B (Rn ), i = 1, . . . , m. Dunque le due misure di probabilit` a 1 = X e 2 = X1 ... Xm coincidono sui rettangoli A1 . . . Am . I rettangoli formano un -system e generano B (Rnm ) (cio` e la pi` u piccola -algebra che contiene i rettangoli ` e B (Rnm )). La dimostrazione si conclude osservando che la famiglia M = {C B (Rnm ) : 1 (C ) = 2 (C )} ` e un system.

Corollario 1.6. Siano X1 , .. Xm v.a. reali, indipendenti e integrabili su . Allora risulta:


m m

() E(
k=1

Xk ) =
k=1

E(Xk ).

Osserviamo che (*) non implica che le v.a. X1 , ... Xm sono indipendenti. Proposizione 1.7. Siano X1 , .. Xm v.a. reali, indipendenti e a quadrato integrabile su . Allora risulta:
m m

var
k=1
m X k=1

Xk =
k=1

var(Xk ).

Dimostrazione. Sia EXi = mi , i = 1, . . . , m. Si ha, usando il corollario precedente, var = Xk = E

m X k=1

(Xk mk )

2
m X k=1

m X

E(Xk mk )2 + 2

X
k<j

E((Xk mk )(Xj mj )) =

var(Xk ).

k=1

Nel seguito utilizzeremo il seguente risultato. Teorema 1.8. Sia (k ) una successione di misure di probabilit` a (di Borel) su R. Allora esiste uno spazio di probabilit` a (, F , P) su cui esistono variabili aleatorie indipendenti (Xk ) tali che la legge di Xk ` e k , per k N. Una sua dimostrazione utilizza un teorema sulle misure prodotto che ora spieghiamo (vedere anche [3]). Q Siano (k , FkQ ), spazi misurabili, k N. Consideriamo lo spazio prodotto = k0 k , munito della
-algebra F = del tipo
k0

Fk . F ` e per denizione la -algebra generata da tutti gli insiemi rettangoli , cio` e A=

Y
k 0

Ak , con Ak Fk

e Ak = k , tranne al pi` u un numero nito di indici k. Teorema 1.9. Siano (k , Fk , Pk ), spazi di probabilit` a, k N. Consideriamo lo spazio misurabile prodotto (Q , F ) appena introdotto. Esiste ununica misura di probabilit` a P su (, F ) tale che per ogni rettangolo A= A , vale k k=0 P(A) =
Y

Pk (Ak ).

k=0

Dimostrazione del Teorema 1.8. In accordo al Teorema 1.9, si considerano gli spazi di probabilit` a (k , Fk , Pk ) = (R, B (R), k ), k N, e lo spazio di probabilit` a prodotto (, F , P). Si denisce Xk ( ) = k , = (k ) , k N. Verichiamo che Xk1 , . . . , Xkn sono indipendenti. Si ha P(Xk1 Ak1 , . . . , Xkn Akn ) = = con Aki B (R), i = 1, . . . , n.
n Y n Y

ki (Aki ) =

P(Xki Aki ),

i=1

i=1

Si pu` o provare anche il Teorema 1.8, prendendo come spazio lintervallo [0, 1] con la misura di Lebesgue e usando un metodo che risale a Steinhaus, vedere [22]. 6

Sia data una misura di probabilit` a (o legge o distribuzione) su B (Rn ). Deniamo la sua funzione caratteristica o trasformata di Fourier : Rn C, nel modo seguente: (h) =
Rn

ei

x,h

(dx), h Rn ,

(1.5)

dove , indica il prodotto interno di Rn . Si pu` o dimostrare che ` e uniformente continua e limitata su Rn . Il nome di funzione caratteristica ` e giusticato dal seguente risultato. Teorema 1.10. Siano 1 e 2 due misura di probabilit` a su B (Rn ). Se 1 = 2 su Rn n allora le due misure 1 e 2 coincidono (su B (R )). Data una v.a. X : Rn , si denisce funzione caratteristica X di X la funzione caratteristica della legge X di X ; dunque X (h) = X (h) =
Rn

ei

x,h

X (dx) = Eei

X,h

h Rn .

Usando il Teorema 1.10 e la Proposizione 1.5 si ottiene il seguente utile criterio. Proposizione 1.11. Siano X1 , .. Xm v.a. su a valori in Rn . Sia X = (X1 , . . . , Xm ) : Rmn . Allora le seguenti aermazioni sono equivalenti: (i) X1 , ..., Xm sono indipendenti; (ii) X (h1 , . . . , hm ) = X1 (h1 ) Xm (hm ), h = (h1 , . . . , hm ) Rnm (la funzione caratteristica di X si fattorizza nel prodotto delle Xi ). Parliamo adesso di leggi normali (o Gaussiane) multidimensionali. Sia a Rn e Q una matrice n n simmetrica e semidenita positiva. Una misura di probabilit` a su B (Rn ) si dice normale (o Gaussiana) N (a, Q), se la sua funzione caratteristica ` e 1 (h) = ei h,a e 2 Qh,h , h Rn . Un teorema di Bochner assicura che la denizione precedente ` e ben data (cio` e ` e n eettivamente la funzione caratteristica di una misura di probabilit` a su R ). N (a, Q) si dice anche misura Gaussiana di media a e matrice di covarianza Q. Si osservi che
(xa)2

N (a, 2 )(h) =
R

eihx

e 2 2 2 2 dx = eiha e h /2 , h R. 2

Si pu` o vericare che se Q ` e denita positiva allora N (a, Q) ammette densit` a f (x) = 1 (2 )n det Q e 2
1

Q1 (xa),(xa)

, cio` e N (a, Q)(B ) =


B

f (x)dx, B B (Rn ).

Una v.a. X a valori in Rn si dice v.a. normale se la sua legge ` e N (a, Q), per qualche scelta di a e Q. Si pu` o allora vericare che EX = a. Usando la funzione caratteristica si possono provare i seguenti risultati. Proposizione 1.12. Siano X1 , ..., Xn v.a. reali indipendenti e normali con leggi N (ai , qi ), i = 1, ... , n, rispettivamente. Allora la v.a. congiunta X = (X1 , .. Xn ) (a valori in Rn ) ` e normale. Inoltre la v.a. somma Y = n e normale con legge i=1 Xi ` n n N ( i=1 ai , i=1 qi ). 7

Proposizione 1.13. Sia X una v.a. a valori in Rn , normale con legge N (a, Q). Sia L una matrice reale k n e sia b Rk . Allora la v.a. LX + b (a valori in Rk ) ` e normale con legge N (La + b, LQLT ), dove LT ` e la matrice trasposta di L. Siano X1 , ..., Xn v.a. reali e a quadrato integrabile su . La matrice di covarianza di X = (X1 , ..., Xn ) ` e la matrice C , n n, i cui elementi sono Cij = E[(Xi EXi )(Xj EXj )]. Si verica che C ` e simmetrica e semidenita positiva. Le v.a. X1 , .. Xn si dicono v.a. scorrelate se C ` e una matrice diagonale. In generale X e Y v.a. reali possono essere scorrelate senza essere indipendenti. Tuttavia vale la seguente Proposizione 1.14. Sia X = (X1 , ..., Xn ) : Rn una v.a. normale con legge N (a, Q). Valgono le seguenti propriet` a: (i) la matrice di covarianza di X ` e Q; (ii) X1 , ..., Xn sono v.a. scorrelate se e solo se sono indipendenti. Passiamo ora in rassegna la convergenza di variabili aleatorie. Sia (Xn ) una successione di variabili aleatorie a valori in Rk , sia X : Rk una v.a.. (1) Diciamo che (Xn ) converge q.c. (o quasi certamente o quasi ovunque) a X , se limn Xn ( ) = X ( ), per ogni , con F e P( ) = 0. (2) Sia E(|Xn |p + |X |p ) < , n N, p 1; diciamo che (Xn ) converge in Lp a X , se
n

lim E|Xn X |p = 0 (dove | | indica la norma euclidea in Rk ).

(osserviamo che poich` e P() = 1, se (Xn ) converge a X in Lp allora (Xn ) converge a X in Lr , per ogni 1 r p). (3) Diciamo che (Xn ) converge in probabilit` a a X se per ogni
n

> 0, si ha:

lim P(|Xn X | > ) = 0.

(4) Diciamo che (Xn ) converge in legge a X se per ogni funzione f : Rk R, continua e limitata, si ha: lim |Ef (Xn ) Ef (X )| = 0.
n

(si dice anche che le leggi Xn convergono debolmente a X ). Un teorema aerma che (Xn ) converge in legge a X se e solo se
n

lim Eei

Xn ,h

= Eei

X,h

h Rn .

Si pu` o provare che la convergenza in Lp e la convergenza q.c. implicano entrambe la convergenza in probabilit` a che a sua volta implica la convergenza in legge. Esempi mostrano che non ci sono altre implicazioni in generale. Enunciamo ora il lemma di Borel-Cantelli. 8

Sia (An )nN . Deniamo lim sup An :=


n0 kn

Ak = { : per ogni n 0, esiste k0 = k0 ( ) n : Ak0 }.

e analogamente lim inf An := n0 kn Ak = { : esiste n0 = n0 ( ) : Ak , per k n0 }. E chiaro che (lim sup An )c = lim inf(Ac n ). Lemma 1.15. (Lemma di Borel-Cantelli) In uno spazio di probabilit` a (, F , P), sia (An )nN F . Consideriamo A = lim sup An . (i) se (ii) se
k0 P(Ak )

< allora P(A) = 0; = e se gli An sono indipendenti allora P(A) = 1.

k0 P(Ak )

Dimostrazione. Proviamo solo la (i). Si ha P(A) = P( per ogni n N. Per ipotesi limn

[ \

Ak ) P(

Ak )

X
kn

P(Ak ),

n0 kn kn

kn

P(Ak ) = 0, da cui la tesi.

Corollario 1.16. Sia (Xn ) una successione di variabili aleatorie a valori in Rk , e sia X : Rk una v.a..; se (Xn ) converge in probabilit` a ad X , allora esiste una sottosuccessione (Xnk ) che converge q.c. ad X .
Dimostrazione. Fissato n N, scegliamo kn per cui P(|Xkn X | > 1/n) 1/n2 . Possiamo ordinare kn in modo crescente. Sia An = {|X Xkn | > 1/n}. Si ha Dunque per il lemma precedente P(lim sup An ) = 0, cio` e P(lim inf(Ac n )) = 1. Perci` o per ogni q.c., esiste n0 = n0 ( ), tale che se n n0 , An , cio` e |Xkn ( ) X ( )| 1/n, da cui la tesi. n n0 ,

P
n1

P(An ) < .

Ricordiamo la denizione di attesa condizionale. Proposizione 1.17. Sia X una v.a. reale e integrabile. Sia G F una sotto -algebra. Allora esiste una v.a. reale Z , G -misurabile, tale che E(Z 1G ) = E(X 1G ), per G G . (1.6)

Inoltre se Z1 e Z2 sono due v.a. G -misurabili che vericano (1.6), allora si ha Z1 = Z2 , q.c..
Dimostrazione. Si usa il teorema di Radon-Nikodym. Infatti se si pone (G) = E(X 1G ), per G G , si trova che ` e una misura nita con segno su (, G ), assolutamente continua rispetto a P (pensando P ristretta a (, G )). Dunque per il teorema di Radon-Nikodym, esiste una v.a. Z L1 (, G , P), tale che

(G) =
G

Z ( )P(d ),

ovvero (G) = E(Z 1G ), per ogni G G . Lunicit` a segue dal fatto che E[(Z1 Z2 )1G ] = 0, per ogni G G , implica che Z1 = Z2 , essendo Z1 e Z2 entrambe G -misurabili.

Sia X una v.a. reale e integrabile. Sia G F una sotto -algebra. Si dice attesa condizionale di X rispetto a G e si indica con E(X/G ), la classe di equivalenza di v.a. Z G -misurabili che vericano (1.6). La denizione si estende facilmente a v.a. a valori in Rn . 9

Prime nozioni sui processi stocastici

Sia (, F , P) uno spazio di probabilit` a. Un processo stocastico a tempo continuo (o semplicemente un processo) su (, F , P) a valori in Rn ` e una famiglia di variabili aleatorie (Xt )tI , dove I ` e un intervallo chiuso di [0, +). Dunque Xt : Rn , t I. Quando non ci sar` a pericolo di confusione, scriveremo (Xt ) al posto di (Xt )tI . In altre parole, un processo stocastico ` e unapplicazione X() () : I Rn , che ` e Fmisurabile nella seconda variabile (vedere per esempio [15], [2] o [3] per maggiori dettagli). Dato un processo (Xt ), la mappa: t Xt ( ), denita su I , a valori in Rn , si dice traiettoria relativa a . Le traiettorie di un processo (Xt ) sono tutte le funzioni t Xt ( ), al variare di . Un processo (Xt ) si dice continuo se le sue traiettorie sono continue q.c. (cio` e esiste un F con P( ) = 0, tale che se , la funzione: t Xt ( ) ` e continua in I ). Denizione 2.1. Dati due processi (Xt ) e (Yt ) su (, F , P). (1) Diciamo che (Xt ) ` e una versione (o modicazione) di (Yt ), se P(Xt = Yt ) = P({ : Xt ( ) = Yt ( )}) = 1, t I.

(2) Diciamo che (Xt ) e (Yt ) sono indistinguibili se {Xt = Yt , t I } = tI {Xt = Yt } F e risulta P(Xt = Yt , t I ) = 1. In generale (2) ` e strettamente pi` u forte di (1). Per` o nel caso in cui (Xt ) e (Yt ) sono entrambi continui, se (Xt ) ` e una versione di (Yt ) risulta che (Xt ) e (Yt ) sono indistinguibili (si noti che in questo caso {Xt = Yt , t I } = {Xt = Yt , t I Q} F ).
Dato un processo (Xt )tI possiamo considerare le sue distribuzioni nito dimensionali X e per X t1 ,...,tm , al variare di t1 < ... < tm , ti I , i = 1, .., m, e di m N. Ciascuna t1 ,...,tm ` denizione la legge della v.a. (Xt1 , ...., Xtm ) : Rnm (quindi X e una misura di probabilit` a su B (Rnm )). Due processi (anche deniti su spazi t1 ,...,tm ` n di probabilit` a diversi) a valori in R si dicono equivalenti se hanno le stesse distribuzioni nito dimensionali.

Parliamo ora di ltrazioni. Sia (, F , P) uno spazio di probabilit` a. Una ltrazione ` e una famiglia crescente di sotto -algebre (Ft )tI di F , cio` e Ft Fs F , se t s, t, s I. Intuitivamente Ft raccoglie tutte le informazioni (o eventi) conosciute (no) al tempo t. Considereremo sempre ltrazioni complete. Cio` e se N = {F F , P(F ) = 0}, 10

allora assumiamo che N Ft , per ogni t I. Possiamo sempre estendere un ltrazione t assegnata (Ft ) in modo da ottenere una ltrazione completa: basta sostituire Ft con F = (Ft , N ) (la -algebra generata da N e Ft ), t I . Uno spazio di probabilit` a su cui ` e denita anche una ltrazione completa, cio` e un 1 oggetto del tipo (, F , (Ft )tI , P), si chiama anche base stocastica. ( ) Sia assegnato un processo (Xt )tI su una base stocastica. Diciamo che (Xt ) ` e adattato n alla ltrazione o che ` e Ft -adattato, se per ogni t I , Xt : (, Ft ) R ` e misurabile. Un processo ` e sempre adattato rispetto alla sua ltrazione naturale (FtX )tI , dove X Ft = (Xs , s t) (la pi` u piccola -algebra che rende misurabili tutte le v.a. Xs , con s t). Si noti anche che (Xt ) ` e Ft -adattato se e solo se FtX Ft , t I .

3 3.1

Il processo di Wiener Denizione e costruzione del processo di Wiener

Denizione 3.1. (Processo di Wiener reale) Un processo stocastico (Wt )t0 denito su uno spazio di probabilit` a (, F , P) e a valori in R, si dice processo di Wiener o moto Browiano, se verica le seguenti propriet` a: 1. W0 = 0, q. c.; 2. per ogni scelta di 0 = t0 < t1 < t2 < . . . < tn , n N, gli incrementi Wt1 Wt0 , Wt2 Wt1 , . . . , Wtn Wtn1 sono indipendenti (si dice anche che il processo (Wt ) ` e a incrementi indipendenti); 3. la variabile aleatoria Wt Ws , per ogni 0 s < t, ha legge normale N (0, t s) ; 4. (Wt ) ha traiettorie continue q.c.. Teorema 3.1. Esiste un processo di Wiener (ovvero esiste uno spazio di probabilit` a dove ` e denito un processo di Wiener). Ci sono vari modi per dimostrare il precedente teorema. Qui presentiamo la costruzione di L evy-Ciesielski del processo di Wiener, vedere per esempio [19], [8] o [22]. In questa costruzione si utilizza anche il Teorema 1.8. Si denisce prima (Wt ) per t [0, 1], come limite di una particolare serie di funzioni. A questo ne si devono usare le funzioni di Haar e di Schauder. Le funzioni di Haar (hk ), k N, hk : [0, 1] R, sono denite nel modo seguente: h0 (t) = 1, t [0, 1], h1 (t) =
1

1 per t [0, 1/2] 1 per t (1/2, 1],

Nei testi di calcolo stocastico si richiede usualmente che una base stocastica abbia anche la ltrazione (Ft ) continua a destra, cio` e che valga Ft = s>t Fs , per ogni t I . Nei risultati che incontreremo non avremmo bisogno di tale ipotesi.

11

e se 2n k < 2n+1 , n N, k 2n k 2n + 1/2 n/2 , , 2 per t 2n 2n k 2n + 1/2 k 2n + 1 hk (t) = n/2 , , 2 per t 2n 2n 0 altrimenti. Lemma 3.2. Le funzioni (hk ) formano un sistema ortonormale e completo in L2 (0, 1). Dimostrazione. (i) Si ha: 2n+1 , n N.
1 2 0 hk (t)dt

= 2n (1/2n+1 + 1/2n+1 ) = 1, con 2n k <

Sia ora l > k . Allora o hk hl = 0, per ogni t (cio` e hk e hl hanno supporti disgiunti), oppure hk ` e costante sul supporto di hl (si osservi che le hk hanno supporto disgiunto se 2n k < 2n+1 ). In questo secondo caso si ha:
1 1

hk hl dt = 2n/2
0 1 0

hl dt = 0 (l > k ).

(ii) Sia f L2 (0, 1) tale che 0 f (t)hk (t)dt = 0, per k N. Dobbiamo vericare che f = 0. Proviamo prima di tutto che
s

f (t)dt = 0,
r

(3.1)

per tutti i numeri diadici r, s, con r < s. 1 1 Si ha 0 f (t)h0 (t)dt = 0 = 0 f (t)dt (con k = 0). Sia ora k = 1, si ha
1/2 1

f dt =
0 1/2 1/2 f dt 0

f dt. =
1 1/2 f dt

Perci` o 2 0 f dt = simile si trova che

1/2

1 0 f dt

= 0 e cos`

= 0. Procedendo in modo

k+1 2n+1

f dt = 0, per ogni 0 k < 2n+1 .

k/2n+1

Cos` (3.1) ` e provata. Usando (3.1) ed il teorema di Lebesgue sulla derivazione della funzione integrale, si trova che f (r) = da cui la tesi. Le funzioni di Schauder (sk ), k N, sk : [0, 1] R, sono primitive delle funzioni di Haar:
t

d dr

f (t)dt = 0, q.ov. in r [0, 1],


0

sk (t) =
0

hk (s)ds, k N. 12

Le sk sono tutte non negative; i graci delle sk sono dei denti che si trovano sugli 2n k2n +1 intervalli [ k ], se 2n k < 2n+1 . Inoltre risulta: 2n , 2n sk

= sup |sk (t)| = 2n/2


t[0,1]

1 2n+1

= 2n/21 , 2n k < 2n+1 .

(3.2)

Per continuare serve il seguente lemma. Lemma 3.3. Siano (Xk ) una successione di variabili aleatorie su (, F , P) normali con legge N (0, 1). Risulta che |Xk ( )| ` e O( log k ), per k , q.c.. Dimostrazione. Per x > 0, si ha:
2 2 2 es /4 es /4 ds P(|Xk | > x) = P( : |Xk | > x) = 2 x 2 2 2 2 ex /4 es /4 ds Cex /4 . 2 x Sia ora x = 4 log k . Si trova P(|Xk | > 4 log k ) ce4 log k = kc4 , k N. Per il lemma di Borel-Cantelli, per ogni (q.c.) esiste k0 = k0 ( ) tale che per ogni k k0 , vale

|Xk ( )| 4 log k, da cui la tesi. Dimostrazione del Teorema 3.1. Consideriamo uno spazio di probabilit` a (, F , P), dove sia denita una successione di variabili aleatorie (Xk ) indipendenti e normali con legge N (0, 1). Proviamo che Wt ( ) =
k 0

Xk ( )sk (t), ,

(3.3)

denisce un processo di Wiener su [0, 1] (ovviamente W0 ( ) = 0 per ogni ). (i) Per prima cosa proviamo che, q.c., la serie converge uniformemente su [0, 1] (questo prover` a anche che t Wt ( ) ` e continua su [0, 1], q.c.). A questo ne, mostriamo che per ogni > 0, esiste n0 N, tale che se n n0 e p 1,
n n+p n+p

Xk ( ) sk
k=0 k=0

Xk ( ) sk

= sup
t[0,1] k=n+1

Xk ( ) sk (t) < . > 0,

(3.4)

Osserviamo anzitutto che il lemma precedente implica, per ogni |Xk ( )| ` e O(k ), q.c.

Usando (3.2) e il fatto che le sk hanno supporto disgiunto se 2n k < 2n+1 , si trova sup
t[0,1] 2n k<2n+1

sk (t) 2n/21 .

13

Perci` o, ssato (q.c.), per t [0, 1], m N, |Xk ( )| sk (t) =


k 2m

< 1/2, si ha: |Xk ( )| sk (t)

nm 2n k<2n+1

C
nm

2n 2n(
nm

sup
t[0,1] 1/2) 2n k<2n+1

sk (t) . 2n(
1/2)

Essendo n0 2n( 1/2) < , possiamo prendere m0 tale che C Scegliendo n0 = 2m0 si trova (3.4). Questo prova la convergenza uniforme della serie di funzioni. (ii) Proviamo che Wt Ws ha legge N (0, t s), per t > s 0. Basta vericare che E(ei(Wt Ws )h ) = e(ts)h
2 /2

nm0

< .

, h R.

Usando lindipendenza degli Xk e il teorema di convergenza dominata, si trova E(ei(Wt Ws )h ) = E(eih =


k 0

k0

Xk (sk (t)sk (s))

E(eihXk (sk (t)sk (s)) ) (e


k 0
h2 2 h2 (sk (t)sk (s))2 2

= = e

)
2

(poich` e ogni Xk ` e normale) = e


h2 2

k0 (sk (t)sk (s))

2 2 k0 (sk (t)+sk (s)2sk (t)sk (s))

Per continuare, osserviamo che, per t s,


1 1

sk (t)sk (s) =
k 0 k 0 1 0

hk 1[0,t] dr
0 1

hk 1[0,s] dr (3.5) 1[0,s] (r)dr = s,


0

=
0

1[0,t] (r)dr

essendo (hk ) un sistema ortonormale e completo in L2 (0, 1). Dunque si ha: E(ei(Wt Ws )h ) = e
h2 2

2 2 k0 (sk (t)+sk (s)2sk (t)sk (s))

= e

h2 (t2s+s) 2

= e

h2 (ts) 2

(iii) Proviamo che (Wt ) ha gli incrementi indipendenti. Si tratta di provare che, per h1 , ... hn R, 0 = t0 < t1 < t2 < . . . < tn 1, E e
i

n j =1

n hj (Wtj Wtj 1 )

=
j =1

h2 j (tj tj 1 )/2

=
j =1

E ei hj (Wtj Wtj 1 ) ,

(3.6)

vedere la Proposizione 1.11. 14

Proviamo la tesi solo per n = 2, cio` e mostriamo che Wt Ws ` e indipendente da Ws , con t > s > 0. Il caso generale si pu` o trattare in modo simile, partendo dallidentit` a E ei

n j =1 (hj hj +1 )Wtj

= E ei

n j =1

hj (Wtj Wtj 1 )

, ponendo hn+1 = 0.

Sia t2 = t, t1 = s, ragionando come in precedenza, E(ei((Wt Ws )h2 +Ws h1 ) ) = E(ei(h2 Wt +Ws (h1 h2 )) ) =
k 0

E(eiXk [h2 sk (t)+sk (s)(h1 h2 )] ) =


k 0
1 2 2 (h 2 2 t+2(h1 h2 )h2 s+(h1 h2 ) s) 1

e 2 (h2 sk (t)+sk (s)(h1 h2 ))


2 2

=e

= e 2 [h1 s+h2 (ts)] .

Per concludere la dimostrazione occorre estendere la denizione di (Wt ) in (3.3) a t [0, ). Consideriamo una successione di spazi di probabilit` a (k , Fk , Pk ) = (, F , P), k 0, dove sullo spazio (, F , P) ` e denito un processo di Wiener Wt , t [0, 1]. Introduciamo la spazio di probabilit` a prodotto ), ,F ,P = (
k 0

= k , F
k 0

= Fk , P
k 0

Pk ,

vedere Teorema 1.9. Indichiamo con Wtk il processo di Wiener su (k , Fk , Pk ). Deni t = Wt1 , se t [0, 1], amo in modo ricorsivo: W t=W n + W n+1 , W tn se t [n, n + 1], n N, n 1

k, W k : R, W k ( ) := W k (k ), = (k ) , (dove identichiamo Wtk con W t t t t k N, t [0, 1]). Ovvero, se = (k ) , t ( ) = Wt1 (1 ), t [0, 1], W 1 t ( ) = W1 W (1 ) + Wt2 1 (2 ), ...
n

t [1, 2],

t ( ) = W
k=1

+1 k W1 (k ) + Wtn n (n+1 ), t [n, n + 1].

Usando le propriet` a prima stabilite per t [0, 1] e la denizione di misura prodotto, ). Per stabilire la t ) (t [0, )) ` ,F ,P si verica che (W e un processo di Wiener su ( k t ) si usa anche che W = 0, q.c., k N. continuit` a delle traiettorie di (W 0 tW s , t > s, ha legge N (0, t s). Nel seguito non indichiamo la Proviamo solo che W dipendenza da . Siano m s < m + 1, n t < n + 1. Consideriamo il caso non ovvio in cui m < n. Si ha:
n m k W1 k=1 n

tW s= W =
k=m+1 n

+1 Wtn n

(
k=1

m+1 k W1 + Ws m )

+1 m+1 k W1 + (Wtn n Wsm ) = Y1 + Y2 + Y3 , con

Y1 =
k=m+2

m+1 m+1 k W1 , Y2 = (W1 Ws m ),

+1 Y3 = Wtn n ,

15

dove Y1 , Y2 , Y3 sono v.a. normali e indipendenti, grazie alle propriet` a della misura . Usando la Proposizione 1.12, si trova che Y1 + Y2 + Y3 ha legge N (0, n prodotto P m 1 + (1 s + m)) + t n) = N (0, t s). Questo conclude la dimostrazione. Ora introduciamo il processo di Wiener n-dimensionale. Denizione 3.2. (Processo di Wiener n-dimensionale) Un processo stocastico (Wt )t0 denito su uno spazio di probabilit` a (, F , P) e a valori in Rn , si dice processo di Wiener n-dimensionale, se valgono le seguenti propriet` a: 1. W0 = 0, q. c.; 2. per ogni scelta di 0 = t0 < t1 < t2 < . . . < tn , n N, gli incrementi Wt1 Wt0 , Wt2 Wt1 , . . . , Wtn Wtn1 sono indipendenti; 3. la variabile aleatoria (n-dimensionale) Wt Ws , per ogni 0 s < t, ha legge normale N (0, (t s)I ) ; 4. (Wt ) ha traiettorie continue q.c.. Un processo di Wiener ndimensionale, si pu` o costruire partendo da un processo di Wiener reale (Wt ) denito su qualche spazio (, F , P). Si introduce prima lo spazio di probabilit` a prodotto
n n n

), ,F ,P = (
k=1

= k , F
k=1

= Fk , P
k=1

Pk ,

), si pone: ,F ,P dove (, F , P) = (k , Fk , Pk ), per k = 1, ..., n. In ( t ( ) := (Wt (1 ), ..., Wt (n )), W , t 0. = (1 , ..., n )

t) ` Usando le propriet` a della misura prodotto si pu` o vericare che (W e un processo di Wiener n-dimensionale.
Dato un processo di Wiener n-dimensionale (Wt ) con Wt = (Wtk ), k = 1, ..., n, t 0, si verica facilmente che ogni (Wtk ) ` e un processo di Wiener reale.

Si pu` o dare una denizione pi` u generale di processo di Wiener (reale o n-dimensionale) che fa intervenire le ltrazioni. Denizione 3.3. (Processo di Wiener n-dimensionale rispetto ad una ltrazione) Un processo stocastico (Wt )t0 , a valori in Rn , denito su una base stocastica (, F , (Ft )t0 , P) e Ft -adattato, si dice processo di Wiener rispetto a (, F , (Ft )t0 , P), se verica le seguenti propriet` a: 1. W0 = 0, q. c.; 2. Wt Ws ` e indipendente da Fs per ogni scelta di 0 s < t; 3. la variabile aleatoria Wt Ws , per ogni 0 s < t, ha legge normale N (0, (t s)I ); 4. (Wt ) ha traiettorie continue q.c.. 16

Questa denizione ` e pi` u generale di quella precedente per il fatto che si ammette la presenza di un ltrazione diversa da quella naturale. Pi` u precisamente, sia (Wt ) un processo di Wiener, secondo la Denizione 3.1; si denisce la ltrazione naturale (FtW )t0 (FtW = (Ws , s t), con t 0). Si prova che (Wt ) ` e di Wiener rispetto alla base stocastica (, F , (FtW )t0 , P), secondo la Denizione 3.3. Per la dimostrazione si pu` o usare il seguente risultato. Lemma 3.4. Sia Y una v.a. e (Xt )tI un processo su (, F , P). Se per ogni scelta di t1 < t2 ... < tm in I , risulta che Y ` e indipendente dalla v.a. (Xt1 , ..., Xtm ) allora (Y ) ` e indipendente da G = (Xt , t I ). Dimostrazione. Osserviamo che H = {H F : P(Y A, H ) = P(Y A)P(H ), per ogni A B (Rn )} ` e un -system. Inoltre per ipotesi H contiene gli eventi {(Xt1 , ..., Xtm ) At1 ... Atm } (con Ati B (Rn )). Questi eventi formano un -system. Per il Lemma 1.4 si conclude che G H, da cui la tesi.

3.2

Propriet` a delle traiettorie del processo di Wiener

In questa sezione consideriamo processi di Wiener reali. Questo non ` e restrittivo ai ni dello studio delle propriet` a delle traiettorie. Una funzione f : [a, b] Rn , si dice -H olderiana (su [a, b]), con (0, 1], se [f ] := sup
t,s[a,b], t=s

|f (t) f (s)| < |t s|

(| | indica la norma euclidea di ogni Rn ). Lo spazio di tutte le funzioni H olderiane n da [a, b] in R ` e uno spazio di Banach con la norma = + [] ; si indica con C [a, b]. Osserviamo che se f C [a, b], allora f C [a, b], per ogni . Proposizione 3.5. Le traiettorie del processo di Wiener denito nel Teorema 3.1, q.c., su ogni [0, T ], T > 0, sono H older per qualunque (0, 1/2). Dimostrazione. I Passo. Per semplicit` a prendiamo T = 1. Sia = + [] la norma di C [0, 1], Ragioneremo in modo simile alla (i) della dimostrazione del Teorema 3.1. Fissato (q.c.), si tratta di considerare, per m N, Xk ( ) sk
k 2m

=
nm 2n k<2n+1

Xk ( ) sk

nm 2n k<2n+1

Xk ( ) sk

(3.7) Adesso, per come sono costruite le funzioni Xk ( )sk (notare che hanno anche supporto disgiunto), si trova, per 2n k < 2n+1 , Xk ( )sk
2n k<2n+1

2n k<2n+1

max

Xk ( )sk max

2n k<2n+1

max

|Xk ( )| sk
.

2(n+1)

2n k<2n+1

sk

= 2(n+1) s2n

17

Ora sk = sk +[sk ] . Per calcolare [s2n ] si pu` o procedere cos` . Data una funzione b lineare f (t) = a t, t [0, a], a, b > 0, si ha [f ] = sup b b t = . a t[0,a] a t

Dunque, usando anche le propriet` a di simmetria delle sk , si ha: [sk ] = 2n/21 2(n+1) = c 2n( 1/2) , 2n k < 2n+1 . Ritornando alla stima (3.7), si trova che Xk ( ) sk
nm 2n k<2n+1

c
nm

2n (2n( 1/2) + 2n/2 ).

Fissato (0, 1/2), basta scegliere

> 0 abbastanza piccolo per ottenere che

2n (2n( 1/2) + 2n/2 ) < .


n0

Perci` o

k0 Xk ( ) sk (t)

converge nella norma di C [0, 1]. Questo prova la tesi.

II Passo. Considero tutti gli intervalli [0, n], n N. Per ogni [0, n], esiste un n F con P(n ) = 0, tale che se n , la funzione: t Wt ( ) ` e -H older su [0, n], per ogni (0, 1/2). Consideriamo 0 = n0 n . (3.8) Certamente P(0 ) = 0 e se 0 , la funzione t Wt ( ), denita su [0, +), ` e localmente -H older, per ogni (0, 1/2). Si pu` o anche dimostrare, usando il seguente teorema, che ogni processo di Wiener (Wt ) (denito su un qualche spazio di probabilit` a (, F , P)) ha traiettorie che sono, q.c., localmente H olderiane, per ogni (0, 1/2). Teorema 3.6. (Teorema di regolarit` a di Kolmogorov) Sia (Xt )tI , I = [h, k ] R+ , un processo denito su (, F , P) a valori in Rn . Supponiamo che esistano costanti positive a, b e c tali che E|Xt Xs |b c|t s|1+a , t, s I. Allora esiste una versione (Yt ) di (Xt ), tale che le traiettorie di (Yt ) sono q.c. H olderiane su I , per ogni esponente < a . b Per la dimostrazione si possono consultare [15], [3], [16], [9], [13]. Osserviamo che se richiediamo in pi` u che (Xt ) sia continuo allora otteniamo che (Xt ) e (Yt ) sono indistinguibili. Quindi se (Xt ) ` e continuo e valgono le ipotesi del teorema precedente, le traiettorie di (Xt ) sono q.c. H olderiane su I , per < a b. Corollario 3.7. Le traiettorie di un (qualunque) processo di Wiener (Wt ), q.c., su ogni [0, T ], T > 0, sono H older per qualunque (0, 1/2). 18

Dimostrazione. Si tratta di applicare il precedente teorema di Kolmogorov. Si ha: E|Wt Ws | = (t s)m


R 2m

= E|Wts |
y2

2m

=
R

2m

x 2(t s)

2 (t s)

dx

y 2m

e 2 dy = Cm |t s|m , m N, 0 s < t T 2

(si potrebbe mostrare che Cm = (2m 1)(2m 3)...). Perci` o a = m 1, b = 2m e 1 < a/b < 1 , per ogni m N . La tesi segue facilmente. 2 2m Il valore = 1/2 ` e un valore critico per le traiettorie di un processo di Wiener e non pu` o essere raggiunto. Questo fatto segue da un notevole risultato, molto pi` u preciso della precedente corollario. Questo risultato ` e stato scoperto da Paul L evy (per la dimostrazione vedere per esempio [15]). Teorema 3.8. (di P. L evy) Sia (Wt ) una processo di Wiener (denito su un qualche spazio di probabilit` a). Per ogni T > 0, per ogni , q.c., risulta: lim sup
0s<tT, |ts|

0+

|Wt ( ) Ws ( )| = 1. (2 log(1/ ))1/2

Ora proveremo che le traiettorie di un processo di Wiener (Wt ) non sono a variazione limitata (o BV) su ogni intervallo limitato di [0, ). Ricordiamo la denizione di funzione BV o a variazione limitata. Sia [a, b] R e f : [a, b] Rn una funzione. La variazione di f su [a, b] ` e Vab (f ) = sup
ti <ti+1 , ti ,ti+1

|f (ti ) f (ti+1 )|,

dove varia tra tutte le possibile partizioni (nite) di [a, b], cio` e = {t0 , ..., tm }, con a = t0 < t1 ...< tm = b (al variare anche di m N). f si dice BV su [a, b] se Vab (f ) < . Data una partizione di [a, b], introduciamo | | =
0km1

max

|tk+1 tk |.

Teorema 3.9. Le traiettorie di un processo di Wiener (Wt ), q.c., non sono BV su ogni [a, b] R+ . Dimostrazione. La dimostrazione ` e in 3 passi. I Passo. Sia = {t0 , ..., tm }, una partizione di [a, b]. Introduciamo
m1

S ( ) =
k=0

|Wtk+1 ( ) Wtk ( )|2

Proviamo che, per ogni

> 0, esiste un > 0, tale che se | | < allora (cio` e 19


| |0

E|S (b a)|2 <

lim S = b a in L2 )

(3.9)

(si dice anche che la variazione quadratica di (Wt ) ` e b a). Fissata di una partizione = {t0 , ..., tm }, consideriamo
m1 m1

E|S (b a)|2 = E =E

|Wtk+1 Wtk |2
k=0 m1 k=0 k=0

(tk+1 tk )

[|Wtk+1 Wtk |2 (tk+1 tk )] .

Poich` e le v.a. Xk = |Wtk+1 Wtk |2 (tk+1 tk ) sono indipendenti, con media 0, si ha (vedere Proposizione 1.7)
m1 m1

E|S (b a)|2 = var


k=0 m1

Xk =
k=0

var(Xk )

=
k=0 m1

E[|Wtk+1 Wtk |2 (tk+1 tk )]2 E (tk+1 tk )


k=0

|Wtk+1 Wtk |2 1 tk+1 tk

m1

=
k=0

(tk+1 tk )2 E

|Wtk+1 Wtk |2 1 tk+1 tk

Ora per ogni k = 1, ..., m, Pertanto E Si ha:

Wtk+1 Wtk tk+1 tk 2 2 |Wtk+1 Wtk | 1 = tk+1 tk

` e una v.a. normale con legge N (0, 1). c, con c indipendente da k (si verica che c = 2).
m1

m1

E|S (b a)|2 = c
k=0

(tk+1 tk )2 c| |
k=0

(tk+1 tk ) = c| |(b a) 0, (3.10)

quando | | 0. Dunque (3.9) ` e provata. II Passo. Verichiamo che Wt ( ) non ` e a variazione limitata su [a, b], per a,b , con a,b F e P(a,b ) = 0. Si ha
m1

() S ( )

0im1

max

|Wti+1 ( ) Wti ( )|
i=0

|Wti+1 ( ) Wti ( )|.

Ora per la continuit` a delle traiettorie si ha, q.c.,


| |0 0im1

lim

max

|Wti+1 ( ) Wti ( )| = 0.

1 Se per assurdo, fosse m i=0 |Wti +1 ( ) Wti ( )| C ( ) < , per ogni , con , F e P( ) > 0, allora da (*) si avrebbe che

| |0

lim S ( ) = 0, .

Questo contraddice (3.9). 20

III Passo. Proviamo la tesi. Consideriamo tutti gli intervalli [a, b], con a, b Q. Introduciamo = a,b .
a,bQ,ab

Risulta che F e P( ) = 0. Dunque se , risulta che t Wt ( ) non ` e BV su ogni [c, d] R+ . Corollario 3.10. Le traiettorie di un processo di Wiener (Wt ), q.c., non sono -H older, con > 1/2, su ogni [a, b] R+ . Dimostrazione. Se per assurdo la tesi fosse falsa, avrei che Wt ( ) sarebbe -H older in [a, b], per , F e P( ) > 0. Seguendo la dimostrazione del teorema precedente, troverei che
m1

S ( ) C
k=0

|tk+1 tk |2 | |2 1 (b a) 0, per | | 0+ ,

contro la formula (3.9). Dimostriamo ora un teorema che ` e pi` u preciso del precedente corollario. La dimostrazione segue [10] (si utilizza un metodo dovuto a Dvoretzky, Erd os e Kakutani). Una funzione f : [0, ) Rn , si dice -H olderiana nel punto s 0, con (0, 1], se esiste > 0, b > 0, per cui |t s| < , t 0, implica |f (t) f (s)| b. |t s| Teorema 3.11. Sia (Wt ) un processo di Wiener reale. Per ogni > 1/2, q.c., le traiettorie di (Wt ) non sono -H olderiane in nessun punto s 0. Dimostrazione. Fissiamo T N, N N, N 1 (sucientemente grande), per cui N ( 1/2) > 1. Sia b > 0, consideriamo
Ab n = { : esiste s [0, T ] per cui |Wt ( ) Ws ( )| < b|t s| , se |t s| N/n}.

Se per assurdo t Wt ( ) ` e H older in un punto s [0, T ], avremmo |Wt ( ) Ws ( )| < b0 |t s| , per |t s| N/n0 ,
0 per qualche b0 > 0 e n0 N. Dunque Ab n0 . b b b b Ora An An+1 , n N. Sia A = nN Ab n . Se proviamo che P(A ) = 0, per ogni b > 0, abbiamo trovato la tesi (data anche larbitrariet` a di T ).

Dora in poi, supponiamo b ssato e non indichiamo pi` u la dipendenza di An da b. Introduciamo Zk = max |W( k+i ) W( k+i1 ) |,
1iN
n n

k = 0, ...., nT e Bn = { : Zk ( ) 2bN /n , per qualche k = 0, ..., nT }. 21

Proviamo che An Bn , n N. (3.11) Sia An , allora esiste s = s( ) [0, T ], per cui |Wt ( ) Ws ( )| < b|t s| , |t s| N/n. Sia k0 il pi` u grande intero per cui k0 /n s. Risulta che |W( k0 +1 ) ( ) W( k0 ) ( )| 2b(1/n)
n n

e |W( k0 +N ) ( ) W( k0 +N 1 ) ( )| 2bN /n (infatti per construzione k0 /n s N/n). Perci` o Zk0 ( ) 2bN /n e cosi Bn . Questo prova (3.11). Usando (3.11), si trova P(A) = lim P(An ) lim inf P(Bn ).
n n
n n

Ora
nT nT

P(Bn ) = P
k=0

(Zk 2bN /n )
k=0

P(Zk 2bN /n )
N

(nT + 1) P(|W1/n | 2bN /n ) Infatti si ha (ponendo W( k+i ) W( k+i1 ) = Xki ):


n n

P(Zk 2bN /n ) P( max |Xki | 2bN /n ) = P(|Xk1 | 2bN /n , ..., |XkN | 2bN /n )
N 1iN

=
i=1

P(|Xki | 2bN /n ) = P(|W1/n | 2bN /n )

k 0, ..., nT.

Dunque, ponendo c = 2bN , P(Bn ) (nT + 1) P(|W1/n | c/n )


c/n N

(nT + 1)
c/n

enx

2 /2

n/2 dx

1 (nT + 1) (2c n/n )N . N/ 2 (2 )

Essendo ( 1/2)N > 1, si trova limn P(Bn ) = 0, da cui la tesi. Corollario 3.12. Le traiettorie di un processo di Wiener (Wt ), q.c., non sono derivabili in nessun t 0. La traiettorie di un processo di Wiener godono di numerose altre propriet` a, vedere per esempio [15], [3], [16], [11], [19].

3.3

Osservazioni nali

(1) Un processo (Xt ), denito e adattato rispetto ad una base stocastica (, F , (Ft )tI , P), si chiama Ft -martingala se ogni v.a. Xt L1 (), t I , e inoltre E(Xt Xs /Fs ) = 0, q.c., t > s, t, s I. 22

Si verica facilmente che un processo di Wiener (Wt ) denito e adattato rispetto ad una base stocastica (, F , (Ft )t0 , P) ` e una Ft -martingala. Infatti si ha: E(Wt Ws /Fs ) = 0, t > s 0,

usando il fatto che (Wt ) ha incrementi indipendenti. (2) Dato un processo di Wiener reale (Wt ) possiamo calcolare le sue distribuzioni nito dimensionali W t1 ,...,tn , al variare di 0 t1 < ... < tn e di n N. Si tratta di applicare le Proposizioni 1.13 e 1.14. W Possiamo limitarci a considerare t1 > 0 (infatti se t1 = 0, W 0,...,tn = 0 t2 ,...,tn ). Consideriamo le v.a. Xn = (Wt1 , ..., Wtn ), Yn = (Wt1 , Wt2 Wt1 , ..., Wtn Wtn1 ).

Dalle propriet` a di (Wt ), sappiamo che Yn ha legge normale N (0, Dn ), dove Dn ` e una ` matrice n n diagonale, avente autovalori t1 , t2 t1 , ..., tn tn1 . E facile costruire una matrice invertibile L tale che Yn = LXn ; per esempio se n = 2, si ha L= 1 0 1 1 .

Dunque la legge di Xn , cio` e W e N (0, L1 Dn (L1 )T ). Si pu` o determinare facilt1 ,...,tn , ` n 1 1 T mente Q = L Dn (L ) , osservando che Qn ij = E(Wti Wtj ) = ti tj , i, j = 1, ..., n, dove ti tj = min(ti , tj )

(infatti se ti < tj , E(Wti Wtj ) = E[(Wtj Wti )Wti ] + EWt2 = ti ). i Viceversa ogni processo stocastico (Xt ) che ha come distribuzioni nito dimensionali n e quasi un processo di Wiener. Infatti (X ) verica le le precedenti W t t1 ,...,tn = N (0, Q ), ` propriet` a 1, 2 e 3 della Denizione 3.1, ma non necessariamente la 4 (non ` e detto che questo processo abbia le traiettorie continue). Tuttavia, usando il teorema di regolarit` a di Kolmogorov, si pu` o mostrare che esiste una sua versione con traiettorie continue. Dunque esiste una versione di (Xt ) che ` e un processo di Wiener. Ogni processo stocastico le cui distribuzioni nito dimensionali sono leggi normali, si dice processo Gaussiano. Il processo di Wiener ` e un particolare processo Gaussiano (vedere anche [15]). Il precedente discorso vale in modo analogo per processi di Wiener n-dimensionali. (3) Accenniamo alla misura di Wiener. Sia (Wt ) un processo di Wiener a valori in Rd , denito su (, F , P). Consideriamo E = C ([0, ), Rd ) = { : [0, ) Rd continue }; E ` e uno spazio metrico, separabile e completo, vedere anche (1.2). Indichiamo con B (E ) la -algebra di Borel su E . Si pu` o provare che B (E ) coincide con la -algebra generata da tutti i rettangoli Bt1 ,...,tn (A1 ... An ) = { E : (t1 ) A1 , ..., (tn ) An }, al variare di t1 < ... < tn in [0, ), n N e Ak B (Rd ), vedere per esempio [13]. Usando questo fatto si verica subito che la funzione T , T : E , T ( ) = (Wt ( ))t0 , 23 ,

` e misurabile (da (, F ) in (E, B (E )). Notiamo che si ha: T 1 (Bt1 ,...,tn (A1 ... An )) = {Wt1 A1 , ..., Wtn An } F . La misura di probabilit` a P0 , immagine di P tramite T , si chiama misura di Wiener (su (E, B (E ))). Per ogni B B (E ), si ha: P0 (B ) := P(T 1 (B )). Si pu` o dimostrare che P0 ` e unica, nel senso che se unaltra misura di probabilita P1 su B (E ), verica P0 (Bt1 ,...,tn (A1 ... An )) = P1 (Bt1 ,...,tn (A1 ... An )), ` chiaro che P0 ` e concentrata per ogni rettangolo Bt1 ,...,tn (A1 ... An ), allora P1 = P0 . E sulle funzioni E , che sono nulle in t = 0. Sullo spazio di probabilit` a (E, B (E ), P0 ), si denisce il processo di Wiener canonico 0 (Xt ), ponendo 0 Xt ( ) = (t), E, t 0.
0 ) verica tutte le propriet` Si prova facilmente che (Xt a della Denizione 3.1. Per maggiori dettagli sulla misura di Wiener, vedere per esempio [15], [9], [3], [16].

Equazioni stocastiche con rumore additivo

Cominciamo con un modello sico semplicato in cui interviene unequazione dierenziale stocastica, vedere anche [9] e [12]. Consideriamo una particella microscopica sospesa in un uido bidimensionale. Supponiamo, per semplicit` a, di considerare solo la componente nella direzione dellasse x del vettore spostamento della particella. Se x = X (t) indica la posizione della particella al tempo t, il suo spostamento tra t e t + t, si potr` a indicare con X = X (t + t) X (t). Possiamo esprimere X , nel modo seguente, X (t + t) x = b(t, x) t + (t, x)(W (t + t) W (t)),

dove b e sono funzioni (regolari) e W (t) ` e un processo di Wiener reale (o pi` u precisamente una traiettoria di un processo di Wiener). Considerando linterpretazione sica del moto Browniano (come elaborata allinizio del 1900 da Einstein e Smoluchowski) (t, x)(W (t + t) W (t)) indica lo spostamento della particella tra t e t + t dovuto esclusivamente agli urti con le molecole del uido; (t, x) misura leetto della temperatura del uido nel punto x allistante t. Invece b(t, x) t indica lo spostamento della particella dovuto al moto del uido (b(t, x) misura la velocit` a del uido nel punto x allistante t). Si dice anche che b ` e il coeciente di drift e quello di diusione. Passando al limite per t 0+ , si trova formalmente dX (t) = b(t, X (t))dt + (t, X (t))dWt , (4.1)

t > 0, usualmente con una condizione iniziale, X0 = z R. Resta il problema di dare un senso a (4.1). Non ` e possibile dividere semplicemente per dt e ragionare per ; infatti il rumore bianco dW e denito per , vedere Corollario 3.12. dt non ` 24

Per dare un senso alla precedente espressione, Ito propose di considerare (4.1) in senso integrale, cio` e di trattare
t t

Xt = z +
0

b(s, Xs )ds +
0

(s, Xs )dWs ,
t

t 0,

(4.2)

dando un senso preciso allintegrale stocastico 0 (s, Xs )dWs . Tale integrale non si pu` o denire per , nel senso di Stieltjes, in quanto le traiettorie di (Wt ) non sono localmente BV . Ito den` lintegrale precedente con un procedimento di tipo globale rispetto a , ovvero con un passaggio al limite in L2 (). Lo studio dellintegrale stocastico richiede nozioni pi` u avanzate di Probabilit` a, tra cui alcuni teoremi sulle martingale. Nel seguito considereremo solo equazioni stocastiche con rumore additivo, quando cio` e non dipende ne da x ne da t, cio` e equazioni del tipo dXt = b(Xt )dt + dWt (il fatto che non chiediamo che b dipenda da t ` e solo per semplicare un poco le notazioni e gli enunciati; non ` e una semplicazione sostanziale). Per denire tali equazioni non ` e richiesto lintroduzione dellintegrale stocastico di Ito. Le equazioni stocastiche con rumore additivo costituiscono unutile introduzione alle equazioni (4.2) che sono anche dette equazioni stocastiche con rumore moltiplicativo. Le soluzioni delle equazioni stocastiche (4.2) si chiamano anche processi di diusione. La trattazione delle equazioni stocastiche generali si pu` o trovare in [7], [16], [17], [9], [10], [19], [13], [14]. Un testo che presenta applicazioni delle equazioni stocastiche alla nanza matematica ` e [12].

4.1

Un teorema di esistenza e unicit` a

I riferimenti principali per questa sezione sono [14], [9], [7], [13]. Consideriamo ssato un processo di Wiener n-dimensionale (Wt ) denito e adattato rispetto ad una base stocastica (, F , (Ft )t0 , P), vedere la Denizione 3.3 (per semplicit` a si pu` o anche pensare di avere un processo di Wiener (Wt ) su (, F , P) e poi considerare come ltrazione (Ft ), la ltrazione naturale completata di (Wt ), vedere la Sezione 2). Considereremo una equazione stocastica (brevemente una EDS) autonoma e con rumore additivo, cio` e del tipo dXt = b(Xt )dt + dWt , X0 = x Rn , t 0, (4.3)

dove sono assegnate una matrice reale , nn, una funzione continua (o campo vettoriale continuo) b : Rn Rn e x Rn . Abbiamo la seguente nozione di soluzione. Denizione 4.1. Un processo continuo (Xt )t0 denito su (, F , (Ft )t0 , P), si dice soluzione (globale) di (4.3) se valgono le seguenti propriet` a: (1) (Xt ) ` e Ft -adattato; (2) Xt risolve per , q.c., lequazione integrale
t

Xt ( ) x =
0

b(Xs ( ))ds + Wt ( ), t 0. 25

(4.4)

Se sar` a necessario indicare esplicitamente la dipendenza della soluzione da x, scriveremo x ). (Xt Osservazioni 4.1. (i) Essendo il processo soluzione (Xt ) continuo, possiamo dire che esiste F , con P( ) = 0, tale che se , la funzione t Xt ( ) risolve (4.4) per ogni t 0. (ii) Potremmo pi` u in generale considerare EDS nonautonome (con rumore additivo) del tipo dXt = b(t, Xt )dt + dWt , Xs = Y , t [s, T ], dove T > s 0, b : [s, T ] Rn Rn ` e continua e Y ` e una v.a. assegnata. Lequazione precedente scritta in forma integrale diventa
t

Xt ( ) Y ( ) =
s

b(r, Xr ( ))dr + (Wt ( ) Ws ( )), t s.

(4.5)

La soluzione ` e un processo continuo e Ft -adattato (Xt )t[s,T ] che risolve (4.5) q.c.. Occorre per` o richiedere che Y sia Fs -misurabile. La trattazione di (4.5) si pu` o fare in maniera simile a quella che faremo per (4.4). (iii) Si potrebbe anche considerare nella EDS (4.3) un processo di Wiener d-dimensionale e una matrice n d. Il processo soluzione (Xt ) sarebbe ancora n-dimensionale. (iv) La richiesta che la soluzione (Xt ) sia un processo Ft -adattato ` e giusticata anche dal fatto che vorremo poter applicare a (Xt ) la formula di Ito. (v) La trattazione che faremo si potrebbe anche adattare a EDS con rumore additivo rispetto a processi pi` u generali del processo di Wiener (Wt ), per esempio rispetto ai processi di L evy. Per studiare lesistenza ` e lunicit` a di soluzioni per (4.3) faremo le seguenti ipotesi. Ipotesi 4.1. (i) b C 1 (Rn , Rn ). (ii) Esiste una costante k > 0 per cui b(x + y ) b(y ), x k (1 + |x|2 ), x, y Rn , (4.6)

dove , e | | indicano il prodotto interno e la norma euclidea in Rn . La condizione (i) si pu` o generalizzare chiedendo che b sia localmente Lipschitziana. La condizione (ii) ` e una condizione di monotonia, ben nota nella teoria delle equazioni dierenziali ordinarie per assicurare lesistenza nel futuro delle soluzioni. Osserviamo che se vale (i) e b ` e Lipschitziana su Rn (ovvero supxRn |Db(x)| < , dove Db indica il gradiente di b) allora (ii) ` e soddisfatta con k = L, dove L indica la costante di Lipschitz di b. Infatti si ha: b(x + y ) b(y ), x L|x|2 , x, y Rn . Se Rn = R e b C 1 (R), allora (ii) vale se supxR b (x) = k < . Un esempio di EDS in dimensione 1 che verica le ipotesi precedenti ` e dXt = (aX X 3 )dt + dWt , X0 = x R, t 0 (a R parametro). Teorema 4.2. (Teorema di esistenza ` e unicit` a) Lequazione (4.3), con le Ipotesi 4.1, n ammette ununica soluzione, per ogni x R . 26

Per provare il teorema risolveremo (4.4) in modo deterministico ( per ). Una dicolt` a ulteriore sar` a provare che il processo soluzione ` e Ft -adattato. Lunicit` a si basa sul seguente risultato elementare, che si usa spesso. Lemma 4.3. (Lemma di Gronwall). Siano v : [a, b] R+ una funzione continua e c, d 0. Se, per ogni t [a, b], risulta
t

v (t) c + d
a

v (s)ds

allora v (t) ced(ta) , t [a, b]. Lesistenza si basa anche sul seguente risultato. Lemma 4.4. Sia f : [0, ) Rn una funzione continua assegnata. Supponiamo che b C 1 (Rn , Rn ) verichi (4.6) e consideriamo lequazione integrale (nella funzione incognita u : [0, ) Rn continua):
t

u(t) = f (t) +
0

b(u(s))ds, t 0.

(4.7)

(i) Esiste ununica soluzione u per (4.7) su [0, [. (ii) Se b ` e in aggiunta Lipschitziana su Rn allora le seguenti iterate di Picard,
t

u0 (t) = f (t), un+1 (t) = f (t) +


0

b(un (s))ds, t 0, n N,

convergono alla soluzione u, uniformemente su ogni intervallo [0, a], a > 0. Dimostrazione. (i) C 1 che verica Si pone v (t) := u(t) f (t). Cerchiamo una soluzione v di classe
t

v (t) =
0

b(v (s) + f (s))ds, t 0.

(4.8)

Questa equivale al problema di Cauchy v (t) = b(v (t) + f (t)), v (0) = 0.

Poich` e F (t, x) := b(x + f (t)) ` e di classe C 1 nella variabile x, sappiamo che esiste ununica soluzione v per il precedente problema di Cauchy, soluzione denita su un intervallo massimale [0, T [. Dunque v verica (4.8) su [0, T [. E chiaro che u(t) := v (t) + f (t), t [0, T [, risolve (4.7) ed ` e lunica soluzione in [0, T [. Rimane da provare, usando (4.6), che T = . Moltiplicando scalarmente per v si ha: 1d |v (t)|2 = 2 dt = v (t), v (t) = b(v (t) + f (t)), v (t) b(v (t) + f (t)) b(f (t)), v (t) + b(f (t)), v (t)

k (1 + |v (t)|2 ) + M |v (t)| C (1 + |v (t)|2 ), t [0, T [, 27

dove M = supt[0,T ] |b(f (t))|. Integrando su [0, t], si trova


t

|v (t)|2 2Ct + 2C
0

|v (s)|2 ds.

Il Lemma di Gronwall implica che |v (t)|2 2CT e2CT , t [0, T [. Dunque T = +. (ii) Sia a > 0. Si ha, per t [0, a],
t

|u1 (t) u0 (t)|


0 t

|b(f (r))|dr Bt,


t

|u2 (t) u1 (t)|


0

|b(u1 (r)) b(f (r))|dr BL


0

sds = B

Lt2 , 2

dove B = supt[0,a] |b(f (t))|. Per induzione si ottiene: |un+1 (t) un (t)| B Ln an+1 , t [0, a], n N. (n + 1)!

Dunque un+1 (t) = f (t) + n k=0 (uk+1 (t) uk (t)) converge uniformente su [0, a] ad una t funzione continua u. Passando al limite in un+1 (t) = f (t) + 0 b(un (s))ds si trova che u ` e la soluzione dellequazione su [0, +[. Dimostrazione del Teorema 4.2. (Unicit` a) Se (Xt ) e (Yt ) sono due soluzioni si ha, per ogni T > 0,
t t

|Xt ( ) Yt ( )|
0

|b(Xs ( )) b(Ys ( ))|ds c


0

|Xs ( ) Ys ( )|ds, t [0, T ],

dove c ` e la costante di Lipschitz di b sulla palla chiusa B (0, R), di centro 0 e raggio R, dove R = R( ) = maxt[0,T ] (|Xt ( )| + |Yt ( )|). Dal Lemma di Gronwall si deduce che Xt ( ) = Yt ( ), t [0, T ], da cui la tesi per larbitrariet` a di T e di . Si pu` o provare allo stesso modo che se due processi (Xt ) e (Yt ) risolvono (4.4) su un intervallo [0, T ( )], allora Xt ( ) = Yt ( ), t [0, T ( )], per ogni . (Esistenza) Sappiamo gi` a che esiste (Xt ( )) che risolve (4.4) su [0, [, q.c.. Basta applicare il Lemma 4.4 con f (t) = x + Wt ( ), q.c.. Rimane da provare che (Xt ) ` e un processo Ft -adattato, cio` e che Xt : (, Ft ) Rn ` e misurabile, per ogni t > 0. Questo ` e certamente vero se b ` e Lipschitziana su Rn . Infatti in tale caso Xt ` e il limite per (uniformemente in ogni [0, T ]) dei processi
t

X0 (t) = x + Wt , Xn+1 (t) = x + Wt +


0

b(Xn (s))ds, t 0, n N,

vedere (ii) nel Lemma 4.4. Si dimostra facilmente che i processi (Xn (t)) sono tutti Ft -adattati, usando linduzione. 28

Per trattare il caso di b soltanto localmente Lipschitziana, introduciamo delle opportune approssimazioni Lipschitziane (bk ) di b: b(x), se |x| k, b(kx/|x|), se |x| > k,

bk (x) =

E chiaro che bk : Rn Rn ` e Lipschitziana. Dunque le EDS dXt = bk (Xt )dt + dWt , X0 = x Rn , t 0, k N,


k ), che ` ammettono ciascuna ununico processo soluzione (Xt e anche Ft -adattato. Per concludere la dimostrazione, proviamo che

()

k lim Xt ( ) = Xt ( ),

per ogni t 0, q.c.. ((*) signica che, ssati s0 > 0, q.c., per ogni k ( ) X ( )| < ). k0 = k0 ( ) tale che se k k0 , |Xs s0 0

> 0, esiste

Fissiamo e introduciamo lintero N = N ( ) > supt[0,s0 ] |Xt ( )| (sappiamo che t Xt ( ) ` e continua, q.c.). Per costruzione, so che
t t

Xt ( ) x =
0

b (Xs ( ))ds + Wt ( ) =
0

bN (Xs ( ))ds + Wt ( ), t [0, s0 ].

N ( ), t [0, s ] ed anche X ( ) = Per lunicit` a della soluzione, si deve avere Xt ( ) = Xt 0 t k Xt ( ), t [0, s0 ], per ogni k N . Questo prova (*). La dimostrazione ` e nita.

Osserviamo che il teorema precedente vale anche se assumiamo che il coeciente b sia limitato su Rn e di classe C 1 (senza richiedere la condizione di monotonia (4.6)).
x ) il processo soluzione di (4.4), sotto le Ipotesi 4.1. SupProposizione 4.5. Sia (Xt poniamo che b sia anche limitata su Rn . Allora, per ogni T > 0, si ha: x 2 sup E|Xt | < .

t[0,T ]

In particolare

T 0

x |2 ds < . E|Xs

Dimostrazione. Si ha:
x 2 E|Xt | 3E |x|2 + CT + 2 |Wt |2 Cx,T ,

t [0, T ].

Si potrebbe provare il precedente risultato solo sotto le Ipotesi 4.1. Tuttavia la dimostrazione sarebbe meno banale (richiederebbe anche di introdurre i tempi darresto, vedere per esempio [16]). 29

Lintegrale di Ito

Per semplicit` a, in questa sezione trattiamo processi reali. Consideriamo sempre ssato un processo di Wiener reale (Wt ) denito e adattato rispetto ad una base stocastica (, F , (Ft )t0 , P), vedere la Denizione 3.3. Un processo elementare (Xt ) = (Xt )t0 ` e un processo del tipo
n1

Xt ( ) =
k=0

Xtk ( ) 1[tk ,tk+1 [ (t),

(5.1)

dove 0 t0 < t1 ... < tn , n N, le Xtk L2 () sono variabili aleatorie Ftk -misurabili. T Ovviamente risulta che 0 E|Xs |2 ds < , per ogni T > 0. Ogni processo elementare ha traiettorie continue a destra. Per un processo elementare, deniamo lintegrale stocastico (alla Ito) nel modo seguente:
t n1

Xs dWs :=
0 k=0

Xtk (Wtk+1 t Wtk t ), t 0, dove tk t = min(tk , t).

Osserviamo che per un processo elementare (Xt ) valgono le seguenti propriet` a: (o) il processo ( (i) E
t 0 Xs dWs t 0 Xs dWs )t0

` e continuo q.c.;

= 0, t 0; =E
t 2 0 |Xs | ds,

(ii) E(

t 2 0 Xs dWs )

t 0 (propriet` a di isometria);

La (o) ` e chiara. Anche (i) si verica facilmente. Infatti E[Xtk (Wtk+1 t Wtk t )] = 0, poich` e Xtk ` e Ftk -misurabile e integrabile e (Wtk+1 Wtk ) ` e indipendente da Ftk ed ha media nulla. Verichiamo la (ii), supponendo che tn = t. Questo non ` e restrittivo. Si ha:
t n1

E(
0 n1

Xs dWs )2 = E
k=0

Xtk (Wtk+1 Wtk )

=
k,j =1 n1

E(Xtk Xtj (Wtk+1 Wtk ) (Wtj +1 Wtj ))


n1 2 2 E[Xt ] E(Wtk+1 Wtk )2 k k=0 n1 t 2 E[Xt ] (tk+1 tk ) = k k=0

=
k=0

2 E[Xt k

(Wtk+1 Wtk ) ] = =

E|Xs |2 ds.
0

Abbiamo usato che E[Xtk Xtj (Wtk+1 Wtk ) (Wtj +1 Wtj )] = 0, se tk < tj . Questo segue dalle propriet` a di (Wt ) e dal fatto che le Xtk L2 () (si pu` o usare il Corollario 1.6). Usando (i) e (ii) si pu` o estendere la denizione di integrale stocastico a processi che si possono approssimare attraverso processi elementari. 30

Introduciamo la classe L2 ad . Un processo (Xt )t0 tale che, per ogni T > 0, la funzione: [0, T ] R, (t, ) Xt ( ) sia B ([0, T ]) FT -misurabile, si dice progressivo. Certamente ogni processo progressivo ` e anche Ft -adattato. Infatti {t} {Xt A} = ({(s, ) [0, t] : Xs ( ) A} {t} ) B ([0, t]) Ft , per ogni t > 0, A B (R). E importante tenere presente che ogni processo con traiettorie continue a destra che sia Ft -adattato ` e anche progressivo, vedere [15]. Un processo progressivo (Xt ) si dice di classe L2 ad se verica
T

E
0

|Xs |2 ds < , per ogni T > 0.

(5.2)

Se (Xt ) ` e un processo di classe L2 o dimostrare che, per ogni T > 0, esiste una ad , si pu` n successione di processi elementari (Xt ) tale che
T n

lim E
0

n 2 |Xs Xs | ds = 0,

(5.3)

vedere per esempio [15], [17] o [13]. Fissato T > 0, usando (ii), si ottiene
T T n Xs dWs 0 T 0 m Xs dWs 2 T

=E
0

n m 2 |Xs Xs | ds, n, m N.

n dW formano una successione di Cauchy in L2 () che converge, in Quindi le v.a. 0 Xs s L2 (), ad una v.a. che chiamiamo YT . Dato (Xt ) di classe L2 ad , si pone T

YT :=
0

Xs dWs (integrale

stocastico di (Xt ) su [0, T ])

e si prova (senza dicolt` a) che la denizione non dipende dalla particolare scelta dei n processi elementari (Xt ) che approssimano (Xt ), nel senso di (5.3). Al variare di t 0 si trova il processo integrale stocastico (Yt )t0 ,
t

Yt =
0

Xs dWs , t 0.

Questo ` e Ft -adattato ed ` e unico a meno di versioni. Si pu` o provare che (a) (Yt ) ammette una versione con traiettorie continue; (b) E(Yt )2 = E(
t 2 0 Xs dWs ) t 2 0 |Xs | ds,

=E

t 0.

(c) (Yt ) ` e una Ft -martingala (cio` e E(Yt /Fs ) = Ys , t > s 0), vedere per esempio [15] o [19]. Inoltre se (Xt ) ` e un processo continuo di classe L2 ad allora, per ogni T > 0,
T n1

Xs dWs = lim
0

| |0+

Xtk (Wtk+1 Wtk ).


k=0

(5.4)

31

dove il limite ` e in L2 () e = {t0 , ...tn }, con t0 = 0 < ... < tn = T . Infatti se (Xt ) ` e t ), continuo si pu` o approssimarlo in L2 ([0, T ] ) con processi elementari (X
n1

t ( ) = X
k=0

Xtk ( ) 1[tk ,tk+1 [ (t).

Questo non si pu` o fare in generale per ogni processo di classe L2 ad . Esempio 5.1. Proviamo che
t

Yt =
0

Ws dWs = Wt2 /2 t/2, t 0.

Fissiamo t > 0. Sia = {t0 , ..., tn }, con 0 = t0 < t1 ...< tn = t una generica partizione di [0, t]. Sia | | = max0kn1 |tk+1 tk |. Si ha:
n1 n1 n1 n1

2
k=0

Wtk (Wtk+1 Wtk ) =


k=0

[Wtk + (Wtk+1 Wtk )]2


n1 k=0 n1

[Wtk ]2
k=0 n1

[Wtk+1 Wtk ]2 [Wtk+1 Wtk ]2 [Wtk+1 Wtk ]2 .

=
k=0

[Wtk+1 ]2
k=0

[Wtk ]2
k=0 n1 k=0

= Wt2

Passando al limite in L2 () con | | 0+ , si trova la tesi, grazie a (3.9) (la variazione quadratica di (Wt ) su [0, t] ` e proprio t). Lintegrale stocastico rispetto a Wt si pu` o denire per processi pi` u generali, di quelli 2 a denito il suo integrale per processi progressivi di classe Lad . Lo stesso Ito aveva gi` (Xt ) che vericano la condizione
t

|Xs ( )|2 ds < , per ogni t > 0, q.c..


0

(5.5)

In questo caso lintegrale stocastico si ottiene come limite in probabilit` a di integrali stocastici di processi elementari. Tuttavia non gode pi` u in generale delle precedenti propriet` a (a), (b) e (c).

La formula di Ito

Consideriamo sempre ssato un processo di Wiener n-dimensionale (Wt ) denito e adattato rispetto ad una base stocastica (, F , (Ft )t0 , P), vedere la Denizione 3.3.

6.1

La formula di Ito multidimensionale

1 ,2 1,2 Fissiamo T > 0 e introduciamo lo spazio di funzioni Cb,T = Cb ([0, T ] Rn ).


1,2 Diciamo che una funzione f (t, x), f : [0, T ] Rn R appartiene a Cb,T , se f ` e derivabile n con continuit` a una volta in t e due volte in x su [0, T ] R (cio` e esistono le derivate parziali

32

t f , xi f e xi xj f , con i, j = 1, ...., n, continue su [0, T ] Rn ) e inoltre f e tutte le derivate parziali t f , xi f e xi xj f , con i, j = 1, ...., n, sono limitate su [0, T ] Rn . 1 ,2 2 Scriviamo Dx f = (x1 f, ..., xn f ). Lo spazio Cb si denisce in modo simile a Cb,T ; si tratta n delle funzioni f : R R continue e limitate, che ammettono tutte le derivate parziali xi f e xi xj f , con i, j = 1, ...., n, continue e limitate su Rn .

Il seguente risultato ` e molto importante.


1,2 x ), x Rn , il processo Teorema 6.1. (Formula di Ito) Sia f Cb,T . Sia (Xt ) = (Xt soluzione di (4.4), sotto le Ipotesi 4.1. Indichiamo con q = (qij ) la matrice T . Considerando il processo continuo f (t, Xt ), si ha: t t

f (t, Xt ( )) f (0, x) =
0

s f (u, Xu ( ))du +
0 t 0 n

Dx f (u, Xu ( )), b(Xu ( )) du

+ dove Yt ` e dato da
n t

1 2

qij xi xj f (u, Xu ( )) du + Yt ( ), t [0, T ], q.c.,


i,j =1

t j xi f (u, Xu )ij dWu :=

Yt =
i,j =1 0

Dx f (u, Xu ), dWu .
0

La formula di Ito vale pi` u in generale per i cosiddetti processi (Xt ) di Ito, che non sono necessariamente soluzioni di EDS. Anche le ipotesi su f si potrebbero indebolire (permettendo per esempio ad f di essere un polinomio). In tale caso occorre generalizzare la nozione che abbiamo dato di integrale stocastico, usando la condizione (5.5). Rimandiamo ai testi di calcolo stocastico per la presentazione e la dimostrazione della formula di Ito in un contesto pi` u generale. Motivati dalla formula di Ito, consideriamo il seguente operatore di Kolmogorov, Lf (x) =
2, Cb

1 2

qij xi xj f (x)+
i,j =1 i=1

1 xi f (x)bi (x) = T r(qD2 f (x))+ Dx f (x), b(x) , x Rn , 2 D2 f (x)

(6.1) f dove T r(A) indica la traccia di una matrice A e ` e la matrice Hessiana di f in x. Notiamo che q = T ` e una matrice simmetrica e semidenita positiva.
2 . Supponiamo che (X x ) sia il processo soluzione di (4.4). Corollario 6.2. Sia f Cb t Se assumiamo che b C 1 sia limitata su Rn allora si ha: t x E(f (Xt )) = f (x) + E 0 x )) E(f (X x )) E(f (Xt t +h x = ELf (Xt ), x Rn , t 0. h0 h x Lf (Xs )ds,

t 0, e

(6.2)

lim

(6.3)

Dimostrazione. Per ottenere (6.2), si applica lattesa nella precedente formula di Ito, 2 . Certamente lintegrale stocastico Y ` senza dicolt` a visto che b ` e limitata e f Cb t e ben denito, grazie alle ipotesi su f (e si ha EYt = 0, t 0). Anche la (6.3) si dimostra facilmente. 33

La (6.3) per t = 0, diventa lim


x )) f (x) E(f (Xh 2 = Lf (x), x Rn , f Cb . h

h0+

(6.4)

Questa formula esprime il fatto che loperatore L ` e il generatore (innitesimale) del x ). processo di diusione (Xt Si potrebbe dimostrare il precedente corollario anche solo assumendo che b sia Lips2. chitziana su Rn e f Cb Tuttavia il risultato in generale non vale con f soltanto di classe C 2 (non si pu` o ottenere il corollario con la stessa generalit` a con cui si potrebbe provare la formula di Ito). La formula di Ito ` e un uguaglianza per tra processi. Il corollario precedente richiede addizionali condizioni di integrabilit` a sui processi che si considerano.
x Partendo dal Corollario 6.2 si potrebbe provare che la legge p(t, x, ) della v.a. Xt ` e soluzione (in senso generalizzato) di unequazione parabolica di tipo Fokker-Planck, in cui compare laggiunto formale L di L, n X 1 L = T r(qD2 ) xi [bi (x) ]. 2 i=1

Pi` u precisamente, se indichiamo con p(t, x) la misura p(t, x, ), si ha: t p(t, x) = L p(t, x), t > 0, 2 p(0, x) = x , x Rn ; lequazione precedente ` e intesa in senso distribuzionale, cio` e, per ogni g C0 (Rn ) 2 n (ovvero per ogni g di classe C su R con supporto compatto), deve valere t

Z

g (y )p(t, x)(dy ) =
Rn

Lg (y )p(t, x)(dy ), t > 0,

Rn

vedere per esempio [9], [7] e [16], [20]. Le equazioni di Fokker-Planck si chiamano anche equazioni di Kolmogorov forward.

6.2

Dimostrazione della formula di Ito unidimensionale

Riprendiamo la formula di Ito quando Rn = R.


1 ,2 x ), x R, il processo soluzione di (4.4), . Sia (Xt ) = (Xt Teorema 6.3. Sia f Cb,T sotto le Ipotesi 4.1. Considerando il processo continuo f (t, Xt ), si ha: t t

f (t, Xt ( )) f (0, x) =
0

s f (u, Xu ( ))du +
0

x f (u, Xu ( ))b(Xu ( ))du


t

+ 2

1 2

xx f (u, Xu ( ))du +
0 0

x f (u, Xu )dWu .

Spieghiamo un metodo pratico per ricordarsi la formula di Ito. Si tratta di scrivere la formula di Taylor per f (Xt ), identicando dWt con spiegare meglio lidea trattiamo f non dipendente da t). 1 df (Xt ) = f (Xt )dXt + f (Xt )(dXt )2 + o((dXt )2 ) 2 1 = f (Xt )(b(Xt )dt + dWt ) + f (Xt )(b(Xt )dt + dWt )2 + o((dXt )2 ) 2 1 = f (Xt )b(Xt )dt + f (Xt )dWt + f (Xt ) 2 dt + o(dt). 2 34

dt (per

Trascurando o(dt) e integrando, si trova proprio


t

f (Xt ) f (x) =
0

1 (b(Xu )f (Xu ) + 2 f (Xu ))du + 2

f (Xu )dWu .
0

Esempio 6.4. Sia (Wtx ) = (Wt + x), con (Wt ) processo di Wiener reale, x R ssato. x = x; quindi (W x ) risolve (4.4) con b = 0 e = 1. Si ha: dWtx = dWt , W0 t Consideriamo f (x) = sin(x) e il processo Yt = f (Wtx ) = sin(Wtx ). Usando la formula di Ito, si trova 1 1 dYt = f (Wtx )dWt + f (Wtx )dt = cos(Wtx )dWt sin(Wtx )dt. 2 2 Quindi
t

sin(Wtx ) x =
0

x cos(Ws )dWs

1 2

t x sin(Ws )ds. 0

La formula ` e in contrasto con la nostra intuizione basata sulle regole del calcolo integrale t x alla Cauchy-Riemann per la presenza di 1 2 0 sin(Ws )ds. Dimostrazione del Teorema 6.3 Per semplicit` a di notazione, supponiamo che f non dipenda da t. Inoltre poniamo = 1. Fissiamo t > 0. Consideriamo una generica partizione = {s0 , ...sn }, con s0 = 0 < ... < sn = t; | | = max0kn1 |sk+1 sk |. Dalla formula di Taylor, si ha (ragionando per ):
n1

f (Xt ) f (x) =
k=0 n1

[f (Xsk+1 ) f (Xsk )] f (Xsk )


k=0

= dove

Xk +

1 2

n1

f (k )[ Xk ]2 = ,
k=0

Xk = Xsk+1 Xsk e |k Xsk | |Xsk+1 Xsk |, k = 0, ..., n 1.

Proveremo la formula di Ito, mostrando che esiste una successione (m ) di partizioni di [0, t] (con |m | 0, per m ) tale che
t m

lim m =
0

1 (b(Xu )f (Xu ) + f (Xu ))du + 2

f (Xu )dWu , q.c..


0

(6.5)

Fissata , risulta che


n1 n1 sk+1 n1

f (Xsk )
k=0

Xk =
k=0

f (Xsk )
sk

b(Xu )du +
k=0

f (Xsk ) Wk ,

dove

Wk = Wsk+1 Wsk . Ora ` e chiaro che


n1 sk+1 n1

f (Xsk )
k=0 n1 sk

b(Xu )du
k=0

f (Xsk ) b(Xsk )|sk+1 sk | f


t,

k=0

|f (Xsk )| |b(Xuk ) b(Xsk )| |sk+1 sk | 35

q.c.,

per | | sucientemente piccola (con uk [sk , sk+1 ]). Perci` o


n1 | |0+ sk+1 n1

lim

f (Xsk )
k=0 sk

b(Xu )du = lim

| |0+

f (Xsk ) b(Xsk )|sk+1 sk |


k=0 t

=
0

f (Xu )b(Xu )du, q.c..

Trattiamo ora

n1 k=0 f

(Xsk ) Wk . Per (5.4) si ha che (in L2 ())


n1 | |0+ t

lim

f (Xsk ) Wk =
k=0 0

f (Xu )dWu .
1 f (Xsk ) sk , sk+1 m m sk , k = 0, ..., n(m)).

1 ) Quindi esiste una successione (m mN di partizioni di [0, t] tale che

Wk

converge q.c. a

t 0 f

(Xu )dWu , per m (pi` u precisamente, sk =


n1 k=0 f

Consideriamo ora

(k )[ Xk ]2 . Si ha:
n1

f (k )[ Xk ]2
k=0 n1 sk+1 2 n1 n1

=
k=0

f (k )
sk

b(Xu )du

+
k=0

f (k )[ Wk ]2 + 2
k=0

sk+1

f (k )[ Wk ]
sk

b(Xu )du.

Sia supu[0,t] |b(Xu ( ))| = M ( ). Si ha:


n1 sk+1

2
k=0

f (k )[ Wk ]
sk

b(Xu )du 2 f

M ( )(b

a)

k=0,...,n1

max

| W k | 0,

per | | 0, q.c.. In modo simile si prova che


n1 0+ sk+1 2

lim

f (k )
k=0 sk

b(Xu )du

= 0, q.c.

n1 2 Rimane da trattare il termine critico k=0 f (k )[ Wk ] . Proviamo che, passando 1 ), risulta eventualmente ad una sottosuccessione (m ) di (m t |m |0

lim

f (k )[ Wk ]2 =
sk , sk+1 m 0

f (Xu )du.

(6.6)

Questo concluder` a la dimostrazione (osserviamo che se le traiettorie di (Wt ) fossero BV avremmo f (k )[ Wk ]2


sk , sk+1 k=0,...,n1

max

| Wk | f

sk , sk+1

| W k | 0,

q.c., per | | 0). 36

Per provare (6.6), consideriamo per un momento che k = Xsk , per k = 0, ...n 1, e 2 ) di ( 1 ) tale che proviamo che esiste una sottosuccessione (m m
t
2 |0 | m

lim

f (Xsk )[ Wk ]2 =
2 sk , sk+1 m

f (Xu )du, q.c.


0

(6.7)

Partiamo dalla formula ben nota


n1 | |0 t

lim

f (Xsk )[sk+1 sk ] =
k=0 0

f (Xu )du, q.c..

(6.8)

La formula (6.7) segue se proviamo che


n1 | |0 n1

lim E
k=0

f (Xsk )[ Wk ]2
k=0

f (Xsk )[sk+1 sk ]

= 0.

(6.9)

Ponendo E

sk = [sk+1 sk ], si trova:
n1 n1

f (Xsk )[ Wk ]2
k=0

n1

f (Xsk ) sk
k=0 n1

=E
k=0

2 f (Xsk )[ Wk

sk ]

n1

=E
k=0

2 f 2 (Xsk )[ Wk

sk ]2 + 2E
k<j

2 f 2 (Xsk )[ Wk

sk ] f 2 (Xsj )[ Wj2
n1 2 f 2 (Xsk )[ Wk k=0 2 n1

sj ] sk ]2

= (usando lindipendenza e E[ (ragionando come in (3.10)) f

2 Wk n1 2 k=0

sk ] = 0) E
2 Wk

( sk )2 E

sk

2 f = 2t f

2 | | k=0 2 | |

sk 0,

per | | 0. Questo prova (6.7). Per ottenere (6.6), occorre vericare che, passando 2 ), risulta q.c. eventualmente ad una sottosuccessione (m ) di (m
|m |0

lim

[f (Xsk ) f (k )][ Wk ]2 = 0.
sk , sk+1 m

(6.10)

Fissata una partizione di [0, t], si ha:


n1 n1

|f (Xsk ) f (k )|[ Wk ]
k=0

k=0,...,n1

max

|f (Xsk ) f (k )|
k=0

[ Wk ]2 .

Poich` e |Xsk k | |Xsk+1 Xsk |, usando anche la continuit` a di f , si trova


| |0+ k=0,...,n1

lim

max

|f (Xsk ) f (k )| = 0, q.c..

(6.11)

1 2 2 Abbiamo gi` a visto che lim||0 n k=0 [ Wk ] = t in L (). Quindi, passando ad una 2 sottosuccessione di (m ) di (m ), risulta q.c.

|m |0

lim

[ Wk ]2 = t.
sk , sk+1 m

37

Combinando lultima formula con (6.11), si trova (6.10). La dimostrazione ` e conclusa. Si pu` o rendere pi` u elegante la precedente dimostrazione, senza passare per sottosuccessioni di partizioni, provando direttamente che lim||0 = 0 in probabilit` a.

Cenni sui semigruppi di Markov e le equazioni paraboliche di Kolmogorov

In questa sezione occorre avere una certa familiarit` a con le principali propriet` a dellattesa condizionale. Vogliamo introdurre la propriet` a di Markov; si tratta di un argomento non facile. Presentiamo solo alcune semplici considerazioni. Per maggiori chiarimenti e dimostrazioni si pu` o consultare per esempio [15], [17] e [19]. Indichiamo con Bb (Rn ), lo spazio di Banach delle funzione Borelliane f : Rn R limitate, munito della norma del sup .
x) n n Sia (Xt t0 una famiglia di processi, dipendenti da x R , a valori in R , deniti e adattati rispetto ad una stessa base stocastica (, F , (Ft )t0 , P). Richiediamo che x = x) = 1, per ogni x (il processo (X x ) parte da x Rn ). P(X0 t

Introduciamo la funzione di transizione p, denita su [0, ) Rn B (Rn ),


x p(t, x, A) := P(Xt A),

x Rn , t 0, A B (Rn );

x ) e 0 p 1. dunque p(t, x, ) ` e la legge della v.a. (Xt Supponiamo che p(, , A) sia di Borel su [0, ) Rn , per ogni A B (Rn ). x) ` Diciamo che (Xt e un processo di Markov rispetto a (Ft ), omogeneo nel tempo e con funzione di transizione p (o brevemente che ` e di Markov), se, per ogni A B (Rn ), si ha: x x n n () E(1A (Xt +h )/Ft ) = p(h, Xt , A), x R , A B (R ), t, h 0. x )/F ) = E(1 (X x )/X x ) (dove E(1 (X Chiaramente (*) implica che E(1A (Xt t A A t+h )/Xt ) := t t+h +h E(1A (Xt+h )/ (Xt )). Intuitivamente la propriet` a di Markov dice che i valori futuri del processo dipendono solo dal presente e non dai valori passati del processo.

Si dimostra facilmente che (*) equivale a


x E(f (Xt +h ))/Ft ) = x f (y )p(h, Xt , dy ),

Rn

x Rn , t, h 0, f Bb (Rn ).

Si usa anche la notazione:


x x P(Xt +h A/Ft ) := E(1A (Xt+h )/Ft ). x A) = (A). Si noti che p(0, x, A) = P(X0 x

Proposizione 7.1. Il processo di Wiener n-dimensionale (Wtx ), x Rn , Wtx := x + Wt , denito e adattato rispetto a (, F , (Ft )t0 , P), ` e di Markov con funzione di transizione p, x p(h, x, A) := N (x, hI )(A) = P(Wh A). (7.1) 38

Dimostrazione. Si ha, per A B (Rn ),


x x x P(Wtx +h A/Ft ) = E(1A ([Wt+h Wt ] + Wt )/Ft ). x x x x x Ora si pu` o ragionare cosi: 1A ([Wtx +h Wt ]+ Wt ) = f ([Wt+h Wt ], Wt ), dove f (x, y ) = n 1A (x + y ), x, y R . Quindi x x x x x, E(f (Wtx +h Wt , Wt )/Ft ) = E(f (Wt+h Wt , y ) |y =Wt

(7.2)

x e indipendente da F . La formula usando il fatto che Wtx ` e Ft -misurabile e Wtx t +h Wt ` (7.2) si verica facilmente se f (x, y ) ` e del tipo F (x)G(y ), con F, G B (Rn ) e poi si estende a tutte le f B(R2n ) con un procedimento di approssimazione (vedere per esempio [15, Sezione 0.8]). Dunque abbiamo che x x x x x = P(W x P(Wtx +h A/Ft ) = E(1A ([Wt+h Wt ] + y ))|y =Wt t+h Wt + y A)|y =Wt

= N (Wtx , hI )(A) = p(h, Wtx , A). (7.3)

x ), possiamo associargli la famiglia di Dato un processo stocastico di Markov (Xt n n operatori lineari (Pt ), Pt : Bb (R ) Bb (R ), x Pt f (x) = Ef (Xt ), f Bb (Rn ), x Rn , t 0.

(7.4)

Ogni operatore Pt ` e di contrazioni. Infatti si ha:


x |Ef (Xt )| f ,

f Bb (Rn ), x Rn , t 0.

Inoltre P0 = I . Grazie alla propriet` a di Markov, la famiglia (Pt ) ` e un semigruppo di operatori su Bb (Rn ), cio` e risulta Pt Ph = Pt+h , t, h 0. Infatti, si ha, per ogni A B (Rn ),
x Pt+h 1A (x) = E(1A (Xt +h )) x x = E[E(1A (Xt +h )/Ft )] = E[p(h, Xt , A)] = Pt (p(h, , A))(x) = Pt (Ph 1A )(x),

x Rn , t, h 0. Il semigruppo di operatori (Pt ) si chiama semigruppo di Markov x )). Osserviamo che (associato al processo (Xt Pt f (x) =
Rn

f (y )p(t, x, dy ), f Bb (Rn ).

Esempio 7.2. Nel caso del processo di Wiener (Wtx ), il semigruppo di Markov associato ha unespressione esplicita; si tratta del classico semigruppo del calore: Ptcal f (x) =
Rn

f (y )p(t, x, dy ) =
Rn

f (y )N (x, tI )dy =
Rn

f (y )

|xy |2 2t

(2 )n tn

dy

Ritorniamo alla EDS (4.4). Vale il seguente teorema (per una dimostrazione vedere per esempio [21] o [16]). 39

x ), x Rn , il processo soluzione di (4.4), sotto lIpotesi 4.1. Teorema 7.3. Sia (Xt x Allora (Xt ) ` e di Markov.

Dimostrazione. Ricordiamo solo i punti principali della dimostrazione, facendo lipotesi ulteriore che b sia Lipschitziana su Rn , vedere anche [7] o [13].
s,x (i) Indichiamo con (Xt ), la soluzione della EDS (4.4) che in s vale x, cio` e s,x Xt =x+ t s,x b(Xr )dr + (Wt Ws ), t s 0. s

s,x Si prova che esiste una versione continua, nei parametri s, t e x di (Xt ).

(ii) Si prova la legge di usso


0,x s,Xs Xt = Xt
0,x

x deterministico, cio` (questa ` e ben nota nel caso di Xt e quando = 0 in (4.4)). t,y 0,y (iii) Si prova che Xt +h e Xh hanno la stessa legge (al variare dei parametri t, h 0, y Rn ). Questo segue dal fatto che b non dipende da t.

(iv) Inne, si ha, per A B (Rn ),


0,x x x t E(1A (Xt +h )/Ft ) = E(1A (Xt+h )/Ft ) = E(1A (Xt+h )/Ft ) = p(h, Xt , A); t,y nellultimo passaggio si ` e usato (iii) e un argomento basato sia sullindipendenza di Xt +h x da Ft e sia sulla misurabilit` a di Xt rispetto a Ft , vedere per esempio [1, Lemma 3.9]. Questo ragionamento rana quello usato in (7.3). t,X x

Vogliamo concludere, accennando ad un legame tra le equazioni paraboliche di Kolmogorov e le EDS. Data una matrice q , nn, simmetrica e semidenita positiva, indichiamo con = q una matrice reale n n tale che T = q ( non ` e necessariamente unica, lo sarebbe se richiedessi la propriet` a di simmetria). Proposizione 7.4. Consideriamo il seguente problema di Cauchy 2 n t u(t, x) = 1 2 T r (q Dx u(t, x)) + Dx u(t, x), b(x) , x R , t (0, T ], u(0, x) = f (x), f Bb (Rn ),

(7.5)

dove b ` e limitata e di classe C 1 e q ` e simmetrica e semidenita positiva. 1 ,2 Supponiamo di sapere che esiste per (7.5) una soluzione classica e regolare u Cb,T . x ) la soluzione di (4.4), con = q , si ha: Allora, se indichiamo con (Xt
x E(f (Xt )) = Pt f (x) = u(t, x),

x R n , t 0.

(7.6)

Dimostrazione. Si tratta di applicare la formula di Ito con la funzione v (s, x) = u(t x . Si ha: s, x), s [0, t], x Rn e il processo Xt = Xt 40

=
0

v (t, Xt ) v (0, x) = u(0, Xt ) u(t, x) 1 2 s v (r, Xr ) + Dx v (r, Xr ), b(Xr ) + T r(q Dx v (r, Xr )) dr 2


t

+
0 t

Dx v (r, Xr ), dWr

=
0

1 2 s u(t r, Xr ) + Dx u(t r, Xr ), b(Xr ) + T r(q Dx u(t r, Xr )) dr 2


t t

+
0

Dx u(t r, Xr ), dWr =
0

Dx u(t r, Xr ), dWr

(poich` eu` e soluzione di (7.5)). Dunque


t

f (Xt ) u(t, x) =
0

Dx u(t r, Xr ), dWr .
t 0

Applicando lattesa, si trova la tesi, grazie al fatto che E(

Dx u(t r, Xr ), dWr ) = 0.

1 ,2 per (7.5), se per esempio b, f Osserviamo che esiste una soluzione classica u Cb,T 2 (Rn ). Tuttavia la precedente formula (7.6), vale sotto ipotesi meno restrittive sia su Cb b che su u, vedere per esempio [10].

Si pone anche il problema di capire quando partendo dallequazione (7.5) e considerata la funzione v (t, x) = Pt f (x), f Bb (Rn ), che si ottiene risolvendo unassociata EDS con = q , questa funzione v risolve eettivamente (7.5). Questo ` e una problema non banale. Certamente la risposta dipende dalla regolarit` a che chiediamo su f (dato iniziale) e sul coeciente di drift b e anche dal fatto che q pu` o essere degenere, vedere anche [18] e [20].

Bibliograa - Calcolo delle Probabilit` a


[1] Baldi P., Calcolo delle probabilit` a e statistica, McGraw-Hill, Milano, 2/ed, 1998. [2] Billingsley P, Probability and Measure, 3rd Edition, Wiley, 1995. [3] Dudley, R. M., Real analysis and probability. The Wadsworth Brooks/Cole Mathematics Series. Wadsworth and Brooks/Cole AdvancedBooks, CA, 1989. [4] Durrett R., Probability: Theory and Examples, 2nd edition, Wadsworth, Belmont,. CA, 1995. [5] Flandoli F., Introduzione alla Probabilit` a, appunti, 1993.

Calcolo stocastico - livello introduttivo


[6] Baldi P., Equazioni dierenziali stocastiche e applicazioni, 2 ed., Pitagora Editore, 2000.

41

[7] Da Prato, G., Introduction to dierential stochastic equations, Second edition. Appunti dei Corsi Tenuti da Docenti della Scuola. Scuola Normale Superiore, Pisa, 1998. [8] Evans, L.C., An introduction http://math.berkeley.edu/ evans/). to Stochastic Dierential Equations (vedere

[9] Flandoli F., Introduzione alla Probabilit` a, appunti, 1993. [10] Friedman A., Stochastic dierential equations and applications, I e II, Academic Press, 1975. [11] Kahane j. P., A century of interplay between Taylor series, Fourier serie and Brownian motion, Bull. London. Math. Soc. 29 (1997), 257-279. [12] Klebaner, F. C., Introduction to stochastic calculus with applications, Reprint of the 1998, Imperial College Press, London; distributed by World Scientic Publishing Co., 1999. [13] Priola, E., Introduzione alle equazioni stocastiche, appunti del Corso di Dottorato presso il Dipartimento di Matematica dellUniversit` a di Lecce, 2004. [14] Varadhan S. R. S., Lectures on diusion problems and partial dierential equations, Tata Institute, Bombay, 1980.

Calcolo stocastico - livello avanzato


[15] Baldi P., Equazioni dierenziali stocastiche e applicazioni, 2 ed., Pitagora Editore, 2000. [16] Durrett R., Stochastic calculus. A practical introduction. Probability and Stochastics Series, 1996. [17] Ethier, S. N.; Kurtz, T. G., Markov processes. Characterization and convergence, Wiley Series in Probability and Mathematical Statistics: Probability and Mathematical Statistics. John Wiley & Sons, Inc., New York, 1986. [18] Ikeda N., Watanabe S., Stochastic dierential equations and diusion processes, II ed., 1989. [19] Karatzas, I., Shreve, S. E., Brownian motion and stochastic calculus. Graduate Texts in Mathematics, 113. Springer-Verlag, New York, 1988. [20] Krylov N. V., Introduction to the Theory of Diusion Processes, A.M.S., 1995. [21] Stroock D. W., Varadhan S. R. S., Multidimensional diusion processes, Springer, 1979. [22] Zabczyk, J., Topics in stochastic processes. Scuola Normale Superiore di Pisa. Quaderni, Pisa, 2004.

42

Potrebbero piacerti anche