Sei sulla pagina 1di 30

Cristina Gosio EQUAZIONI DIFFERENZIALI STOCASTICHE 2011 1. PREMESSA 1.

1 LEMMA DI IT Lemma di It (forma scalare) Supponiamo che il processo stocastico (scalare) x(t) abbia il differenziale stocastico (1.1.1) dx(t) = !(x(t),t)dt + g(x(t),t)dW(t) , t"[t0,T*] , T*>0 oppure t " [ t0 , +#[

con W(t) processo unidimensionale di Wiener. Inoltre ! e g abbiano propriet opportune. Sia u: una funzione dotata di derivate prima e seconda rispetto al primo argomento !

e prima rispetto al secondo argomento continue. Allora il processo stocastico y(t) = u(x(t),t) ammette differenziale stocastico che, per il Lemma di It, : (1.1.2) dy(t) = 2 $"u( x ( t ), t ) "u( x ( t ), t ) 1 " u( x ( t ), t ) & = + # ( x ( t ),t ) + g( x ( t ), t ) "t "x ( t ) 2 "x ( t ) 2 & %

' "u( x ( t ), t ) )dt + g( x ( t ),t ) dW ( t ) . "x ( t ) ) (

Per spiegare il risultato (1.1.2) si considera lo sviluppo in serie di Taylor di u(x(t),t) e si troncano gli infinitesimi di ordine superiore a dt. Occorre osservare che il termine di 2 ordine di Taylor 2 1 " 2u dx ( t )) contiene anche infinitesimi dellordine di dt. Infatti si ha (tralasciando gli 2 ( 2 " ( x ( t )) argomenti di x, # , g e W):
2 2 2 2 2 2

(1.1.3)

(dx )

= ["dt + gdW ] = (" ) ( dt ) + 2"gdtdW + ( g) ( dW )


2

in cui lultimo addendo, essendo ( dW k ) =dt , dellordine di dt. Tutti gli altri addendi della precedente ! ! sono infinitesimi ! di ordine superiore a dt. Anche tutti gli altri addendi del secondo ordine e degli ordini successivi (nello sviluppo in serie di Taylor) sono infinitesimi di ordine superiore a dt. Pertanto, sviluppando in serie di Taylor si ha: ! dy ( t ) = 2 2 "u( x ( t ), t ) "u( x ( t ), t ) " 2 u( x ( t ), t ) 2 1 " u( x ( t ), t ) 1 " u( x ( t ), t ) 2 = dx ( t ) + dt + dx ( t )) + dx ( t ) dt + (dt ) + ... ( 2 2 "x ( t ) "t 2 "x ( t ) "x ( t )"t 2 "t

!
!

ed eliminando gli infinitesimi di ordine superiore a dt, risulta (ricordando la (1.1.3):

dy ( t ) =

"u( x ( t ), t ) "x ( t )

dx ( t ) +

"u( x ( t ), t ) "t

dt +

2 2 1 " u( x ( t ), t ) g( x ( t ), t ) dt 2 2 "x ( t )

da cui, sostituendo dx(t) si trova:

dy ( t ) =

"u( x ( t ), t ) "x ( t )

[# ( x(t),t)dt + g( x(t),t)dW (t)] +

"u( x ( t ), t ) "t

2 2 1 " u( x ( t ), t ) dt + g( x ( t ), t ) dt 2 2 "x ( t )

che la (1.1.2).

Lemma di It (forma vettoriale) Supponiamo che il processo stocastico (vettoriale) x(t) (x vettore (colonna) n-dimensionale) abbia il differenziale stocastico (1.1.4) dx(t) = $(x(t),t)dt + G(x(t),t)dW(t) , t"[t0,T*] , T*>0 , t0 !0

con W(t)=( W1(t), W2(t),,Wm(t)), processo m-dimensionale di Wiener ; $(x(t),t)=( !1(x(t),t), !2(x(t),t),, !n(x(t),t)), vettore (colonna) n-dimensionale; G(x(t),t) = {gi,j(x(t),t)} matrice n%m. Inoltre $ e G abbiano propriet opportune. " x1 ( t )% $ ' . ' $ Posto x(t) = , $ . ' $ ' #x n ( t )& il differenziale stocastico (1.1.4) ha le n componenti dxi(t) cos definite:
!
#"1 ( x ( t ), t )& "dx1 ( t )% % ( $ ' . ( dt + $ . ' = % % ( $ . ' . % ( $ ' #dx n ( t )& $" n ( x ( t ), t )' "g11 ( x ( t ), t ) $ . $ $ . $ #gn1 ( x ( t ), t ) . . g1m ( x ( t ), t )% ' . . . ' ' . . . ' . . gnm ( x ( t ), t )&

" dW1 ( t ) % $ ' $ . ' $ . ' $ ' #dWm( t )&

in modo che ogni componente (tralasciando gli argomenti per semplicit) :


!
! ! dxi(t) = !idt +
m " gij dW j j =1

, i=1, 2, ., n.

Sia

U: " n x 0,T * # " una funzione che ha le propriet opportune, in particolare ha le derivate

prima e seconda rispetto ! ai suoi primi n argomenti continue e le derivata prima rispetto a t continua. Il Lemma di It, in forma vettoriale, dice che il processo stocastico y(t) = U(x1(t), x2(t),,xn(t)), t) ammette differenziale stocastico che, per il Lemma di It, : !

% "U ( x ( t ),.., x ( t ), t ) 1 n dy ( t ) = ' + ' "t & 1 n n # # 2 i =1 j =1


m " # k =1 2

n "U # i =1

( x1 (t ),.., x n (t ), t ) $
"x i ( t )

( x ( t ), t ) +

(1.1.5) +

U ( x1 ( t ),.., x n ( t ), t )

"x i ( t )"x j ( t )
m # gij j =1

( gik ( x ( t ), t ) g jk ( x ( t ), t )* *dt + )

n "U # i =1

( x1 (t ),.., x n (t ), t )
"x i ( t )

( x (t ), t )dW j

OSSERVAZIONE ! Anche qui per spiegare il risultato (1.1.5) si considera lo sviluppo in serie di Taylor di U(x1(t),x2(t),,xn(t)),t) e si troncano gli infinitesimi di ordine superiore a dt. Esempio 1.1.1 Sia n=2 e m=1. Allora abbiamo: W(t) unidimensionale e $# ( x ( t ), t )' " x ( t )% " ( x ( t ), t ) = & 1 x(t) = $ 1 ' ) & # x 2 ( t )& %# 2 ( x ( t ), t )) ( dx1(t) = !1(x(t),t)dt + g11(x(t),t)dW(t) dx2(t) = !2(x(t),t)dt + g21(x(t),t)dW(t). ! Sia y(t) = U(x1(t), x2(t), t) "
"g ( x ( t ), t )% G( x ( t ), t ) = $ 11 '" $ #g21 ( x ( t ), t )' &

dy ( t ) = * '"U "U "U 1 $ " 2U " 2U " 2U " 2U 2 2 )/ = , + #1 + #2 + & g + g g + g g + g & "x 2 ( 11 ) "x "x 11 21 "x "x1 21 11 "x 2 ( 21 ) )/ dt " t " x " x 2 , ( ) ( ) 1 2 1 2 2 % 1 (. 2 + "U "U g11 dW + g21 dW . + "x 1 "x 2 !
!

Caso particolare (utile in seguito) y(t) = U(x1(t), x2(t), t) = x1(t) x2(t) . Risulta

"U = 0 "t

"U = x2 "x 1

"U = x1 "x 2

" 2U

("x1 )

=0

" 2U " 2U " 2U = =1 =0 2 "x1"x 2 "x 2"x1 ("x 2 )

da cui segue:

dy(t) = [0+ x2!1 + x1!2 + (1/2 ) 2 g11 g21 ] dt + [x2g11 + x1g21 ] dW = = [ x2!1 + x1!2 + g11 g21 ] dt + [x2g11 + x1g21 ] dW. 3

1.2 PARTICOLARI PROCESSI STOCASTICI Moto browniano semplice Consideriamo il seguente differenziale stocastico: (1.2.1) dx(t) = dt + & dW(t) , e & costanti , &!0 .

Un processo che soddisfa la (1.2.1) detto moto browniano semplice con deriva (o drift) e con coefficiente di diffusione &. Moto browniano geometrico Consideriamo il seguente differenziale stocastico: (1.2.2) dx(t) = x(t)dt + & x(t)dW(t) , e & costanti , &!0 . Un processo che soddisfa la (1.2.2) detto moto browniano geometrico. Processo di Ornstein-Uhlenbeck Consideriamo il seguente differenziale stocastico: (1.2.3) dx(t) = a(c- x(t)) dt + bdW(t) , a, c e b costanti, a>0, b>0. Un processo che soddisfa la (1.2.3) detto processo di Ornstein-Uhlenbeck.

1.3 ALCUNE APPLICAZIONI DEL LEMMA DI IT Consideriamo il processo stocastico di Wiener {W ( t ),t " [0, +#[} che ammette per ipotesi il differenziale stocastico dW(t) = odt+1dW(t) .
! Vogliamo determinare il differenziale stocastico del processo

(1.3.1)

y(t) = u(W(t),t)

dove u assunta dotata di derivate prima e seconda continue rispetto al suo primo argomento e dotata di derivata prima continua rispetto al suo secondo argomento . Applicando il lemma di It, possiamo concludere che:

dy ( t ) = u'1 (W ( t ),t ) dW ( t ) + u'2 (W ( t ),t ) dt +


=

1 '' u11 (W ( t ),t ) dt 2

" ' % 1 ' u2 (W ( t ),t ) + u'' 11 (W ( t ),t )'dt + u1 (W ( t ),t ) dW ( t ) . $ # & 2

! Esempio1.3.1
! il differenziale stocastico del processo Determiniamo

(1.3.2)

B(t) = B0 + t + & W(t) ,

B0, e & costanti, & ! 0 .

Notiamo che risulta B(t) = B0 + t + &W(t) = u(W(t),t); pertanto, osservato che


' u'1 ( w ( t ),t ) = " , u'' 11 ( w ( t ),t ) = 0 , u2 ( w ( t ),t ) =

applicando il lemma di It, possiamo concludere che:


! ! dB(t) = dt +!& dW(t) . (1.3.3) La precedente, ricordando la (1.2.1), dice che il processo stocastico {B( t ),t " [0, +#[} definito dalla (1.3.2) un moto browniano semplice con deriva e coefficiente di diffusione &, inoltre la (1.3.2) stessa dice che la sua "origine" B(0)= B0 .

Vogliamo determinare il differenziale stocastico del processo (1.3.4) y(t) = u(W(t),t) = (W(t))

dove assunta dotata di derivate prima e seconda continue . Osservato che :


'1 ( w ( t )) = u ' ( w ( t )) , u '' '' ( w ( t )) , u '2 ( w ( t )) = 0 , u 11 ( w ( t )) = u

applicando il lemma di It, possiamo concludere che:


! (1.3.5) ! ! 1 dy(t) = '(W(t)) dW(t) + ''(W(t)) dt . 2

Questo risultato consente di dimostrare che sussiste il seguente Teorema 1.3.1 (TEOREMA FONDAMENTALE DEL CALCOLO INTEGRALE STOCASTICO DI IT) Sia {W ( t ),t " [0, +#[} un processo stocastico di Wiener ad incrementi W(t)-W(s) distribuiti normalmente con media 0 e varianza (t-s). Sia una funzione dotata di derivate prima e seconda continue. Si ha allora: t 1 t (1.3.6) $ $ '' '(W(s))dW(s) = (W(t)) (W(0)) # 2 # (W(s)) ds . 0 0 Dimostrazione. Assumiamo y(t) soddisfacente la (1.3.4) e ricordiamo che y(t) soddisfa la (1.3.5); integrando ambo i membri della (1.3.5) otteniamo

' (W ( s)) dW ( s) + y ( t ) " y (0 ) = # u


0

1 t '' (W ( s)) ds . #u 20

Ricordando che vale la (1.3.4), la precedente si scrive:

(W ( t )) " u (W (0 )) = # u ' (W ( s)) dW ( s) + u


0

1 t '' (W ( s)) ds #u 20
5

da cui si ottiene
t ' "u 0

che la (1.3.6).

(W ( t )) # u (W (0 )) # " u '' (W ( s)) ds (W (s))dW (s) = u 20

1t

OSSERVAZIONE !teorema fondamentale del calcolo integrale stocastico di It consente di affermare che il processo Il stocastico { W (t),t " [0,+# [} soddisfa la seguente relazione: t 2 1 1 " W ( s) dW ( s) = (W ( t )) # t. 0 2 2 1 Per ! dimostrarlo basta prendere (W(t)) = 2 (W(t)) 2 nel teorema fondamentale suddetto e ricordare 1 1 che W(0)=0 ! . Si ha infatti '(W(s)) dW(s) = W(s)dW(s) e 2 ''(W(s)) ds = 2 ds sicch la (1.3.6) d t t 1 2 2 2 1 1 1 1 " W ( s) dW ( s) = (W ( t )) # (W (0 )) # " ds = (W ( t )) # t. 0 02 2 2 2 2 Consideriamo il processo stocastico {x(t)} che ammetta per ipotesi il differenziale stocastico ! (1.1.1) che riscriviamo: dx(t) =!(x(t),t)dt + g(x(t),t) dW(t) , t"[t0,T*] , T*>0 oppure t " [ t0 , +#[ . Vogliamo determinare il differenziale stocastico del processo (1.3.7) y(t) = u(x(t),t) = (x(t))

dove assunta dotata di derivate prima e seconda continue. Osservato che : ' ( x ( t )) , u'' '' ( x ( t )) , u'2 ( x ( t ),t ) = u ( x ( t )) = 0 , u'1 ( x ( t ),t ) = u 11 ( x ( t ),t ) = u applicando il lemma di It, possiamo concludere che:
! ! ! 1 dy(t) = '(x(t)) dx(t) + ''(x(t))(g(x(t),t)) 2dt = 2 1 = ['(x(t)) j(x(t),t)+ ''(x(t))(g(x(t),t)) 2]dt+'(x(t)) g(x(t),t) dW(t). 2

Esempio 1.3.2 Consideriamo il processo stocastico {x(t)} che ammetta per ipotesi il differenziale stocastico: 1 (1.3.8) dx(t) = - t2dt + tdW(t). 2 Determiniamo il differenziale stocastico del processo (1.3.9) y(t) = e2x(t) .

Notiamo che risulta y(t) = e2x(t) = u(x(t),t) = (x(t)); pertanto, osservato che 6

'(x(t))= 2e2x(t) , ''(x(t)) = 4e2x(t) , applicando il lemma di It, possiamo concludere che: 1 1 dy(t) = 2e2x(t)[- t2dt + tdW(t)] + 4e2x(t) t2 dt = 2 2 2x(t) 2 2 =e {[- t + 2t ]dt + 2t dW(t )} = t2y(t)dt + 2ty(t)dW(t). Esempio 1.3.3 Consideriamo il processo stocastico {x(t)} che ammetta per ipotesi il differenziale stocastico (1.3.10) dx(t) = x(t)dt + &x(t) dW(t) , e % costanti , %"0 , x(t)>0.

Ricordando la (1.2.2) vediamo che un processo che soddisfa la (1.3.10) un moto browniano geometrico . Determiniamo il differenziale stocastico del processo y(t) = ln x(t) . Notiamo che risulta y(t) = lnx(t) = (x(t)); pertanto, osservato che 1 1 , ''(x(t) = x(t) (x(t))2 applicando il lemma di It, possiamo concludere che: '(x(t)) = dy(t) = cio 1 dy(t) = [ - &2]dt + & dW(t ) . 2 ! La (1.3.11) dice che y(t) = ln x(t) (dove x(t) soddisfa la (1.3.10)) un moto browniano semplice. (1.3.11) Esempio1.3.4 Consideriamo il processo stocastico {x(t)} che ammetta per ipotesi il differenziale stocastico (1.3.12) dx(t) = dt + &dW(t) , e & costanti , &"0 . ,

1 1 2 1 1 "x ( t )) dt = [ - &2]dt + & dW(t) [x(t) dt + &x(t) dW(t)] 2( x(t) 2 2 ( x ( t ))

Ricordando la (1.2.1) vediamo che un processo che soddisfa la (1.3.12) un moto browniano semplice . Determiniamo il differenziale stocastico del processo y(t) = ex(t) .

Notiamo che risulta y(t) = ex(t) = (x(t)); pertanto, osservato che '(x(t)) = ex(t) , ''(x(t) = ex(t) , applicando il lemma di It, possiamo concludere che: 1 dy(t) = ex(t)[ dt + &dW(t)] + ex(t) &2dt 2 cio 1 2 & ]y(t)dt + & y(t)dW(t ) . 2 La (1.3.13) dice che y(t) = ex(t) (dove x(t) soddisfa la (1.3.12)) un moto browniano geometrico. (1.3.13) dy(t) = [ +

2. EQUAZIONI

2.1 GENERALITA Le equazioni differenziali stocastiche sono equazioni del tipo (2.1.1) dx(t) = !(x(t),t)dt + g(x(t),t)dW(t) , t&[t0,T*] , T*>0 , oppure t " [ t0 , +#[

con W(t) di Wiener. Accanto allequazione (2.1.1) si considera una condizione detta condizione iniziale, cio: ! x(t0) = xt0 . Se t0 = 0 , la condizione iniziale si scrive: (2.1.2) x(0) = x0 . Le equazioni differenziali stocastiche possono essere scalari o vettoriali. Noi ci occuperemo di quelle scalari . Fatte queste premesse, ricordiamo che dalla (2.1.1), integrando tra t0 e t, si trova:

x ( t ) - x ( t0 ) =

cio, ricordando la (2.1.2) e la posizione t0 = 0,


t t

t # " ( x ( s), s ) ds t0

t # g( x ( s ), s ) dW t0

( s)

# " ( x ( s ), s) ds + # g( x ( s ), s ) dW ( s ) (2.1.3) ! x ( t ) = x0 + 0 0 dove il primo integrale di Riemann e il secondo integrale di It.

!2.2 ESISTENZA ED UNICITA DELLA SOLUZIONE DELLEQUAZIONE (2.1.1) CON LA CONDIZIONE (2.1.2).

Diciamo che un processo stocastatico x(t) soluzione dellequazione (2.1.1) con la condizione (2.1.2) se 't"[0,T*] soddisfa la (2.1.3) (e quindi la (2.11)). Esiste il seguente teorema di esistenza ed unicit: Teorema 2.2.1 (non richiesto allesame) Siano T*>0 e f: , g: soddisfano : (i) esiste una costante K tale che (! (x(t),t) - ! (y(t),t)' + 'g(x(t),t) - g(y(t),t) ' # K'x(t)-y(t) ', ' x(t),y(t) &R , t"[0,T*] (ii) esiste una costante K* tale che '! (x(t),t)'# K*(1+'x(t)') e 'g(x(t),t)'# K*(1+'x(t)() ' x(t) "R , t"[0,T*]

funzioni (misurabili) continue (di x e di t) che

(iii) x0 indipendente da W(t) con E[' x02'] < +). Allora lequazione (2.1.1) con la condizione (2.1.2) ammette ununica soluzione continua in [0,T*]. La condizione (i) si chiama condizione di Lipschitz (rispetto alla prima variabile). (fine del teorema non richiesto allesame)

2.3 EQUAZIONI DIFFERENZIALI STOCASTICHE DEL TIPO dx(t) = f(t)dt + h(t)dW(t) Consideriamo equazioni del tipo (2.3.1) dx(t) = f(t)dt + h(t)dW(t), t"[0,T*] , T*>0 , oppure t " [0, +#[ x(0) = x0.

con la condizione iniziale: (2.3.2)

! Esse sono un caso particolare di equazioni (2.1.1) caratterizzate dal fatto che:

!(x(t),t) = f(t)

g(x(t),t) = h(t)

sono entrambe indipendenti da x(t). Lequazione (2.3.1) con la condizione (2.3.2) ammette pertanto la soluzione: (2.3.3)
x ( t ) = x0 +
t " 0

f ( s) ds +

t " h ( s) dW ( s) . 0

Esempio 2.3.1 ! Lequazione dx(t) = dt + &dW(t) , , & costanti, >0 , &>0 con la condizione x(0) = x0 ammette la soluzione
x ( t ) = x0 + " ds + " #dW ( s) = x0 + [s]0 + ["W(s)]0 = x0 + t + "W( t ) .
t t

Ricordando la (1.1.1) vediamo che x(t) un moto Browniano semplice.


!

Esempio 2.3.2

Lequazione dx(t) = (100-10t)dt + 2dW(t) , con la condizione x(0) = 0 . ammette la soluzione


x ( t ) = x (0 ) +
t # 0

(100 " 10s)ds

t # 2dW 0

t " t 10 2 % ( s) = 0 + $100s - s ' + [ 2 W(s)]0 = 100 t - 5t 2 + 2 W( t ) . # 2 &0

10

2.4 EQUAZIONI DIFFERENZIALI STOCASTICHE RIDUCIBILI Consideriamo la generica equazione differenziale stocastica (scalare): (2.4.1) dx(t) = !(x(t),t)dt + g(x(t),t)dW(t) , t&[0,T*] , T*>0 x(0) = x0 .

la condizione iniziale (2.4.2)

Ci chiediamo se la sua soluzione pu essere rappresentata esplicitamente in termini di integrali di Riemann e di It (questi ultimi sono integrali stocastici). Per rispondere a questa domanda utilizziamo il concetto di riducibilit. Cerchiamo cio equazioni del tipo (2.4.1) con la condizione (2.4.2) che, mediante la posizione (2.4.3) y(t) = H(x(t),t)

siano riducibili nella forma (2.3.1) cio nella forma: (2.4.4) dy(t) = f(t)dt + h(t)dW(t), , t&[0,T*] , T*>0.

E chiaro che la soluzione della (2.4.4), con lopportuna condizione iniziale coerente con (2.4.2) e con (2.4.6), esprimibile nella forma (2.3.3) cio utilizzando un integrale di Riemann ed uno di It. Pertanto diamo la seguente Definizione 2.4.1 Diciamo che lequazione (2.4.1) riducibile nella forma (2.4.4) se: (a) possibile trovare una funzione H: "x 0,T * # " (che gode delle propriet necessarie per

applicare il Lemma di It) che ammette una funzione inversa K nel senso che: (2.4.5) (b) y(t)=H(x(t),t)) * K(y(t),t) = K(H(x(t),t),t) =x(t) ; !

le funzioni # & 1 H t + H x" + H xx g 2 ((K ( y(t),t ),t ) % $ ' 2

e non dipendono da y(t) . !

[H x g](K ( y(t),t ),t )

Nota: ! indicato con H , H , g 2 le derivate prime rispettivamente rispetto a t e ad x e le derivata seconda Abbiamo t x xx rispetto ad x. Inoltre con la notazione [ ]( ) intendiamo che tutte le funzioni tra parentesi quadra devono essere calcolate negli argomenti tra parentesi tonda; ad esempio: [f+g](s,z)=f(s,z)+g(s,z).

!subito che la condizione (b) permette di scrivere: Osserviamo

11

(2.4.6) e (2.4.7)
!

# & 1 H t + H x" + H xx g 2 ((K ( y(t),t ),t ) = f ( t ) % $ ' 2

[H x g](K ( y(t),t ),t ) =h(t).

Diamo ora un teorema di riducibilit; mostreremo poi che se valgono la (a) e la (b) ! possibile rappresentare la soluzione x(t) dellequazione (2.4.1) con la condizione (2.4.2) nella forma x(t) = K(y(t),t) dove
y ( t ) = H ( x (0 ),0 ) + " f (s)ds + " h(s)dW (s) .
0 0 t t

Teorema 2.4.1 Ipotizziamo che sia! g(0 e che ! e g possiedano le derivate utilizzate nel seguito. Lequazione differenziale stocastica (2.4.1), che riscriviamo per chiarezza: (2.4.1) dx(t) = !(x(t),t)dt + g(x(t),t)dW(t) , t&[0,T*] , T*>0

riducibile nella forma (2.4.4), cio nella seguente forma (2.4.8) dy(t) = f(t)dt + h(t)dW(t), , t&[0,T*] , T*>0

se e solo se le funzioni ! e g soddisfano la seguente condizione (detta condizione di riducibilit). - 1 " -5 " 2 + " %$ ( 1 "2 / 4 g, 2 g # g07( x ( t ),t ) = 0 (2.4.9) ' *+ 2 " x(t) 4 " t " x t g 2 ( ) & ) "x ( t ) 17 3 . ( g) 6 Dimostrazione ! ! Premettiamo i punti (A) e (B). (A) Sia H: una funzione avente inversa K: e dotata delle propriet

(la H) che consentono lapplicazione del lemma di It. Poniamo (2.4.10) y(t) = H(x(t),t);

applicando il Lemma di It troviamo: 1 dy(t) = H x dx(t) + H t dt + H xx g 2 dt = 2 (2.4.11) . # 1 2& H " + H t + H xx g (( x(t),t ) dt + [ H x g]( x(t),t ) dW (t) % $ x ' 2

12

Poich H ammette inversa possiamo dire che (2.4.12) x(t)=K(y(t),t)

che, sostituita nella (1.4.11) d:


# & 1 (2.4.13) dy(t) = %H x" + H t + H xx g 2 ( K ( y ( t ),t ),t dt + [ H x g] K ( y ( t ),t ),t dW (t) . $ ' 2

(B) Osserviamo che


!i coefficienti, rispettivamente di dt e di dW(t) in (2.4.11) non dipendono da x(t) (e quindi non dipendono da y(t) in (2.4.13)) se e solo se

valgono le seguenti:
) # & 1 +( 2.4.14' ) %H x" + H t + H xx g 2 (( x ( t ),t ) = f ( t ) * $ ' 2 + (2.4.14'' ) H g [ x ]( x(t),t ) = h(t) ,

(2.4.14)

cio
!

se e solo se valgono le seguenti:

* ( 2.4.15') [ H x g]( x(t),t ) = h(t) , ' " $ 1 (2.4.15) + H x# + H t + H xx g 2 )( x ( t ),t ) = 0 , ( 2.4.15 ) "x ( t ) & % ( 2 Veniamo quindi alla dimostrazione del Teorema 2.4.1. Supponiamo che la (2.4.1) sia riduciblie. Allora possibile trovare una funzione H:

(che gode delle propriet necessarie per

applicare il Lemma di It) che ammette una funzione inversa K ed tale che, fatta la posizione (2.4.10) si trova la (2.4.13) in cui i coefficienti di dt e di dW(t) non dipendono da y(t). Perci, ricordando (B), valgono le (2.4.15). Allora esiste h tale che le (2.4.5) sono soddisfatte. La (2.4.15) d (si ricordi che, per ipotesi, g!0): h(t) H x ( x ( t ),t) = g( x ( t ),t) cio: " h(t) (2.4.16) H x ( x ( t ),t) = H( x ( t ),t) = "x ( t ) g( x ( t ),t) !

13

da cui si ricava:

(2.4.17)

" g( x ( t ),t)h' ( t ) # h(t) g( x ( t ),t) "2 "t H( x ( t ),t) = 2 "x ( t )"t (g( x (t ),t))

(2.4.18)
!

"

2 2

#h(t) H( x ( t ),t) =

" g( x ( t ),t) "x ( t )


2

"x ( t )

(g( x (t ),t))

perci il primo membro della (2.4.15) si scrive: " $ 1 2' (2.4.19) ! &H x# + H t + H xx g )( x ( t ),t ) = ( "x ( t ) % 2 % ( " $h(t) g( x ( t ),t) ' * "x ( t ) 2 " ' h(t) " 1 # ( x ( t ),t) + H( x ( t ),t) + = (g( x (t ),t)) * = 2 "x ( t ) ' ! g( x ( t ),t) "t 2 * (g( x (t ),t)) ' * & )
% ( " $h(t) g( x ( t ),t) ' * "x ( t ) 2 " ' h(t) 1 = # ( x ( t ),t) + (g( x (t ),t)) * + 2 "x ( t ) ' g( x ( t ),t) 2 * (g( x (t ),t)) ' * & ) # g( x ( t ),t)h' ( t ) " h(t) g( x ( t ),t) #t + = 2 (g( x (t ),t))

# 2 (g( x (t ),t)) h' t 1 # ( ) " # ( x ( t ),t) #t " h( t ) g( x t ,t) + " h t = h( t ) = ( ) ( ) 2 2 g( x ( t ),t) "x ( t ) g( x ( t ),t) 2 #x ( t ) g( x t ,t) ( ) ( )
+ / h' ( t ) 1 " " % $ ( x ( t ),t) ( 1 " 2 g( x t ,t) # + g( x t ,t) = - h ( t ), 0. ' * ( ) ( ) ( ) 2 "t "x ( t ) & g( x ( t ),t) ) 2 "x ( t ) 2 g( x ( t ),t) . ( g( x ( t ),t)) 1 !

d: !La (2.4.15) !
' " $ 1 H x# + H t + H xx g 2 )( x ( t ),t) = 0 & ( "x ( t ) % 2

cio, ricordando la (2.4.19):


!

2 + /5 % ( " # g* 4 -"g ' 7 2 - "t -7 "x ( t ) h' ( t ) 1 " 1 " 4 ' * $ +$ + g0 ( x ( t ),t ) = g, 2 # 2 2 4 - ( g) ' g "x ( t ) h( t ) g) * 2 "x ( t ) -7 ( ' * 4 7 & ) 16 3 . ! !
14

cio: (2.4.20)

h' ( t ) = h( t )

2 + / 2 % ( -5 4g, 1 " g # " ' $ * + 1 " g07( x ( t ),t ) . 2 " x ( t ) & g ) 2 "x ( t ) 2 4 . ( g) "t 17 3 6

Il primo membro della (2.4.20) non dipende da x(t); ne viene che anche il secondo membro della (2.4.20) da x(t): perci la sua derivata rispetto a x(t) uguale a 0. Risulta quindi: ! non dipende ! 2 -5 1 " " %$ ( 1 "2 / " 4 + g, 2 g # + g 07( x ( t ),t ) = 0 ' * 2 " t " x t g 2 "x ( t ) 4 ( ) & ) g " x t ( ) ( ) 17 3 . 6 che la (2.4.9).

Supponiamo ora che valga la (2.4.9). 2 + - 1 " -5 " %$ ( 1 "2 / 4 g07( x ( t ),t ) risulta indipendente da x(t); Se essa vale, ne viene che g, 2 g # ' *+ 2 " t " x t g 2 4 ( ) & ) g " x t () 17 3 .( ) 6 allora possibile trovare una funzione h tale che sia soddisfatta la relazione:
2 + / 2 % ( -5 4g, 1 " g # " ' $ * + 1 " g07( x ( t ),t ) 2 " x ( t ) & g ) 2 "x ( t ) 2 4 . ( g) "t 17 3 6 che la relazione (2.4.20).

(2.4.21)

h' ( t )= ! h( t )

Trovata la funzione h , possibile trovare una funzione H che soddisfa la (2.4.14) (e che ! ! almeno localmente invertibile). Trovata la funzione H , possibile trovare una funzione f che soddisfa la (2.4.14), infatti, se H soddisfa la (2.4.14), cio la (2.4.15), a causa di quanto precedentemente mostrato, si ha che vale la (2.4.19) ; ne viene che la derivata, rispetto ad x(t), del primo membro della (2.4.14) a causa della (2.4.19) e della (2.4.21) si scrive successivamente:

' " $ 1 H x# + H t + H xx g 2 )( x ( t ),t ) = & ( "x ( t ) % 2 1+ " 5 . 2 3- g 3 % ( 0 h ( t ) " $ 1 " = - h ( t )2- "t 2 # g x t ,t 6= ( ) ( ) ' *+ 0 2 g( x t ,t) " x t g 2 ( ) ( ) & ) g " x t ( ) ( ) 33 0 ! / 4, 7 1+ " 5 1+ " 5 . . g 2 2 3- g 3 3 3 % ( 0 % ( 0 " $ 1 " "t # " $ + 1 " g ( x ( t ),t )6 =0 = h ( t )2- "t 2 # g x t ,t h t 6 2 ( ) ( ) ( ) ' *+ ' * 0 0 2 2 2 3 3- ( g) "x ( t ) & g ) 2 "x ( t ) 0 3 ! 3- ( g) "x ( t ) & g ) 2 "x ( t ) 0 / / 4, 7 4, 7 # & 1 sicch si ha che f(t) = %H x" + H t + H xx g 2 (( x ( t ),t ) non dipende da t e soddisfa la (2.4.14). $ ' 2
!
!

15

Esempio 2.4.1 E data lequazione: (2.4.22) dx ( t ) = 5 x ( t ) dt + 8 x ( t ) dW ( t ) , con la condizione x(0) = 4 , t"0 e x(t)>0. Vogliamo stabilire se essa riducibile e, in tal caso, risolverla. Per stabilire se riducibile vediamo se verifica la (2.4.9) il cui primo membro in questo caso si scrive: ! 1 4 * . , ,6 " 3 1 " " $ 5 x (t ) ' 1 " 2 8 x ( t )+ 8 x(t) # 8 x ( t )/ = & )+ 2 2 6 "x ( t ) 3 " t " x t 8 x t 2 ( ) ( ) " x t , , % ( ( ) 8 x t ( ) ) -( 05 2

" [8 x (t ){0 " 0 + 0}] = 0 "x ( t ) ! ! perci la (2.4.9) soddisfatta e lequazione considerata riducibile.
=
Per risolvere! lequazione: ! 1) determiniamo h(t) utilizzando la (2.4.20) e il risultato appena ottenuto:
1 4 * . , ,6 h' ( t ) 3 1 " " $ 5 x (t ) ' 1 " 2 = 8 x ( t )+ 8 x(t) # 8 x ( t )/ = [8 x ( t ){0 " 0 + 0}] = 0 & )+ 2 6 h( t ) 3 "t " x ( t ) % 8 x ( t ) ( 2 "x ( t ) 2 , , 8 x t ( ) ( ) 05 2 " h' ( t ) = 0 " h ( t ) = c , c costante . Assumiamo c=1 e abbiamo ! (1) h( t ) = 1 ;

2) determiniamo H(t) utilizzando la (2.4.14) e la h(t) appena trovata:

!
!

! h(t) 1 in cui, ricordiamo, per ipotesi x(t)>0, H x ( x(t),t ) = = g( x(t),t ) 8 x ( t ) da cui , presa a costante positiva, x ( t) x ( t) 1 $ 1 'x ( t) x ( t) " # H x ( s,t )ds = # ds " [ H ( s,t )] a = & ln s) a a 8s %8 (a ! 1 1 x(t) . " H ( x ( t ),t ) # H ( a,t ) = [ ln x ( t ) # ln a] " H ( x ( t ),t ) = H ( a,t ) + ln 8 8 a Assumiamo a=1 e H(a,t)=H(1,t)=0 e abbiamo 1 (2) H ( x ( t ),t ) = ln x ( t ) = H ( x ( t )) 8
3) determiniamo f(t) utilizzando la (2.4.14) e la H(t) appena trovata:

! # & 1 1 1 5 x(t) + 0 + f ( t ) = %H x" + H t + H xx g 2 (( x ( t ),t ) = $ ' 8 x(t) 2


e quindi
!

# & 2 1% 1 1 ( " 64( x ( t )) 2 2 % 8 ( x ( t )) ( $ '

(3)

5 27 f (t) = " 4 = " . 8 8 !


16

In conclusione per trovare la soluzione della (2.4.22), poniamo (per (2)): 1 y ( t ) = ln x ( t ) = H ( x ( t )) 8 da cui otteniamo subito 8 y ( t ) = ln x ( t ) e quindi ! (2.4.23) e x ( t ) = e8 y ( t) x (0 ) = e 8 y ( 0 ) lequazione ! (2.4.22) si riduce allequazione seguente (per (1) e (3)): 27 dy ( t ) = " dt + 1dW ( t ) 8 ! ! da cui, integrando tra 0 e t si trova: t t 27 t $ 27 't t t 27 " dy ( s) = " # dts + " 1dW ( s) " [ y ( s)]0 = &# ) + [W ( t )]0 " y ( t ) # y (0 ) = # t + W ( t ) % 8 (0 0 0 0 8 8 ! e quindi 27 y ( t ) = y (0 ) " t + W (t). 8 ! (2.4.23) troviamo: Infine, dalla prima delle

x(t) = e

8 y ( t)

!e =

# & 27 8 % y ( 0 ) " t +W ( t ) ( $ ' 8

= e8 y ( 0 ) e

"8

27 t +8W ( t ) 8

= e8 y (0 )e"27 t+8W ( t)

e quindi, tenendo conto della seconda delle (2.4.23) e della condizione iniziale x(0)=4 abbiamo la soluzione cercata: x ( t ) = 4e"27 t+8W ( t) .

! 2.5 EQUAZIONI DIFFERENZIALI STOCASTICHE LINEARI

Definizione 2.5.1 Si dice linerare la seguente equazione differenziale stocastica: (2.5.1)


dx ( t ) = [ A( t ) x ( t ) + a( t )] dt + [ B( t ) x ( t ) + b( t )] dW ( t )

in essa i coefficienti di dt e di dW(t) sono funzioni lineari di x(t).


!

Definizione 2.5.2 Una equazione differenziale stocastica lineare omogenea se in essa si ha:

a( t ) = b( t ) = 0 ; perci la seguente equazione lineare omogenea:


(2.5.2)

dx ( t ) = A( t ) x ( t ) dt + B( t ) x ( t ) dW ( t ) .

Definizione 2.5.3 ! differenziale stocastica lineare lineare in senso stretto se in essa si ha: Una equazione 17

B( t ) = 0 ; perci la seguente equazione lineare in senso stretto:


(2.5.3)
dx ( t ) = [ A( t ) x ( t ) + a( t )] dt + b( t ) dW ( t ) . !

2.5.1 RIDUCIBILIT NEL CASO DI EQUAZIONI LINERARI La condizione di riducibilit (2.4.9) nel caso di equazioni lineari, cio di equazioni del tipo (2.5.1), si scrive: & " $ " 1 ( (2.5.4) B( t ) x ( t ) + b( t ))# B' t x t + b' ( t )) + ( 2( ( ) ( ) "x ( t ) ( $ B t x t + b t % ( ( ) ( ) ( )) ' ) + d # A( t ) x ( t ) + a( t ) & 1 d 2 B t x t + b t * ]=0 % (+ ( ) ( ) ( ) ( ) ! " dx ( t ) $ B( t ) x ( t ) + b( t ) ' 2 dx ( t ) 2 + , ! ! cio:
! (2.5.5)

" B' ( t ) x ( t ) + b' ( t ) " b( t ) A( t ) + a( t ) B( t ) =0 ; "x ( t ) B( t ) x ( t ) + b( t )

la (2.5.5) soddisfatta se e solo se risulta: (2.5.6)

! b t B' t " B t b' t " b t A t + a t B t = 0 ( ) ( ) ( )[ ( ) ( ) ( ) ( ) ( )]

che la condizione di riducibilit (2.4.9) nel caso di equazioni lineari.


! (2.5.6) si deduce che: Dal risultato

I] le equazioni lineari omogenee sono riducibili; infatti nel caso di equazioni omogenee (cio del tipo (2.5.2)) risulta soddisfatta la (2.5.6) in quanto, ricordando che a( t ) = b( t ) = 0 , la (2.5.6) si scrive: !
(2.5.7)

0 " B( t )[0 " 0 + 0 ] = 0 ;

II ] le equazioni lineari in senso stretto sono riducibili; infatti nel caso di equazioni lineari in senso stretto (cio del tipo (2.5.3)) risulta soddisfatta la (2.5.6) in quanto, ricordando che B (t) = 0, la ! (2.5.6) si scrive: !
(2.5.8)
b( t )0 " 0 [b' ( t ) " b( t ) A( t ) + a( t )0 ] = 0 ;
!

III ] le equazioni lineari del tipo:


! dx ( t ) = [ "x ( t ) + # ] dW ( t ) ,

" ,# costanti ,
18

!!

sono riducibili; infatti per tali equazioni risulta soddisfatta la (2.5.6) che si scrive: (2.5.9)

" 0 # $ [0 # " 0 + 0" ] = 0

IV] le equazioni lineari in generale non sono riducibili.


!

2.5.3 SOLUZIONE DI EQUAZIONI LINERARI

I] Equazioni lineari omogenee. Consideriamo lequazione lineare omogenea: !


(2.5.10) dx ( t ) = A( t ) x ( t ) dt + B( t ) x ( t ) dW ( t ) , t " [ t0 , #) , t0 $ 0 , B( t ) > 0 , con la condizione x ( t0 ) = x t0 . Ricordiamo che essa soddisfa la (2.5.7) per cui riducibile. Allora possiamo applicare la (2.4.21) , che, ! ricordando la (2.5.5), d: !

h' ( t ) B' ( t ) x ( t ) B' ( t ) . = = h ( t ) B ( t ) x ( t ) B( t ) Dalla precedente troviamo successivamente:


(2.5.11)

(s) ds = t" B' (s) ds " ln h s t = ln B s t " ! [ ( )]t0 [ ( )]t0 t0 B( s) (s) h ( t0 ) da cui, assumendo = 1 , troviamo: B( t0 ) ! ! ! (2.5.12) h( t ) = B (t ) . !
t h' " t0 h

ln

h (t ) B( t ) h (t ) = ln " h ( t ) = 0 B( t ) h ( t0 ) B( t0 ) B ( t0 )

Vera la (2.5.12), dalla (2.4.14) ( o (2.4.15)) troviamo : ! h( t ) B( t ) " ! H x( t) ( x ( t ),t ) = H ( x ( t ),t ) = = "x ( t ) B( t ) x ( t ) B ( t ) x ( t ) e quindi: " 1 H ( x ( t ),t ) = "x ( t ) x(t) ! da cui ricaviamo successivamente:
x ( t) " # !H a "z

(z,t ) dz =

x ( t) # a

x(t) 1 dz , a > 0 " H ( x ( t ),t ) " H ( a,t ) = ln z a

da cui assumendo a = 1 e H (1 ,t) = 0 , troviamo:


!

(2.5.13)

! ! H ( x ( t ),t ) = ln x ( t ) .

! ! (2.4.14) ( o (2.4.15)) troviamo : Vera la (2.5.13), dalla


!

19

1 f (t) = A( t ) x ( t ) + 0 + x (t )
e quindi: (2.5.14)

# & 2 1% 1 ( " B ( t ) x ( t )) ( 2 2 % ( x ( t )) ( $ '


2 1 B( t )) . ( 2

f ( t ) = A( t ) "

!
Perci, ricordando la (2.6.13), poniamo (2.5.15)
y ( t! ) = H ( x (t ),t ) cio

y ( t ) = ln x ( t )

e otteniamo, ricordando le (2.5.12) e (2.5.14):

! ! # 2& 1 dy ( t ) = % A( t ) " ( B( t )) (dt + B( t ) dW ( t ) ; $ ' 2


dalla precedente troviamo y(t):
!
t " dy t0

(s) =

t$ " A & t0 %

( s) # ( B( s))

(2.5.16)
!

ds + " B( s) dW ( s) " ) ( t0 t# t 2& 1 y ( t ) = y ( t0 ) + ) %A( s) " ( B( s)) (ds + ) B( s) dW ( s) . t0 $ ' t0 2

1 2

2'

!
Ricordiamo (2.5.15) da cui troviamo:
! (2.5.17)

x ( t ) = e y ( t)

e,

e y( t0 ) = x ( t0 ) = x t0

e per la (2.5.16), troviamo:


! x ( t ) = e y ( t) =
t! t # 1 2& y ( t0 ) + ) % A ( s) " ( B( s) ) (ds+ ) B( s) dW ( s) $ ' 2 t0 t0 e t # t 1 2& ) % A ( s) " ( B( s) ) (ds+ ) B( s) dW ( s) $ ' 2 t0 e y( t0 )e t0

cio, ricordando la seconda delle (2.5.17):


!

(2.5.18) Esempio 2.5.1

x ( t ) = x t0

t # t 1 2& ) % A ( s) " ( B( s) ) (ds+ ) B( s) dW ( s) $ ' 2 t0 e t0

Risolviamo ! lequazione dx(t) = 4tx(t)dt +2tx(t)dW(t) , t"0 , con la condizione x(0) = 3 . Dalle (2.5.12), (2.5.13) e (2.5.14) troviamo: h(t)=B(t)= 2t , H(x(t),t) =lnx(t) ,

f ( t ) = A( t ) "

2 1 B( t )) = 4t " 2t 2 . ( 2

20

Perci, posto abbiamo:

yt y0 y(t)= lnx(t) " x(t) = e ( ) e x(0) = e ( ) ,

dy ( t ) = 4t " 2t 2 dt + 2tdW ( t )

]
t

! ! e dalla precedente troviamo y(t):


t t

2 " dy ( s) = " 4s # es ds + " 2sdW ( s) " ! 0 0 0

t # s2 t t 2 s3 & y ( t ) = y (0 ) + %4 " 2 ( + ) 2sdW ( s) = y ( t ) = y (0 ) + 2t 2 " t 3 + # 2sdW ( s) . t0 3 3 '0 t0 $ 2

Ricordiamo la posizione fatta da cui troviamo:

!
x ( t ) = e y ( t) =

t 2 y ( 0 ) + 2t 2 " t 3 + # 2sdW ( s) 3 t0 e

t 2 2t 2 " t 3 + # 2sdW ( s) 3 t0 e y (0 ) e

= x (0 )

t 2 2t 2 " t 3 + # 2sdW ( s) 3 t0 e

da cui, per la condizione iniziale x(0) = 3 , troviamo la soluzione cercata:

x(t) =

t 2 2t 2 " t 3 + # 2sdW ( s) ! 3 t0 . 3e

II ] Equazioni lineari in senso stretto. ! Consideriamo lequazione in senso stretto: !


(2.5.19) dx ( t ) = [ A( t ) x ( t ) + a( t )] dt + b( t ) dW ( t ) , t " [ t0 , #) , t0 $ 0 , b( t ) > 0 , con la condizione x ( t0 ) = x t0 . Ricordiamo che essa soddisfa la (2.5.8) per cui riducibile. Allora possiamo applicare la (2.4.21) , che, ricordando la (2.5.5), d: ! !

# ' % 1 % b' ( t ) h' ( t ) A( t ) = b( t )$ b' t " + 0( = " A( t ) . (2.5.20) 2 ( ) h( t ) b( t ) b( t ) % % b t ( ) ( ) & ) Dalla precedente troviamo successivamente:
t h' " t0 h

(s) ds = t" b' ( s) # A s ds " ln h s t = ln b s t " t# A s ds " ! ( ) ) ( [ ( )]t0 [ ( )]t0 t ( ) t0 b( s) (s) 0


t t h ( t0 ) h (t ) b( t ) b( t ) h ( t ) b( t ) " ln = " # A( s) ds " ln 0 = " # A( s) ds " h ( t ) = t0 t0 ! b( t 0 ) h ( t0 ) b( t0 ) h ( t0 ) b( t ) ! !

" ln
!

t " # A ( s) ds e t0

da cui, assumendo

!
(2.5.21)

h ( t0 ) = 1 , troviamo: b( t0 ) ! ! h ( t ) = b( t )

t " # A ( s) ds . e t0

!
21

Vera la (2.5.21), dalla (2.4.14) ( o (2.4.15)) troviamo :


t # $ A ( s) ds e t0

H x( t) ( x ( t ),t ) =

h ( t ) b( t ) " H ( x ( t ),t ) = = "x ( t ) b( t ) b( t )


t # $ A ( s) ds e t0

e quindi:
!

" H ( x ( t ),t ) = "x ( t ) da cui ricaviamo successivamente:


x ( t) " # !H a "z

(z,t ) dz =

t $ # A ( s) ds x ( t) t # e 0 dz a

" H ( x ( t ),t ) " H (a,t ) =

t " # A ( s) ds e t0

( x (t ) " a)

a = 0 e H (0,t ) = 0 , troviamo: ! ! " t# A ( s) ds ! (2.5.22) . H ( x ( t ),t ) = x ( t )e t0 ! ! Vera la (2.5.22), dalla (2.4.14) ( o (2.4.15)) troviamo :
! f (t) = e quindi: ! (2.5.23)
t " # A ( s) ds e t0 t " # A ( s) ds e t0

da cui assumendo

[ A(t ) x (t ) + a(t )] " x (t ) A(t )


f ( t ) = a( t )
t " # A ( s) ds e t0

+0

Perci, ricordando la (2.5.22), poniamo

!
(2.5.24)
y ( t ) = H ( x ( t ),t ) cio

y ( t ) = x (t )

t " # A ( s) ds e t0

e otteniamo, ricordamdo le (2.5.21) e (2.5.23):


!

dy ( t ) = a( t )

t " # A ( s)ds e t0 dt

t " # A ( s)ds e t0 dW

(t )

dalla precedente troviamo y(t):

!
t " dy t0

(s) =

t "a t0

(s)

s # " A ( z )dz t e t0 ds + " b t0 t #a t0

(s)

s # " A ( z )dz e t0 dW

( s) " ( s)
s " # A ( z )dz e t0 dW

(2.5.25)

y ( t ) = y ( t0 ) +

( s)

! !

s " # A ( z )dz t e t0 ds + # b ! t0

(s) .

Ricordiamo la (2.5.24) da cui troviamo:

22

(2.5.26)

x ( t ) = y (t )

t " A ( s) ds t0 e

e y ( t0 ) = x ( t0 ) = x t0

e per la (2.5.25) troviamo:

!
(2.5.27)

x(t) =

t " A ( s) ds $ & e t0 x

!
t0

& & %

t "a t0

(s)

s # " A ( z )dz t e t0 ds + " b t0

(s)

s # " A ( z )dz e t0 dW

' ) ( s)) . ) (

Concludiamo notando che quanto appena trovato permette di dimostrare il seguente: ! Teorema 2.5.1 Il processo stocastico:
$ ' t a( s) t b( s) x ( t ) = " ( t )& x t0 + # ds + # dW ( s)) t0 " ( s) t0 " ( s) % ( dove " ( t ) la soluzione dellequazione differenziale non stocastica

(2.5.28)

(2.5.29) !

"' ( t ) = A( t )" ( t ) con la condizione " ( t0 ) = 1

soluzione dellequazione differenziale stocastica lineare in senso stretto (2.5.19) con la condizione x ( t0 ) = x t0 . ! ! Dimostrazione:

Dalla (2.5.29) troviamo successivamente:

"' ( t ) = A( t ) " "' ( t )

t "' # t0 "'

(s) ds = t# A s ds " ln " s t () [ ( )]t0 t0 (s)


t # A ( s)ds e t0

= # A( s)ds "
t0

! per cui la (2.5.28) coincide con la (2.5.27) che, abbiamo visto, soluzione dellequazione (2.5.19) con la condizione x ( t0 ) = x t0 . ! !
Esempio 2.5.2

"

" ( t ) = " ( t0 )

! !

t # A ( s)ds e t0

! lequazione Risolviamo
dx(t) = +(,- x(t)) dt + -dW(t) , +, , e - costanti, +>0, ->0 con la condizione x(0)=x0. Ricordando la (1.2.3) vediamo che si tratta di un processo di Ornstein-Uhlenbeck. Dalle (2.5.21), (2.5.22) e (2.5.23) troviamo:
t " # "%ds $e 0

h ( t ) = b( t )

t " # A ( s) ds e0

= $e%t ,

H ( x ( t ),t ) = x ( t )

t " # A ( s) ds e0

= x ( t )e$t ,

23

f ( t ) = a( t )

t " # A ( s) ds e0

= $%e$t .

Perci, posto y ( t ) = H ( x ( t ),t ) = x ( t )e"t " x(t) = y ( t )e"#t e x(0) = y (0 ) , abbiamo: dy ( t ) = "e#t dt + #$e#t dW ( t )
! ! ! e dalla precedente troviamo y(t):

t " dy 0

( s) = " #$e#sds + " %e#sdW ( s) "


0 0

$"#e"s 't t "s t #s #s y ( t ) = y (0 ) + & ) + * + e dW ( s) = y (0 ) + "e $ " + % & e dW ( s) . 0 0 % " (0

Ricordiamo la posizione fatta da cui troviamo: ! ! t #s t ' * ' * #s "#t x(t) = y ( t )e = )y (0 ) + "e $ " + % & e dW ( s),e$#t = )x (0 ) + "e#s $ " + % & e#sdW ( s),e$#t ( + ( + 0 0 da cui, per la condizione iniziale x(0) = x0 , troviamo la soluzione cercata: t ' * x ( t ) = ) x0 + "e#s $ " + % & e#sdW ( s),e$#t . ( + 0 ! ! Notiamo infine che nel caso particolare in cui x (0 ) = x0 = " abbiamo la soluzione: t t & ) x ( t ) = ("e#s + $ % e#sdW ( s)+e,#t = x ( t ) = " + #e$%t & e%sdW ( s) . ' * 0 0 ! !

III ] Equazioni lineari del tipo: ! ! (2.5.30) dx ( t ) = [ "x ( t ) + # ] dW ( t ) , con " ,# costanti positive , x ( t ) > 0 con la condizione x ( t0 ) = x t0 cio equazioni lineari tali che A(t)=a(t)=0 e B(t)=. e b(t)=/ . Ricordiamo ! che lequazione (2.5.30) soddisfa!la (2.5.9) per cui riducibile. Allora possiamo ! ! applicare la (2.4.21) , che, ricordando la (2.5.5), d: !
h' ( t ) =0 . h( t ) Dalla precedente troviamo successivamente:
(2.5.31)
t h' " t0 h

(s) ds = 0 " ln h s t ! [ ( )]t0 (s)


!

= 0 " ln

h (t ) = 0 " h ( t ) = h ( t0 ) " h ( t ) = cos tan te h ( t0 )

da cui possiamo assumere

(2.5.32) ! !

. h ( t! ) = 1!

Vera la (2.5.32), dalla (2.4.14) ( o (2.4.15)) troviamo :

H x( t) ( x ( t ),t ) =

h (t ) " ! 1 H ( x ( t ),t ) = = "x ( t ) B( t ) x ( t ) + b( t ) #x ( t ) + $


24

da cui ricaviamo successivamente: x ( t) " x ( t) 1 # H ( z,t ) dz = # dz a "z a $z + % da cui assumendo


! (2.5.33)

" H ( x ( t ),t ) " H (a,t ) =

1 #x ( t ) + $ ln # #a + $

se

"x ( t ) + # >0 "a + #

a > 0 e H ( a,t ) = 0 , troviamo: 1 "x ( t ) + # ! ( x ( t )) . = H H ( x ( t ),t ) =! ln " "a + #

! ! Vera la (2.5.33), dalla (2.4.14) ( o (2.4.15)) troviamo : ! ! % ( 2 1' # 1 f (t) = 0 + 0 + " #x ( t ) + $ ) * = " # . (2.5.34) ( 2 * 2 ' ( #x ( t ) + $ ) 2 & )
Perci, ricordando la (2.5.22), poniamo

! (2.5.35)
.

( x ( t )) = 1 ln "x ( t ) + # y(t) = H " "a + #

per cui, ricordando le (2.5.32) e (2.5.34), otteniamo : ! 1 dy ( t ) = " #dt + 1dW ( t ) ; 2 dalla precedente troviamo y(t):

!
(2.5.36)

t " dy t0

t 1 $ds + " dW ( s) " t0 2 1 y ( t ) = y ( t0 ) " # ( t " t0 ) + W ( t ) " W ( t0 ) . 2

(s) =

t "# t0

! ! Ricordiamo la (2.5.35) da cui troviamo successivamente:


! "x ( t ) + # "y ( t ) = ln "a + #
(2.5.37)
!

, e "y( t) =

"x ( t ) + # "a + #
e

,
$ "a + # ' "y( t0 ) # x ( t0 ) = & * . )e % " ( "

$ "a + # ' "y ( t) # x(t) = & * )e % " ( " !

Per la (2.6.36), dalla prima delle (2.5.37) troviamo:


! ! + . 1 y ( t ) * "( t * t0 ) +W ( t) *W ( t0 )0 $ "a + # ' "y ( t) # $ "a + # ' "# , 0 2 / x(t) = & * =& * )e )e % " ( " % " ( "

e quindi, per la seconda delle (2.5.37):


!

25

(2.5.38)

* "( t * t0 ) +W ( t ) *W ( t0 ) 0 $ "a + # ' "y ( t0 ) "# / x(t) = & e , 2 * = )e % " ( "

+ 1

$ " ' #-* #( t* t0 )+W ( t)*W ( t0 )0 " / * . = & x ( t0 ) + )e , 2 % #( # ! Notiamo che se t0 = 0 la (2.5.38) d: !
! Esempio 2.5.3

+ 1

$ " ' #-* # x ( t ) = & x (0 ) + )e , 2 % #(

+ 1

. t +W ( t ) 0 /

" . #

Risolviamo ! lequazione dx(t) = (2x(t)+5)dW(t) , t "0 , x(0)=9. Dalle (2.5.32), (2.5.33) e (2.5.34) troviamo, assunto a>0: ( x ( t )) = 1 ln 2x ( t ) + 5 , a>0 , h(t) =1 , H ( x ( t ),t ) = H 2 2a + 5 Perci, posto
! y(t) =
" 2a + 5 % 2y( t) 5 1 2x ( t ) + 5 ( ln " x(t) = $ 'e ! # 2 & 2 2 2a + 5

1 f ( t ) = " 2 = "1 2
" 2a + 5 % 2y(0 ) 5 x (0 ) = $ ( , 'e # 2 & 2

abbiamo:

dy ( t ) = " dt + dW ( t )

! ! ! e dalla precedente troviamo y(t):


!
t " dy 0 t t

( s) = " #ds + " dW ( s) = #t + W ( t ) " y ( t ) = y (0 ) " t + W ( t ) .


0 0

Ricordiamo la posizione fatta da cui troviamo:

! ! !" 2a + 5 % " 2a + 5 % 2y(0 )( 2t+ 2W ( t) 5 " 2a + 5 % 2y(0 ) (2t+ 2W ( t) 5 5 2y ( t) x(t) = $ ( = x(t) = $ ( = x(t) = $ e ( 'e 'e 'e # 2 & # 2 & # 2 & 2 2 2
da cui, sempre per la posizione fatta e per la condizione iniziale x(0) =9 ,
! ! " 2a + 5 % " 2a + 5! % 2y (0 ) 5 5 23 2y ( 0 ) x (0 ) = $ ( =9+ = " $ 'e 'e # 2 & # 2 & 2 2 2

e quindi abbiamo la soluzione cercata: 23 5 x! ( t ) =! e"2t+ 2W ( t) " . ! 2 2

!
26

IV ] Equazioni lineari qualsiasi diverse dalle precedenti.


Consideriamo la generica equazione lineare:

(2.5.39)

% dx ( t ) = [ A( t ) x ( t ) + a( t )] dt + [ B( t ) x ( t ) + b( t )] dW ( t ) , t " [ t0 , #) , t0 $ 0 ' , & ' ( x ( t0 ) = x t0 > 0

essa non sia del tipo considerato in I] o in II ] o in III ]. Dimostriamo il seguente !

! ! ! Teorema 2.5.2 La generica equazione (2.5.39) cio: % ' dx ( t ) = [ A( t ) x ( t ) + a( t )] dt + [ B( t ) x ( t ) + b( t )] dW ( t ) , t " [ t0 , #) , t0 $ 0 & ' x ( t0 ) = x t0 > 0 (
non del tipo considerato in I] o in II ] o in III ], ha soluzione
! (2.5.40) $ ' t a( s) " b( s) B( s) t b( s) ( t )% x t0 + # x(t) = x ds + # dW ( s)( ( s) ( s) t0 t0 x x & ) ! ! ! ( t ) la soluzione della seguente equazione omogenea associata: dove x ! (2.5.41)

% dx ( t ) = A( t ) x ( t ) dt + B( t ) x ( t ) dW ( t ) , t " [ t0 , #) , t0 $ 0 . & ( t0 ) = 1 'x

Dimostrazione Lequazione (2.5.41) del tipo I] e quindi ha la soluzione: ! t # t & 1 (2.5.41) (t) = x Cerchiamo la solusione ! dellequazione (2.5.39) della forma seguente: 1 (t ) y (t ) " y ( t ) = x (t ) (2.5.42) . x(t) = x ! (t) x ! Per fare questo dobbiamo trovare y ( t ) , a tale scopo poniamo 1 (2.5.43) = z(t ) ! (t) x ! e quindi, per la (2.5.42),! abbiamo 1 (2.5.44) y ( t ) = x ( t ) z( t ) " y ( t0 ) = x ( t0 ) = x ( t0 ) . ( t0 ) x ! Poi procediamo come segue: a) determiniamo il differenziale stocastico di z( t ) applicando il lemma di Ito alla (2.5.44), cio: ! 2 1 1 t dt + B( t ) x ( t ) dW ( t )] + t dt = dz( t ) = " At x Bt x (2.5.44) ! 2[ ( ) ( ) 3 [ ( ) ( )] ( t )) ( t )) (x (x
2 ) % A ( s) " ( B( s) ) (ds+ ) B( s) dW ( s) $ ' t 2 0 e t0 .

= z( t )!( B( t )) " A( t ) dt " B( t ) dW ( t )


2

{[

27

b) determiniamo il differenziale stocastico di y ( t ) procedendo come nellEsempio 1.1.1, cio: (2.5.45) dy ( t ) = z( t )[ a( t ) " B( t )b( t )] dt + z( t )b( t ) dW ( t ) =

=
! c) determiniamo y ( t ) , cio:

a( t! ) " B(t )b(t ) dt + b( t ) dW t () (t) (t) x x


t a # t0

(2.5.46) d) determiniamo ! (2.5.47)

( s) " B(s)b(s) ds + t# b(s) dW s ds () ( s) ( s) t0 x x ! ( t ) nella (2.5.42) (e ricordando che y ( t0 ) = x ( t0 ) ), cio: x ( t ) sostituendo y ( t ) e x $ ' t a( s) " B( s)b( s) t b( s) ( t )% x ( t0 ) + # x(t) = x ds + # dW ( s) ds( ( s) ( s) t0 t0 x x & )
y ( t ) = y ( t0 ) +

! ! ! che la (2.5.40) che dovevamo dimostrare.


!

Bibliografia Gard T.C. , Introduction to Stochastic Differential Equations, Marcel Dekker Inc., New York, 1988, Gosio C., Introduzione al calcolo stocastico, Bozzi, Genova, 1995, Malliaris A.G., Brock W.A., Stochastic Methods in Economic and Finance, North-Holland, Amsterdam,1985,

28

ESERCIZI PROPOSTI In questi esercizi il processo {W ( t )} sia sempre di Wiener con &=1 . 1. e-3x(t). 2. 1.a) Posto dx(t) = 5 dt + 3dW(t) , trovare il differenziale stocastico di y(t) = e-2x(t). 1.b) Posto ! dx(t) = + dt + ,dW(t) , + e , costanti, trovare il differenziale stocastico di y(t) = 2.a) Calcolare il differenziale stocastico del processo y(t) = t2+5W(t) . 2.b) Trovare il differenziale stocastico di y(t)= -at + b (W(t))2 , a,b costanti. 2.c) Calcolare il differenziale stocastico del processo y(t) = t2+3(W(t))2 . 3.a) Sia noto che il processo

3.

{ x (t )} ammette

Calcolare il differenziale stocastico del processo

il differenziale stocasico dx(t) = (t+1)dt + dW(t). y(t) = (t+1)ex(t), t>0 .

3.b) . Sia data l'equazione ! differenziale stocastica dx(t) = x(t)dt + adW(t), a $costante. Posto y(t) = x(t)e-t, determinare il differenziale stocastico di y(t) . Poi, di conseguenza, trovare che risulta t $ t x(t) = e { x(0) + a#e-sdw(s) }. 0 3.c) Posto dx(t) = m dt + q dW(t) , m e q costanti positive, trovare il differenziale stocastico di y ( t ) = e
x ( t) "

, " > 0.

4. Dimostrare, utilizzando il Lemma di Ito, che x ( t ) = W ( t ) + x (0 ) ! differenziale stocastica


dx ( t ) = dt + 2 x ( t ) dW ( t ) .

soluzione dell'equazione

! 5. Dimostrare, utilizzando il Lemma di Ito, che [W(t)]2 ha il differenziale stocastico d [W(t)]2 = dt + 2W(t)dW(t). !
6. Risolvere la seguente equazione differenziale stocastica: dx ( t ) = 2 t x ( t ) dt + 5 x ( t ) dW ( t ) , t!0 , x(t)>0 , con la condizione x(0)= 3 7. E data l'equazione differenziale stocastica dx(t) = (x(t) + 3)dt +2tdW(t) con la condizione x(1) = 8 , t!1. ! * Dimostrare che essa riducibile. ** Trovarne la soluzione 8. Risolvere la seguente equazione differenziale stocastica: dx(t) = 3x(t)dt +6x(t)dW(t) , t!0, x(t)>0, con la condizione x(0)= 7. 9. Risolvere la seguente equazione differenziale stocastica: dx(t) = (3x(t)+5)dW(t) , t!0, x(t)>0, con la condizione x(0)= 2. 29

RISULTATI DEGLI ESERCIZI PROPOSTI 1. 1.a) dy ( t ) = 8 y ( t ) dt " 6 y ( t ) dW ( t ) 2. 2.a) dy ( t ) = 2tdt + 5dW ( t ) 2.c) dy ( t ) = ( 3 + 2t ) dt + 6W ( t ) dW ( t ) ! 3.
% 9 ( 1.b) dy ( t ) = ' "3# + $ 2 * y ( t ) dt " 3$y ( t ) dW ( t ) & 2 )

! ! !

2.b) dy ( t ) = ("a + b) dt " 2bW ( t ) dW ( t )

! 2t 2 + 5t + 5 3.a) dy ( t ) = y ( t ) dt + y ( t ) dW ( t ) 2( t + 1)
3.b) dy ( t ) = "e# t dW ( t ) ; da questo risultato, ricordando che
y ( t ) = x ( t )e" t , si trova
t 0

!
!

successivamente: " dy ( s) = " #e$ s dW ( s) , y ( t ) = y(0) + " $ e# s dW ( s) x ( t )e" t = x(0) + # $ e" s dW ( s)

x(t) = e

0 0 t #s x(0) + " $ e dW s 0

()

}
!

#1 & 1 1 ! 3.c) dy (! t ) = % m + 2 q 2 (y ( t ) dt + qy ( t ) dW ( t ) " 2" $" '

!
4. dx ( t ) = dt + 2 W ( t ) + x (0 ) dW ( t ) quindi
! !

dx ( t ) = dt + 2 x ( t ) dW ( t )

5. Pongo y(t)= [W(t)]2 da cui: d [W(t)]2 = dy(t) =!dt + 2W(t)dW(t). 6. x ( t ) = 7. )


2 t "1 25 " t + 5W ( t ) 3e ln 2 2

1 , . ,4 " 3 * 1 d $ x(t) + 3 ' 1 d 2 " $1 ' 2t + 2 # + 2t # 1) = 0 /6 = ( ) ( ) & ) & 2 2 % ( "x ( t ) 3 dx t 2t 2 " x t t , , 6 ( ) ( ) % ( 2t dx t ( ) ( ) 05 2 -

e quindi riducibile. ** Pongo y ( t ) = x ( t )e"( t"1) .


!

! t t $ ' " t " 1 " s " 1 x ( t ) = e t"1 [ y ( t )] = e t"1 &11 " 3e ( ) + 2 # se ( ) dW ( s)) = 11e t"1 " 3 + 2e t # se" s dW ( s) % ( 1 1 !
8. x ( t ) = 7e"15 t+6W ( t)
!

!
!

9. x ( t ) =

9 11 " 2 t+ 3W ( t) e

"

5 3

!
30