Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1 LEMMA DI IT Lemma di It (forma scalare) Supponiamo che il processo stocastico (scalare) x(t) abbia il differenziale stocastico (1.1.1) dx(t) = !(x(t),t)dt + g(x(t),t)dW(t) , t"[t0,T*] , T*>0 oppure t " [ t0 , +#[
con W(t) processo unidimensionale di Wiener. Inoltre ! e g abbiano propriet opportune. Sia u: una funzione dotata di derivate prima e seconda rispetto al primo argomento !
e prima rispetto al secondo argomento continue. Allora il processo stocastico y(t) = u(x(t),t) ammette differenziale stocastico che, per il Lemma di It, : (1.1.2) dy(t) = 2 $"u( x ( t ), t ) "u( x ( t ), t ) 1 " u( x ( t ), t ) & = + # ( x ( t ),t ) + g( x ( t ), t ) "t "x ( t ) 2 "x ( t ) 2 & %
Per spiegare il risultato (1.1.2) si considera lo sviluppo in serie di Taylor di u(x(t),t) e si troncano gli infinitesimi di ordine superiore a dt. Occorre osservare che il termine di 2 ordine di Taylor 2 1 " 2u dx ( t )) contiene anche infinitesimi dellordine di dt. Infatti si ha (tralasciando gli 2 ( 2 " ( x ( t )) argomenti di x, # , g e W):
2 2 2 2 2 2
(1.1.3)
(dx )
in cui lultimo addendo, essendo ( dW k ) =dt , dellordine di dt. Tutti gli altri addendi della precedente ! ! sono infinitesimi ! di ordine superiore a dt. Anche tutti gli altri addendi del secondo ordine e degli ordini successivi (nello sviluppo in serie di Taylor) sono infinitesimi di ordine superiore a dt. Pertanto, sviluppando in serie di Taylor si ha: ! dy ( t ) = 2 2 "u( x ( t ), t ) "u( x ( t ), t ) " 2 u( x ( t ), t ) 2 1 " u( x ( t ), t ) 1 " u( x ( t ), t ) 2 = dx ( t ) + dt + dx ( t )) + dx ( t ) dt + (dt ) + ... ( 2 2 "x ( t ) "t 2 "x ( t ) "x ( t )"t 2 "t
!
!
dy ( t ) =
"u( x ( t ), t ) "x ( t )
dx ( t ) +
"u( x ( t ), t ) "t
dt +
2 2 1 " u( x ( t ), t ) g( x ( t ), t ) dt 2 2 "x ( t )
dy ( t ) =
"u( x ( t ), t ) "x ( t )
"u( x ( t ), t ) "t
2 2 1 " u( x ( t ), t ) dt + g( x ( t ), t ) dt 2 2 "x ( t )
che la (1.1.2).
Lemma di It (forma vettoriale) Supponiamo che il processo stocastico (vettoriale) x(t) (x vettore (colonna) n-dimensionale) abbia il differenziale stocastico (1.1.4) dx(t) = $(x(t),t)dt + G(x(t),t)dW(t) , t"[t0,T*] , T*>0 , t0 !0
con W(t)=( W1(t), W2(t),,Wm(t)), processo m-dimensionale di Wiener ; $(x(t),t)=( !1(x(t),t), !2(x(t),t),, !n(x(t),t)), vettore (colonna) n-dimensionale; G(x(t),t) = {gi,j(x(t),t)} matrice n%m. Inoltre $ e G abbiano propriet opportune. " x1 ( t )% $ ' . ' $ Posto x(t) = , $ . ' $ ' #x n ( t )& il differenziale stocastico (1.1.4) ha le n componenti dxi(t) cos definite:
!
#"1 ( x ( t ), t )& "dx1 ( t )% % ( $ ' . ( dt + $ . ' = % % ( $ . ' . % ( $ ' #dx n ( t )& $" n ( x ( t ), t )' "g11 ( x ( t ), t ) $ . $ $ . $ #gn1 ( x ( t ), t ) . . g1m ( x ( t ), t )% ' . . . ' ' . . . ' . . gnm ( x ( t ), t )&
, i=1, 2, ., n.
Sia
U: " n x 0,T * # " una funzione che ha le propriet opportune, in particolare ha le derivate
prima e seconda rispetto ! ai suoi primi n argomenti continue e le derivata prima rispetto a t continua. Il Lemma di It, in forma vettoriale, dice che il processo stocastico y(t) = U(x1(t), x2(t),,xn(t)), t) ammette differenziale stocastico che, per il Lemma di It, : !
n "U # i =1
( x1 (t ),.., x n (t ), t ) $
"x i ( t )
( x ( t ), t ) +
(1.1.5) +
U ( x1 ( t ),.., x n ( t ), t )
"x i ( t )"x j ( t )
m # gij j =1
( gik ( x ( t ), t ) g jk ( x ( t ), t )* *dt + )
n "U # i =1
( x1 (t ),.., x n (t ), t )
"x i ( t )
( x (t ), t )dW j
OSSERVAZIONE ! Anche qui per spiegare il risultato (1.1.5) si considera lo sviluppo in serie di Taylor di U(x1(t),x2(t),,xn(t)),t) e si troncano gli infinitesimi di ordine superiore a dt. Esempio 1.1.1 Sia n=2 e m=1. Allora abbiamo: W(t) unidimensionale e $# ( x ( t ), t )' " x ( t )% " ( x ( t ), t ) = & 1 x(t) = $ 1 ' ) & # x 2 ( t )& %# 2 ( x ( t ), t )) ( dx1(t) = !1(x(t),t)dt + g11(x(t),t)dW(t) dx2(t) = !2(x(t),t)dt + g21(x(t),t)dW(t). ! Sia y(t) = U(x1(t), x2(t), t) "
"g ( x ( t ), t )% G( x ( t ), t ) = $ 11 '" $ #g21 ( x ( t ), t )' &
dy ( t ) = * '"U "U "U 1 $ " 2U " 2U " 2U " 2U 2 2 )/ = , + #1 + #2 + & g + g g + g g + g & "x 2 ( 11 ) "x "x 11 21 "x "x1 21 11 "x 2 ( 21 ) )/ dt " t " x " x 2 , ( ) ( ) 1 2 1 2 2 % 1 (. 2 + "U "U g11 dW + g21 dW . + "x 1 "x 2 !
!
Caso particolare (utile in seguito) y(t) = U(x1(t), x2(t), t) = x1(t) x2(t) . Risulta
"U = 0 "t
"U = x2 "x 1
"U = x1 "x 2
" 2U
("x1 )
=0
da cui segue:
dy(t) = [0+ x2!1 + x1!2 + (1/2 ) 2 g11 g21 ] dt + [x2g11 + x1g21 ] dW = = [ x2!1 + x1!2 + g11 g21 ] dt + [x2g11 + x1g21 ] dW. 3
1.2 PARTICOLARI PROCESSI STOCASTICI Moto browniano semplice Consideriamo il seguente differenziale stocastico: (1.2.1) dx(t) = dt + & dW(t) , e & costanti , &!0 .
Un processo che soddisfa la (1.2.1) detto moto browniano semplice con deriva (o drift) e con coefficiente di diffusione &. Moto browniano geometrico Consideriamo il seguente differenziale stocastico: (1.2.2) dx(t) = x(t)dt + & x(t)dW(t) , e & costanti , &!0 . Un processo che soddisfa la (1.2.2) detto moto browniano geometrico. Processo di Ornstein-Uhlenbeck Consideriamo il seguente differenziale stocastico: (1.2.3) dx(t) = a(c- x(t)) dt + bdW(t) , a, c e b costanti, a>0, b>0. Un processo che soddisfa la (1.2.3) detto processo di Ornstein-Uhlenbeck.
1.3 ALCUNE APPLICAZIONI DEL LEMMA DI IT Consideriamo il processo stocastico di Wiener {W ( t ),t " [0, +#[} che ammette per ipotesi il differenziale stocastico dW(t) = odt+1dW(t) .
! Vogliamo determinare il differenziale stocastico del processo
(1.3.1)
y(t) = u(W(t),t)
dove u assunta dotata di derivate prima e seconda continue rispetto al suo primo argomento e dotata di derivata prima continua rispetto al suo secondo argomento . Applicando il lemma di It, possiamo concludere che:
! Esempio1.3.1
! il differenziale stocastico del processo Determiniamo
(1.3.2)
Vogliamo determinare il differenziale stocastico del processo (1.3.4) y(t) = u(W(t),t) = (W(t))
Questo risultato consente di dimostrare che sussiste il seguente Teorema 1.3.1 (TEOREMA FONDAMENTALE DEL CALCOLO INTEGRALE STOCASTICO DI IT) Sia {W ( t ),t " [0, +#[} un processo stocastico di Wiener ad incrementi W(t)-W(s) distribuiti normalmente con media 0 e varianza (t-s). Sia una funzione dotata di derivate prima e seconda continue. Si ha allora: t 1 t (1.3.6) $ $ '' '(W(s))dW(s) = (W(t)) (W(0)) # 2 # (W(s)) ds . 0 0 Dimostrazione. Assumiamo y(t) soddisfacente la (1.3.4) e ricordiamo che y(t) soddisfa la (1.3.5); integrando ambo i membri della (1.3.5) otteniamo
1 t '' (W ( s)) ds . #u 20
1 t '' (W ( s)) ds #u 20
5
da cui si ottiene
t ' "u 0
che la (1.3.6).
1t
OSSERVAZIONE !teorema fondamentale del calcolo integrale stocastico di It consente di affermare che il processo Il stocastico { W (t),t " [0,+# [} soddisfa la seguente relazione: t 2 1 1 " W ( s) dW ( s) = (W ( t )) # t. 0 2 2 1 Per ! dimostrarlo basta prendere (W(t)) = 2 (W(t)) 2 nel teorema fondamentale suddetto e ricordare 1 1 che W(0)=0 ! . Si ha infatti '(W(s)) dW(s) = W(s)dW(s) e 2 ''(W(s)) ds = 2 ds sicch la (1.3.6) d t t 1 2 2 2 1 1 1 1 " W ( s) dW ( s) = (W ( t )) # (W (0 )) # " ds = (W ( t )) # t. 0 02 2 2 2 2 Consideriamo il processo stocastico {x(t)} che ammetta per ipotesi il differenziale stocastico ! (1.1.1) che riscriviamo: dx(t) =!(x(t),t)dt + g(x(t),t) dW(t) , t"[t0,T*] , T*>0 oppure t " [ t0 , +#[ . Vogliamo determinare il differenziale stocastico del processo (1.3.7) y(t) = u(x(t),t) = (x(t))
dove assunta dotata di derivate prima e seconda continue. Osservato che : ' ( x ( t )) , u'' '' ( x ( t )) , u'2 ( x ( t ),t ) = u ( x ( t )) = 0 , u'1 ( x ( t ),t ) = u 11 ( x ( t ),t ) = u applicando il lemma di It, possiamo concludere che:
! ! ! 1 dy(t) = '(x(t)) dx(t) + ''(x(t))(g(x(t),t)) 2dt = 2 1 = ['(x(t)) j(x(t),t)+ ''(x(t))(g(x(t),t)) 2]dt+'(x(t)) g(x(t),t) dW(t). 2
Esempio 1.3.2 Consideriamo il processo stocastico {x(t)} che ammetta per ipotesi il differenziale stocastico: 1 (1.3.8) dx(t) = - t2dt + tdW(t). 2 Determiniamo il differenziale stocastico del processo (1.3.9) y(t) = e2x(t) .
Notiamo che risulta y(t) = e2x(t) = u(x(t),t) = (x(t)); pertanto, osservato che 6
'(x(t))= 2e2x(t) , ''(x(t)) = 4e2x(t) , applicando il lemma di It, possiamo concludere che: 1 1 dy(t) = 2e2x(t)[- t2dt + tdW(t)] + 4e2x(t) t2 dt = 2 2 2x(t) 2 2 =e {[- t + 2t ]dt + 2t dW(t )} = t2y(t)dt + 2ty(t)dW(t). Esempio 1.3.3 Consideriamo il processo stocastico {x(t)} che ammetta per ipotesi il differenziale stocastico (1.3.10) dx(t) = x(t)dt + &x(t) dW(t) , e % costanti , %"0 , x(t)>0.
Ricordando la (1.2.2) vediamo che un processo che soddisfa la (1.3.10) un moto browniano geometrico . Determiniamo il differenziale stocastico del processo y(t) = ln x(t) . Notiamo che risulta y(t) = lnx(t) = (x(t)); pertanto, osservato che 1 1 , ''(x(t) = x(t) (x(t))2 applicando il lemma di It, possiamo concludere che: '(x(t)) = dy(t) = cio 1 dy(t) = [ - &2]dt + & dW(t ) . 2 ! La (1.3.11) dice che y(t) = ln x(t) (dove x(t) soddisfa la (1.3.10)) un moto browniano semplice. (1.3.11) Esempio1.3.4 Consideriamo il processo stocastico {x(t)} che ammetta per ipotesi il differenziale stocastico (1.3.12) dx(t) = dt + &dW(t) , e & costanti , &"0 . ,
Ricordando la (1.2.1) vediamo che un processo che soddisfa la (1.3.12) un moto browniano semplice . Determiniamo il differenziale stocastico del processo y(t) = ex(t) .
Notiamo che risulta y(t) = ex(t) = (x(t)); pertanto, osservato che '(x(t)) = ex(t) , ''(x(t) = ex(t) , applicando il lemma di It, possiamo concludere che: 1 dy(t) = ex(t)[ dt + &dW(t)] + ex(t) &2dt 2 cio 1 2 & ]y(t)dt + & y(t)dW(t ) . 2 La (1.3.13) dice che y(t) = ex(t) (dove x(t) soddisfa la (1.3.12)) un moto browniano geometrico. (1.3.13) dy(t) = [ +
2. EQUAZIONI
2.1 GENERALITA Le equazioni differenziali stocastiche sono equazioni del tipo (2.1.1) dx(t) = !(x(t),t)dt + g(x(t),t)dW(t) , t&[t0,T*] , T*>0 , oppure t " [ t0 , +#[
con W(t) di Wiener. Accanto allequazione (2.1.1) si considera una condizione detta condizione iniziale, cio: ! x(t0) = xt0 . Se t0 = 0 , la condizione iniziale si scrive: (2.1.2) x(0) = x0 . Le equazioni differenziali stocastiche possono essere scalari o vettoriali. Noi ci occuperemo di quelle scalari . Fatte queste premesse, ricordiamo che dalla (2.1.1), integrando tra t0 e t, si trova:
x ( t ) - x ( t0 ) =
t # " ( x ( s), s ) ds t0
t # g( x ( s ), s ) dW t0
( s)
!2.2 ESISTENZA ED UNICITA DELLA SOLUZIONE DELLEQUAZIONE (2.1.1) CON LA CONDIZIONE (2.1.2).
Diciamo che un processo stocastatico x(t) soluzione dellequazione (2.1.1) con la condizione (2.1.2) se 't"[0,T*] soddisfa la (2.1.3) (e quindi la (2.11)). Esiste il seguente teorema di esistenza ed unicit: Teorema 2.2.1 (non richiesto allesame) Siano T*>0 e f: , g: soddisfano : (i) esiste una costante K tale che (! (x(t),t) - ! (y(t),t)' + 'g(x(t),t) - g(y(t),t) ' # K'x(t)-y(t) ', ' x(t),y(t) &R , t"[0,T*] (ii) esiste una costante K* tale che '! (x(t),t)'# K*(1+'x(t)') e 'g(x(t),t)'# K*(1+'x(t)() ' x(t) "R , t"[0,T*]
(iii) x0 indipendente da W(t) con E[' x02'] < +). Allora lequazione (2.1.1) con la condizione (2.1.2) ammette ununica soluzione continua in [0,T*]. La condizione (i) si chiama condizione di Lipschitz (rispetto alla prima variabile). (fine del teorema non richiesto allesame)
2.3 EQUAZIONI DIFFERENZIALI STOCASTICHE DEL TIPO dx(t) = f(t)dt + h(t)dW(t) Consideriamo equazioni del tipo (2.3.1) dx(t) = f(t)dt + h(t)dW(t), t"[0,T*] , T*>0 , oppure t " [0, +#[ x(0) = x0.
! Esse sono un caso particolare di equazioni (2.1.1) caratterizzate dal fatto che:
!(x(t),t) = f(t)
g(x(t),t) = h(t)
sono entrambe indipendenti da x(t). Lequazione (2.3.1) con la condizione (2.3.2) ammette pertanto la soluzione: (2.3.3)
x ( t ) = x0 +
t " 0
f ( s) ds +
t " h ( s) dW ( s) . 0
Esempio 2.3.1 ! Lequazione dx(t) = dt + &dW(t) , , & costanti, >0 , &>0 con la condizione x(0) = x0 ammette la soluzione
x ( t ) = x0 + " ds + " #dW ( s) = x0 + [s]0 + ["W(s)]0 = x0 + t + "W( t ) .
t t
Esempio 2.3.2
t # 2dW 0
10
2.4 EQUAZIONI DIFFERENZIALI STOCASTICHE RIDUCIBILI Consideriamo la generica equazione differenziale stocastica (scalare): (2.4.1) dx(t) = !(x(t),t)dt + g(x(t),t)dW(t) , t&[0,T*] , T*>0 x(0) = x0 .
Ci chiediamo se la sua soluzione pu essere rappresentata esplicitamente in termini di integrali di Riemann e di It (questi ultimi sono integrali stocastici). Per rispondere a questa domanda utilizziamo il concetto di riducibilit. Cerchiamo cio equazioni del tipo (2.4.1) con la condizione (2.4.2) che, mediante la posizione (2.4.3) y(t) = H(x(t),t)
siano riducibili nella forma (2.3.1) cio nella forma: (2.4.4) dy(t) = f(t)dt + h(t)dW(t), , t&[0,T*] , T*>0.
E chiaro che la soluzione della (2.4.4), con lopportuna condizione iniziale coerente con (2.4.2) e con (2.4.6), esprimibile nella forma (2.3.3) cio utilizzando un integrale di Riemann ed uno di It. Pertanto diamo la seguente Definizione 2.4.1 Diciamo che lequazione (2.4.1) riducibile nella forma (2.4.4) se: (a) possibile trovare una funzione H: "x 0,T * # " (che gode delle propriet necessarie per
applicare il Lemma di It) che ammette una funzione inversa K nel senso che: (2.4.5) (b) y(t)=H(x(t),t)) * K(y(t),t) = K(H(x(t),t),t) =x(t) ; !
Nota: ! indicato con H , H , g 2 le derivate prime rispettivamente rispetto a t e ad x e le derivata seconda Abbiamo t x xx rispetto ad x. Inoltre con la notazione [ ]( ) intendiamo che tutte le funzioni tra parentesi quadra devono essere calcolate negli argomenti tra parentesi tonda; ad esempio: [f+g](s,z)=f(s,z)+g(s,z).
11
(2.4.6) e (2.4.7)
!
Diamo ora un teorema di riducibilit; mostreremo poi che se valgono la (a) e la (b) ! possibile rappresentare la soluzione x(t) dellequazione (2.4.1) con la condizione (2.4.2) nella forma x(t) = K(y(t),t) dove
y ( t ) = H ( x (0 ),0 ) + " f (s)ds + " h(s)dW (s) .
0 0 t t
Teorema 2.4.1 Ipotizziamo che sia! g(0 e che ! e g possiedano le derivate utilizzate nel seguito. Lequazione differenziale stocastica (2.4.1), che riscriviamo per chiarezza: (2.4.1) dx(t) = !(x(t),t)dt + g(x(t),t)dW(t) , t&[0,T*] , T*>0
riducibile nella forma (2.4.4), cio nella seguente forma (2.4.8) dy(t) = f(t)dt + h(t)dW(t), , t&[0,T*] , T*>0
se e solo se le funzioni ! e g soddisfano la seguente condizione (detta condizione di riducibilit). - 1 " -5 " 2 + " %$ ( 1 "2 / 4 g, 2 g # g07( x ( t ),t ) = 0 (2.4.9) ' *+ 2 " x(t) 4 " t " x t g 2 ( ) & ) "x ( t ) 17 3 . ( g) 6 Dimostrazione ! ! Premettiamo i punti (A) e (B). (A) Sia H: una funzione avente inversa K: e dotata delle propriet
(la H) che consentono lapplicazione del lemma di It. Poniamo (2.4.10) y(t) = H(x(t),t);
applicando il Lemma di It troviamo: 1 dy(t) = H x dx(t) + H t dt + H xx g 2 dt = 2 (2.4.11) . # 1 2& H " + H t + H xx g (( x(t),t ) dt + [ H x g]( x(t),t ) dW (t) % $ x ' 2
12
valgono le seguenti:
) # & 1 +( 2.4.14' ) %H x" + H t + H xx g 2 (( x ( t ),t ) = f ( t ) * $ ' 2 + (2.4.14'' ) H g [ x ]( x(t),t ) = h(t) ,
(2.4.14)
cio
!
* ( 2.4.15') [ H x g]( x(t),t ) = h(t) , ' " $ 1 (2.4.15) + H x# + H t + H xx g 2 )( x ( t ),t ) = 0 , ( 2.4.15 ) "x ( t ) & % ( 2 Veniamo quindi alla dimostrazione del Teorema 2.4.1. Supponiamo che la (2.4.1) sia riduciblie. Allora possibile trovare una funzione H:
applicare il Lemma di It) che ammette una funzione inversa K ed tale che, fatta la posizione (2.4.10) si trova la (2.4.13) in cui i coefficienti di dt e di dW(t) non dipendono da y(t). Perci, ricordando (B), valgono le (2.4.15). Allora esiste h tale che le (2.4.5) sono soddisfatte. La (2.4.15) d (si ricordi che, per ipotesi, g!0): h(t) H x ( x ( t ),t) = g( x ( t ),t) cio: " h(t) (2.4.16) H x ( x ( t ),t) = H( x ( t ),t) = "x ( t ) g( x ( t ),t) !
13
da cui si ricava:
(2.4.17)
" g( x ( t ),t)h' ( t ) # h(t) g( x ( t ),t) "2 "t H( x ( t ),t) = 2 "x ( t )"t (g( x (t ),t))
(2.4.18)
!
"
2 2
#h(t) H( x ( t ),t) =
"x ( t )
(g( x (t ),t))
perci il primo membro della (2.4.15) si scrive: " $ 1 2' (2.4.19) ! &H x# + H t + H xx g )( x ( t ),t ) = ( "x ( t ) % 2 % ( " $h(t) g( x ( t ),t) ' * "x ( t ) 2 " ' h(t) " 1 # ( x ( t ),t) + H( x ( t ),t) + = (g( x (t ),t)) * = 2 "x ( t ) ' ! g( x ( t ),t) "t 2 * (g( x (t ),t)) ' * & )
% ( " $h(t) g( x ( t ),t) ' * "x ( t ) 2 " ' h(t) 1 = # ( x ( t ),t) + (g( x (t ),t)) * + 2 "x ( t ) ' g( x ( t ),t) 2 * (g( x (t ),t)) ' * & ) # g( x ( t ),t)h' ( t ) " h(t) g( x ( t ),t) #t + = 2 (g( x (t ),t))
# 2 (g( x (t ),t)) h' t 1 # ( ) " # ( x ( t ),t) #t " h( t ) g( x t ,t) + " h t = h( t ) = ( ) ( ) 2 2 g( x ( t ),t) "x ( t ) g( x ( t ),t) 2 #x ( t ) g( x t ,t) ( ) ( )
+ / h' ( t ) 1 " " % $ ( x ( t ),t) ( 1 " 2 g( x t ,t) # + g( x t ,t) = - h ( t ), 0. ' * ( ) ( ) ( ) 2 "t "x ( t ) & g( x ( t ),t) ) 2 "x ( t ) 2 g( x ( t ),t) . ( g( x ( t ),t)) 1 !
d: !La (2.4.15) !
' " $ 1 H x# + H t + H xx g 2 )( x ( t ),t) = 0 & ( "x ( t ) % 2
2 + /5 % ( " # g* 4 -"g ' 7 2 - "t -7 "x ( t ) h' ( t ) 1 " 1 " 4 ' * $ +$ + g0 ( x ( t ),t ) = g, 2 # 2 2 4 - ( g) ' g "x ( t ) h( t ) g) * 2 "x ( t ) -7 ( ' * 4 7 & ) 16 3 . ! !
14
cio: (2.4.20)
h' ( t ) = h( t )
2 + / 2 % ( -5 4g, 1 " g # " ' $ * + 1 " g07( x ( t ),t ) . 2 " x ( t ) & g ) 2 "x ( t ) 2 4 . ( g) "t 17 3 6
Il primo membro della (2.4.20) non dipende da x(t); ne viene che anche il secondo membro della (2.4.20) da x(t): perci la sua derivata rispetto a x(t) uguale a 0. Risulta quindi: ! non dipende ! 2 -5 1 " " %$ ( 1 "2 / " 4 + g, 2 g # + g 07( x ( t ),t ) = 0 ' * 2 " t " x t g 2 "x ( t ) 4 ( ) & ) g " x t ( ) ( ) 17 3 . 6 che la (2.4.9).
Supponiamo ora che valga la (2.4.9). 2 + - 1 " -5 " %$ ( 1 "2 / 4 g07( x ( t ),t ) risulta indipendente da x(t); Se essa vale, ne viene che g, 2 g # ' *+ 2 " t " x t g 2 4 ( ) & ) g " x t () 17 3 .( ) 6 allora possibile trovare una funzione h tale che sia soddisfatta la relazione:
2 + / 2 % ( -5 4g, 1 " g # " ' $ * + 1 " g07( x ( t ),t ) 2 " x ( t ) & g ) 2 "x ( t ) 2 4 . ( g) "t 17 3 6 che la relazione (2.4.20).
(2.4.21)
h' ( t )= ! h( t )
Trovata la funzione h , possibile trovare una funzione H che soddisfa la (2.4.14) (e che ! ! almeno localmente invertibile). Trovata la funzione H , possibile trovare una funzione f che soddisfa la (2.4.14), infatti, se H soddisfa la (2.4.14), cio la (2.4.15), a causa di quanto precedentemente mostrato, si ha che vale la (2.4.19) ; ne viene che la derivata, rispetto ad x(t), del primo membro della (2.4.14) a causa della (2.4.19) e della (2.4.21) si scrive successivamente:
' " $ 1 H x# + H t + H xx g 2 )( x ( t ),t ) = & ( "x ( t ) % 2 1+ " 5 . 2 3- g 3 % ( 0 h ( t ) " $ 1 " = - h ( t )2- "t 2 # g x t ,t 6= ( ) ( ) ' *+ 0 2 g( x t ,t) " x t g 2 ( ) ( ) & ) g " x t ( ) ( ) 33 0 ! / 4, 7 1+ " 5 1+ " 5 . . g 2 2 3- g 3 3 3 % ( 0 % ( 0 " $ 1 " "t # " $ + 1 " g ( x ( t ),t )6 =0 = h ( t )2- "t 2 # g x t ,t h t 6 2 ( ) ( ) ( ) ' *+ ' * 0 0 2 2 2 3 3- ( g) "x ( t ) & g ) 2 "x ( t ) 0 3 ! 3- ( g) "x ( t ) & g ) 2 "x ( t ) 0 / / 4, 7 4, 7 # & 1 sicch si ha che f(t) = %H x" + H t + H xx g 2 (( x ( t ),t ) non dipende da t e soddisfa la (2.4.14). $ ' 2
!
!
15
Esempio 2.4.1 E data lequazione: (2.4.22) dx ( t ) = 5 x ( t ) dt + 8 x ( t ) dW ( t ) , con la condizione x(0) = 4 , t"0 e x(t)>0. Vogliamo stabilire se essa riducibile e, in tal caso, risolverla. Per stabilire se riducibile vediamo se verifica la (2.4.9) il cui primo membro in questo caso si scrive: ! 1 4 * . , ,6 " 3 1 " " $ 5 x (t ) ' 1 " 2 8 x ( t )+ 8 x(t) # 8 x ( t )/ = & )+ 2 2 6 "x ( t ) 3 " t " x t 8 x t 2 ( ) ( ) " x t , , % ( ( ) 8 x t ( ) ) -( 05 2
" [8 x (t ){0 " 0 + 0}] = 0 "x ( t ) ! ! perci la (2.4.9) soddisfatta e lequazione considerata riducibile.
=
Per risolvere! lequazione: ! 1) determiniamo h(t) utilizzando la (2.4.20) e il risultato appena ottenuto:
1 4 * . , ,6 h' ( t ) 3 1 " " $ 5 x (t ) ' 1 " 2 = 8 x ( t )+ 8 x(t) # 8 x ( t )/ = [8 x ( t ){0 " 0 + 0}] = 0 & )+ 2 6 h( t ) 3 "t " x ( t ) % 8 x ( t ) ( 2 "x ( t ) 2 , , 8 x t ( ) ( ) 05 2 " h' ( t ) = 0 " h ( t ) = c , c costante . Assumiamo c=1 e abbiamo ! (1) h( t ) = 1 ;
!
!
! h(t) 1 in cui, ricordiamo, per ipotesi x(t)>0, H x ( x(t),t ) = = g( x(t),t ) 8 x ( t ) da cui , presa a costante positiva, x ( t) x ( t) 1 $ 1 'x ( t) x ( t) " # H x ( s,t )ds = # ds " [ H ( s,t )] a = & ln s) a a 8s %8 (a ! 1 1 x(t) . " H ( x ( t ),t ) # H ( a,t ) = [ ln x ( t ) # ln a] " H ( x ( t ),t ) = H ( a,t ) + ln 8 8 a Assumiamo a=1 e H(a,t)=H(1,t)=0 e abbiamo 1 (2) H ( x ( t ),t ) = ln x ( t ) = H ( x ( t )) 8
3) determiniamo f(t) utilizzando la (2.4.14) e la H(t) appena trovata:
(3)
In conclusione per trovare la soluzione della (2.4.22), poniamo (per (2)): 1 y ( t ) = ln x ( t ) = H ( x ( t )) 8 da cui otteniamo subito 8 y ( t ) = ln x ( t ) e quindi ! (2.4.23) e x ( t ) = e8 y ( t) x (0 ) = e 8 y ( 0 ) lequazione ! (2.4.22) si riduce allequazione seguente (per (1) e (3)): 27 dy ( t ) = " dt + 1dW ( t ) 8 ! ! da cui, integrando tra 0 e t si trova: t t 27 t $ 27 't t t 27 " dy ( s) = " # dts + " 1dW ( s) " [ y ( s)]0 = &# ) + [W ( t )]0 " y ( t ) # y (0 ) = # t + W ( t ) % 8 (0 0 0 0 8 8 ! e quindi 27 y ( t ) = y (0 ) " t + W (t). 8 ! (2.4.23) troviamo: Infine, dalla prima delle
x(t) = e
8 y ( t)
!e =
= e8 y ( 0 ) e
"8
27 t +8W ( t ) 8
= e8 y (0 )e"27 t+8W ( t)
e quindi, tenendo conto della seconda delle (2.4.23) e della condizione iniziale x(0)=4 abbiamo la soluzione cercata: x ( t ) = 4e"27 t+8W ( t) .
Definizione 2.5.2 Una equazione differenziale stocastica lineare omogenea se in essa si ha:
dx ( t ) = A( t ) x ( t ) dt + B( t ) x ( t ) dW ( t ) .
Definizione 2.5.3 ! differenziale stocastica lineare lineare in senso stretto se in essa si ha: Una equazione 17
2.5.1 RIDUCIBILIT NEL CASO DI EQUAZIONI LINERARI La condizione di riducibilit (2.4.9) nel caso di equazioni lineari, cio di equazioni del tipo (2.5.1), si scrive: & " $ " 1 ( (2.5.4) B( t ) x ( t ) + b( t ))# B' t x t + b' ( t )) + ( 2( ( ) ( ) "x ( t ) ( $ B t x t + b t % ( ( ) ( ) ( )) ' ) + d # A( t ) x ( t ) + a( t ) & 1 d 2 B t x t + b t * ]=0 % (+ ( ) ( ) ( ) ( ) ! " dx ( t ) $ B( t ) x ( t ) + b( t ) ' 2 dx ( t ) 2 + , ! ! cio:
! (2.5.5)
I] le equazioni lineari omogenee sono riducibili; infatti nel caso di equazioni omogenee (cio del tipo (2.5.2)) risulta soddisfatta la (2.5.6) in quanto, ricordando che a( t ) = b( t ) = 0 , la (2.5.6) si scrive: !
(2.5.7)
II ] le equazioni lineari in senso stretto sono riducibili; infatti nel caso di equazioni lineari in senso stretto (cio del tipo (2.5.3)) risulta soddisfatta la (2.5.6) in quanto, ricordando che B (t) = 0, la ! (2.5.6) si scrive: !
(2.5.8)
b( t )0 " 0 [b' ( t ) " b( t ) A( t ) + a( t )0 ] = 0 ;
!
" ,# costanti ,
18
!!
sono riducibili; infatti per tali equazioni risulta soddisfatta la (2.5.6) che si scrive: (2.5.9)
(s) ds = t" B' (s) ds " ln h s t = ln B s t " ! [ ( )]t0 [ ( )]t0 t0 B( s) (s) h ( t0 ) da cui, assumendo = 1 , troviamo: B( t0 ) ! ! ! (2.5.12) h( t ) = B (t ) . !
t h' " t0 h
ln
h (t ) B( t ) h (t ) = ln " h ( t ) = 0 B( t ) h ( t0 ) B( t0 ) B ( t0 )
Vera la (2.5.12), dalla (2.4.14) ( o (2.4.15)) troviamo : ! h( t ) B( t ) " ! H x( t) ( x ( t ),t ) = H ( x ( t ),t ) = = "x ( t ) B( t ) x ( t ) B ( t ) x ( t ) e quindi: " 1 H ( x ( t ),t ) = "x ( t ) x(t) ! da cui ricaviamo successivamente:
x ( t) " # !H a "z
(z,t ) dz =
x ( t) # a
(2.5.13)
! ! H ( x ( t ),t ) = ln x ( t ) .
19
1 f (t) = A( t ) x ( t ) + 0 + x (t )
e quindi: (2.5.14)
f ( t ) = A( t ) "
!
Perci, ricordando la (2.6.13), poniamo (2.5.15)
y ( t! ) = H ( x (t ),t ) cio
y ( t ) = ln x ( t )
(s) =
t$ " A & t0 %
( s) # ( B( s))
(2.5.16)
!
1 2
2'
!
Ricordiamo (2.5.15) da cui troviamo:
! (2.5.17)
x ( t ) = e y ( t)
e,
e y( t0 ) = x ( t0 ) = x t0
x ( t ) = x t0
Risolviamo ! lequazione dx(t) = 4tx(t)dt +2tx(t)dW(t) , t"0 , con la condizione x(0) = 3 . Dalle (2.5.12), (2.5.13) e (2.5.14) troviamo: h(t)=B(t)= 2t , H(x(t),t) =lnx(t) ,
f ( t ) = A( t ) "
2 1 B( t )) = 4t " 2t 2 . ( 2
20
dy ( t ) = 4t " 2t 2 dt + 2tdW ( t )
]
t
!
x ( t ) = e y ( t) =
t 2 y ( 0 ) + 2t 2 " t 3 + # 2sdW ( s) 3 t0 e
t 2 2t 2 " t 3 + # 2sdW ( s) 3 t0 e y (0 ) e
= x (0 )
t 2 2t 2 " t 3 + # 2sdW ( s) 3 t0 e
x(t) =
t 2 2t 2 " t 3 + # 2sdW ( s) ! 3 t0 . 3e
# ' % 1 % b' ( t ) h' ( t ) A( t ) = b( t )$ b' t " + 0( = " A( t ) . (2.5.20) 2 ( ) h( t ) b( t ) b( t ) % % b t ( ) ( ) & ) Dalla precedente troviamo successivamente:
t h' " t0 h
" ln
!
t " # A ( s) ds e t0
da cui, assumendo
!
(2.5.21)
h ( t0 ) = 1 , troviamo: b( t0 ) ! ! h ( t ) = b( t )
t " # A ( s) ds . e t0
!
21
H x( t) ( x ( t ),t ) =
e quindi:
!
(z,t ) dz =
t $ # A ( s) ds x ( t) t # e 0 dz a
t " # A ( s) ds e t0
( x (t ) " a)
a = 0 e H (0,t ) = 0 , troviamo: ! ! " t# A ( s) ds ! (2.5.22) . H ( x ( t ),t ) = x ( t )e t0 ! ! Vera la (2.5.22), dalla (2.4.14) ( o (2.4.15)) troviamo :
! f (t) = e quindi: ! (2.5.23)
t " # A ( s) ds e t0 t " # A ( s) ds e t0
da cui assumendo
+0
!
(2.5.24)
y ( t ) = H ( x ( t ),t ) cio
y ( t ) = x (t )
t " # A ( s) ds e t0
dy ( t ) = a( t )
t " # A ( s)ds e t0 dt
t " # A ( s)ds e t0 dW
(t )
!
t " dy t0
(s) =
t "a t0
(s)
(s)
s # " A ( z )dz e t0 dW
( s) " ( s)
s " # A ( z )dz e t0 dW
(2.5.25)
y ( t ) = y ( t0 ) +
( s)
! !
s " # A ( z )dz t e t0 ds + # b ! t0
(s) .
22
(2.5.26)
x ( t ) = y (t )
t " A ( s) ds t0 e
e y ( t0 ) = x ( t0 ) = x t0
!
(2.5.27)
x(t) =
t " A ( s) ds $ & e t0 x
!
t0
& & %
t "a t0
(s)
(s)
s # " A ( z )dz e t0 dW
' ) ( s)) . ) (
Concludiamo notando che quanto appena trovato permette di dimostrare il seguente: ! Teorema 2.5.1 Il processo stocastico:
$ ' t a( s) t b( s) x ( t ) = " ( t )& x t0 + # ds + # dW ( s)) t0 " ( s) t0 " ( s) % ( dove " ( t ) la soluzione dellequazione differenziale non stocastica
(2.5.28)
(2.5.29) !
soluzione dellequazione differenziale stocastica lineare in senso stretto (2.5.19) con la condizione x ( t0 ) = x t0 . ! ! Dimostrazione:
t "' # t0 "'
= # A( s)ds "
t0
! per cui la (2.5.28) coincide con la (2.5.27) che, abbiamo visto, soluzione dellequazione (2.5.19) con la condizione x ( t0 ) = x t0 . ! !
Esempio 2.5.2
"
" ( t ) = " ( t0 )
! !
t # A ( s)ds e t0
! lequazione Risolviamo
dx(t) = +(,- x(t)) dt + -dW(t) , +, , e - costanti, +>0, ->0 con la condizione x(0)=x0. Ricordando la (1.2.3) vediamo che si tratta di un processo di Ornstein-Uhlenbeck. Dalle (2.5.21), (2.5.22) e (2.5.23) troviamo:
t " # "%ds $e 0
h ( t ) = b( t )
t " # A ( s) ds e0
= $e%t ,
H ( x ( t ),t ) = x ( t )
t " # A ( s) ds e0
= x ( t )e$t ,
23
f ( t ) = a( t )
t " # A ( s) ds e0
= $%e$t .
Perci, posto y ( t ) = H ( x ( t ),t ) = x ( t )e"t " x(t) = y ( t )e"#t e x(0) = y (0 ) , abbiamo: dy ( t ) = "e#t dt + #$e#t dW ( t )
! ! ! e dalla precedente troviamo y(t):
t " dy 0
Ricordiamo la posizione fatta da cui troviamo: ! ! t #s t ' * ' * #s "#t x(t) = y ( t )e = )y (0 ) + "e $ " + % & e dW ( s),e$#t = )x (0 ) + "e#s $ " + % & e#sdW ( s),e$#t ( + ( + 0 0 da cui, per la condizione iniziale x(0) = x0 , troviamo la soluzione cercata: t ' * x ( t ) = ) x0 + "e#s $ " + % & e#sdW ( s),e$#t . ( + 0 ! ! Notiamo infine che nel caso particolare in cui x (0 ) = x0 = " abbiamo la soluzione: t t & ) x ( t ) = ("e#s + $ % e#sdW ( s)+e,#t = x ( t ) = " + #e$%t & e%sdW ( s) . ' * 0 0 ! !
III ] Equazioni lineari del tipo: ! ! (2.5.30) dx ( t ) = [ "x ( t ) + # ] dW ( t ) , con " ,# costanti positive , x ( t ) > 0 con la condizione x ( t0 ) = x t0 cio equazioni lineari tali che A(t)=a(t)=0 e B(t)=. e b(t)=/ . Ricordiamo ! che lequazione (2.5.30) soddisfa!la (2.5.9) per cui riducibile. Allora possiamo ! ! applicare la (2.4.21) , che, ricordando la (2.5.5), d: !
h' ( t ) =0 . h( t ) Dalla precedente troviamo successivamente:
(2.5.31)
t h' " t0 h
= 0 " ln
(2.5.32) ! !
. h ( t! ) = 1!
H x( t) ( x ( t ),t ) =
1 #x ( t ) + $ ln # #a + $
se
! ! Vera la (2.5.33), dalla (2.4.14) ( o (2.4.15)) troviamo : ! ! % ( 2 1' # 1 f (t) = 0 + 0 + " #x ( t ) + $ ) * = " # . (2.5.34) ( 2 * 2 ' ( #x ( t ) + $ ) 2 & )
Perci, ricordando la (2.5.22), poniamo
! (2.5.35)
.
per cui, ricordando le (2.5.32) e (2.5.34), otteniamo : ! 1 dy ( t ) = " #dt + 1dW ( t ) ; 2 dalla precedente troviamo y(t):
!
(2.5.36)
t " dy t0
(s) =
t "# t0
, e "y( t) =
"x ( t ) + # "a + #
e
,
$ "a + # ' "y( t0 ) # x ( t0 ) = & * . )e % " ( "
25
(2.5.38)
+ 1
$ " ' #-* #( t* t0 )+W ( t)*W ( t0 )0 " / * . = & x ( t0 ) + )e , 2 % #( # ! Notiamo che se t0 = 0 la (2.5.38) d: !
! Esempio 2.5.3
+ 1
+ 1
. t +W ( t ) 0 /
" . #
Risolviamo ! lequazione dx(t) = (2x(t)+5)dW(t) , t "0 , x(0)=9. Dalle (2.5.32), (2.5.33) e (2.5.34) troviamo, assunto a>0: ( x ( t )) = 1 ln 2x ( t ) + 5 , a>0 , h(t) =1 , H ( x ( t ),t ) = H 2 2a + 5 Perci, posto
! y(t) =
" 2a + 5 % 2y( t) 5 1 2x ( t ) + 5 ( ln " x(t) = $ 'e ! # 2 & 2 2 2a + 5
1 f ( t ) = " 2 = "1 2
" 2a + 5 % 2y(0 ) 5 x (0 ) = $ ( , 'e # 2 & 2
abbiamo:
dy ( t ) = " dt + dW ( t )
! ! !" 2a + 5 % " 2a + 5 % 2y(0 )( 2t+ 2W ( t) 5 " 2a + 5 % 2y(0 ) (2t+ 2W ( t) 5 5 2y ( t) x(t) = $ ( = x(t) = $ ( = x(t) = $ e ( 'e 'e 'e # 2 & # 2 & # 2 & 2 2 2
da cui, sempre per la posizione fatta e per la condizione iniziale x(0) =9 ,
! ! " 2a + 5 % " 2a + 5! % 2y (0 ) 5 5 23 2y ( 0 ) x (0 ) = $ ( =9+ = " $ 'e 'e # 2 & # 2 & 2 2 2
!
26
(2.5.39)
! ! ! Teorema 2.5.2 La generica equazione (2.5.39) cio: % ' dx ( t ) = [ A( t ) x ( t ) + a( t )] dt + [ B( t ) x ( t ) + b( t )] dW ( t ) , t " [ t0 , #) , t0 $ 0 & ' x ( t0 ) = x t0 > 0 (
non del tipo considerato in I] o in II ] o in III ], ha soluzione
! (2.5.40) $ ' t a( s) " b( s) B( s) t b( s) ( t )% x t0 + # x(t) = x ds + # dW ( s)( ( s) ( s) t0 t0 x x & ) ! ! ! ( t ) la soluzione della seguente equazione omogenea associata: dove x ! (2.5.41)
Dimostrazione Lequazione (2.5.41) del tipo I] e quindi ha la soluzione: ! t # t & 1 (2.5.41) (t) = x Cerchiamo la solusione ! dellequazione (2.5.39) della forma seguente: 1 (t ) y (t ) " y ( t ) = x (t ) (2.5.42) . x(t) = x ! (t) x ! Per fare questo dobbiamo trovare y ( t ) , a tale scopo poniamo 1 (2.5.43) = z(t ) ! (t) x ! e quindi, per la (2.5.42),! abbiamo 1 (2.5.44) y ( t ) = x ( t ) z( t ) " y ( t0 ) = x ( t0 ) = x ( t0 ) . ( t0 ) x ! Poi procediamo come segue: a) determiniamo il differenziale stocastico di z( t ) applicando il lemma di Ito alla (2.5.44), cio: ! 2 1 1 t dt + B( t ) x ( t ) dW ( t )] + t dt = dz( t ) = " At x Bt x (2.5.44) ! 2[ ( ) ( ) 3 [ ( ) ( )] ( t )) ( t )) (x (x
2 ) % A ( s) " ( B( s) ) (ds+ ) B( s) dW ( s) $ ' t 2 0 e t0 .
{[
27
b) determiniamo il differenziale stocastico di y ( t ) procedendo come nellEsempio 1.1.1, cio: (2.5.45) dy ( t ) = z( t )[ a( t ) " B( t )b( t )] dt + z( t )b( t ) dW ( t ) =
=
! c) determiniamo y ( t ) , cio:
( s) " B(s)b(s) ds + t# b(s) dW s ds () ( s) ( s) t0 x x ! ( t ) nella (2.5.42) (e ricordando che y ( t0 ) = x ( t0 ) ), cio: x ( t ) sostituendo y ( t ) e x $ ' t a( s) " B( s)b( s) t b( s) ( t )% x ( t0 ) + # x(t) = x ds + # dW ( s) ds( ( s) ( s) t0 t0 x x & )
y ( t ) = y ( t0 ) +
Bibliografia Gard T.C. , Introduction to Stochastic Differential Equations, Marcel Dekker Inc., New York, 1988, Gosio C., Introduzione al calcolo stocastico, Bozzi, Genova, 1995, Malliaris A.G., Brock W.A., Stochastic Methods in Economic and Finance, North-Holland, Amsterdam,1985,
28
ESERCIZI PROPOSTI In questi esercizi il processo {W ( t )} sia sempre di Wiener con &=1 . 1. e-3x(t). 2. 1.a) Posto dx(t) = 5 dt + 3dW(t) , trovare il differenziale stocastico di y(t) = e-2x(t). 1.b) Posto ! dx(t) = + dt + ,dW(t) , + e , costanti, trovare il differenziale stocastico di y(t) = 2.a) Calcolare il differenziale stocastico del processo y(t) = t2+5W(t) . 2.b) Trovare il differenziale stocastico di y(t)= -at + b (W(t))2 , a,b costanti. 2.c) Calcolare il differenziale stocastico del processo y(t) = t2+3(W(t))2 . 3.a) Sia noto che il processo
3.
{ x (t )} ammette
3.b) . Sia data l'equazione ! differenziale stocastica dx(t) = x(t)dt + adW(t), a $costante. Posto y(t) = x(t)e-t, determinare il differenziale stocastico di y(t) . Poi, di conseguenza, trovare che risulta t $ t x(t) = e { x(0) + a#e-sdw(s) }. 0 3.c) Posto dx(t) = m dt + q dW(t) , m e q costanti positive, trovare il differenziale stocastico di y ( t ) = e
x ( t) "
, " > 0.
soluzione dell'equazione
! 5. Dimostrare, utilizzando il Lemma di Ito, che [W(t)]2 ha il differenziale stocastico d [W(t)]2 = dt + 2W(t)dW(t). !
6. Risolvere la seguente equazione differenziale stocastica: dx ( t ) = 2 t x ( t ) dt + 5 x ( t ) dW ( t ) , t!0 , x(t)>0 , con la condizione x(0)= 3 7. E data l'equazione differenziale stocastica dx(t) = (x(t) + 3)dt +2tdW(t) con la condizione x(1) = 8 , t!1. ! * Dimostrare che essa riducibile. ** Trovarne la soluzione 8. Risolvere la seguente equazione differenziale stocastica: dx(t) = 3x(t)dt +6x(t)dW(t) , t!0, x(t)>0, con la condizione x(0)= 7. 9. Risolvere la seguente equazione differenziale stocastica: dx(t) = (3x(t)+5)dW(t) , t!0, x(t)>0, con la condizione x(0)= 2. 29
RISULTATI DEGLI ESERCIZI PROPOSTI 1. 1.a) dy ( t ) = 8 y ( t ) dt " 6 y ( t ) dW ( t ) 2. 2.a) dy ( t ) = 2tdt + 5dW ( t ) 2.c) dy ( t ) = ( 3 + 2t ) dt + 6W ( t ) dW ( t ) ! 3.
% 9 ( 1.b) dy ( t ) = ' "3# + $ 2 * y ( t ) dt " 3$y ( t ) dW ( t ) & 2 )
! ! !
! 2t 2 + 5t + 5 3.a) dy ( t ) = y ( t ) dt + y ( t ) dW ( t ) 2( t + 1)
3.b) dy ( t ) = "e# t dW ( t ) ; da questo risultato, ricordando che
y ( t ) = x ( t )e" t , si trova
t 0
!
!
x(t) = e
0 0 t #s x(0) + " $ e dW s 0
()
}
!
!
4. dx ( t ) = dt + 2 W ( t ) + x (0 ) dW ( t ) quindi
! !
dx ( t ) = dt + 2 x ( t ) dW ( t )
! t t $ ' " t " 1 " s " 1 x ( t ) = e t"1 [ y ( t )] = e t"1 &11 " 3e ( ) + 2 # se ( ) dW ( s)) = 11e t"1 " 3 + 2e t # se" s dW ( s) % ( 1 1 !
8. x ( t ) = 7e"15 t+6W ( t)
!
!
!
9. x ( t ) =
9 11 " 2 t+ 3W ( t) e
"
5 3
!
30