Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
SCUOLA DI SCIENZE
Corso di Laurea Magistrale in Matematica
III Sessione
Anno Accademico 2013/2014
Il valore di un problema non sta tanto nel trovarne la soluzione,
quanto nelle idee che fa sorgere in chi lo aronta e nei tentativi
messi in atto per la sua soluzione.
I.N. Herstein
Indice
Introduzione iii
Bibliograa 35
i
Introduzione
iii
Capitolo 1
1
2 1. Densità del processo somma
2.0
0.30
0.25 1.5
0.20
0.15 1.0
0.10
0.5
0.05
e otteniamo il graco del processo dato dalla somma dei due processi iniziali
2.0
1.5
1.0
0.5
20 40 60 80 100
Figura 1.3: Wt + Pt
Calcoliamone la densità.
∞
X
E[f (x + Wt + Pt )] = E[f (x + Wt + Pt )|Pt = kj]P (Pt = kj)
k=0
∞
(λt)k
X Z
= exp(−λt) Γ∗ (0, x + kj, t, z)f (z)dz
k=0
k! Rd
∞
Dato che la serie (λt)k
converge uniformemente a e−λt possiamo applicare
P
k!
k=0
il teorema di integrazione per serie
∞
(λt)k
Z
(1.3)
X
= exp(−λt) Γ∗ (0, x + kj, t, z)f (z)dz
Rd k=0
k!
Per la σ -additività di P si ha
∞
(1.5)
X
= P ((Pt = kj) ∩ (Wt ∈] − ∞, z − kj]))
k=0
∞
X
Γ(0, x, t, z) = P (Pt = kj)Γ∗ (0, x + kj, t, z)
k=0
∞
X (λt)k
= exp(−λt) Γ∗ (0, x + kj, t, z), t > 0, x ∈ R
k=0
k!
L = T able[0, 1000];
L1 = T able[0, 1000];
0.25
0.20 0.20
0.15 0.15
0.10 0.10
0.05 0.05
-4 -2 2 4 6 8 10 -4 -2 2 4 6 8 10
risultato più preciso. Tuttavia se volessimo ripetere questi calcoli per piccole
varianti del processo di Wiener e di Poisson troveremmo alcune dicoltà.
Per questo è conveniente trovare un'espressione esplicita per la densità di
transizione del processo (Wt + Pt ).
E[f (x + Pt )] − f (x)
Ij f = lim
t↓0 t
∞
P (λt)k
exp(−λt) k!
f (x + kj) − f (x)
k=0
= lim
t↓0 t
= λ(f (x + j) − f (x))
Pertanto
Ij f = λ(f (x + j) − f (x)). (1.8)
d d
X ∂f i 1 X ∂ 2f
f (x + Wt ) = f (x) + (x)Wt + 2
(x)(Wti )2 +
i=1
∂x i 2! i=1
∂x i
X ∂f ∂f
+2 (x)Wti Wtj + R3 (Wt )
i<j
∂xi ∂xj
dove
1 X ∂ αf
R3 (Wt ) = (Wt )α (1.9)
3! ∂xα
|α|=3
d d d
1 X ∂ 2f 1 X ∂ 3f
X ∂f i i 2
= f (x) + (x)Wt + 2
(x)(Wt ) + 3
(x)(Wti )3 .
i=1
∂x i 2! i=1
∂x i 3! i=0
∂x i
(1.10)
d d d
1 X ∂ 2f 1 X ∂ 3f
X ∂f i i 2 i 3
E[f (x) + Wt ] = E f (x) + (x)Wt + 2
(x)(Wt ) + 3
(x)(Wt )
i=1
∂x i 2! i=1
∂x i 3! i=0
∂x i
d
1 X ∂ 2f
= f (x) + (x)E[(Wti )2 ]
2! i=1 ∂x2i
t
= f (x) + ∆f
2
E[f (x + Wt )] − f (x)
Af = lim
t↓0 t
1
f (x) + t 2 ∆f − f (x)
= lim
t↓0 t
1
= ∆f
2
Pertanto
1
Af = ∆ (1.11)
2
(∂t − 1 ∆ − I)Γ = δ
2
in Rd × (−∞, ∞)
Γ = 0 in Rd × (−∞, 0).
Γ = Γ∗ + Γ∗ ∗ F, (1.12)
1.2 Applicazione del metodo della parametrice 9
1
(∂t − ∆ − I)Γ
2
1
= (∂t − ∆ − I)(Γ∗ + Γ∗ ∗ F )
2
1 1
= (∂t − ∆)Γ∗ + (∂t − ∆)(Γ∗ ∗ F ) − IΓ
2 2
1
= δ + (∂t − ∆)(Γ∗ ) ∗ F − IΓ
2
= δ + δ ∗ F − IΓ
= δ + F − IΓ
Vogliamo che
1
(∂t − ∆ − I)Γ = δ i.e δ + F − IΓ = δ (1.14)
2
Pertanto
F = IΓ (1.15)
che insieme alla (1.12) fornisce un'equazione integrale di Volterra del secondo
tipo per la funzione Γ
Γ = Γ∗ + Γ∗ ∗ IΓ (1.16)
In modo simile troviamo una formula iterativa anche per F . Per i calcoli
eettuati precedentemente si ha
Pertanto
F = IΓ∗ + IΓ∗ ∗ F (1.18)
10 1. Densità del processo somma
Γ = Γ ∗ + Γ 1 + . . . + Γk + . . .
F = F0 + F1 + . . . + Fk + . . .
i coecienti cij = cij (t, x), bi = bi (t, x) sono funzioni a valori reali. La
matrice C(t, x) = (cij(t,x) ) è simmetrica e semi-denita positiva.
Allora supponiamo che esista una costante λ > 0 tale che per ogni
T > 0,k = 1, . . . , N , t ∈]s, s + T [, e x, y ∈ RN , valga la seguente
aermazione:
1
Γ 1 (t − s, x − y) ≤ Γ(s, y, t, x) ≤ M Γλ (t − s, x − y) (1.22)
M λ
M
|∂yk Γ(s, y, t, x)| ≤ √ Γλ (t − s, x − y) (1.23)
t−s
con M costante positiva dipendente da T .
Allora la soluzione fondamentale soddisfa la proprietà di riproduzione o
del semigruppo
Z
Γ(t0 , y, t, η)Γ(t, η, T, x)dη = Γ(t0 , y, T, x) (1.24)
RN
per ogni t0 ≤ t ≤ T , x, y ∈ RN .
Osservazione 1. Si ottiene
t2 2 ∗ tk
Γ1 = tIΓ∗ , Γ2 = I Γ , . . . , Γk = I k Γ∗ (1.25)
2! k!
dove
k
k
(1.26)
X
k k
I φ(x) = λ (−1)k−i φ(x + ij)
i=0
i
Γ1 = Γ∗ ∗ IΓ∗
= IΓ∗ ∗ Γ∗
Z tZ
= IΓ∗ (s, y, t, z)Γ∗ (0, x, s, y)dyds
d
Z0 t R
Z
∗ ∗
= I Γ (s, y, t, z)Γ (0, x, s, y)dy ds
0 Rd
Z t
= IΓ∗ (0, x, t, z)ds
0
= tIΓ∗
12 1. Densità del processo somma
Γk+1 = Γk ∗ IΓ∗
Z tZ
(t − s)k k ∗
= I Γ (s, y, t, z)IΓ∗ (0, x, s, y)dyds
d k!
Z0 t R
(t − s)k k+1
Z
= I Γ∗ (s, y, t, z)Γ∗ (0, x, s, y)dyds
k! d
Z0 t R
(t − s)k k+1 ∗
= I Γ (0, x, t, z)
0 k!
tk+1 k+1 ∗
= I Γ
(k + 1)!
Pertanto
∞ X k
k (λt)k ∗
(1.27)
X
Γ(0, x, t, z) = (−1)k−i Γ (0, x + ij, t, z)
k=0 i=0
i k!
dove
b è una funzione L∞
loc nello spazio delle matrici (N × 1)-dimensionali
B è una funzione L∞
loc nello spazio delle matrici (N × N )-dimensionali
σ è una funzione L∞
loc nello spazio delle matrici (N × d)-dimensionali
13
2. Applicazione del metodo della parametrice a equazioni stocastiche
14 lineari
e W è un moto browniano d-dimensionale, con d ≤ N .
La soluzione a questa equazione esiste ed è unica. Inoltre nel caso del-
le equazioni lineari è possibile determinare una espressione esplicita per la
soluzione. Denotiamo con Φ(t) la soluzione del seguente problema di Cauchy
Φ0 (t) = B(t)Φ(t)
(2.2)
Φ(t ) = I
0 N
e matrice di covarianza
Z t ∗
Cov(Xtx ) −1 −1
(2.5)
= Φ(t) Φ (s)σ(s) Φ (s)σ(s) .
0
Si ha
N N N
1X X X
L= cij (t)∂xi ∂xj + bi (t)∂xi + Bij (t)xj ∂xi + ∂t
2 i,j=1 i=1 j=1
N
1X
= cij (t)∂xi ∂xj + < b(t + B(t)x, O) > +∂t
2 i,j=1
Γ = Γ̂ + Γ̂ ∗ F, (2.11)
dove ∗ denota la seguente operazione in Rd × [0, ∞), i.e.
Z tZ
(Γ̂ ∗ F )(x, t) = Γ̂(s, x, t, y)F (y, s)dyds. (2.12)
0 Rd
dX 1 = dWt
t
dX 2 = X 1 dt
t t
2.2 Applicazione del metodo della parametrice 17
o in forma integrale
X 1 = W t
t
X 2 = R t X 1 ds
t 0 s
2.5
6
2.0
1.5
4
1.0
0.5 2
5 10 15 20 25 30
- 0.5 5 10 15 20 25 30
Osserviamo che C(t) è denita positiva per ogni t > 0 e allora l'operatore
dierenziale associato
1
L = ∂x1 x1 + x1 ∂x2 + ∂t (2.18)
2
ha la seguente soluzione fondamentale
√
3 1 −1 (T −t)B (T −t)B
Γ̂(x, t, T, y) = exp − < C (T −t)(y−e x), (y−e x) >
π(T − t)2 2
(2.19)
per ogni x, y ∈ R2 e t < T , dove
" #
4 −6
C −1 (t) = t
−6
t2
12
(2.20)
t2 t3
.
X 1 = Wt + Pt
t
X 2 = R t (W + P )ds
t 0 s s
5
2.5
4
2.0
3
1.5
2
1.0
0.5 1
20 40 60 80 100 5 10 15 20 25 30
LΓ̂ = δ in R2 × (−∞, ∞)
Γ̂ = 0 in R2 × (−∞, 0)
∞ X k
X k (λt)k
Γ(0, x, t, z) = (−1)k−i Γ̂(0, x + ij, t, z)
k=0 i=0
i k!
∞ X k k
√
X k k−i (λt) 3
= (−1)
k=0 i=0
i k! πt2
(z1 − x1 + ij)2 3(2z1 − 2(x2 + ij) − t(z1 + x1 + ij))2
exp − −
2t 2t3
τn ∼ Expλ n ≥ 1 (A.1)
con t ∈ R≥0
Il processo di Poisson Nt conta il numero di salti che si vericano prima
del tempo t e al tempo t. In particolare Nt assume solo valori interi non
negativi. Osserviamo che per denizione le traiettorie di N sono funzioni
continue a destra:
Nt = Nt+ = lims↓t Ns (A.11)
A.1 Il processo di Poisson 23
Teorema A.1.4. Sia (Xn )n∈N una successione di variabili aleatorie su uno
spazio di probabilità (Ω, F, P ). Se Xn converge quasi sicuramente a X allora
Xn converge in probabilità a X
Xn −
P
→X (A.13)
Proposizione A.1.5. Sia (Nt )t≥0 un processo di Poisson. Allora:
1. Le traiettorie t → Nt (ω) sono continue a destra e limitate a sinistra.
Questo equivale a dire che N è un processo càdlàg
2. ∀t ≥ 0, quasi tutte le traiettorie in t sono continue, ovvero
Nt = Nt− = lim Ns (A.14)
s↑t
data =
RandomFunction[PoissonProcess[1.3], 0, 15]
ListLinePlot[data, InterpolationOrder -> 0,
Filling -> Axis]
20
15
10
2 4 6 8 10 12 14
e in particolare
E[Nt ] = λt, var(Nt ) = λt; (A.18)
2. N ha incrementi indipendenti ovvero per ogni 0 ≤ t1 < t2 < . . . < tn le
variabili aleatorie Nt1 , Nt2 − Nt1 , . . . , Ntn − Ntn−1 sono indipendenti.
3. N ha incrementi stazionari, ovvero
Nt − Ns := Nt−s t ≥ s ≥ 0. (A.19)
∞ k
−λt (λt)
X
E[Nt ] = ke
k=0
k!
∞
X (λt)k−1
= λte−λt
k=1
(k − 1)!
= λt
∞
X (λt)k
V ar[Nt ] = k 2 e−λt − (λt)2
k=0
k!
∞
−λt
X (λt)k−1
= λte (k − 1 + 1) − (λt)2
k=1
(k − 1)!
∞ ∞
X (λt)k−1 X (λt)k−1
= λte−λt (k − 1) + λte−λt − (λt)2
k=1
(k − 1)! k=1
(k − 1)!
= (λt) + λt − (λt)2
2
= λt
26 A. Processi di Poisson e di Wiener
P=CompoundPoissonProcess[2,
NormalDistribution[0, 1]];
data = RandomFunction[[P], 20]
ListLinePlot[data, InterpolationOrder -> 0,
Filling -> Axis]
5 10 15 20
-2
-4
-6
-8
Dimostrazione. Calcoliamo
Si ha
allora si ha
E[Xt ] = µλt, V ar(Xt ) = λt(µ2 + σ 2 ) (A.28)
Dimostrazione. Calcoliamo
X n
E 1{Nt =n} (A.29)
X
E[Xt ] = Zk
n≥1 k=1
Per l'indipendenza di N e di Z :
X
= nP (Nt = n)E[Z1 ]
n≥1
X (λt)n
= µe−λt
n≥1
(n − 1)!
= µλt
Per l'indipendenza di N e di Z :
= σ 2 (P (Nt )) + V ar(µNt )
= λtσ 2 + µ2 λt = λt(µ2 + σ 2 )
Dimostrazione. Calcoliamo
1. W0 = 0 q.s.
Wt − Ws ∼ N0,h (A.35)
e Wt − Ws è indipendente da Fs .
Denizione A.2.3. Sia W un moto Browniano sullo spazio (Ω, F, P, (Ft )).
Per un x ssato ∈ R e t ≥ 0 il processo stocastico W t,x , denito da
WTt,x = x + WT − Wt , T ≥ t (A.37)
dove
(x − y)2
1
∗
Γ (t, x; T, y) = p exp . (A.40)
2π(T − t) 2(T − t)
Denizione A.2.4. La funzione Γ∗ (t, x, T, y) è chiamata densità di transi-
zione del moto Browniano dal punto iniziale (t, x) al tempo nale T .
Osservazione 4. Γ∗ coincide con la soluzione fondamentale dell'equazione
del calore. Pertanto si ha
E[φ(WTt,x )] = Γ∗ (t, x; T, y)φ(y)dy , con φ ∈ Cb (R)
R
R
D'altra parte Z
Γ∗ (t, x; T, y)φ(y)dy = u(t, x) (A.41)
R
data = RandomFunction[WienerProcess[.3,
.5], 0, 1, 0.01]
ListLinePlot[%, Filling -> Axis]
0.7
0.6
0.5
0.4
0.3
0.2
0.1
1. W0 = 0 P − q.s
A.2 Il processo di Wiener 33
Dimostrazione. Ciò che vogliamo provare segue dal fatto che, per x = (x1 , . . . , xd ) ∈
Rd e h > 0, abbiamo
d
|x|2 x2i
(A.42)
Y
−d/2 −1/2
Γ(h, x) := (2πh) exp − = (2πh) exp −
2h i=1
2h
1
P ((Wt+h − Wt1 ) ∈ H) = P ((Wt+h − Wt ) ∈ H × R × . . . × R)
d Z
x21 x2i
Z Y
−1/2 −1/2
= (2πh) exp − dx1 (2πh) exp − dxi
H 2h i=2 R 2h
2
Z
x
= (2πh)−1/2 exp − 1 dx1
H 2h
con il prodotto tra le densità delle due variabili, allora tali variabili sono
stocasticamente indipendenti.
Bibliograa
[1] M.G., Garroni, J.L., Menaldi, Green functions for second order parabolic
integro-dierential problems. Longman Scientic and Technical, 1992.
[2] E.E., Levi, Sulle equazioni lineari totalmente ellittiche a derivate parziali
in Rendiconti del Circolo Matematico di Palermo, 1907.
[3] A., Pascucci, PDE and marthingale methods in option pricing. Springer-
Verlag, 2001.
35