Sei sulla pagina 1di 125

1

PROCESSI STOCASTICI

Franco Fagnola

31 gennaio 2009

1
(riassunto) I diritti d’autore sono riservati. Ogni sfruttamento commercia-
le sarà perseguito. Autore: Franco Fagnola, Dipartimento di Matematica ‘‘F.
Brioschi’’, Politecnico di Milano, piazza Leonardo da Vinci 32, 20133 Milano;
franco.fagnola@polimi.it
2
Indice

1 Richiami di probabilità 3
1.1 Variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Valore atteso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Indipendenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Il processo di Bernoulli 15
2.1 Costruzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Tempo di attesa del primo successo . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Tempo di attesa dell’n-esimo successo . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Indipendenza dei tempi tra due successi consecutivi . . . . . . . . . . . . . . . 19
2.5 Canali di comunicazione binari . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6 Passeggiata casuale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7 Il problema del ballottaggio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.8 Tempo del primo ritorno in 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.9 Tempo trascorso dall’ultimo passaggio in 0 . . . . . . . . . . . . . . . . . . . . 26
2.10 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3 Elementi di teoria generale dei processi 29


3.1 Filtrazioni di σ-algebre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 Proprietà delle traiettorie e versioni continue . . . . . . . . . . . . . . . . . . 30
3.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4 Processi puntuali 33
4.1 Processo di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2 Processi di rinnovi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3 Lotto economico d’acquisto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

5 Catene di Markov a tempo continuo 45


5.1 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

6 Moto browniano 57
6.1 Moto Browniano e invarianze per cambi di scala . . . . . . . . . . . . . . . . 57
6.2 Principio di riflessione, legge del massimo . . . . . . . . . . . . . . . . . . . . 59
6.3 Moto browniano d-dimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.4 Processo di Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.5 Integrale di funzione rispetto al moto browniano . . . . . . . . . . . . . . . . 62
6.6 Processo di Ornstein-Uhlenbeck e ponte browniano . . . . . . . . . . . . . . . 63
6.7 Moto browniano geometrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

1
2 INDICE

6.8 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

7 Speranza condizionale 67
7.1 Speranza condizionale di variabili aleatorie integrabili . . . . . . . . . . . . . 68
7.2 Proprietà di monotonia e proiettività . . . . . . . . . . . . . . . . . . . . . . . 69
7.3 Diseguaglianza di Jensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
7.4 Speranza condizionale e stima . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
7.5 Speranza condizionale rispetto a σ(V1 , . . . , Vn ) . . . . . . . . . . . . . . . . . . 71
7.6 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

8 Martingale 73
8.1 Prime proprietà, sottomaringale, supermartingale . . . . . . . . . . . . . . . . 75
8.2 Tempi d’arresto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
8.3 Teorema d’arresto discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
8.4 Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.4.1 Passeggiata casuale unidimensionale . . . . . . . . . . . . . . . . . . . 81
8.4.2 Livello di un bacino . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.5 Diseguaglianza massimale discreta . . . . . . . . . . . . . . . . . . . . . . . . 84
8.6 Numero di attraversamenti di un intervallo . . . . . . . . . . . . . . . . . . . 84
8.7 Versioni con traiettorie regolari . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.8 Teorema d’arresto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.9 Diseguaglianza di Doob . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.10 Teorema di convergenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.11 Decomposizione di Doob-Meyer . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.12 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

9 Applicazioni al moto browniano e catene di Markov 93


9.1 Probabilità e tempi d’uscita del moto browniano . . . . . . . . . . . . . . . . 93
9.2 Moto browniano con deriva . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
9.3 Moto browniano ed equazione di Laplace . . . . . . . . . . . . . . . . . . . . . 95
9.4 Moto browniano ed equazione del calore . . . . . . . . . . . . . . . . . . . . . 97
9.5 Moto browniano geometrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.6 Martingale e catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . 98
9.7 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

10 Processi di Markov 101


10.1 Semigruppi markoviani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
10.2 Processi markoviani di salto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
10.3 Processi di diffusione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
10.4 Martingale di un processo di Markov . . . . . . . . . . . . . . . . . . . . . . . 107
10.5 Proprietà di Feller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
10.6 Irriducibilità e tempo di soggiorno in un insieme . . . . . . . . . . . . . . . . 109
10.7 Ricorrenza e transienza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
10.8 Misure invarianti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
10.9 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

11 Appendice 117
11.1 Somme di variabili aleatorie indipendenti . . . . . . . . . . . . . . . . . . . . 117
11.2 Speranza di una variabile aleatoria non negativa . . . . . . . . . . . . . . . . 118
11.3 Funzioni α-hölderiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
11.4 Uniforme integrabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
1

Richiami di probabilità

Un esperimento casuale o fenomeno casuale è una situazione nella quale, per mancanza di
informazioni, non siamo in grado di predire con esattezza quello che accadrà.
Le nozioni intuitive ed empirica più comuni sui fenomeni o esperimenti casuali, secondo
l’interpretazione più corrente in campo scientifico e tecnologico, si traducono nel modello
matematico, detto spazio probabilizzato, costituito da una terna (Ω, F, P) nella quale
• Ω è un insieme rappresentante tutti i possibili risultati dell’esperimento aleatorio,
• F è una famiglia di sottoinsiemi di Ω, detti eventi, che rappresentano una proposizione
che sarà vera o falsa a seconda del risultato dell’esperimento aleatorio,
• P è una probabilità che assegna a ciascun elemento A della famiglia F una valutazione
numerica della possibilità di avverarsi della proposizione rappresentata da A.
Esempio 1.1 Lancio di un dado equilibrato. La scelta naturale di (Ω, F, P) per questo
esperimento aleatorio è: Ω := {1, 2, 3, 4, 5, 6}, F famiglia di tutti i sottoinsiemi di Ω, P(A) è
il numero di elementi di A diviso per 6 (numero dei casi favorevoli diviso per il numero di
casi possibili).
Esempio 1.2 Lancio di due monete uguali. Una scelta naturale dell’insieme Ω dei risultati
dell’esperimento aleatorio è l’insieme {CC, CT, T C, T T }. Come F si può prendere la famiglia
di tutti i sottoinsiemi di Ω e cioè la famiglia costituita da
∅, {CC}, {CT }, {T C}, {T T }, {CC, CT }, {CC, T C}, {CC, T T }, {CT, T C}, {CT, T T },
{T C, T T }, {CC, T C, CT }, {T C, CT, T T }, {CC, CT, T T }, {CC, CT, T C, T T }.
Infine, per ogni A ⊆ Ω, P(A) è il numero di elementi di A diviso per 4 (numero dei casi
favorevoli diviso per il numero di casi possibili).
Tuttavia un individuo interessato solamente al numero totale di teste o di croci potrebbe
accontentarsi di definire la probabilità di su una famiglia più “piccola” considerando il
modello (Ω0 , F 0 , P0 ) con: Ω0 = {0, 1, 2} (pensando che il risultato 0 corrisponde all’uscita
di 2 croci, 1 all’uscita di una testa e una croce,...), F la famiglia di tutti i sottoinsiemi di Ω0
e P0 la probabilità
P0 {0} = 1/4, P0 {1} = 1/2, P0 {2} = 1/4, ...

Si scelgono quindi Ω, F e P in modo che siano definite o calcolabili le probabilità di certe


proposizioni (eventi).

3
4 1. RICHIAMI DI PROBABILITÀ

Si suppone inoltre che la famiglia di queste proposizioni sulle quali si calcola P sia chiusa
per unione, intersezione e negazione logica (ovvero che, se è definita P di A e B, deve esserlo
anche P di A ∪ B, A ∩ B, Ω − A, Ω − B). Condizioni naturali, dette di coerenza, inducono
quindi a scegliere una P che soddisfi la proprietà, chiamata additività,

P(A ∪ B) = P(A) + P(A), per ogni A, B ∈ F tali che A ∩ B = ∅.

Si normalizza poi la P ponendo P(Ω) = 1 e si definisce la probabilità condizionata


P(A ∩ B)
P(A|B) = , per ogni A, B ∈ F tali che P(B) > 0
P(B)
Le proprietà elementari della probabilità (formula probabilità totale, formula di Bayes, ...)
seguono facilmente.
In un modello probabilistico, si vuole infine calcolare semplicemente le probabilità di
unioni o intersezioni numerabili di eventi (per esempio la probabilità dell’evento descritto
dalla proposizione “si ottiene sempre testa nei lanci pari” in una successione di infiniti lanci di
una moneta). Per questo motivo e per utilizzare strumenti e tecniche di Analisi Matematica
si introducono perciò i seguenti assiomi:
• la famiglia F degli eventi è una σ-algebra di sottoinsiemi di Ω (cioè, se (An )n≥1 è
una successione di elementi di F, allora anche ∪n≥1 An , ∩n≥1 An , Acn = Ω − An sono
elementi di F)
• (numerabile additività) P è una misura su F, cioè, per ogni successione (An )n≥1 di
elementi disgiunti di F, si ha
X
P (∪n≥1 An ) = P(An ).
n≥1

Quando si costruisce un modello probabilistico la numerabile additività è spesso difficile


da verificare per cui eviteremo, altrettanto spesso, di dimostrarla accontentandoci di sapere
che si potrebbe fare (procedendo magari in modo simile a quello della costruzione della
misura di Lebesgue in Analisi Matematica).
I passi “tipici” nella costruzione di (Ω, F, P) sono i seguenti:
1. si individua l’insieme Ω di tutti i possibili risultati dell’esperimento aleatorio,
2. si individua una famiglia H di eventi dei quali si da la probabilità,
3. si estende H ad un’algebra (cioè ad una famiglia chiusa per unione, intersezione e
passaggio al complementare) di sottoinsiemi di Ω e si definisce la P su questi insiemi,
4. si estende ulteriormente H ad una σ-algebra F, si definisce la P sui sottoinsiemi di F
e si dimostra che la P ottenuta è numerabilmente additiva.
Il passo più difficile di solito è la verifica della numerabile additività di P. La scelta di
F a partire da H invece è abbastanza semplice.

Definizione 1.1 Data una famiglia H di sottoinsiemi di Ω si chiama σ-algebra generata


da H e si denota con σ(H) la più piccola σ-algebra di sottoinsiemi di Ω che contiene gli
elementi di H.

La σ-algebra σ(H) è uguale all’intersezione di tutte le σ-algebre di sottoinsiemi di Ω, tra


le quali la σ-algebra P(Ω) di tutti i sottoinsiemi di Ω, che contengono gli elementi di H.
Infatti si può verificare facilmente che
1.1. VARIABILI ALEATORIE 5

Proposizione 1.2 Data una famiglia (Ai )i∈I di σ-algebre di sottoinsiemi di un insieme Ω,
l’intersezione ∩i∈I Ai è una σ-algebra di sottoinsiemi di Ω.

Vale la pena di ricordare che, nella costruzione di uno spazio probabilizzato (Ω, F, P), è
abbastanza facile e naturale scegliere Ω e F ma poi, tanto più grande è F, tanto più difficile
sarà costruire la misura di probabilità P su F.

1.1 Variabili aleatorie


Le variabili aleatorie sono funzioni del risultato ω di un esperimento aleatorio che sono spesso
molto utili nello studio del modello (descrivono, per esempio nella Statistica Matematica o
nel filtraggio, un’osservazione o informazione parziale su ω).
Notazione R := R ∪ {−∞, +∞} := [−∞, +∞].

Definizione 1.3 Una variabile aleatoria reale (risp. reale estesa) X su uno spazio proba-
bilizzato (Ω, F, P) è un’applicazione X : Ω → R (risp. X : Ω → R) tale che, per ogni coppia
di numeri reali a, b l’insieme {a < X ≤ b} appartenga a F.

Ricordiamo che {a < X ≤ b} è una notazione per indicare l’insieme

X −1 (]a, b]) = {ω ∈ Ω | a < X(ω) ≤ b} .

Analogamente, se A è un sottoinsieme di R, si denota con {X ∈ A} l’insieme

X −1 (A) = {ω ∈ Ω | X(ω) ∈ A} .

In modo equilvalente si potrebbe definire una variabile aleatoria, reale o reale estesa,
come un’applicazione X : Ω → R (risp. X : Ω → R) tale che, per ogni numero reale r
l’insieme { X ≤ r } appartenga a F. Infatti, per ogni a, b ∈ R, si ha
c
{ a < X ≤ b } = { X ≤ b } ∩ ({ X ≤ a }) . (1.1)

Una variabile aleatoria (reale o reale estesa) è quindi una funzione del risultato ω
dell’esperimento aleatorio della quale siamo in grado di dire qual è la probabilità di os-
servare valori in un certo intervallo ]a, b]. In realtà, grazie al fatto che F è una σ-algebra,
sarà definita la probabilità di insiemi del tipo {X ∈ A} con A sottoinsieme boreliano di R.

Definizione 1.4 Si chiama σ-algebra dei boreliani di R (risp. R) e si denota con B(R)
(risp. B(R)) σ-algebra generata dagli intervalli ]a, b] con a, b ∈ R.

Nel linguaggio dell’Analisi Matematica una variabile aleatoria reale (risp. reale estesa)
è dunque un’applicazione misurabile. Si può quindi dimostrare, come per le applicazioni
misurabili, che somme, combinazioni lineari, prodotti, ... di variabili aleatorie reali (e reali
estese evitando le forme indeterminate come +∞ − ∞) sono ancora variabili aleatorie reali.
Gli eventi determinati da X, dei quali cioè siamo in grado di dire se si sono verificati o
meno osservando il valore di X, formano una σ-algebra.

Definizione 1.5 Data una variabile aleatoria reale (risp. reale estesa) X si chiama σ-
algebra generata da una variabile aleatoria X e si denota σ(X) la sotto − σ-algebra di F
costituita dagli insiemi {X ∈ A} con A ∈ B(R) (risp. A ∈ B(R)).
6 1. RICHIAMI DI PROBABILITÀ

Esempio 1.3 Lancio di due monete. Consideriamo nuovamente l’esperimento aleatorio


descritto nell’Esempio 1.2 questa volta indicando C con 0 e T con 1. In questo modo si può
identificare con Ω l’insieme { (0, 0), (0, 1), (1, 0), (1, 1) }. La funzione

X : Ω → R, X(ω1 , ω2 ) = ω1 + ω2 .

Indica il numero totale di teste ottenute nel lancio. Si tratta evidentemente di una variabile
aleatoria perché, in questo modello, F è costituita da tutti i sottoinsiemi di Ω e quindi
{X ∈ A} è un elemento di F qualunque sia A. Si verifica facilmente che la σ-algebra
σ(X)-generata da X è costituita dagli insiemi

∅, {(0, 0)}, {(0, 1), (1, 0)}, {(1, 1)},


{(0, 1), (1, 0), (1, 1)}, {(0, 0), (1, 1)}, {(0, 0), (0, 1), (1, 0)}, Ω.

Si vede subito che σ(X) è costituita dagli eventi che siamo in grado di dire se si verificano
o meno conoscendo il solo valore di X.

Proposizione 1.6 Se X, Y sono variabili aleatorie reali ed r, s ∈ R allora rX + sY e XY


sono variabili aleatorie reali. Se (Xn )n≥1 è una successione di variabili aleatorie reali allora
supn≥1 Xn e inf n≥1 Xn sono variabili aleatorie reali.

Si può verificare abbastanza facilmente che, se X è una variabile aleatoria reale, allora
anche X 2 , X 3 , sin(X), arctan(X), . . . sono ancora variabili aleatorie reali. In generale si può
dimostrare la seguente

Proposizione 1.7 Se X è una variabile aleatoria reale (risp. reale estesa) e g : R → R


(risp. g : R → R) è una funzione boreliana, cioè misurabile rispetto alla σ-algebra degli
insiemi boreliani, allora anche g(X) è una variabile aleatoria reale (risp. reale estesa).

La nozione di legge di una variabile aleatoria è di fondamentale importanza nel Calcolo


delle Probabilità.

Definizione 1.8 Si chiama legge (o distribuzione) di una variabile aleatoria reale X la


misura di probabilità µ su B(R) definita da

µ(A) = P{X ∈ A}, per ogni A ∈ B(R).

Leggi notevoli su P(N) o B(R)


Delta di Dirac. Legge delta concentrata in x
1 se x ∈ A,
n
δx (A) =
0 se x ∈
/ A.
B(1, p). Legge di Bernoulli di parametro p (p ∈ [0, 1])

µ = (1 − p)δ0 + pδ1 .

B(n, p). Legge binomiale di parametri n, p (n ∈ N∗ , p ∈ [0, 1])


n  
X n
µ= δk
k
k=0

P(λ). Legge di Poisson di parametro λ (λ > 0)



X λk
µ = e−λ δk
k!
k=0
1.2. VALORE ATTESO 7

G(p). Legge geometrica di parametro p (p ∈ [0, 1]) (λ > 0)



X
µ = (1 − p) p(1 − p)k−1 δk
k=0

N (m, σ 2 ). Legge normale o gaussiana N (m, σ 2 )


Z
1 2 2
µ(A) = √ e−(x−m) /2σ dx
2π σ A
E(λ). Legge esponenziale di parametro λ > 0
Z
µ(A) = λe−λx dx
]0,+∞[∩A

Γ(α, λ). Legge Gamma di parametri α, λ > 0

λα xα−1 −λx
Z
µ(A) = e dx
]0,+∞[∩A Γ(α)

dove Γ è la funzione Gamma di Eulero definita da


Z ∞
Γ(a) = e−t ta−1 dt.
0

La legge χ2 (n) del chi-quadrato con n gradi di libertà è la legge Γ(n/2, 1/2).
Legge di Cauchy (mediana m)
Z
1 1
µ(A) = dx.
π A 1 + (x − m)2
B(a, b). Legge beta (a, b > 0)
Z
Γ(a + b)
µ(A) = xa−1 (1 − x)b−1 dx
Γ(a)Γ(b) ]0,1[∩A

Ricordiamo, per quanto ovvio, che due variabili aleatorie con la stessa legge possono
essere molto diverse. Per esempio le (Xn )n≥1 , variabili aleatorie di un processo di Bernoulli
di parametro p, hanno tutte la stessa legge B(1, p) ma sono molto diverse tra loro perché
Xn dà il risultato dell’n-esima prova del processo.

1.2 Valore atteso


La speranza o attesa di una variabile aleatoria reale X, si calcola nel modo ben noto quando
X può prendere solo un numero finito di valori. In questo caso X è della forma
n
X
X= xk 1Ak , con Ak ∈ F,
k=1

dove 1Ak denota la funzione indicatrice (o, nel linguaggio dell’Analisi, caratteristica) dell’evento
Ak (1Ak (ω) = 1 se ω ∈ Ak , 1Ak (ω) = 0 se ω ∈ / Ak ) e quindi la sua speranza è
n
X
E[X] = xk P(Ak ).
k=1
8 1. RICHIAMI DI PROBABILITÀ

Estendiamo poi la definizione alle variabili aleatorie non negative X : Ω → [0, +∞].
Per questo motivo cominciamo con l’osservare che ogni variabile aleatoria non-negativa è
estremo superiore di una successione non decrescente di variabili aleatorie con un numero
finito di valori. Si può considerare, per esempio, la successione
n
n2
X
Xn = k2−n 1{k2−n <X≤(k+1)2−n }
k=0

che soddisfa le condizioni

Xn (ω) ≤ Xn+1 (ω), e sup Xn (ω) = lim Xn (ω) = X(ω) per ogni ω ∈ Ω.
n n→∞

La successione di numeri reali (E[Xn ])n≥1 è evidentemente crescente e quindi possiamo


definire
E[X] = sup E[Xn ] = lim E[Xn ].
n≥1 n→∞

Si potrebbe dimostrare che E[X] è indipendente dalla particolare successione non decrescente
di variabili aleatorie con un numero finito di valori scelta. Abbiamo cosı̀ definito E[X] per
le variabili aleatorie non negative.
Infine, se X è una variabile aleatoria reale o reale estesa su uno spazio probabilizzato
(Ω, F, P), definiamo le variabili aleatorie X + , X − le variabili aleatorie

X + (ω) = max{X(ω), 0}, X − (ω) = − min{X(ω), 0}.

Definizione 1.9 Si dice che X è semi-integrabile superiormente (risp. inferiormente) rispetto


a P se
E[X + ] < +∞, risp. E[X − ] < +∞ .


Se X è semi-integrabile sia superiormente che inferiormente rispetto a P allora si dice che


X è integrabile rispetto a P. Se X è semi-integrabile superiormente o inferiormente rispetto
a P si chiama speranza o attesa, valore atteso, media, valor medio di X e si denota E[X]
la differenza
E[X] = E[X + ] − E[X − ].

Vale ovviamente la convenzione r − ∞ = −∞, r + ∞ = +∞ per ogni numero reale r.


Nel caso in cui E[X] sia un numero reale (cioè non sia +∞ o −∞), ovvero X sia integrabile,
si dice che X ha speranza finita. Osserviamo che, per definizione, E[X] è finita se e solo se
E[|X|] è finita poiché |X| = X + + X − .
Nel linguaggio dell’Analisi Matematica E[X] è l’integrale di X rispetto alla misura P
Z
E[X] = XdP

che si definisce nello stesso modo.


La speranza ha quindi le proprietà seguenti

Proposizione 1.10 Siano X, Y variabili aleatorie integrabili. Allora


1. P{ X ∈ {−∞, +∞} } = P{ Y ∈ {−∞, +∞} } = 0 cioè X e Y hanno valori finiti quasi
certamente,
2. se P{X ≤ Y } = 1 allora E[X] ≤ E[Y ],
3. per ogni coppia r, s di numeri reali la variabile aleatoria rX + sY è integrabile e
E[rX + sY ] = rE[X] + sE[Y ].
1.2. VALORE ATTESO 9

Teorema 1.11 Sia (Xn )n≥1 una successione non decrescente di variabili aleatorie reali
estese semi-integrabili inferiormente e sia X = supn≥1 Xn = limn→+∞ Xn . Si ha allora

E[X] = sup E[Xn ].


n≥1

Teorema 1.12 Sia (Xn )n≥1 una successione di variabili aleatorie reali estese integrabili.
Supponiamo che:
1. per quasi ogni ω ∈ Ω esista limn→∞ Xn (ω) = X(ω),
2. esista una variabile aleatoria Y integrabile tale che |Xn (ω)| ≤ Y (ω) per quasi ogni
ω ∈ Ω.
Si ha allora
E[X] = sup E[Xn ].
n≥1

Definizione 1.13 Si dice che X ha momento di ordine p (con p intero, p ≥ 1) se E[|X|p ]


è finita e, in tal caso, si chiama momento di ordine p il numero reale E[X p ].

Valgono le diseguaglianze seguenti.


Diseguaglianza di Schwarz. X, Y variabili aleatorie con momento di ordine 2
2
|E[XY ]| ≤ E[X 2 ]E[Y 2 ].

In particolare, prendendo Y = 1, si vede subito che, se X ha momento di ordine 2, allora


ha anche speranza finita e E[X]2 ≤ E[X 2 ]. Il numero non negativo

V [X] = E[X 2 ] − E[X]2 = E (X − E[X])2


 

si chiama varianza di X.
Densità Simbolo Speranza Varianza
Bernoulli B(1, p) p p(1 − p)
binomiale B(n, p) np np(1 − p)
Poisson P (λ) λ λ
geometrica G(p) 1/p q/p2
Pascal P(n, p) n/p nq/p2
uniforme U(a, b) (a + b)/2 (b − a)2 /12
esponenziale E(λ) 1/λ 1/λ2
normale N (µ, σ 2 ) µ σ2
gamma Γ(a, λ) a/λ a/λ2
chi quadrato χ2 (n) n 2n
beta B(a, b) a/(a + b) ab/(a + b)2 (a + b + 1)
esponenziale bilatera 0 2/λ2
Cauchy non definita non definita

Se X e Y hanno momento di ordine 2 si può definire la covarianza di X e Y

Cov[X, Y ] = E [(X − E[X])(Y − E[Y ])] .

Se inoltre X e Y hanno varianza strettamente positiva si definisce il coefficiente di corre-


lazione di X e Y
Cov[X, Y ]
ρ[X, Y ] = p
V [X]V [Y ]
10 1. RICHIAMI DI PROBABILITÀ

Diseguaglianza di Chebychev. X variabile aleatoria con momento di ordine 2, ε > 0,

P {|X − E[X]| > ε} ≤ ε−2 V [X].

Diseguaglianza di Jensen. X variabile aleatoria reale, g : R → R funzione convessa. Se


E[X] e E[g(X)] sono finite allora

g(E[X]) ≤ E[g(X)].

Diseguaglianza di Holder. X, Y variabili aleatorie, p, q numeri reali p, q ≥ 1


1 1
E[|XY |] ≤ E[|X|p ] p E[|Y |q ] q .

Lemma di Borel Cantelli. Un problema abbastanza frequente nello studio dei fenomeni
aleatori è quello di determinare la probabilità che si verifichino infiniti eventi tra quelli di
una data successione (An )n≥1 . L’evento in questione si rappresenta

∩n≥1 ∪k≥n Ak

e si indica con lim supn An . Si può inoltre rappresentare come l’insieme degli ω ∈ Ω dove la
serie delle funzioni indicatrici X
1An (ω)
n≥1

è divergente.
Il Lemma di Borel Cantelli dà una condizione abbastanza semplice per mostrare che
lim supn An ha probabilità 0.

Teorema 1.14 Data una successione di eventi (An )n≥1 se


X  
IP (An ) < ∞, allora IP lim sup An = 0.
n
n≥1

1.3 Indipendenza
Definizione 1.15 Due variabili aleatorie reali (risp. reali estese) X, Y su uno spazio prob-
abilizzato (Ω, F, P), sono indipendenti se, per ogni coppia a, b e ogni coppia c, d di numeri
reali si ha
P { a < X ≤ b, c < Y ≤ d } = P { a < X ≤ b } P { c < Y ≤ d } .

Si verifica facilmente (grazie a (1.1)) che due variabili aleatorie X, Y sono indipendenti
se e solo se
P { X ≤ r, Y ≤ s } = P { X ≤ r } P { Y ≤ s }
per ogni coppia di numeri reali r, s.
La definizione precedente si generalizza nel modo naturale al caso di n variabili aleatorie.
Si dimostra il seguente

Teorema 1.16 Siano X1 , . . . , Xn variabili aleatorie reali (reali estese). Le condizioni seguenti
sono equivalenti:

1. X1 , . . . , Xn sono indipendenti,
1.3. INDIPENDENZA 11

2. per ogni n-pla A1 , . . . , An di sottoinsiemi boreliani di R (risp. R) si ha

P { X1 ∈ A1 , . . . , Xn ∈ An } = P { X1 ∈ A1 } · · · P { Xn ∈ An } ,

3. per ogni n-pla g1 , . . . , gn di funzioni boreliane limitate su R (risp. R) si ha

E [g1 (X1 ) . . . gn (Xn )] = E [g1 (X1 )] · · · E [gn (Xn )] .

Corollario 1.17 Siano X, Y variabili aleatorie reali indipendenti con speranza finita. La
variabile aleatoria XY ha speranza finita e

E[XY ] = E[X]E[Y ].

In particolare, se X e Y sono indipendenti, allora non sono correlate.

Variabili aleatorie non correlate, in generale, non sono indipendenti. Tuttavia, se le


variabili aleatorie oltre a essere non correlate hanno legge congiunta gaussiana, allora sono
anche indipendenti.
La definizione di speranza si estende in modo naturale alle variabili aleatorie a valori
complessi separando le loro parti reali e immaginaria. In particolare vale la seguente

Proposizione 1.18 Siano X1 , . . . , Xn variabili aleatorie reali. Le condizioni seguenti sono


equivalenti:

1. X1 , . . . , Xn sono indipendenti,

2. per ogni n-pla r1 , . . . , rn di numeri reali si ha

E eir1 X1 · · · eirn Xn = E eir1 X1 · · · E eirn Xn .


     

Funzioni boreliane di variabili aleatorie indipendenti sono, a loro volta, variabili aleatorie
indipendenti. Più precisamente si dimostra il seguente

Teorema 1.19 Siano X1 , . . . Xn variabili aleatorie reali indipendenti e siano:

1. m un numero intero tale che 1 ≤ m ≤ n,

2. I1 , . . . , Im una partizione dell’insieme {1, . . . , n} (ovvero una famiglia di insiemi Ik


disgiunti la cui unione sia {1, . . . , n}) e ciascun insieme Ik abbia dk elementi d1 +
. . . + dm = n,

3. g1 , . . . , gm funzioni boreliane con gk : Rdk → R per ogni k = 1, . . . , m.

Allora le variabili aleatorie reali g1 ((Xi )i∈I1 ), . . . , gm ((Xi )i∈Im ) sono indipendenti.

Questo teorema si applica, per esempio, alle variabili aleatorie (Xn )n≥1 di un processo
di Bernoulli per dimostrare l’indipendenza delle variabili aleatorie

Y1 = X1 + X2 , Y2 = X3 (X4 + X5 ), Y3 = g3 (X6 , X7 ).

Infinite variabili aleatorie sono indipendenti, per definizione, se e solo se ogni loro sot-
tofamiglia finita è una famiglia di variabili aleatorie indipendenti nel senso delle definizioni
precedenti. I criteri precedenti permettono quindi di trattare in modo essenzialmente anal-
ogo anche il caso di infinite variabili aleatorie indipendenti.
12 1. RICHIAMI DI PROBABILITÀ

Spazio probabilizzato canonico di n variabili aleatorie indipendenti con leggi assegnate. In


molte applicazioni del Calcolo delle Probabilità si considera data una n-pla X1 , . . . , Xn di
variabili aleatorie reali indipendenti con leggi µ1 , . . . , µn assegnate supponendo implicita-
mente che siano definite sullo stesso spazio probabilizzato (Ω, F, P). È abbastanza naturale
chiedersi perché questo sia possibile ovvero se esiste lo spazio probabilizzato sul quale siano
definite n variabili aleatorie indipendenti ciascuna con la legge assegnata.
Per rispondere alla questione si costruisce lo spazio probabilizzato canonico costituito da

1. l’insieme Ω = Rn prodotto cartesiano di n copie di R,

2. la σ-algebra B(Rn ), generata dagli insiemi della forma ]a1 , b1 ] × . . . ×]an , bn ] (detti
plurirettangoli),

3. la misura di probabilità P su B(Rn ) tale che

P(]a1 , b1 ] × . . . ×]an , bn ]) = µ1 (]a1 , b1 ]) · · · µn (]an , bn ]).

(Si potrebbe dimostrare che esiste un’unica misura di probabilità P su B(Rn ) che verifica la
condizione 3.) Si definiscono quindi le X1 , . . . , Xn

Xk (ω1 , . . . , ωn ) = ωk , per ogni k = 1, . . . , n.

È chiaro che ciascuna Xk ha legge µk poiché

{ r < Xk ≤ s } = { ω ∈ Ω | r < ωk ≤ s } = R × . . . × R×]r, s] × R . . . × R

cioè { r < Xk ≤ s } è il plurirettangolo che ha tutti i “lati” uguali a R tranne il k-esimo


uguale a ]r, s] e quindi

P{ r < Xk ≤ s } = µ1 (R) · · · µk−1 (R)µk (]r, s])µk+1 (R) · · · µn (R) = µk (]r, s]).

Inoltre le X1 , . . . , Xn sono indipendenti perché

{ a1 < X1 ≤ b1 , . . . , an < Xn ≤ bn } =]a1 , b1 ] × · · · ×]an , bn ]

e quindi, per definizione di P

P{ a1 < X1 ≤ b1 , . . . , an < Xn ≤ bn } = µ1 (]a1 , b1 ]) × · · · × µn (]an , bn ])


= P{ a1 < X1 ≤ b1 } · · · P{ an < X1 ≤ bn }.

1.4 Esercizi
Esercizio 1.1 Verificare le formule della media e della varianza della legge Γ(α, λ).

Esercizio 1.2 Verificare le formule della media e della varianza della legge B(a, b).

Esercizio 1.3 Siano X, N due variabili aleatorie indipendenti. Supponiamo che X abbia
legge B(1, p) e N abbia legge di Poisson con parametro λ > 0. Determinare la legge della
variabile aleatoria N X (definiamo, per convenzione, 00 = 1) e calcolare la speranza di N X .

Esercizio 1.4 Siano X1 , . . . , Xn variabili aleatorie reali indipendenti con legge normale
N (0, 1). Verificare che X12 + . . . + Xn2 ha legge Γ(n/2, 1/2).
1.4. ESERCIZI 13

Esercizio 1.5 Siano X, Y due variabili aleatorie reali indipendenti con legge esponenziale
di parametro λ > 0. Verificare che la variabile aleatoria X/(X + Y ) ha legge uniforme su
[0, 1].

Esercizio 1.6 Mostrare che B(R) (risp. B(R)) è la più piccola σ-algebra di sottoinsiemi di
R (risp. R) che contenga le seguenti famiglie di sottoinsiemi di R (risp. R)

H1 = { ]a, b[ | a, b ∈ R } ,
H2 = { [a, b[ | a, b ∈ R } ,
H3 = { [a, b] | a, b ∈ R } ,
H4 = { [a, +∞[ | a ∈ R } ,
H5 = { ]a, +∞[ | a ∈ R } ,
H6 = { ] − ∞, a] | a ∈ R } ,
H7 = { ] − ∞, a[ | a ∈ R } .

Esercizio 1.7 La σ-algebra B(Rd ) dei sottoinsiemi Boreliani di Rd è la più piccola σ-algebra
di sottoinsiemi di Rd che contiene i plurirettangoli

]a1 , b1 ] × . . . ×]ad , bd ].

Verificare che B(Rd ) coincide con la più piccola σ-algebra di sottoinsiemi di Rd che contiene
gli insiemi della forma
A1 × . . . × Ad
con A1 , . . . Ad ∈ B(R).

Esercizio 1.8 Sia (An )n≥1 una successione non decrescente (cioè tale che An ⊆ An+1 per
ogni n ≥ 1) di eventi in uno spazio probabilizzato (Ω, F, P). Mostrare che

P (∪n≥1 An ) = lim P(An ).


n→∞

Mostrare l’analogo risultato per le successioni non crescenti.

Esercizio 1.9 Verificare che una variabile aleatoria reale X è indipendente da sé stessa se
e solo se è costante.

Esercizio 1.10 Dimostrare la Proposizione 1.6.

Esercizio 1.11 Siano X, Y due variabili aleatorie reali indipendenti. Supponiamo che Y ≤
X quasi certamente. Mostrare che esiste una costante c tale che P {Y ≤ c ≤ X} = 1.
Risposta. Osservare che, per ogni c ∈ R l’evento {X ≤ c} ∩ {Y > c} è vuoto e quindi
P{X ≤ c} · P{Y > c} = 0.

Esercizio 1.12 Siano X, Y due variabili aleatorie reali indipendenti. Supponiamo che X
abbia densità f e Y abbia legge ν. Mostrare che la variabile aleatoria X + Y ha per densità
la funzione g data da Z
g(s) = f (s − y)ν(dy)
R

Esercizio 1.13 Mostrare con un esempio che l’unione di due σ-algebre non è necessaria-
mente una σ-algebra.
14 1. RICHIAMI DI PROBABILITÀ

Esercizio 1.14 Siano X1 , . . . , Xd le coordinate di un punto casuale in Rd . Supponendo che


le variabili aleatorie X1 , . . . , Xd siano indipendenti e abbiano legge normale N (0, 1) calcolare
la distanza media del punto dall’origine.

Esercizio 1.15 Siano X, Y, Z tre variabili aleatorie indipendenti uniformemente distribuite


su [0, 1]. Qual è la probabilità che si possa costruire un triangolo le cui lunghezze dei lati
siano X, Y, Z?
2

Il processo di Bernoulli

I più semplici esperimenti aleatori hanno due soli possibili risultati, di solito denotati con 0
(“insuccesso”) e 1 (“successo”) che hanno probabilità rispettivamente 1 − p e p (p ∈]0, 1[).
Un esperimento di questo tipo si chiama prova binaria.
Il processo di Bernoulli è costituito dalla ripetizione di un numero infinito di prove bi-
narie indipendenti. Questo esperimento aleatorio è piuttosto importante perché: a) sorge
naturalmente in numerose situazioni in campo scientifico e tecnologico, b) si possono calco-
lare in modo abbastanza semplice le probabilità di tutti gli eventi in gioco, c) i metodi che
si sviluppano nella loro trattazione si rivelano utili anche nella soluzione di altri problemi.

2.1 Costruzione
Richiamiamo brevemente la costruzione del processo di Bernoulli
L’insieme Ω dei risultati possibili dell’esperimento aleatorio in questione è costituito dalle
successioni di (ωk )k≥1 di 0 e di 1 cioè dal prodotto cartesiano

Ω = { 0, 1 }N = { (ωk )k≥1 | ωk ∈ {0, 1} } .

Il numero ωk indica il risultato della k-esima prova (1 successo e 0 insuccesso).


L’insieme Ω non è numerabile perché, ricordando la rappresentazione binaria dei numeri
reali nell’intervallo [0, 1], è facile convincersi che è in corripondenza biunivoca con l’intervallo
[0, 1].
Sull’insieme Ω definiamo, le funzioni Rk “risultato della k-esima prova”

Rk : Ω → { 0, 1 }, Rk (ω) = ωk .

Vogliamo trovare poi una σ-algebra F e una misura di probabilità P su F in modo tale che:
(B1) gli eventi { Rk = 1 } abbiano probabilità p fissata,
(B2) gli eventi { R1 = x1 }, { R2 = x2 }, . . . , { Rn = xn } siano indipendenti per ogni n ∈ N∗
e ogni x1 , . . . , xn ∈ { 0, 1 }.
La scelta naturale di F è quindi la più piccola σ-algebra di sottoinsiemi di Ω che contenga
questi eventi.
Per definire la probabilità su F in modo che gli eventi { Rt1 = xt1 }, . . . , { Rtn = xtn }
risultino indipendenti dobbiamo porre

IP (∩nk=1 { Rtk = xtk }) = IP { Rt1 = xt1 } · IP { Rt2 = xt2 } · · · IP { Rtn = xtn } = pk (1 − p)n−k

15
16 2. IL PROCESSO DI BERNOULLI

dove k è il numero di xtj eguali a 1 cioè k = xt1 + . . . + xtn .


Gli elementi di F, come abbiamo visto, sono unioni finite di eventi elementari per cui
possiamo costruire in modo naturale una probabilità su F.
Proposizione 2.1 Esiste un’unica probabilità IP su F tale che
IP { Rt1 = xt1 , . . . , Rtn = xtn } = pxt1 +...+xtn (1 − p)n−(xt1 +...+xtn ) (2.1)
per ogni 0 < t1 < . . . < tn , xt1 , . . . , xtn ∈ { 0, 1 }.
Non dimostriamo questa proposizione accontentandoci di osservare che qualunque evento
“ragionevole” si può esprimere, in modo opportuno, con una successione di unioni, inter-
sezioni e complementari di eventi del tipo { Rt1 = xt1 , . . . , Rtn = xtn }. La sua probabilità
si calcola poi utilizzando le regole abituali.
Definizione 2.2 Si chiama processo di Bernoulli di parametro p (p ∈]0, 1[) una succes-
sione (Rn )n≥1 di variabili aleatorie indipendenti con legge B(1, p) su un opportuno spazio
(Ω, F, IP ). Lo spazio probabilizzato e la successione (Rn )n≥1 sono quelli costruiti qui sopra
si chiamano processo di Bernoulli canonico.
Nel processo di Bernoulli è utile introdurre anche la successione (Sn )n≥1 delle variabili
aleatorie che rappresentano il “numero di successi in n prove” ovvero
Sn = R 1 + . . . + R n .
Come sappiamo le Sn hanno densità binomiale B(n, p).
Nel seguito mostriamo come si calcolano varie probabilità notevoli del processo di Bernoulli.

2.2 Tempo di attesa del primo successo


Il tempo di attesa del primo successo è uguale al numero di prove effettuate per ottenere il
primo risultato 1.
Definizione 2.3 Sia (Ω, F, IP ), (Rn )n≥1 uno schema di Bernoulli. Si chiama tempo di
attesa del primo successo la funzione T : Ω → N∗ ∪ {+∞} cosı̀ definita:
T (ω) = inf { n ≥ 1 | Rn (ω) = 1 } ,
con la convenzione inf ∅ = +∞.
Osserviamo che si ha
{ T = 1 } = { R1 = 1 }, { T = +∞ } = ∩n≥1 { Rn = 0 }
e, per ogni numero naturale n > 1,
{ T = n } = { R1 = 0, . . . , Rn−1 = 0, Rn = 1 }
{ T > n } = { R1 = 0, . . . , Rn−1 = 0, Rn = 0 }
quindi gli insiemi { T = n }, { T > n } sono eventi elementari. In particolare { T = n } , { T > n } ∈
F, dunque T è una variabile aleatoria. Le probabilità di questi eventi, come abbiamo visto,
sono date da
IP { T = n } = p(1 − p)n−1 , (2.2)
IP { T > n } = (1 − p)n . (2.3)
La (2.2) mostra che T ha legge geometrica di parametro p. Abbiamo inoltre
IP { T = +∞ } = lim IP { T > n } = 0.
n→∞
2.3. TEMPO DI ATTESA DELL’N -ESIMO SUCCESSO 17

2.3 Tempo di attesa dell’n-esimo successo


In modo simile possiamo calcolare la probabilità che l’n-esimo successo accada ad un certo
istante k.
Il tempo di attesa dell’n-esimo successo si può definire per induzione a partire dal tempo
di attesa del primo successo T1 introdotto nel Paragrafo 2.2. Infatti, dopo aver definito
Tn−1 , basta definire Tn : Ω → N∗ ∪ {+∞} cosı̀:

Tn (ω) = min {k > Tn−1 (ω) | Rk (ω) = 1} ,

se Tn−1 (ω) < +∞ e l’insieme dei k > Tn−1 (ω) tali che ωk = 1 è non vuoto, Tn (ω) = +∞
altrimenti.
Per ottenere n successi occorre fare almeno n prove quindi

{ Tn = k } = ∅, e perciò IP { Tn = k } = 0.

per k = 0, 1, . . . , n − 1.
Inoltre, per ogni numero naturale k ≥ n, abbiamo poi

{ Tn = k } = { Sk−1 = n − 1, Rk = 1 } = { Sk−1 = n − 1 } ∩ { Rk = 1 }

perché, se k è l’istante dell’n-esimo successo, allora alla k-esima prova il risultato è stato
successo e, inoltre, nelle prime k − 1 prove si sono verificati esattamente n − 1 successi. In
particolare l’insieme { Tn = k } appartiene a F (è unione finita di eventi elementari).
La rappresentazione
[ 
{ Sk−1 = n − 1 } = (∩j∈F {Rj = 1}) ∩ ∩j ∈F
/ {Rj = 0}
F ⊆{0,1,...,k−1},card(F )=n−1

fa vedere inoltre che gli eventi { Sk−1 = n−1 } e { Rk = 1 } sono indipendenti (se A1 , . . . , Am
sono indipendenti allora A1 ∪ · · · ∪ Am−1 e Am sono indipendenti cosı̀ come A1 ∩ · · · ∩ Am−1
e Am ...) quindi
 
k−1
IP { Tn = k } = IP { Sk−1 = n − 1 } · IP { Rk = 1 } = pn (1 − p)k−n .
n−1

Verifichiamo ora che


X X k−1 
IP { Tn = k } = pn (1 − p)k−n = 1. (2.4)
n−1
k≥n k≥n

Per ogni ` > n si ha


`
X
1− IP { Tn = k } = 1 − IP { Tn ≤ ` } = IP { Tn > ` }. (2.5)
k=n

Inoltre dall’uguaglianza degli eventi

{ T n > ` } = { S` < n }

(l’n-esimo si verifica dopo l’istante ` se e solo se all’istante ` il numero di successi è stretta-


mente minore di n) si ha
n−1
X 
`
IP { Tn > ` } = pj (1 − p)`−j .
j
j=0
18 2. IL PROCESSO DI BERNOULLI
 
`
Grazie alla diseguaglianza ≤ `j si ha allora
j

n−1
X
IP { Tn > ` } ≤ (p/(1 − p))j `j (1 − p)` .
j=0

Dato che, per ogni j fissato


lim `j (1 − p)` = 0
`→∞

e che la somma ha solo un numero finito di termini (n è fisso!) si trova

IP { Tn = +∞ } = lim IP { Tn > ` } = 0.
`→∞

Grazie alla (2.5) si ha allora


`  
X k−1
lim pn (1 − p)k−n = 1
`→∞ n−1
k=n

e l’identità (2.4) è dimostrata.

Definizione 2.4 Siano n ∈ N∗ e p ∈]0, 1[. La densità (pk )k≥0 su N∗ data da pk = 0 per
k = 1, 2, . . . , n − 1 e  
k−1
pk = pn (1 − p)k−n
n−1
si chiama densità di Pascal di parametri n e p e si denota P (n, p).

Nelle applicazioni si considera spesso, invece della Tn , la variabile aleatoria traslata


Vn = Tn − n. Dai calcoli precedenti si deduce subito che
   
n+j−1 n j n+j−1
IP { Vn = j } = p (1 − p) = pn (1 − p)j
n−1 j

con j ∈ N.

Definizione 2.5 Siano n ∈ N∗ e p ∈]0, 1[. La densità (pj )j≥0 su N∗ data da


 
n+j−1
pj = pn (1 − p)j
j

si chiama densità binomiale negativa di parametri n e p e si denota N B(n, p).

Questa densità si chiama binomiale negativa perché si esprime spesso utilizzando un’estensione
della definizione del coefficiente binomiale ai numeri negativi.
Infatti, osservando che, per ogni m, i ∈ N con i ≤ m si ha
 
m m(m − 1) . . . (m − i + 1)
= ,
i i!

si estende la definizione agli m strettamente negativi ponendo (per n ∈ N∗ )


 
−n (−n)(−n − 1) . . . (−n − j + 1)
:= .
j j!
2.4. INDIPENDENZA DEI TEMPI TRA DUE SUCCESSI CONSECUTIVI 19

Un semplice conteggio del numero di segni − mostra che

(−n)(−n − 1) . . . (−n − j + 1) n(n + 1) . . . (n + j − 1)


= (−1)j
j! j!
(n + j − 1)!
= (−1)j
j!(n − 1)!
 
n+j−1
= (−1)j .
j

Dunque la densità N B(n, p) si può scrivere nella forma


 
−n
pj = pn (p − 1)j
j

di uso più frequente, come si diceva, nelle applicazioni.


Le figure qui sotto mostrano gli istogrammi delle densità binomiali negative N B(4, 0.6)
(a sinistra) e N B(6, 0.6) (a destra).

0 1 2 3 4 5 6 7 8 9 10 12 0 2 4 6 8 10 12 14

Si possono trovare abbastanza semplicemente media e varianza della variabile aleatoria


Tn − n con legge N B(n, p)

n(1 − p) n(1 − p)
E[Tn − n] = , V [Tn − n] = V [Tn ] = .
p p2

Lasciamo per esercizio i calcoli (un pochino lunghi).

2.4 Indipendenza dei tempi tra due successi consecutivi


I tempi d’attesa tra gli istanti di successo si definiscono per induzione

U1 (ω) = T1 (ω), Un+1 (ω) = Tn+1 (ω) − Tn (ω)

per gli ω tali che Tn (ω) < +∞ per ogni n ≥ 1 e in modo arbitrario per gli ω nell’insieme di
probabilità nulla dove Tn (ω) = +∞ per qualche n.

Teorema 2.6 Le variabili aleatorie Un sono indipendenti e hanno tutte legge geometrica di
paramentro p.
20 2. IL PROCESSO DI BERNOULLI

Dimostrazione. Fissiamo n ∈ N∗ e m1 , . . . , mn ∈ N∗ . L’evento { U1 = m1 , . . . , Un = mn }


(successo solo agli istanti m1 , m1 + m2 , . . . , m1 + . . . + mn ) si può evidentemente scrivere
nella forma

{ R1 = 0, . . . , Rm1 −1 = 0, Rm1 = 1, Rm1 +1 = 0, . . . , Rm1 +m2 −1 = 0,


Rm1 +m2 = 1, Rm1 +m2 +1 = 0, . . . , Rm1 +m2 +...+mn −1 = 0, Rm1 +m2 +...+mn = 1 }.

La sua probabilità è quindi (posto q = 1 − p)

IP { U1 = m1 , . . . , Un = mn } = pq m1 −1 · pq m2 −1 · · · pq mn −1 .

Ora, per ogni k ∈ {1, . . . , m} fissato, sommando su tutti gli mi ≥ 1 con i 6= k, si ha

IP { Uk = mk } = pq mk −1 .

Ciò dimostra che Uk ha densità geometrica di parametro p e che vale la condizione del
Teorema 1.16.
Osservando che, per definizione, Tn = U1 + . . . + Un si può concludere che ogni variabile
aleatoria uguale alla somma di n variabili aleatorie indipendenti con legge geometrica di
parametro p ha legge di Pascal di parametri n e p.

2.5 Canali di comunicazione binari


Il processo di Bernoulli è un buon modello di un canale di comunicazione binario con errori
casuali nella trasmissione. Una sorgente invia segnali costituiti da d-uple di caratteri a, b. Il
ricevitore (per varie ragioni come disturbo della trasmissione o malfuzionamenti degli appa-
rati) tuttavia potrebbe non ricevere correttamente il carattere trasmesso. Per modellizzare
la trasmissione è ragionevole supporre che:
• la probabilità di non ricevere correttamente ciascun carattere trasmesso sia p ∈]0, 1[,
• gli eventuali errori nella trasmissione di caratteri distinti siano indipendenti.
Convenendo che, nella trasmissione di ciascun carattere, il valore 1 indichi errore e il valore
0 indichi trasmissione corretta, gli errori formeranno una successione di variabili aleatorie
indipendenti (Rn )n≥1 con legge B(1, p) ovvero un processo di Bernoulli.
Si potrebbero considerare anche modelli un pò più complessi nei quali la probabilità di
errore è diversa a seconda che sia stato trasmesso a oppure b.
La probabilità che una stringa di d caratteri non venga trasmessa correttamente, cioè
che almeno uno dei d caratteri ricevuti sia errato, è

IP { Sd > 0 } = 1 − IP { Sd = 0 } = 1 − (1 − p)d .

Una tecnica per diminuire la probabilità di errore chiamata “controllo di parità” consiste
nell’aggiunta alla sorgente di un (d + 1)-esimo carattere in modo tale che il numero di a o
di b contenuti nella stringa di lunghezza d + 1 inviata sia pari. Il ricevitore controllerà se
il numero di a o di b tra i d + 1 caratteri ricevuti è pari e, in tal caso, accetterà la stringa
inviata come corretta altrimenti ne chiederà la ritrasmissione.
In questo modo una stringa di d caratteri non verrà trasmessa correttamente solo con un
numero pari, non nullo, di errori sui singoli caratteri. Questo accade se si verifica l’evento
[(d+1)/2]
[
{ Sd+1 = 2k }
k=1
2.6. PASSEGGIATA CASUALE 21

([(d + 1)/2] denota la parte intera di (d + 1)/2 cioè il più grande intero minore o uguale a
(d + 1)/2 ovvero (d + 1)/2 se d è dispari e d/2 se d è pari) e quindi la probabilità che una
stringa di d caratteri non venga trasmessa correttamente con il controllo di partità è
 
[(d+1)/2] [(d+1)/2]
[ X
IP  { Sd+1 = 2k } = IP { Sd+1 = 2k }
k=1 k=1
[(d+1)/2]  
X d+1
= p2k (1 − p)d+1−2k
2k
k=1

Per trovare un’espressione più semplice di questa probabilità utilizziamo il seguente

Lemma 2.7 Per ogni n ≥ 1 e p ∈]0, 1[ si ha


[n/2] 
1 + (1 − 2p)n

X n
p2k (1 − p)n−2k = .
2k 2
k=0

Dimostrazione. La formula del binomio di Newton ci permette di scrivere le identità


n  
n
X n
(r + s) = sj rn−j
j
j=0
n  
X n
(r − s)n = (−1)j sj rn−j .
j
j=0

Sommando troviamo quindi


n  
n n
X n
(r + s) + (r − s) = 2 sj rn−j
j
0≤j≤n; j pari

da cui segue subito la conclusione ponendo r = 1 − p, s = p.


La probabilità di errore con il controllo di parità è quindi

1 + (1 − 2p)(d+1)
− (1 − p)(d+1) .
2
Si vede facilmente che, per p piccolo, si ha

1 − (1 − p)d ≈ dp + o(p),
(d+1)
1 + (1 − 2p)
− (1 − p)(d+1) ≈ d(d + 1)p2 + o(p2 ).
2

2.6 Passeggiata casuale


Il processo di Bernoulli si utilizza per descrivere la dinamica del moto di un punto che si
muove a caso su Z saltando, ad ogni istante e indipendentemente dai salti precedenti, da un
intero al successivo con probabilità p oppure al precedente con probabilità 1 − p. Questa
dinamica si chiama abitualmente passeggiata casuale.
Un fenomeno aleatorio del tutto simile si presenta osservando l’andamento del capitale
di un giocatore che ad ogni istante vince o perde una certa quantità fissa.
22 2. IL PROCESSO DI BERNOULLI

Lo spostamento del punto dal tempo n al tempo n + 1 è quindi ben modellizzato dalle
variabili aleatorie 2Rn+1 − 1.
Supponendo che, al tempo 0, il punto parta da 0, la posizione al tempo n è data da
n
X
Xn = X0 + (2Rk − 1) = 2Sn − n.
k=1

La posizione iniziale X0 è di solito fissa (tipicamente X0 = 0).

Definizione 2.8 La famiglia di variabili aleatorie (Xn )n≥0 si chiama passeggiata casuale
su Z con parametro p. Nel caso in cui p = 1/2 si chiama passeggiata casuale simmetrica.

Nelle varie interpretazioni delle passeggiate casuali si pone spesso il problema di deter-
minare la probabilità di ritornare al valore iniziale, di osservare un certo valore massimo o
minimo in un dato intervallo di tempo, il tempo medio impiegato per raggiungere un certo
valore e quantità simili.
Tratteremo molti di questi problemi utilizzando metodi di teoria delle martingale ma
risponderemo ad alcune delle domande precedenti con metodi elementari basati sul principio
di riflessione.
Il calcolo della probabilità di ritorno in 0 al tempo n della passeggiata casuale con X0 = 0
è il più semplice dei problemi precedenti. Infatti, sapendo che Sn ha legge binomiale B(n, p),
si trova subito che la probabilità di ritorno in 0 al tempo n è nulla se n è dispari mentre, se
n è pari  
n
IP { Xn = 0 } = IP { Sn = n/2 } = (pq)n/2 . (2.6)
n/2
In particolare, grazie alla formula di Stirling, per n grande, si ha
(4p(1 − p))n
IP { X2n = 0 } ≈ √ .
πn
Teorema 2.9 (Principio di riflessione.) Il numero di cammini da (0, −a) a (n, b) (a, b ∈ Z)
che toccano l’asse delle ascisse è uguale al numero di cammini da (0, a) a (n, b) che toccano
l’asse delle ascisse.

Dimostrazione. Per ogni cammino da (0, −a) a (n, b) (a, b ∈ Z) che tocca sia m l’ultimo
istante in cui il valore raggiunto è 0. Per ottenere un cammino da (0, a) a (n, b) che tocca
l’asse delle ascisse basterà cambiare di segno i primi m incrementi del cammino da (0, −a)
a (n, b) (vedi Figura 2.1).

Teorema 2.10 Sia (Xn )n≥0 una passeggiata casuale simmetrica su Z con X0 = 0. Si ha
allora  
IP max Xk ≥ x = 2IP { Xn > x } + IP { Xn = x }
0≤k≤n

per ogni x > 0. In particolare per x ∈ { 1, . . . , n } si ha


  n    
X n n
IP max Xk ≥ x = 2−n+1 + 2−n
0≤k≤n (n + y)/2 (n + x)/2
y = x+1

Dimostrazione. Separando i cammini che arrivano in x da quelli che arrivano ad un valore


diverso si ha subito
     
IP max Xk ≥ x = IP max Xk ≥ x, Xn 6= x + IP max Xk ≥ x, Xn = x .
0≤k≤n 0≤k≤n 0≤k≤n
2.7. IL PROBLEMA DEL BALLOTTAGGIO 23

(0, a) @ @


@@ ~~ @@@
@@ ~ @@
@@ ~~ @@
@@ ~~
? ~ 
@@ ~~ @@
~ @
??  (n, b)
?? 
?? 

?? 
... ... z ... ... ...
zz
z
zz
z
zz
zz
zzz

zz
z
zz
(0, −a)

Figure 2.1: Principio di riflessione

Evidentemente gli eventi


 
max Xk ≥ x, Xn = x , { Xn = x }
0≤k≤n

coincidono e quindi le loro probabilità sono uguali. Basterà quindi verificare che
 
IP max Xk ≥ x, Xn 6= x = 2IP { Xn > x } .
0≤k≤n

Questa identità segue dal principio di riflessione, infatti il numero di cammini che raggiun-
gono (ed eventualmente superano) il valore x e terminano con un valore diverso da x è
esattamente doppio del numero di cammini che terminano con un valore strettammente
maggiore di x.

2.7 Il problema del ballottaggio


Calcoleremo ora la probabilità che una passaggiata casuale simmetrica, uscente da 0, arrivi
al tempo n ad un valore x > 0 senza ritornare mai in 0 ai tempi 1, 2, . . . , n.
Il problema è detto del “ballottaggio” perché si potrebbe riformulare nel modo seguente:
nello spoglio di una votazione tra due candidati (ignorando le schede bianche e nulle) qual
è la probabilità che il candidato vincente rimanga in vantaggio durante tutta l’operazione?
Sono possibili tuttavia tante altre interpretazioni, per esempio: se un giocatore ad ogni
istante vince o perde una unità con uguale probabilità, all’inizio del gioco aveva 0 unità e
al tempo finale n possiede x (x > 0) unità, qual è la probabilità che sia rimasto sempre in
attivo ai tempi 1, 2, . . . , n?
L’evento del quale dobbiamo calcolare la probabilità è

{ X1 > 0, X2 > 0, . . . , Xn−1 > 0 }

per la probabilità condizionata rispetto all’evento { Xn = x } (supponiamo di sapere già che


il candidato vincente ha x voti più dell’altro oppure che il giocatore vince x unità più di
quante ne perda).
Sia Nn,x il numero totale di cammini da (0, 0) a (n, x) (n, x ∈ N∗ ). Detto s (su) (risp. g
(giù) il numero di incrementi positivi (risp. negativi) si ha ovviamente s + g = n e s − g = x
24 2. IL PROCESSO DI BERNOULLI

e risulta evidentemente    
n n
Nn,x = = .
s (n + x)/2
Iniziamo mostrando un lemma preliminare che si verifica essenzialmente come il principio
di riflessione.

Lemma 2.11 Il numero di cammini da (0, 0) a (n, x) (x ∈ N∗ ) che non toccano l’asse delle
ascisse a tempi strettamente positivi è uguale a
x
Nn−1,x−1 − Nn−1,x+1 = Nn,x
n
Dimostrazione. Il numero totale di cammini da (0, 0) a (n, x) che non passano mai da 0 ai
tempi 1, 2, . . . , n è evidentemente uguale al numero di cammini da (1, 1) a (n, x) che non
passano mai da 0. Questo, a sua volta, (per traslazione) è uguale al numero di cammini da
(0, 0) a (n − 1, x − 1) che non passano mai sotto lo 0 ai tempi 1, 2, . . . , n − 1.
Per mostrare la formula occorre quindi sottrarre a Nn−1,x−1 il numero di cammini che
passano sotto lo 0. Questo, per il principio di riflessione, è uguale al numero di cammini che
finiscono in (n − 1, x + 1). Infatti, detto m (m > 0) il primo istante dopo 0 in cui Xm < 0,
l’incremento risulta Xm − Xm−1 = 2Rm − 1 = −1. Cambiando questo incremento con un
+1, si ottiene un cammino che arriva in (n − 1, x + 1). Viceversa, dato un camino da (0, 0)
che arriva in (n − 1, x + 1), cambiando il primo incremento uguale a +1 in un incremento
−1 si ottiene un cammino da (0, 0) a (n − 1, x − 1) che passa sotto 0.
Il numero di cammini da (0, 0) a (n − 1, x − 1) che non passano per 0 è allora uguale a
   
n−1 n−1
Nn−1,x−1 − Nn−1,x+1 = −
(n + x)/2 − 1 (n + x)/2
 
x n x
= = Nn,x .
n (n + x)/2 n
Ciò dimostra il lemma.

Teorema 2.12 Se (Xn )n≥0 è una passeggiata casuale simmetrica con X0 = 0 per ogni
x ∈ { 1, 2, . . . , n } tale che n − x sia pari si ha
 
x n
IP { X1 > 0, X2 > 0, . . . , Xn−1 > 0, Xn = x } = 2−n ,
n (n + x)/2
in particolare
x
IP { X1 > 0, X2 > 0, . . . , Xn−1 > 0 | Xn = x } = .
n
Dimostrazione. La prima formula segue subito dal Lemma 2.11 e dal fatto che ogni cammino
fissato da (0, 0) a (n, x) ha probabilità 2−n . La seconda è un’immediata conseguenza della
definizione di probabilità condizionata.

2.8 Tempo del primo ritorno in 0


Si chiama tempo del primo ritorno in 0 la variabile aleatoria

Z = inf { n ≥ 1 | Xn = 0 }

con la convenzione abituale inf ∅ = +∞. Vogliamo calcolare la legge di Z. A questo scopo
iniziamo mostrando una formula notevole sull’uguaglianza tra: la probabilità di passaggio
in 0 al tempo 2n e la probabilità di non passare mai da 0 ai tempi 1, 2, . . . , 2n.
2.8. TEMPO DEL PRIMO RITORNO IN 0 25

Lemma 2.13 Per ogni n ∈ N∗ si ha


 
2n
IP { X1 6= 0, X2 6= 0, . . . , X2n 6= 0 } = IP { X2n = 0 } = 2−2n
n

Dimostrazione. Per simmetria si ha evidentemente

IP { X1 6= 0, X2 6= 0, . . . , X2n 6= 0 } = 2IP { X1 > 0, X2 > 0, . . . , X2n > 0 } .

Abbiamo inoltre (formula della probabilità totale), con le notazioni del paragrafo precedente
e grazie al Teorema 2.12,
n
X
IP { X1 > 0, X2 > 0, . . . , X2n > 0 } = IP { X1 > 0, X2 > 0, . . . , X2n = 2k }
k=1
n
−2n
X 2k
= 2 N2n,2k ,
2n
k=1

e quindi, per il Lemma 2.11, abbiamo


n
X
−2n
IP { X1 > 0, X2 > 0, . . . , X2n > 0 } = 2 (N2n−1,2k−1 − N2n−1,2k+1 )
k=1
 
2n − 1
= 2−2n N2n−1,1 = 2−2n .
n

Osservando infine che


   
2n − 1 (2n − 1)! 1 (2n − 1)!(2n) 1 (2n)! 1 2n
= = = =
n n!(n − 1)! 2 n!n! 2 n!n! 2 n

troviamo
 
1 2n 1
IP { X1 > 0, X2 > 0, . . . , X2n > 0 } = 2−2n = IP { X2n = 0 }
2 n 2

da cui segue subito la conclusione.


Possiamo determinare la legge di Z.

Teorema 2.14 Per ogni numero n ≥ 1 abbiamo

2−2n
 
1 2n
IP { Z = 2n } = IP { X2n = 0 } =
2n − 1 2n − 1 n

e IP { Z = +∞ } = 0.

Dimostrazione. Grazie al Lemma 2.13 valgono le identità

IP { Z = 2n } = IP { X1 6= 0, X2 6= 0, . . . , X2n = 0 }
= IP { X1 6= 0, X2 6= 0, . . . , X2n−2 6= 0 } − IP { X1 6= 0, X2 6= 0, . . . , X2n 6= 0 }
    
−2n 2n − 2 2n
= 2 4 −
n−1 n
  
−2n 2n 2n
= 2 −1 .
n 2n − 1
26 2. IL PROCESSO DI BERNOULLI

Troviamo cosı̀ la formula cercata per n ∈ N∗ .


Infine, osservando che l’evento { Z = +∞ } è intersezione della successione non crescente
di eventi ({ Z > 2n })n≥1 ovvero
\
{ Z = +∞ } = { Z > 2n } ,
n≥1

abbiamo
IP { Z = +∞ } = lim IP { Z > 2n } .
n→∞

Per ogni intero n ≥ 1, grazie al Lemma 2.13, sappiamo che


 
−2n 2n
IP { Z > 2n } = IP { X2 6= 0, X4 6= 0, . . . , X2n 6= 0 } = 2
n

e quindi, utilizzando la formula di Stirling



nn e−n 2πn
lim = 1,
n→∞ n!
si vede facilmente che, per n grande,
 
2n 1
2−2n ≈√ .
n πn

Poiché la successione (1/ πn)n≥1 è infinitesima per n tendente all’infinito, possiamo con-
cludere che l’evento { Z = +∞ } ha probabilità nulla.
Utilizzando la formula di Stirling si vede facilmente che, per n grande,
1
IP { Z = 2n } ≈ √ 3/2 .
2 πn

In particolare

X
E[Z] = 2n · IP { Z = 2n } = +∞.
n=1

Questo mostra che il ritorno in 0 avverrà quasi certamente ma occorrerà attendere troppo
tempo.

2.9 Tempo trascorso dall’ultimo passaggio in 0


Secondo una credenza diffusa i ritorni in 0 dovrebbero essere abbastanza frequenti. Il Teo-
rema 2.14 però la contraddice cosı̀ come il risultato seguente sul tempo trascorso dall’ultimo
passaggio in 0 prima del tempo 2n. Questo è definito come la variabile aleatoria

V2n = 2n − 2 max{ k ≤ n | X2k = 0 }.

La legge di V si calcola abbastanza facilmente con la teoria sviluppata.

Teorema 2.15 Per ogni n ∈ N∗ e k ∈ { 0, 1, . . . , n } si ha


  
−2n 2k 2n − 2k
IP { V2n = 2k } = 2 . (2.7)
k n−k
2.9. TEMPO TRASCORSO DALL’ULTIMO PASSAGGIO IN 0 27

Dimostrazione. Si ha infatti

IP { V2n = 2k } = IP { X2n−2k = 0, X2n−2k+2 6= 0, . . . , X2n 6= 0 }


= IP { X2k = 0, X2k+2 − X2k 6= 0, . . . , X2n − X2k 6= 0 }

e quindi, poiché X2k è indipendente dal vettore aleatorio (X2k+2 − X2k , . . . , X2n − X2k ),
grazie al Lemma 2.13 troviamo

IP { V2n = 2k } = IP { X2k = 0 } IP { X2k+2 − X2k 6= 0, . . . X2n − X2k 6= 0 }


= IP { X2k = 0 } IP { X2n − X2k = 0 }

da cui segue subito la conclusione.


La formula 2.7 mostra che, al tempo 2n, la probabilità di non avere osservato passaggi
dallo 0 dal tempo n in poi è 1/2. Questo risultato mostra, ancora una volta, la “rarità” dei
passaggi in 0.
L’istogramma qui sotto si riferisce alla densità di V12 .

0 2 4 6 8 10 12
Vedremo ora come la formula 2.7, per tempi grandi, dia origine alla cosiddetta legge
dell’arco seno. Più precisamente mostriamo che la successione di variabili aleatorie (V2n /2n)n≥1
converge in legge verso la legge dell’arco seno.

Teorema 2.16 Per ogni x ∈]0, 1[ si ha


2 √
lim IP { V2n ≤ 2nx } = arcsin( x).
n→∞ π
Dimostrazione. Osservando che, grazie alla formula di Stirling, per n grande si ha
  
X 2k 2n − 2k
IP { V2n ≤ 2nx } = 2−2n
k n−k
0≤k≤nx
X 1 1
≈ p
n π k/n(1 − k/n)
0≤k≤nx

e ricordando la nota approssimazione dell’integrale di una funzione continua con l’integrale


delle funzioni a scala troviamo
Z x
dy 2 √
lim IP { V2n ≤ 2nx } = p = arcsin( x).
n→∞ 0 π y(1 − y) π

L’arco seno appare quindi nella funzione di ripartizione. La densità è pertanto


1
f (x) = p , per x ∈]0, 1[, f (x) = 0 per x ∈]0,
/ 1[.
π x(1 − x)
28 2. IL PROCESSO DI BERNOULLI

Dunque la cosiddetta legge dell’arco seno è la legge beta B(1/2, 1/2).

Osservazione. Studiando il comportamento asintotico della passeggiata casuale simmetrica


si potrebbe dimostrare la legge del logaritmo iterato
Xn
lim sup p = 1,
n→∞ 2n log(log(n))
Xn
lim inf p = −1.
n→∞ 2n log(log(n))

2.10 Esercizi
Esercizio 2.1 Calcolare la probabilità IP ({ R1 = 1 } | { Sn = k }) per k = 0, 1, . . . , n.

Esercizio 2.2 Verificare che una variabile aleatoria Y con densità binomiale negativa N B(n, p)
soddisfa
n(1 − p) n(1 − p)
E[Y ] = , V [Y ] =
p p2
Esercizio 2.3 Sia Tn il tempo d’attesa dell’n-esimo successo di un processo di Bernoulli e
sia k ≤ n. Calcolare
IP { Tk = j | Tn = m }
per ogni j ∈ { k, . . . , m − (n − k) }. Che cosa si può dire della legge di Tk rispetto alla
probabilità condizionata IP { · | Tn = m } ?

Esercizio 2.4 Un tale gioca n partite in ciascuna delle quali perde o vince 1 moneta con
uguale probabilità. Alla fine del gioco possiede x monete (x > 0). Qual è la probabilità che,
durante il gioco, non sia mai rimasto senza monete (tranne, ovviamente, al tempo 0)?

Esercizio 2.5 Siano (Rn )n≥1 e (Rn0 )n≥1 due processi di Bernoulli con parametri p e p0
indipendenti. Detti T e T 0 i rispettivi istanti dei primi successi, calcolare la probabilità
dell’evento { T ≤ T 0 }.

Esercizio 2.6 Il valore di portafoglio di azioni ogni giorno aumenta o diminuisce di 0.1 con
probabilità 1/2. Se il valore iniziale è 1 e, dopo 20 giorni è 1.2 qual è la probabilità che il
valore non sia mai sceso sotto 1?
3

Elementi di teoria generale dei


processi

Sia Ω, F, P) uno spazio probabilizzato fissato e I un insieme totalmente ordinato. L’insieme


I è l’insieme dei tempi che, di volta in volta, sarà N, Z, R+ = [0, +∞[, R, o un intervallo
di R. In questo capitolo introdurremo le definizioni fondamentali e le prime proprietà dei
processi stocastici.
Definizione 3.1 Un processo stocastico X su (Ω, F, P) è una famiglia (Xt )t∈I di variabili
aleatorie reali definite su Ω.
I processi stocastici abitualmente si distinguono in varie classi a seconda dell’insieme
dei tempi, dei valori che possono prendere le variabili aleatorie Xt (in un insieme finito,
numerabile, in un intervallo della retta reale, . . .), della legge delle variabili aleatorie Xt e
del tipo di dipendenza tra le variabili aleatorie a tempi diversi.
Esempio 3.1 Elenchiamo alcuni tipi di processi stocastici.
1. Processo di Bernoulli e catene di Markov I = N.
2. Processi di Markov con insieme degli stati Z. I = [0, +∞[ ... per esempio i processi di
nascita e morte, le code casuali.
3. Processi stazionari. I = Z oppure I = [0, +∞[ e variabili aleatorie Xt tali che
per ogni n e ogni t1 < t2 < · · · < tn , s le variabili aleatorie (Xt1 , Xt2 , . . . , Xtn ) e
(Xt1 +s , Xt2 +s , . . . , Xtn +s ) abbiano la stessa legge.
4. Processi a incrementi indipendenti. I = [0, +∞[, variabili aleatorie Xt tali che, per
ogni n e ogni t1 < t2 < · · · < tn gli incrementi Xt1 − X0 , Xt2 − Xt1 , . . . , Xtn − Xtn−1
siano indipendenti
Di un processo stocastico si osservano abitualmente solo i valori assunti, nell’esperimento
aleatorio modellizzato dallo spazio probabilizzato (Ω, F, P), da un numero finito di variabili
aleatorie (Xt1 , Xt2 , . . . , Xtn ). Secondo questo punto di vista allora due famiglie di variabili
aleatorie (Xt )t∈I , (Yt )t∈I tali che P { Xt = Yt } = 1 per ogni t ∈ I descrivono essenzialmente
lo stesso processo
Definizione 3.2 Dati due processi stocastici X = (Xt )t∈I , Y = (Yt )t∈I su spazio probabi-
lizzato (Ω, F, P) si dice che X è una modificazione di Y se
P { Xt = Yt } = 1,

29
30 3. ELEMENTI DI TEORIA GENERALE DEI PROCESSI

per ogni t ∈ I.

Osserviamo che, se X è una modificazione di Y , allora,

P { Xt1 = Yt1 , . . . , Xtn = Ytn } = 1

per ogni n ∈ N∗ e ogni t1 , . . . , tn ∈ I.


Le leggi di probabilità µt1 ,...,tn su B(Rn ) definite da

µt1 ,...,tn (A1 × . . . × An ) = P { Xt1 ∈ A1 , . . . , Xtn ∈ An }

(A1 , . . . , An ∈ B(Rn ), t1 < . . . < tn ) si chiamano distribuzioni finito-dimensionali del


processo stocastico X. Quindi se X è una modificazione di Y , allora i due processi hanno le
stesse distribuzioni finito dimensionali.

3.1 Filtrazioni di σ-algebre


Sia (Ω, F, P) uno spazio probabilizzato.

Definizione 3.3 Si chiama filtrazione di F una famiglia (Ft )t∈I di sotto-σ-algebre di F


che sia non decrescente ovvero tale che

Fs ⊆ Ft

per ogni s ≤ t.

La σ-algebra Ft di solito è costituita dagli eventi osservabili dal tempo 0 al tempo t.

Esempio 3.2 Sia (Xn )n≥1 un processo di Bernoulli di parametro p. La σ-algebra degli
eventi osservabili fino al tempo n è la più piccola σ-algebra Fn di sottoinsiemi di F che
contenga gli eventi della forma

{ X1 = x1 , . . . , Xn = xn }

con x1 , . . . , xn ∈ Z. La famiglia (Fn )n≥1 è una filtrazione di sotto-σ-algebre di F.

Definizione 3.4 Dato un processo stocastico X = (Xt )t∈I su uno spazio probabilizzato
(Ω, F, P) si chiama filtrazione naturale di X la filtrazione (Ft )t∈I in cui Ft è la più piccola
σ-algebra rispetto alla quale le variabili aleatorie Xs con s ≤ t siano misurabili.

Definizione 3.5 Un processo stocastico (Xt )t∈I su uno spazio probabilizzato (Ω, F, P) con
una filtrazione (Ft )t∈I di sotto-σ-algebre di F si dice adattato se la variabile aleatoria Xt è
Ft misurabile per ogni t ∈ I.

La filtrazione naturale di un processo stocastico è la più piccola filtrazione rispetto alla


quale il processo sia adattato.

3.2 Proprietà delle traiettorie e versioni continue


Sia X = (Xt )t∈I un processo stocastico su uno spazio probabilizzato (Ω, F, P).

Definizione 3.6 Si chiama traiettoria di X relativa a ω la funzione

I 3 t → Xt (ω) ∈ R. (3.1)

Nel caso in cui l’insieme dei tempi I è un intervallo di R si dice che


3.2. PROPRIETÀ DELLE TRAIETTORIE E VERSIONI CONTINUE 31

(i) X ha traiettorie continue se la funzione 3.1 è continua per ogni ω ∈ Ω,


(ii) X ha traiettorie regolari (oppure traiettorie càdlàg) se la funzione 3.1 è continua a
destra e ha limite da sinistra per ogni ω ∈ Ω.

La continuità in probabilità ovvero

lim P { |Xs − Xt | > ε } = 0


s→t

per ogni s, t ∈ I è una proprietà molto più debole della continuità delle traiettorie.

Definizione 3.7 Si dice che X ammette una versione a traiettorie continue (risp. rego-
lari) se esiste un processo stocastico X 0 a traiettorie continue (risp. regolari) che sia una
modificazione di X.

Definizione 3.8 Si dice che X è indistinguibile da Y se

P ( ∪t∈I {Xt 6= Yt } ) = 0.

È chiaro che, se X è indistinguibile da Y , allora X è una modificazione di Y . Si verifica


facilmente che, nel caso in cui l’insieme dei tempi I sia numerabile, X è indistinguibile da
Y se e solo se è una modificazione di Y . Nel caso in cui I non è numerabile e dunque un
intervallo (eventualmente illimitato) si ha comunque

Proposizione 3.9 Siano X e Y due processi con traiettorie regolari. Se X è una modifi-
cazione di Y allora è anche indistinguibile da Y .

Basterà infatti osservare che, data la regolarità delle traiettorie, preso un sottoinsieme
D di I numerabile e denso, si ha
[ [
{ Xt 6= Yt } = { Xt 6= Yt } .
t∈I t∈D

In generale, tuttavia, se X è una modificazione di Y , non è necessariamente indistinguibile


da Y come mostra il seguente esempio

Esempio 3.3 Sia Ω = [0, 1], F = B([0, 1]) e P la misura di Lebesgue su F. Sia I = [0, +∞[
l’insieme dei tempi. Consideriamo il processo stocastico X cosı̀ definito

1 se ω = t,
Xt (ω) =
0 se ω 6= t.

e sia Y il processo nullo Yt (ω) = 0 per ogni t ∈ I e ogni ω ∈ Ω. È chiaro che X è una
modificazione di Y ma X non è indistinguibile da Y perché

P ( ∪t∈I {Xt 6= Yt } ) = 1.

Nello studio dei processi stocastici è molto utile sapere se un certo processo ha una mo-
dificazione con traiettorie continue. Questa proprietà si può verificare applicando il seguente
risultato che dà anzi una informazione più precisa. Ricordiamo che una funzione g : R → R
si chiama θ-holderiana (0 < θ < 1) se esiste una costante c tale che

|g(t) − g(s)| ≤ K|t − s|θ , per ogni t, s ∈ R.

Una funzione θ-holderiana è, in particolare, uniformemente continua.


32 3. ELEMENTI DI TEORIA GENERALE DEI PROCESSI

Teorema 3.10 Sia X = (Xt )t≥0 un processo stocastico su uno spazio probabilizzato (Ω, F, P).
Se esistano due numeri reali α, β strettamente positivi e una costante C tali che

E [|Xt − Xs |α ] ≤ C|t − s|1+β

per ogni t, s ≥ 0, allora X ha una modificazione con traiettorie γ-hölderiane per ogni γ ∈
]0, β/α[.

Per la dimostrazione si veda “I. Karatzas, S.E. Shreve, Brownian Motion and Stocastic
Calculus (Second Edition) Th.2.8 p.53”.

3.3 Esercizi
Esercizio 3.1 Sia (Rn )n≥1 un processo di Bernoulli di parametro p su uno spazio probabi-
lizzato (Ω, F, P). Per ogni n ≥ 1 sia Sn = R1 + . . . + Rn e sia Gn la più piccola σ-algebra di
sottoinsiemi di F che contenga gli eventi della forma

{ S1 = k1 , . . . , Sn = kn }

con 0 ≤ k1 ≤ . . . ≤ kn interi arbitrari. Verificare che Gn = Fn (Fn è la σ-algebra definita


nell’Esempio 3.2) per ogni n ≥ 1.

Esercizio 3.2 Con le notazioni dell’esercizio precedente consideriamo il processo stocastico


Y cosı̀ definito 
Sn se n è dispari,
Yn =
Sn−1 se n è pari.
Verificare che Y è adattato alla filtrazione (Fn )n≥1 e che la filtrazione naturale di Y è
strettamente più piccola della filtrazione naturale di X.

Esercizio 3.3 Mostrare che un processo stocastico X = (Xt )t≥0 con la proprietà seguente
“per ogni t, s ≥ 0 la variabile aleatoria Xt −Xs ha legge normale N (0, t−s)” verifica l’ipotesi
del Teorema 3.10

Esercizio 3.4 Mostrare che un processo stocastico X = (Xt )t≥0 con la proprietà seguente
“per ogni t, s ≥ 0 la variabile aleatoria Xt − Xs ha legge di Poisson con parametro λ(t − s)”
non verifica l’ipotesi del Teorema 3.10

Esercizio 3.5 Mostrare che un processo stocastico X = (Xt )t∈[0,1] con la proprietà seguente:
per ogni t, s ≥ 0 le variabili aleatorie Xt , Xs hanno legge gaussiana bidimensionale con
media 0 e covarianza
Cov[Xt , Xs ] = min{s, t} − st

verifica l’ipotesi del Teorema 3.10.


4

Processi puntuali

I processi puntuali sono speciali processi stocastici le cui traiettorie sono costanti a tratti e,
a tempi aleatori, hanno salti di una certa ampiezza che può essere costante oppure aleatoria.
In questo capitolo mostreremo alcuni esempi di processi puntuali con ampiezza dei salti
uguali a 1 e per questo detti anche processi di conteggio. Questi processi possono descrivere
vari fenomeni aleatori come il conteggio del numero di persone che arrivano in una coda
casuale, i guasti di un certo apparato, il decadimento radioattivo ...

4.1 Processo di Poisson


Sia (Xn )n≥1 una successione di variabili aleatorie reali indipendenti con legge esponenziale
di parametro λ (λ > 0) e poniamo Tn = X1 + . . . + Xn per ogni n ≥ 1. Per ogni numero
reale t ≥ 0 definiamo la variabile aleatoria Nt a valori N ∪ {+∞}
X
Nt = 1{Tn ≤t} .
n≥1

Le Xn si potrebbero pensare come le durate di certi “pezzi” che vengono sostituiti non
appena si guastano. La variabile aleatoria Nt rappresenta quindi il numero di guasti
nell’intervallo temporale [0, t].
È abbastanza facile trovare la legge di Nt .
Proposizione 4.1 La variabile aleatoria Nt ha legge di Poisson di parametro λt per ogni
t > 0. In particolare P{ Nt = +∞ } = 0 per ogni t ≥ 0.
Dimostrazione. Calcoliamo dapprima la probabilità dell’evento { Nt = 0 }. Grazie all’identità
{ N t = 0 } = { T1 > t }
si ha subito
P{ Nt = 0 } = P{ T1 > t } = e−λt .
Calcoliamo poi la probabilità dell’evento { Nt = k } per ogni k > 0. Grazie all’identità
{ Nt = k } = { Tk ≤ t, Tk+1 > t } = { Tk ≤ t } − { Tk+1 ≤ t }
si ha quindi, tenendo conto che Tk e Tk+1 hanno leggi Γ(k, λ) e Γ(k + 1, λ) rispettivamente,
P{ Nt = k } = P{ Tk ≤ t } − P{ Tk+1 ≤ t }
Z t k k−1 Z t k+1 k
λ x λ x −λx
= e−λx dx − e dx.
0 (k − 1)! 0 k!

33
34 4. PROCESSI PUNTUALI

Integrando per parti il secondo integrale (si integra λe−λx e si deriva xk ) si trova infine

(λt)k
P{ Nt = k } = e−λt
k!
e quindi Nt ha legge di Poisson con parametro λt.
In particolare, dato che Nt ha speranza finita, la probabilità dell’ evento {Nt = +∞} è
nulla.
Si verifica inoltre che il processo (Nt )t≥0 ha incrementi indipendenti.

Teorema 4.2 Per ogni intero n ≥ 1 e ogni 0 < t1 < t2 < . . . < tn le variabili aleatorie
Nt1 , Nt2 − Nt1 , . . . , Ntn − Ntn−1 sono indipendenti e hanno legge di Poisson con parametri
rispettivamente λt1 , λ(t2 − t1 ), . . . , λ(tn − tn−1 ).

Dimostrazione. Consideriamo, per semplicità, il caso di due soli tempi t1 = t, t2 = t + s


(t, s > 0) e calcoliamo

P{ Nt = h, Nt+s = h + k } = P{ Th ≤ t, Th+1 > t, Th+k ≤ t + s, Th+k+1 > t + s }


= P{ Th ≤ t, Th + Xh+1 > t, Th + Xh+1 + (Th+k − Th+1 ) ≤ t + s,
Th + Xh+1 + (Th+k − Th+1 ) + Xh+k+1 > t + s }

per h > 0, k > 1. Utilizzando l’indipendenza delle quattro variabili aleatorie

Th , Xh+1 , (Th+k − Th+1 ), Xh+k+1 ,

che hanno leggi rispettivamente Γ(h, λ), Γ(1, λ), Γ(k − 1, λ), Γ(1, λ) si vede subito che la
probabilità P{ Nt = h, Nt+s = k } è data da
t Z t+s−x Z t+s−(x+y) k−1 k−2 Z ∞
λh xh−1 −λx
Z
λ z
e dx λe−λy dy e−λz dz λe−λw dw
0 (h − 1)! t−x 0 (k − 2)! t+s−(x+y+z)
Z t Z t+s−x Z t+s−(x+y) k−2
xh−1 z
= λh+k e−λ(t+s) dx dy dz
0 (h − 1)! t−x 0 (k − 2)!
Z t Z t+s−x
xh−1 ((t + s) − (x + y))k−1
= λh+k e−λ(t+s) dx dy
0 (h − 1)! t−x (k − 1)!
k Z t
h+k −λ(t+s) s xh−1
=λ e dx
k! 0 (h − 1)!
(λt)h −λs (λs)k
= e−λt ·e .
h! k!
Si ha quindi

(λt)h −λs (λs)k


P{ Nt = h, Nt+s − Nt = k } = P{ Nt = h, Nt+s = h + k } = e−λt ·e .
h! k!
I due casi in cui h = 0 e k = 0, 1 si trattano in modo analogo e sono più semplici.
La famiglia di variabili aleatorie (Nt )t≥0 ha evidentemente traiettorie regolari. Abbiamo
cosı̀ costruito una versione del processo di Poisson.

Definizione 4.3 Si chiama processo di Poisson di parametro λ > 0 una famiglia (Nt )t≥0
di variabili aleatorie su uno spazio probabilizzato (Ω, F, P) tali che
1. per ogni ω ∈ Ω la traiettoria t → Nt (ω) è regolare,
4.1. PROCESSO DI POISSON 35

2. per ogni intero n ≥ 1 e ogni 0 < t1 < t2 < . . . < tn le variabili aleatorie Nt1 , Nt2 −
Nt1 , . . . , Ntn − Ntn−1 sono indipendenti e hanno legge di Poisson con parametri rispet-
tivamente λt1 , λ(t2 − t1 ), . . . , λ(tn − tn−1 ).

Mostreremo ora alcune proprietà del processo di Poisson di parametro λ > 0.

Proposizione 4.4 Le variabili aleatorie (Nt /t)t≥0 convergono verso λ in probabilità.

Dimostrazione. Grazie alla diseguaglianza di Chebychev, per ogni ε > 0 si ha


 
Nt V [Nt ] λ
P − λ > ε ≤ 2 2 = 2 .

t ε t ε t
La conclusione segue facendo tendere t all’infinito.
Si potrebbe dimostrare che Nt /t converge quasi certamente verso λ.

Proposizione 4.5 Per ogni s < t ed ogni intero n ≥ 1 la legge di Ns per la probabilità
condizionata P { · | Nt = n } è la legge binomiale B(n, s/t).

Dimostrazione. Per ogni k ∈ { 0, . . . , n } si ha infatti

P { Ns = k | Nt = n } = P { Ns = k, Nt − Ns = n − k } /P { Nt = n }
= P { Ns = k } P { Nt − Ns = n − k } /P { Nt = n }
e−λs (λs)k e−λ(t−s) (λ(t − s))n−k n!
= · · −λt
k! (n − k)! e (λt)n
   
n s k s n−k

= 1− .
k t t
La Proposizione è cosı̀ dimostrata.

Proposizione 4.6 Siano (Nti )t≥0 (i = 1, 2) due processi di Poisson indipendenti con para-
metri λi . Il processo (Yt )t≥0 definito da Yt = Nt1 +Nt2 è un processo di Poisson con parametro
λ1 + λ 2 .

Osservazione. Il processo di Poisson di parametro λ si potrebbe trovare come limite di una


successione di processi di Bernoulli con parametri pn tali che limn→∞ npn = λ.
(n)
In modo più preciso, per ogni n, sia (Rk )k≥1 un processo di Bernoulli di parametro pn
come sopra. Per ogni t ≥ 0 poniamo
[nt]
(n) (n)
X
St = Rk .
k=1

(n)
È chiaro che la variabile aletoria St ha legge B([nt], pn ) e quindi, dalla nota proprietà
(n)
asintotica della legge binomiale, segue che St converge in legge verso una variabile aleatoria
Nt con legge di Poisson con parametro λt. Inoltre è chiaro che le variabili aleatorie
[ns] [nt]
(n) (n) (n)
X X
Ss(n) = Rk , St − Ss(n) = Rk
k=1 k=[ns]+1

sono indipendenti per ogni n e per ogni t > s. Da questo fatto si può dedurre l’indipendenza
di Ns e Nt − Ns . Si può dimostrare l’indipendenza degli incrementi del processo (Nt )t≥0 in
modo simile.
36 4. PROCESSI PUNTUALI

4.2 Processi di rinnovi


I processi di conteggio si possono introdurre come il processo di Poisson senza supporre che
le Xn siano indipendenti ed esponenziali.
Sia (Xn )n≥1 una successione di variabili aleatorie reali su uno spazio probabilizzato
(Ω, F, P) tali che P{ Xn > 0 } = 1 per ogni n ≥ 1 e poniamo Tn = X1 + . . . + Xn per ogni
n ≥ 1. Per ogni numero reale t ≥ 0 definiamo la variabile aleatoria Nt a valori N ∪ {+∞}
X
Nt = 1{Tn ≤t} .
n≥1

Le Xn si potrebbero pensare come le durate di certi “pezzi” che vengono sostituiti non
appena si guastano. La variabile aleatoria Nt rappresenta quindi il numero di guasti
nell’intervallo temporale [0, t].
Il processo (Nt )t≥0 cosı̀ ottenuto è un processo di conteggio e si chiama senza esplosione
se Nt è quasi certamente finita.
Nel caso in cui le variabili aleatorie Xn siano anche indipendenti ed equidistribuite si
chiama processo di rinnovi.
La speranza di Nt , cioè il numero medio di rinnovi nell’intervallo [0, t], si esprime sem-
plicemente in termini della funzione di ripartizione F delle variabili aleatorie Xk e delle
funzioni di ripartizione F ∗n (del prodotto di convoluzione di n leggi con funzione di ripar-
tizione F ). Quest’ultima si definisce, per induzione, con la formula
Z Z
∗(k+1) ∗k
F (s) = F (s − r)F (dr) = F (s − r)F ∗k (dr)
]0,s] ]0,s]

indicando con F (dr) l’integrazione rispetto alla misura di probabilità su ]0, +∞[ associata
alla funzione non decrescente F .
Proposizione 4.7 Sia N = (Nt )t≥0 un processo di rinnovi e F la funzione di ripartizione
delle Xk . Se P{ Xk > 0 } = 1 allora speranza di Nt è finita ed è data da

X
E [Nt ] = F ∗n (t)
n=1

Dimostrazione. Si ha infatti
X X
E[Nt ] = P { Nt ≥ n } = P { Tn ≤ t } .
n≥1 n≥1

Osservando che le variabili aleatorie Tn hanno funzioni di ripartizione F ∗n si trova subito la


formula enunciata.
Rimane da verificare che la speranza di Nt è finita. A questo scopo osserviamo che, per
ogni t, n si ha 1{ Tn ≤t } ≤ et−Tn . integrando e ricordando che le Xk sono indipendenti ed
equidistribuite abbiamo
h i n
P { Tn ≤ t } ≤ E et−Tn = et E e−(X1 +...+Xn ) = et E e−X1 .
  

Ora, avendo supposto P { Xk > 0 } = 1, risulta E e−X1 < 1 e quindi


 

et E e−X1
 
X
t
 −X1 n
E[Nt ] ≤ eE e ≤ .
1 − E [e−X1 ]
n≥1

In particolare la speranza di Nt è finita.


Si potrebbe verificare che tutti i momenti di ordine superiore sono finiti e si esprimono
per mezzo delle F ∗n . Ci limitiamo, per semplicità al secondo
4.2. PROCESSI DI RINNOVI 37

Corollario 4.8 Sia N = (Nt )t≥0 un processo di rinnovi e F la funzione di ripartizione delle
Xk . Se P{ Xk > 0 } = 1 allora il momento di ordine 2 di Nt è finito.
Dimostrazione. Osserviamo che
 2
X
Nt2 =  1{ Tn ≤t } 
n≥1
X
= 1{ Tn ≤t } 1{ Tm ≤t }
n,m≥1
XX X X X
= 1{ Tn ≤t, Tm ≤t } + 1{ Tn ≤t, Tm ≤t } + 1{ Tn ≤t }
n≥1 m<n m≥1 n<m n≥1
XX X
= 2 1{ Tn ≤t } + 1{ Tn ≤t }
n≥1 m<n n≥1
X
= (2n − 1)1{ Tn ≤t }
n≥1

 Tmn≤ Tn per m < n. Utilizzando nuovamente la diseguaglianza P { Tn ≤ t } ≤


poiché
et E e−X1 trovata nella dimostrazione della Proposizione 4.7 e calcolando le somme delle
serie abbiamo X n
E[Nt2 ] ≤ et (2n − 1)E e−X1 < ∞


n≥2

perché E e−X1 < 1.


 

Per calcolare la speranza e i momenti di ordine superiore delle varibili aleatorie Nt si


possono utilizzare opportune equazioni integro-differenziali. La più semplice di queste è
l’equazione dei rinnovi soddisfatta dalla speranza di Nt .
Proposizione 4.9 La funzione M : [0, +∞[→ R definita da M (t) = E[Nt ] soddisfa l’equazione
dei rinnovi Z
M (t) = F (t) + M (t − s)F (ds).
]0,t]

Dimostrazione. Ricordando la definizione delle F ∗n si ha infatti


X
M (t) = P { Tn ≤ t }
n≥1
X
= F (t) + F ∗n (t)
n≥2
XZ
= F (t) + F ∗(n−1) (t − s)F (ds).
n≥2 ]0,t]

Cambiando l’indice n della sommatoria con m = n − 1 e scambiando sommatoria e integrale


si ha infine
XZ Z
M (t) = F (t) + F ∗m (t − s)F (ds) = F (t) + M (t − s)F (ds).
m≥1 ]0,t] ]0,t]

L’equazione dei rinnovi è cosı̀ dimostrata.


L’equazione dei rinnovi permette di trovare, sotto un’ipotesi naturale sulla funzione di
ripartizione F , l’andamento del numero medio di rinnovi per t grandi utilizzando un risultato
di Analisi Matematica che non dimostreremo.
38 4. PROCESSI PUNTUALI

Un punto x ∈ R si dice punto d’incremento per una funzione di ripartizione F se, per
ogni ε > 0, si ha F (x + ε) − F (x − ε) > 0. Una funzione di ripartizione F si dice aritmetica se
esiste un h > 0 tale che i punti d’incremento di F siano tutti nell’insieme { 0, ±h, ±2h, . . . }

Teorema 4.10 Se la funzione di ripartizione F delle variabili aleatorie Xk non è aritmetica


allora per ogni h > 0
E[Nt+h ] − E[Nt ] h
lim =
t→∞ t µ
dove µ = E[Xk ] (con la convenzione 1/ + ∞ = 0).

In particolare il numero medio di salti in un intervallo temporale di ampiezza h è asin-


toticamente uguale a h/µ.
La distribuzione delle variabili aleatorie Nt per t grande si determina abbastanza sem-
plicemente utilizzando il teorema limite centrale.

Teorema 4.11 Supponiamo che le variabili aleatorie Xk abbiano speranza µ e varianza σ 2


(σ 2 < ∞). Si ha allora
( ) Z x
Nt − t/µ 1 2
lim P p ≤x = √ e−y /2 dy
t→∞ σ t/µ 3 2π −∞

per ogni x ∈ R.
p
Dimostrazione. Indicando con mt la parte intera di t/µ + xσ t/µ3 abbiamo
( )
Nt − t/µ
P p > x = P { Nt > mt } = P { Tmt < t } .
σ t/µ3

La variabile aleatoria Tmt è somma di mt variabili aleatorie indipendenti equidistribuite con


media µ e varianza σ 2 e
 
Tmt − mt µ t − mt µ
{ Tmt < t } = √ < √ .
σ mt σ mt
Osservando che
p
t − mt µ t − µ(t/µ + xσ t/µ3 ) −x
lim √ = lim q = lim p = −x
t→∞ σ mt t→∞ p t→∞ 1 + xσ(µt)−1/2
σ t/µ + xσ t/µ3

per ogni ε > 0 troviamo un tε > 0 tale che


t − mt µ
−x − ε < √ < −x + ε
σ mt
per ogni t > tε . Grazie al teorema limite centrale, abbiamo allora
( )  
Nt − t/µ Tmt − mt µ
lim sup P p >x ≤ lim P √ < −x + ε
t→∞ σ t/µ3 t→∞ σ mt
Z −x+ε
1 2
= √ e−y /2 dy
2π −∞
Z +∞
1 2
= √ e−y /2 dy
2π x−ε
4.2. PROCESSI DI RINNOVI 39

dove l’ultima uguaglianza segue dalla simmetria della densità normale N (0, 1) e, inoltre
( )  
Nt − t/µ Tmt − mt µ
lim inf P p >x ≥ lim P √ < −x − ε
t→∞ σ t/µ3 t→∞ σ mt
Z −x−ε
1 2
= √ e−y /2 dy
2π −∞
Z +∞
1 2
= √ e−y /2 dy
2π x+ε
L’affermazione segue allora dall’arbitrarietà di ε.
Calcoliamo ora la probabilità di qualche evento notevole legato al processo di rinnovi.
Supporremo, per semplicità, che la legge delle variabili aleatorie Xk abbia una densità f
cioè Z s
F (s) = f (r)dr
0
per ogni s ≥ 0 e indicheremo analogamente con f ∗k la densità di Tk .
Probabilità di assenza di guasti nell’intervallo [s, t + s] sapendo che si sono verificati k
guasti nell’intervallo [0, s]
R s ∗k R∞
0
f (x)dx t+s−x f (y)dy
P { Nt+s = k | Ns = k } =
F ∗k (s) − F ∗(k+1) (s)
R s ∗k
0
f (x)(1 − F (t + s − x))dx
=
F ∗k (s) − F ∗(k+1) (s)
Rs
F ∗k (s) − 0 f ∗k (x)F (t + s − x)dx
=
F ∗k (s) − F ∗(k+1) (s)

Probabilità di guasto nell’intervallo [s, t + s] sapendo che si sono verificati k guasti


nell’intervallo [0, s]
R s ∗k
0
f (x)(F (t + s − x) − F (s − x))dx
P { Nt+s > k | Ns = k } =
F ∗k (s) − F ∗(k+1) (s)

Tasso istantaneo di guasto al tempo s sapendo che si sono verificati k guasti nell’intervallo
[0, s] (moltiplicare la formula precedente per t−1 e far tendere t a 0)
R s ∗k
0
f (x)f (s − x)dx f ∗(k+1) (s)
∗k ∗(k+1)
= ∗k
F (s) − F (s) F (s) − F ∗(k+1) (s)
Osserviamo che il processo di Poisson con parametro λ ha tassi istantanei di guasto
constanti uguali a λ infatti, ricordando che f ∗k è la densità Γ(k, λ) possiamo calcolare
f ∗(k+1) (s) f ∗(k+1) (s)
= Rs
F ∗k (s) − F ∗(k+1) (s) 0
(1 − F (s − r))f ∗k (r)dr
λk+1 sk e−λs /k!
= Rs
0
e−λ(s−r) λk rk−1 e−λr dr/(k − 1)!
k
λs
= Rs =λ
0
krk−1 dr
Questa proprietà caratterizza il processo di Poisson tra i processi di rinnovo infatti vale
la seguente
40 4. PROCESSI PUNTUALI

Proposizione 4.12 Un processo di rinnovi con tassi istantanei costanti è un processo di


Poisson.

Dimostrazione. Infatti, considerando il tasso istantaneo di guasto al tempo s sapendo che


non si è verificato nessun guasto nell’intervallo [0, s], abbiamo

f (s)

1 − F (s)
ovvero Z ∞
f (s) = λ f (r)dr.
s

La funzione f è pertanto derivabile e soddisfa la relazione f 0 (s) = −λf (s). Ne segue che
f (s) = ce−λs con c costante che deve essere uguale a λ perché f è una densità. La legge
delle variabili aleatorie Xk è quindi la legge esponenziale di parametro λ e il processo di
rinnovi in questione è un processo di Poisson.
Il processo di Poisson si caratterizza tra i processi di rinnovo anche per l’indipendenza
degli incrementi.

Teorema 4.13 Se processo di rinnovi (Nt )t≥0 ha incrementi indipendenti e, inoltre, la legge
dell’incremento Nt+s − Ns dipende solo da t, allora (Nt )t≥0 è un processo di Poisson.

Dimostrazione. Basterà evidentemente dimostrare che il tempo del primo salto T1 ha legge
esponenziale ovvero, essendo

P {Nt = 0} = P {T1 > t} ,

che P {Nt = 0} = e−ct per qualche c > 0.


A questo scopo poniamo ϕ(t) = P {Nt = 0} e osserviamo che la funzione ϕ è continua
da destra perché ogni traiettoria t → Nt (ω) è continua da destra certamente.
La proprietà degli incrementi fornisce la relazione

ϕ(t) = P {Nt = 0}

= P Nt − N(n−1)t/n = 0, . . . , Nt /n = 0
= P Nt − N(n−1)t/n = 0 · · · P Nt/n = 0 = ϕ(t/n)n .
 

Per t = 1 troviamo ϕ(1) = ϕ(1/m)m ovvero ϕ(1/m) = ϕ(1)1/m e quindi,

ϕ(n/m) = ϕ(1/m)n = ϕ(1)n/m .

Posto c = − log ϕ(1) > 0, abbiamo allora ϕ(t) = e−ct per tutti i t razionali e quindi per tutti
i t reali grazie alla continuità da destra di ϕ.

4.3 Lotto economico d’acquisto


Mostreremo ora un’applicazione dei processi puntuali alla determinazione del lotto eco-
nomico d’acquisto. Il problema consiste nell’ottimizzare la gestione delle scorte di un’azienda
acquista un certo prodotto in lotti di una certa quantità e lo rivende per unità.
Per descrivere il modello supponiamo che:

1. i tempi Xn trascorsi tra la (n − 1)-esima ed n-esima vendita sono variabili aleatorie


con la stessa speranza m,
4.3. LOTTO ECONOMICO D’ACQUISTO 41

2. il costo di ordinazione K è indipendente dalla quantità di merce ordinata,


3. il costo di stoccaggio per unità di merce per unità di tempo è c.
Supporremo inoltre che l’azienda si rifornisca con S unità di prodotto non appena il maga-
zzino sia vuoto.
Vogliamo minimizzare i costi dell’ordine e di stoccaggio per unità di merce.
Nelle ipotesi fatte le variabili aleatorie
X
Tn = X1 + · · · + Xn e Nt = 1{ Tn ≤t }
n≥1

sono rispettivamente il tempo necessario per vendere n unità e il numero di pezzi venduti
fino al tempo t.
Il costo di stoccaggio di una quantità S è quindi
Z ∞
c (S − Nt )+ dt.
0

Il costo medio di stoccaggio è perciò


Z ∞  Z S
∞X
+
cE (S − Nt ) dt = c P{ S − Nt ≥ k } dt
0 0 k=1
Z S
∞X
= c P{ Nt ≤ S − k } dt
0 k=1
Z S
∞X
= c P{ Nt < S + 1 − k } dt
0 k=1
Z S
∞X
= c P{ Nt < h } dt
0 h=1

Osservando che { Nt < h } = { Th > t } troviamo la seguente formula per il costo medio di
stoccaggio
Z ∞  S Z
X ∞
+
cE (S − Nt ) dt = c P{ Th > t } dt
0 h=1 0
S
X
= c E[Th ]
h=1
S
X
= c mh
h=1
= cmS(S + 1)/2.

Il costo totale di un lotto, ovvero la somma del costo di ordinazione e di stoccaggio, è quindi
cmS(S + 1)
K+
2
e il costo totale medio per unità di merce è
K cm(S + 1)
+ .
S 2
42 4. PROCESSI PUNTUALI

Minimizzando (rispetto a S) questa funzione troviamo che la quantità di merce da acquistare


per ottimizzare i costi di ordinazione e stoccaggio è
r
2K
S= .
cm
I processi puntuali si applicano a molti altri problemi, per esempio nella teoria dell’affidabilità,
nella teoria delle assicurazioni ...

4.4 Esercizi
Esercizio 4.1 Sia (Nt )t≥0 un processo di Poisson con parametro λ > 0. Verificare che il
processo (Xt )t≥0 definito da Xt = Nαt , con α costante strettamente positiva, è un processo
di Poisson con parametro αλ. Il processo (Yt )t≥0 definito da Yt = cNαt , dove c è un’altra
costante strettamente positiva, è un processo di Poisson? Eventualmente, qual è il suo
parametro?
Esercizio 4.2 Sia (Nt )t≥0 un processo di Poisson con parametro λ > 0 e sia
ph,k (t) = P { Nt+s = k | Ns = h }
(verificare che ph,k (t) non dipende da s). Mostrare che per ogni t ≥ 0 e ogni h ≤ k si ha
p0hk (t) = −λph,k (t) + λph+1,k (t).
Esercizio 4.3 Sia (Nt )t≥0 un processo di rinnovi. Supponiamo che le variabili aleatorie Xk
abbiano legge uniforme su [0, θ]. Calcolare la speranza di Nt per t ≤ θ.
R. E[Nt ] = et/θ − 1
Esercizio 4.4 Sia (Nt )t≥0 un processo di rinnovi. Verificare che il tasso istantaneo della
probabilità di due o più guasti nell’intervallo [s, s + t] è nullo ovvero
1
lim P { Nt+s > k + 1 | Ns = k } = 0
t→0 t
Esercizio 4.5 Siano X1 , . . . , Xn variabili aleatorie reali indipendenti ed equidistribuite. Si
chiamano statistiche ordinate le variabili aleatorie X(1) , . . . , X(n) le variabili aleatorie cosı̀
definite ricorsivamente da X(1) (ω) = min{ Xj (ω) | 1 ≤ j ≤ n } e

X(k+1) (ω) = min Xj (ω) | 1 ≤ k ≤ n, Xj (ω) > X(k) (ω) .
Detta F la funzione di ripartizione delle Xk ed Fk la funzione di ripartizione di X(k) verificare
che
n  
X n n−j
Fk (t) = F (t)j (1 − F (t)) .
j
j=k

Trovare inoltre la densità congiunta del vettore aleatorio (X(1) , . . . , X(n) ) nel caso in cui le
X1 , . . . , Xn siano uniformemente distribuite su [0, 1].
Esercizio 4.6 Verificare che, dato un processo di Poisson (Nt )t≥0 con tempi di salto (Tn )n≥1
si ha
 
 \
 n! Z t1 Z tn−1 Z tn
P { Tj ≤ tj } {Nt = n} = n
dx1 . . . dxn−1 dxn
  t 0 xn−2 xn−1
1≤j≤n

ovvero che la legge congiunta di (T1 , . . . , Tn ) per la probabilità condizionata P { · | {Nt = n}}
coincide con la legge congiunta delle statistiche ordinate (X(1) , . . . , X(n) ) di un n-campione
(X1 , . . . , Xn ) della legge uniforme su [0, t].
4.4. ESERCIZI 43

Esercizio 4.7 Sia (Nt )t≥0 un processo di Poisson con parametro λ > 0 e sia X = (Xt )t≥0
il processo definito da
Xt = (−1)Nt .
Verificare che X è un processo a valori +1, −1 e calcolare le probabilità di transizione

P { Xt+s = j | Xs = i }

per i, j ∈ {−1, 1}. Calcolare il tempo medio trascorso da X nel valore 1 ovvero
Z ∞ 
E 1{Xs =1} ds .
0

Esercizio 4.8 La trasformata di Laplace di una funzione F : [0, +∞[→ R limitata è la


funzione Fb : [0, +∞[→ R definita da
Z ∞
Fb(λ) = e−λt F (t)dt.
0

Verificare che, considerando la trasformata di Laplace, l’equazione dei rinnovi si esprime nel
modo seguente
M
c(λ) = Fb(λ) + M
c(λ)Fb(λ)

e quindi si trova la soluzione


Fb(λ)
M
c(λ) = .
1 − Fb(λ)
44 4. PROCESSI PUNTUALI
5

Catene di Markov a tempo


continuo

Sia (Ω, F, P) uno spazio probabilizzato ed S un insieme finito o numerabile che sarà consid-
erato come spazio misurabile munito della σ algebra P(S) di tutti i sottoinsiemi di S.

Definizione 5.1 Una famiglia (Xt )t≥0 di variabili aleatorie su (Ω, F, P) a valori in S si
chiama catena di Markov se
 
P Xtn+1 = j | Xtn = in , . . . , Xt1 = i1 = P Xtn+1 = j | Xtn = in (5.1)

per ogni n, i1 , i2 , . . . , in , j ∈ S, t1 < . . . < tn+1 .

L’identità (5.1) è detta proprietà di Markov.


Analogamente ai processi di rinnovo considereremo catene di Markov con traiettorie
continue a destra (e con limiti da sinistra).

Definizione 5.2 La probabilità di transizione pij (s, t) è definita da

pij (s, t + s) = P {Xt+s = j | Xs = i} .

La catena di Markov si chiama omogenea se pij (s, t+s) = pij (0, t) per ogni i, j ∈ S, t, s ≥ 0.

D’ora in avanti tratteremo catene di Markov omogenee e denoteremo con pij (t) le prob-
abilità di transizione pij (0, t). La famiglia (Pt )t≥0 delle matrici (eventualmente infinite)

(Pt )ij = pij (t)

si chiama semigruppo Markoviano. Denotiamo con 1l la matrice (δij )i,j∈S con δij = 1 se
i = j, δij = 0 se i 6= j.

Teorema 5.3 Il semigruppo Markoviano (Pt )t≥0 gode delle seguenti proprietà:

(a) P0 = 1l,

(b) (pij (t))t≥0 è una matrice stocastica per ogni t ≥ 0,

(c) vale l’equazione di Chapman-Kolmogorov Pt+s = Pt Ps per ogni t, s ≥ 0.

45
46 5. CATENE DI MARKOV A TEMPO CONTINUO

Dimostrazione. La condizione (a) vale evidentemente per definizione.


Per verificare la condizione (b) basta osservare che pij (t) ≥ 0 perché si tratta di proba-
bilità condizionate e
X X
pik (t) = P { Xt = k | X0 = i } = P { Ω | X0 = i } = 1.
k∈S k∈S

Infine, grazie alla formula della probabilità totale ed alla proprietà di Markov (5.1), per
ogni t, s ≥ 0, si ha

pij (t + s) = P { Xt+s = j | X0 = i }
X
= P { Xt+s = j, Xs = k | X0 = i }
k∈S
X P { Xt+s = j, Xs = k, X0 = i }
=
P { X0 = i }
k∈S
X P { Xt+s = j | Xs = k, X0 = i } P { Xs = k, X0 = i }
=
P { X0 = i }
k∈S
X P { Xs = k, X0 = i }
= P { Xt+s = j | Xs = k }
P { X0 = i }
k∈S
X
= P { Xt+s = j | Xs = k } P { Xs = k | X0 = i }
k∈S
X
= pik (s)pkj (t).
k∈S

La proprietà (c) è cosı̀ dimostrata.


La proprietà (c) è detta proprietà di semigruppo.
La maggior parte delle informazioni su una catena di Markov a tempo continuo si può
estrarre dal semigruppo Markoviano associato. Questo semigruppo determina, in particolare,
le distribuzioni finito-dimensionali, infatti, per ogni n ≥ 1 e ogni t1 < t2 < . . . < tn ,
i0 , i1 , . . . , in ∈ S si ha

P { Xtn = in , . . . , Xt1 = i1 , X0 = i } = pi0 i1 (t1 )pi1 i2 (t2 − t1 ) . . . pin−1 in (tn − tn−1 ).

D’ora in avanti considereremo catene di Markov continue in probabilità.

Proposizione 5.4 Se la catena di Markov (Xt )t≥0 è continua in probabilità allora le fun-
zioni t → pij (t) sono continue.

Dimostrazione. Denotiamo Pi { · } la probabilità condizionata P { · | X0 = i }. Per ogni


t, s ≥ 0 (tale che t + s ≥ 0) si ha

|pij (t + s) − pij (t)| = |Pi { Xt+s = j } − Pi { Xt = j }|



= Pi { Xt+s = j, Xt 6= j } + Pi { Xt+s = j, Xt = j }

−Pi { Xt+s 6= j, Xt = j } − Pi { Xt+s = j, Xt = j }
= |Pi { Xt+s = j, Xt 6= j } − Pi { Xt+s 6= j, Xt = j }|
≤ 2Pi { Xt+s 6= Xt }

La conclusione è immediata poiché, se la catena di Markov è continua in probabilità il


membro destro tende a zero per s → 0.
47

Le probabilità di transizione sono dunque continue sotto ipotesi abbastanza deboli. La


proprietà di continuità da destra delle traiettorie, ovvero delle funzioni,
[0, +∞[ 3 t → Xt (ω) ∈ S
inoltre non è restrittiva in tutte le applicazioni e quindi la supporremo sempre verificata nel
seguito.
Si può dimostrare il seguente
Teorema 5.5 Se le probabilità di transizione sono continue allora esistono i limiti
pij (t) pii (t) − 1
qij = lim+ , per i 6= j, qii = lim+ , (5.2)
t→0 t t→0 t
e risulta 0 ≤ qij < ∞ per i 6= j e qii ≤ 0 (eventualmente qii = −∞).
Se l’insieme degli stati S è finito allora qii > −∞ e valgono le equazioni
d X
pij (t) = pik (t)qkj , pij (0) = δij (5.3)
dt
k∈S
d X
pij (t) = qik pkj (t), pij (0) = δij . (5.4)
dt
k∈S

I numeri qij si chiamano tassi di transizione.


Le equazioni differenziali (5.3) (risp. (5.4)) si chiamano equazioni di Kolmogorov all’avanti
(risp. equazioni di Kolmogorov all’indietro). Integrando uno di questi sistemi di equazioni
differenziali si possono determinare le probabilità di transizione
P almeno nel caso in cui S è
finito. In questo caso si vede subito che la condizione j pij (t) = 1 per ogni i equivale alla
X
qij = 0.
j∈S

Esempio 5.1 Catena di Markov a due stati. La matrice dei tassi di una catena a due stati
a tempo continuo ha la forma  
−a a
Q=
b −b
con a, b > 0 (salvo casi banali). Le probabilità di transizione sono quindi date da
   
pi1 (t) tQ δi1
=e
pi2 (t) δi2

dove etQ è l’esponenziale della matrice Q ovvero, con facili calcoli


b + ae−t(b+a) a(1 − e−t(b+a) )
!
tQ 1
e =
a+b b(1 − e−t(b+a) ) a + be−t(b+a)

Abbiamo cosı̀ trovato la matrice di transizione P= etQ .


Nel caso in cui S è infinito occorre procedere con maggiore cautela in quanto, anche se i
qii sono finiti, la soluzione dei due sistemi non è necessariamente unica.
Per capire il significato dei tassi di transizione introduciamo il tempo della prima uscita
da uno stato i ∈ S
Ti (ω) = inf { t ≥ 0 | Xt (ω) 6= i } (5.5)
(con la convenzione abituale inf ∅ = +∞). Le Ti sono evidentemente variabili aleatorie a
valori [0, +∞] (cioè sono misurabili rispetto alle opportune σ-algebre).
48 5. CATENE DI MARKOV A TEMPO CONTINUO

Teorema 5.6 Se −∞ < qii < 0 allora la variabile aleatoria Ti ha legge esponenziale con
parametro −qii .

Dimostrazione. (Cenno) Per ogni s, t ≥ 0 indichiamo con Ei [s, t + s] l’evento


\ \
Ei [s, t + s] = { Xr = i } = { Xr = i }
s≤r≤t+s r∈([s,t+s]∩Q)∪{s,t+s}

(la seconda intersezione è su un insieme di indici numerabile). Per la proprietà di Markov e


l’omogeneità della catena si ha

Pi { T i > t + s | T i > s } = Pi { Ei [s, t + s] | Ei [0, s] }


= Pi { Ei [s, t + s] | Xs = i }
= Pi { Ei [0, t] }
= Pi { T i > t } .

La variabile aleatoria Ti ha dunque la proprietà detta assenza di memoria. Inoltre, per ogni
n ≥ 1, vale la relazione

{ Ti > t } ⊆ Xt/2n = i, . . . , X(2n −1)t/2n = i, Xt = i

e, più precisamente,
\
{ Ti > t } = Xt/2n = i, . . . , X(2n −1)t/2n = i, Xt = i
n≥1

Poiché la successione al membro destro è non crescente abbiamo quindi



Pi { T i > t } = lim P Xt/2n = i, . . . , X(2n −1)t/2n = i, Xt = i
n→∞
 2 n
n 2
n tqii n
= lim (pii (t/2 )) = lim 1 + n + o(t/2 ) = eqii t .
n→∞ n→∞ 2

La variabile aleatoria Ti ha perciò legge esponenziale con parametro −qii .


Si può verificare che, uscendo da uno stato i, la catena di Markov salta in un altro stato
j con probabilità qij /(−qii ).

Proposizione 5.7 Per ogni i 6= j si ha


qij
P { XTi = j } = .
−qii

Dimostrazione. Consideriamo la successione non crescente (Sn )n≥1 di tempi d’arresto dis-
creti

X
Sn = (k + 1)2−n 1{k2−n <Ti ≤(k+1)2−n }
k=0

che converge quasi certamente verso Ti . Grazie alla continuità da destra delle traiettorie la
successione di variabili aleatorie (XSn )n≥1 converge quasi certamente verso XTi e quindi

P { XTi = j } = lim P { XSn = j } .


n→∞
49

Abbiamo poi, per ogni n ≥ 1, per la proprietà di Markov



X
P X(k+1)2−n = j, Ti > k2−n

P { X Sn = j } =
k=0
X∞
P X(k+1)2−n = j | Ti > k2−n P Ti > k2−n
 
=
k=0
X∞
P X(k+1)2−n = j | Xk2−n = i P Ti > k2−n
 
=
k=0
X∞
pij (2−n )P Ti > k2−n .

=
k=0

Dato che i 6= j, risulta pij (2−n ) = qij 2−n + oij (2−n ) e quindi

X
−n
P Ti > k2−n

P { X Sn = j } = (1 + oij (1))2 qij
k=0
X∞
= (1 + oij (1))2−n qij P { 2n T i > k }
k=0
−n qij
= (1 + oij (1))2 qij E[2n Tj ] = (1 + oij (1)) .
−qii

La conclusione segue facendo tendere n all’infinito.

Teorema 5.8 Supponiamo che


sup(−qii ) < +∞ (5.6)
i∈S

Allora le equazioni di Kolmogorov all’avanti e all’indietro ammettono le probabilità di tran-


sizione (pij (t))t≥0 come unica soluzione.

Dimostrazione. Consideriamo dapprima, per semplicità, il caso in cui l’insieme degli stati S
è finito (in questo caso l’ipotesi del teorema è banalmente verificata ...). Detta Q la matrice
dei tassi di transizione (qij )i,j∈S , per ogni t ≥ 0 indichiamo con etQ l’esponenziale della
matrice tQ. Con facili calcoli si vede subito che

d tQ
e = QetQ = etQ Q
dt

ovvero, gli elementi di matrice (etQ )ij soddisfano (5.4) e (5.3). La soluzione dei sistemi
lineari (5.4) e (5.3) è evidentemente unica.
Nel caso in cui l’insieme degli stati S è infinito numerabile basta definire l’operatore
lineare Q sullo spazio di Banach `∞ (S) delle funzioni limitate su S con la norma

|f |∞ = sup |f (j)|.
j∈S

Grazie all’ipotesi supi∈S (−qii ) < +∞, l’operatore Q è limitato e la sua norma è

kQk∞ = sup |Qf |1 .


f ∈`∞ (S), |f |∞ ≤1
50 5. CATENE DI MARKOV A TEMPO CONTINUO

Per ogni f ∈ `∞ (S) con |f |∞ ≤ 1 e j ∈ S abbiamo



X
|(Qf )(j)| = qjk f (k)


k
X
≤ −qjj |f (j)| + qjk |f (k)|
k6=j
 
X
≤ |f |∞ −qjj + qjk 
k6=j

= −2qjj |f |∞ .

Prendendo infine il sup su j troviamo

kQk∞ ≤ 2 sup(−qjj ) < +∞


j∈S

per l’ipotesi fatta. Si può quindi definire l’esponenziale dell’operatore Q come


X tn Qn
etQ =
n!
n≥0

poiché la serie converge nella norma uniforme degli operatori lineari su `∞ (S). La di-
mostrazione di completa quindi come nel caso in cui S è finito.

Definizione 5.9 La matrice Q = (qij )i,j∈S si chiama generatore (o generatore infinitesi-


male) del semigruppo Markoviano (P (t))t≥0 .

Osserviamo che, grazie alla differenziabilità delle probabilità di transizione pij (t), e
all’omogeneità della catena di Markov, la probabilità di passare da uno stato i a uno stato
j in un intervallo [t, t + h] “piccolo” è

pij (h) = qij h + o(h) se i 6= j,
P { Xt+h = j | Xt = i } =
pii (h) = 1 + qii h + o(h) se i = j,

(o(h) è un infinitesimo di ordine superiore ad h cioè una funzione tale che limh→0 o(h)/h = 0).
Spesso la catena di Markov è individuata a partire dai tassi qij .

Esempio 5.2 Processi di nascita. Si tratta delle catene di Markov con insieme degli stati
N che rappresenta il numero di individui in una popolazione. Questo numero può solo
aumentare a tempi aleatori per l’arrivo di nuovi individui. I tassi di transizione sono dati
da una successione (λn )n≥0 di numeri reali positivi; grazie al Teorema 5.6, λn è l’inverso del
tempo medio di attesa della transizione da n a n + 1. Il generatore del processo è la matrice
Q = (qij )i,j∈N con

qn n+1 = λn , qn n = −λn , qn m = 0 per m 6= n, m 6= n + 1.

Le equazioni di Kolmogorov all’avanti e all’indietro per le pnm (t) con m ≥ n (evidentemente


pnm (t) = 0 se n > m) si scrivono rispettivamente

p0nm (t) = −λm pnm (t) + λm−1 pn m−1 (t), pn m (0) = δn m ,


0
pnm (t) = −λn pn m (t) + λn pn+1 m (t), pn m (0) = δn m .

Nel caso particolare in cui i tassi di nascita sono costanti λn = λ > 0 ritroviamo un processo
di Poisson.
51

Un altro caso notevole è quello in cui tutti gli individui si riproducono con la stessa
intesità e quindi λn = λn. La catena di Markov con cosı̀ ottenuta si chiama processo di
Yule. Se la popolazione al tempo 0 è costituita da i (i ≥ 1) individui, risolvendo per
induzione le equazioni di Kolmogorov all’avanti con la condizione iniziale pii (0) = 1
 0
pii (t) = −λi pii (t),
p0ik (t) = −λk pik (t) + λ(k − 1)pi k−1 (t) se k > i

si trova la probabilità che la popolazione al tempo t sia costituita da k individui è


 
k−1 k−i
pik (t) = e−λit 1 − e−λt .
k−i

Il numero di individui al tempo t è quindi una variabile aleatoria con legge di Pascal con
parametri i ed e−λt .
Analogamente, con λn = λ(n + 1), si trova
 
k k−i
pik (t) = e−λ(i+1)t 1 − e−λt .
i

Esempio 5.3 Processi di morte. Come nell’Esempio (5.2) l’insieme degli stati N rappre-
senta il numero di individui di una popolazione che però, questa volta, può solo diminuire
di una unità di volta in volta finché arriva a 0. Il generatore infinitesimale del processo è
una matrice Q = (qij )i,j∈N con

qn n−1 = µn , qn n = −µn , qn m = 0 per m 6= n, m 6= n − 1.

Dato che il processo, una volta arrivato in 0, vi si ferma per sempre, si ha evidentemente
p00 (t) = 1 ovvero µ0 = 0. Inoltre è chiaro che, se j > i, allora pij (t) = 0 per ogni t ≥ 0. Le
equazioni di Kolmogorov all’indietro per le altre pij (t) con j ≤ i e t > 0 si scrivono
 0
pii (t) = −µi pii (t),
p0ij (t) = −µi pij (t) + µi pi−1 j (t) se j < i

Risolvendo per induzione, a partire da pii (t) = e−µi t , si trova la probabilità pij (t) che la
popolazione al tempo t sia costituita da j individui (con j < i).
Nel caso particolare in cui µi = µi (tassi lineari) si trova
   
i i−j i i−j
pij (t) = e−µit eµt − 1 = e−µjt 1 − e−µt .
j j

Quindi il numero Xt di individui al tempo t ha legge binomiale B(i, e−µt ).

Esempio 5.4 Processi di nascita e morte. L’insieme degli stati è sempre N ma il numero
di individui della popolazione può aumentare oppure diminuire di una unità. Dette (λn )n≥0
e (µn )n≥1 le successioni dei tassi di nascita e morte, il generatore del processo è la matrice
A = (qij )i,j∈N con

qn n+1 = λn , qn n = −(λn + µn ), qn n−1 = µn , qn m = 0 per |m − n| > 1.

Lo stato di questo processo potrebbe anche indicare la lunghezza di una coda casuale in
cui i tempi di servizio dei clienti e i tempi di attesa tra gli arrivi di due clienti hanno legge
esponenziale (con opportuni parametri).
52 5. CATENE DI MARKOV A TEMPO CONTINUO

Definizione 5.10 Una catena di Markov (Xt )t≥0 con insieme degli stati S e probabilità di
transizione pij (·) si chiama irriducibile se, per ogni i, j ∈ S, esiste un tempo t > 0 tali che
pij (t) > 0.

Come nel caso in cui i tempi siano discreti, quindi, una catena di Markov è irriducibile
se, partendo da ogni stato i abbiamo probabilità positiva di arrivare in uno stato j in un
tempo t > 0.
Poiché spesso la catena di Markov a tempo continuo è definita per mezzo della matrice
Q dei tassi di transizione, vediamo ora come si esprime l’irriducibilità in termini dei qij .

Proposizione 5.11 Sia (Pt )t≥0 il semigruppo di transizione di una catena di Markov e sia
Q = (qij )i,j∈S il suo generatore. Supponiamo che, per ogni i, j ∈ S, esista un intero n ≥ 1
e stati k1 , . . . , kn tali che i 6= k1 , k1 6= k2 , . . . , kn 6= j e

qik1 qk1 k2 . . . qkn−1 kn qkn j > 0.

Allora la catena di Markov è irriducibile.

Dimostrazione. Se vale la condizione 2. allora per ogni i, j ∈ S, esiste un intero n ≥ 1,


tempi t1 < . . . < tn < t e stati k1 , . . . , kn tali che

pik1 (t1 )pk1 k2 (t2 − t1 ) . . . pkn−1 kn (tn − tn−1 )pkn j (t − tn ) > 0.

Si ha quindi

pij (t) ≥ pik1 (t1 )pk1 k2 (t2 − t1 ) . . . pkn−1 kn (tn − tn−1 )pkn j (t − tn ) > 0

e la catena di Markov è irriducibile. 


I processi di nascita e i processi di morte non sono irriducibili mentre i processi di nascita
e morte sono irriducibili se “molti” λn e µn sono strettamente positivi.

Definizione 5.12 Una legge di probabilità π = (πi )i∈S su S è detta invariante per una
catena di Markov (Xt )t≥0 con probabilità di transizione pij (·)) se
X
πi = πk pki (t) (5.7)
k∈S

per ogni i ∈ S e t ≥ 0.

Le leggi invarianti si determinano per mezzo del generatore A = (qij )i,j∈S del processo.

Proposizione 5.13 Supponiamo che qii > −∞ per ogni i ∈ S e che le (pij (t))i,j∈S siano
l’unica soluzione delle equazioni di Kolmogorov all’avanti e all’indietro. Una legge di prob-
abilità π = (πi )i∈S su S è invariante se e solo se
X
πk qkj = 0, per ogni j ∈ S.
k∈S

Dimostrazione. Verifichiamo che la condizione precedente è necessaria. Derivando in t = 0


la relazione X
πi = πk pkj (t)
k∈S

si trova subito
d X X X
0= πk pkj (t) = πk p0kj (0) = πk qkj .

dt
k∈S t=0 k∈S k∈S
53

Lo scambio di derivata e sommatoria, che è ovviamente lecito nel caso in cui S sia finito, si
giustifica con il teorema della convergenza dominata. Per ogni t > 0 si ha infatti
X pki (t) 1 − pii (t)
=
t t
k6=i

e quindi, dato che il membro destro converge a −qii per t tendente a 0, ne segue che esistono
t0 > 0 e M0 > 0 tali che
X pki (t)
< M0
t
k6=i

per ogni t ∈ [0, t0 ]. In particolare 0 ≤ t−1 pki (t) < M0 per ogni t ∈ [0, t0 ]. Poiché k6=i πk ≤ 1
P
lo scambio di derivata e sommatoria è cosı̀ giustificato.
Viceversa se vale la condizione (5.7) allora derivando (lo scambio di derivata e sommatoria
si gistifica come prima in un intervallo [0, t0 ])
d X X
πk pkj (t) = πk p0kj (t)
dt
k∈S k∈S
X
= πk qki p0ij (t)
k,i∈S
!
X X
= πk qki p0ij (t) = 0
i∈S k∈S
P
Ne segue che la funzione k∈S πk pkj (t) è costante e uguale al suo valore in 0, cioè πj e
quindi (πi )i∈S è una legge invariante. 

Esempio 5.5 Processi di nascita e morte: legge invariante Un processo di nascita e morte
con tassi di transizione (λn )n≥0 e (µn )n≥1 ha legge invariante se e solo se si può trovare una
soluzione π = (πi )i∈S delle equazioni

π0 = −π0 λ0 + π1 µ1 ,
πn = πn−1 λn−1 − πn (λn + µn ) + πn+1 µn+1 , n ≥ 1,

che sia una densità di probabilità su N ovvero tale che


X
πn ≥ 0 per ogni n ∈ N e πn = 1.
n≥0

Si verifica facilmente per induzione che, se le µn sono tutte strettamente positive, allora
λ0 λ1 · · · λn−1
z0 = 1, zn = n≥1
µ1 µ2 · · · µn
è l’unica soluzione del sistema precedente.
La successione (zn )n≥1 è evidentemente non negativa. Se risulta
X λ0 λ1 · · · λn−1
Z := 1 + <∞
µ1 µ2 · · · µn
n≥1

allora, posto πn = Z −1 zn , la successione (πn )n≥0 è l’unica legge invariante del processo di
nascita e morte.
Se la serie non converge allora il processo non ha legge invariante.
54 5. CATENE DI MARKOV A TEMPO CONTINUO

Teorema 5.14 Le probabilità di transizione pij (·) di una catena di Markov irriducibile sod-
disfano

1. limt→∞ pij (t) = πj se la catena di Markov ammette una legge invariante (πi )i∈S ,

2. limt→∞ pij (t) = 0 se la catena di Markov non ammette nessuna legge invariante.

In particolare, se la catena di Markov irriducibile ammette una legge invariante, allora questa
è unica.

Nel caso in cui l’insieme degli stati sia finito si può sempre trovare una legge invariante.

Teorema 5.15 Se l’insieme degli stati S è finito allora esiste almeno una legge di probabilità
su S invariante per la catena di Markov.

Dimostrazione. Indichiamo con M l’insieme delle leggi di probabilità su S ovvero


( )
X
M = (νi )i∈S | νi ≥ 0, νi = 1 .
i

È chiaro che M è un sottoinsieme chiuso e limitato


P di Rd per un certo d, quindi è compatto.
Indichiamo con νPt il vettore (νPt )i = j νj pij (t) (i ∈ S) che individua una legge di
probabilità su S poiché ha componenti non negative con somma 1 essendo
X X X X
(νPt )i = νj pji (t) = νj pji (t) = 1.
i∈S i,j∈S j∈S i,j∈S

Analogamente si verifica che, per ogni t ≥ 0


Z t
1
νPs ds
t 0

è un elemento di M, individua cioè una legge di probabilità su S.


Poiché l’insieme S è compatto, possiamo trovare una successione (tn )n≥1 divergente a
+∞ tale che la successione di leggi su S
Z tn
1
νPs ds
tn 0

converga verso un elemento π di S per n tendente a +∞.


Verifichiamo infine che π è una legge invariante. Per ogni t > 0 abbiamo
 Z tn 
1
πPt = lim νPs ds Pt
n→∞ tn 0

1 tn
Z
= lim νPs+t ds
n→∞ tn 0

1 tn +t
Z
= lim νPs ds.
n→∞ tn t

Scrivendo
Z tn +t Z tn Z tn +t Z t
1 1 1 1
νPs ds = νPs ds + νPs ds − νPs ds
tn t tn 0 tn tn tn 0
5.1. ESERCIZI 55

e osservando che, per ogni i ∈ S,


Z tn +t XZ tn +t
(νPs )i ds ≤ νj ds ≤ t
tn j∈S tn
Z t XZ t
(νPs )i ds ≤ νj ds ≤ t
0 j∈S 0

dalla divergenza di (tn )n≥1 per n → ∞ si vede subito che


Z tn +t Z t
1 1
lim νPs ds = 0 = lim νPs ds.
n→∞ tn tn n→∞ tn 0

Troviamo quindi
Z tn +t Z tn
1 1
νPt = lim νPs ds = lim νPs ds = π
n→∞ tn t n→∞ tn 0

ovvero π è una legge invariante.


La quantità
Z t
1
(νPs )i ds
t 0

è la frequenza media di soggiorno nello stato i se la catena di Markov ha legge iniziale ν.


Infatti
X X
(νPs )i = νj pji (s) = P{ Xs = i | X0 = j }P{ X0 = j } = Eν [1{ Xs =i } ]
j j

e quindi
Z t  Z t 
t−1 (νPs )i ds = Eν t−1 1{ Xs =i } ds .
0 0

5.1 Esercizi
Esercizio 5.1 Un materiale radioattivo è costituito da n atomi ciascuno dei quali decade
(cioè si trasforma in uno non radioattivo) in un tempo aleatorio con legge esponenziale
con parametro µ. Calcolare quanto tempo deve passare affinché il numero medio di atomi
radioattivi diventi minore di n/2 (tempo di dimezzamento).

Esercizio 5.2 Sia (Xt )t≥0 una catena di Markov con insieme dei tempi [0, +∞[, stati
{ 1, 2, 3 } e matrice dei tassi di transizione
 
−a a 0
 0 −b b 
0 0 0

con a e b parametri strettamente positivi. Sapendo che X0 = 1 (quasi certamente) calcolare:

1. le probabilità di transizione pij (t) per ogni i, j ∈ { 1, 2, 3 } e ogni t ≥ 0,

2. il tempo medio trascorso negli stati 1 e 2 partendo da 1.


56 5. CATENE DI MARKOV A TEMPO CONTINUO

Supponiamo che lo stato Xt rappresenti lo stato di salute di un assicurato, cioè, precisamente,


1 =sano, 2 =malato 3 =morto, il quale, quando è sano paga all’assicurazione un premio di
p Euro per unità di tempo, quando è malato riceve dall’assicurazione un pagamento di q
Euro per unità di tempo (e da morto non ha nulla a che vedere con l’assicurazione). Quale
deve essere la relazione tra a, b, p, q in modo che la polizza possa ritenersi equa (ovvero tale
che la speranza di quanto pagherà è uguale alla speranza di quanto riceverebbe in caso di
malattia)? Risp. p/a = q/b

Esercizio 5.3 Siano (Nt )t≥0 ed (Mt )t≥0 due processi di Poisson indipendenti con parametri
rispettivi λ e µ strettamente positivi. Verificare che il processo (Xt )t≥0 definito Xt =
+
(Nt − Mt ) è una catena di Markov con insieme dei tempi [0, +∞[, stati N = { 0, 1, 2, . . . }
e matrice dei tassi di transizione
 
−λ λ 0 ...
 µ −(λ + µ) λ ... .
0 µ −(λ + µ) . . .
6

Moto browniano

6.1 Moto Browniano e invarianze per cambi di scala


Sia (Ω, F, P) uno spazio probabilizzato, I = [0, +∞[ l’insieme dei tempi, (Ft )t≥0 una fil-
trazione di sotto-σ-algebre di F.

Definizione 6.1 Un processo stocastico B = (Bt )t≥0 si chiama moto browniano, con pa-
rametro σ 2 > 0, se è adattato alla filtrazione data, B0 = 0 e, per ogni t > s, la variabile
aleatoria Bt − Bs è indipendente da Fs e ha leggi normale N (0, σ 2 (t − s)).

Osserviamo che, dalla condizione di indipendenza di Bt − Bs da Fs segue subito che le


variabili aleatorie Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 sono indipendenti e hanno rispettivamente
leggi normali con media 0 e varianze σ 2 t1 , σ 2 (t2 −t1 ), . . . , σ 2 tn per ogni n e ogni t1 < t2 . . . <
tn .
Dalla definizione data non è chiaro se un processo stocastico con le proprietà richieste
effettivamente esiste ed è tuttaltro che ovvio poterne trovare una versione a traiettorie rego-
lari o continue. Accontentandoci, per il momento, di sapere che lo risposta a questi problemi
è affermativa diamo la definizione seguente.

Definizione 6.2 Un moto browniano B con traiettorie continue e σ 2 = 1 si chiama moto


browniano standard.

La filtrazione data (Ft )t≥0 è parte integrante della definizione di moto browniano. Tut-
tavia, nel caso in cui siano date le variabili aleatorie (Bt )t≥0 senza la filtrazione, diremo che
B è un moto browniano se lo è rispetto alla sua filtrazione naturale (FtB )t≥0 data da

FtB = σ { Bs | s ≤ t }

Il moto browniano ha le seguenti proprietà di invarianza per cambiamento di scala nello


spazio o nel tempo

Proposizione 6.3 Sia (Bt )t≥0 un moto browniano con parametro σ 2 su uno spazio prob-
abilizzato (Ω, F, P) munito di una filtrazione (Ft )t≥0 . Il processo X = (Xt )t≥0 definito
da
1. Xt = cBt (c ∈ R) è un moto browniano con parametro c2 σ 2 ,
2. Xt = Bαt (α > 0) è un moto browniano con parametro ασ 2 rispetto alla filtrazione
(Ftα )t≥0 con Ftα = Fαt .

57
58 6. MOTO BROWNIANO

Dimostrazione. La verifica di 1. e 2. è molto semplice e sarà omessa.


L’approssimazione come limite di scala del processo di Bernoulli è molto utile nell’inter-
pretazione fisica del moto browniano.
Sia (Xn )n≥0 un processo di Bernoulli con parametro 1/2. Per ogni t > 0 poniamo
P[nt]
(n) k=1 Xk − nt/2
Wt = √ .
n/2
(n)
Il Teorema limite centrale assicura che le variabili aleatorie Wt convergono in legge verso
una variabile aleatoria Wt che ha legge normale N (0, t). Inoltre, grazie all’indipendenza
delle Xk , si può verificare che, per ogni s < t, la coppia di variabili aleatorie
P[ns] P[nt]
Xk − ns/2 (n) k=[ns]+1 Xk − n(t − s)/2
Ws(n) = k=1
√ , Wt − Ws(n) = √
n/2 n/2

converge in legge verso una variabile aleatoria (Ws , Wt − Ws ) normale bidimensionale con
media 0 e matrice di covarianza diagonale diag(s, t − s) ovvero Ws e Wt − Ws sono indipen-
denti e hanno leggi normali N (0, s), N (0, t − s). L’analoga proprietà vale per una n-pla di
incrementi.
Un’approssimazione simile si può ottenere considerando un’arbitraria successione (Zn )n≥1
di variabili aleatorie indipendenti, equidistribuite con media 0 e varianza σ 2 (non nulla e
finita) definendo
P[nt]
(n) Zk
Wt = k=1 √ .
σ n
In particolare, quando le Zn prendono solo i valori +1 e −1 con probabilità 1/2, si può
approssimare il moto browniano (Wt )t≥0 con una successione di passeggiate casuali simme-
triche riscalate.
Applicando il Teorema 3.10 si dimostra subito la proposizione seguente

Teorema 6.4 Un moto browniano (Bt )t≥0 ha una modificazione con tutte le traiettorie
1/2 − ε hölderiane per ogni ε > 0.

Dimostrazione. Poiché le variabili aleatorie√Bt − Bs hanno legge normale N (0, t − s) per


ogni t > s, la variabile aleatoria (Bt − Bs )/ t − s ha legge normale N (0, 1), si ha quindi
" 2n #
Bt − Bs
E √ = M2n < ∞
t−s

(si potrebbe calcolare M2n = (2n)!/2n n! ma il valore esatto qui non serve). Ne segue che

E (Bt − Bs )2n = M2n |t − s|n .


 

La condizione del Teorema 3.10 è dunque verificata con α = 2n e β = n − 1 qualunque sia


n. Le traiettorie sono dunque
n−1 1 1
= −
2n 2 2n
hölderiane per ogni n ≥ 1.
Si potrebbe verificare che quasi tutte le traiettorie del moto browniano non sono 1/2-
hölderiane. In particolare, quasi tutte le traiettorie non sono derivabili in nessun intervallo.
6.2. PRINCIPIO DI RIFLESSIONE, LEGGE DEL MASSIMO 59

Un’idea (grossolana) del comportamento del moto browniano per tempi grandi è data
dall’osservazione seguente. Per ogni c, t > 0 e ogni funzione ϕ :]0, +∞[→]0, +∞[ si ha
n √ o 2
Z +∞
2 2
P |Bt | > cϕ(t) t = √ e−x /2σ dx.
2πσ cϕ(t)

In particolare,
√ se ϕ diverge a +∞ (anche molto lentamente), la probabilità di osservare
valori di Bt / t fuori dall’intervallo [−cϕ(t), +cϕ(t)] tende a 0 per t tendente a +∞.

Definizione 6.5 Si chiama tempo di occupazione di un sottoinsieme boreliano A di R la


variabile aleatoria non negativa Z ∞
1{Bt ∈A} dt.
0

La sua speranza (eventualmente uguale a +∞) si chiama tempo medio di occupazione.

Il tempo medio di occupazione è quindi


Z ∞
P{Bt ∈ A}dt.
0

Il calcolo è abbastanza facile nel caso in cui A è un intervallo ] − a, b[ (a, b > 0). Si ha infatti
Z ∞ Z ∞ Z b
1 2
P{ Bt ∈] − a, b[ }dt = dt √ e−x /2t
dx
0 0 2πt −a
b ∞ 2
e−x /2t
Z Z
= dx dt √ = +∞.
−a 0 2πt

Il moto browniano trascorre quindi un tempo (medio) infinito in ogni intervallo ] − a, b[.

6.2 Principio di riflessione, legge del massimo


Sia (Ω, F, P) uno spazio probabilizzato con una filtrazione (Ft )t≥0 e (Bt )t≥0 un moto brow-
niano standard.
Per ogni t ≥ 0 definiamo la variabile aleatoria Mt chiamata massimo della traiettoria
fino al tempo t
Mt (ω) = max Bs (ω).
0≤s≤t

Il principio di riflessione afferma che, per ogni a > 0, ad ogni traiettoria s → Bs (ω) tale
che Mt (ω) ≥ a, ne è associata un’altra s → Bs (ω 0 ), il cui grafico è il simmetrico (o il riflesso
speculare) del primo rispetto alla funzione costante uguale ad a a partire dal primo istante
in cui la traiettoria ω raggiunge a. Per motivi di simmetria si avrà

Bt (ω) ≥ a e Bt (ω 0 ) ≤ a, oppure Bt (ω) ≤ a e Bt (ω 0 ) ≥ a

ed entrambe le traiettorie avranno massimo maggiore o uguale ad a. Si può quindi pen-


sare che ogni traiettoria (risultato dell’esperimento aleatorio ω) il cui massimo su [0, t] è
maggiore di a sia in corrispondenza biunivoca con la coppia di traiettorie ω, ω 0 descritta.
Evidentemente solo una tra ω e ω 0 ha valore superiore ad a al tempo t, si ha allora
Z ∞
2 2
P { Mt ≥ a } = 2P { Bt ≥ a } = √ e−x /2t dx.
2πt a
60 6. MOTO BROWNIANO

La variabile aleatoria Mt ha quindi densità


2 −x2 /2t
x→ √ e .
2πt
La conoscenza della legge delle variabili aleatorie Mt permette di calcolare facilmente
anche le leggi dell’istante del primo attraversamento di un livello a > 0 dato cioè della
variabile aleatoria Ta definita da

Ta (ω) = inf { s > 0 | Bs (ω) ≥ a } .

Infatti, dall’uguaglianza degli eventi,

{ T a < t } = { Mt > a }

si trova subito Z ∞
2 2
P { Ta < t } = √ e−x /2t
dx.
2πt a
Si verifica quindi la seguente

Proposizione 6.6 La variabile aleatoria Ta è quasi certamente finita e ha densità


2
ae−a /2t
f (t) = √ , per t > 0,
2π t3/2
f (t) = 0 per t ≤ 0. In particolare E[ Ta ] = +∞.

Dimostrazione. Per dimostrare che è quasi certamente finita basta osservare che

P { Ta < ∞ } = lim P { Ta < t }


t→∞
Z ∞
2 2
= lim √ e−x /2t dx
t→∞ 2πt a
√ Z ∞
2 2
(y = x/ t) = lim √ √ e−y /2 dy
t→∞ 2π a/ t
Z ∞
2 2
= √ e−y /2 dy = 1.
2π 0
La funzione di ripartizione di Ta è evidentemente differenziabile in ]0, +∞[ e, inoltre, continua
in 0 perché, come abbiamo appena verificato con il cambio di variabili,
Z ∞
2 −y 2 /2
P { Ta < t } = √ √ e dy.
2π a/ t

La densità di Ta per t > 0 è quindi


d 2 a −a2 /2t
f (t) = P { Ta < t } = √ e .
dt 2π 2t3/2
In particolare si ha quindi
∞ 2
e−a /2t
Z
a
E[Ta ] = √ dt = +∞
2π 0 t1/2

poiché la funzione t → t−1/2 non è integrabile all’infinito.


6.3. MOTO BROWNIANO D-DIMENSIONALE 61

6.3 Moto browniano d-dimensionale


(k)
Sia (Ω, F, P) uno spazio probabilizzato munito di una filtrazione (Ft )t≥0 e (Bt )t≥0 (k =
1, . . . , d) d moti browniani indipendenti.
(1) (d)
Definizione 6.7 Il processo X = (Xt )t≥0 (a valori Rd ) definito da Xt = (Bt , . . . , Bt )
si chiama moto browniano d-dimensionale.

Il comportamento del moto browniano multidimensionale


√ dipende dal parametro d. In-
fatti, ricordando che la variabile aleatoria kBt / tk2 ha legge χ2 (d) ovvero Γ(d/2, 1/2), i
tempi medi d’occupazione delle d-sfere S(0, r) di centro 0 e raggio r dati da
Z ∞ Z ∞ n o
P{ kBt k ≤ r }dt = P kt−1/2 Bt k2 ≤ r2 t−1 dt
0 0
∞ r 2 t−1
2−d/2
Z Z
= dt x(d−2)/2 e−x/2 dx
Γ(d/2) 0 0
∞ r2
2−d/2
Z Z
1
(y = xt) = dt y (d−2)/2 e−y/2t dy
Γ(d/2) 0 td/2 0
r2 ∞
2−d/2 e−y/2t
Z Z
(d−2)/2
= y dy dt.
Γ(d/2) 0 0 td/2
L’integrale risulta divergente per d = 1, 2 e convergente per d ≥ 3.
Il moto browniano d-dimensionale con d ≥ 3 tende quindi ad allontanarsi da ogni insieme
limitato a differenza del moto browniano uni e bidimensionale.
Questo comportamento è analogo a quello della passeggiata casuale simmetrica su Zd .

6.4 Processo di Bessel


Sia (Ω, F, P) uno spazio probabilizzato munito di una filtrazione (Ft )t≥0 e (Bt )t≥0 un moto
browniano d-dimensionale standard.

Definizione 6.8 Si chiama processo di Bessel con parametro d il processo (Xt )t≥0 definito
da  2  2 1/2
(1) (d)
Xt = kBt k = Bt + · · · + Bt .

La variabile aleatoria al tempo t è quindi la distanza dall’origine di un moto browniano


d-dimensionale.
Il comportamento del processo di Bessel è ovviamente determinato dal quello del moto
browniano d-dimensionale.√Ci limiteremo quindi ad osservare che, avendo Xt la stessa legge
di una variabile aleatoria tZ 1/2 con Z di legge Γ(d/2, 1/2), si ha

√ √ Z 2−d/2 z (d−1)/2 −z/2 Γ((d + 1)/2) √
E[Xt ] = tE[Z 1/2 ] = t e dz = 2t
0 Γ(d/2) Γ(d/2)

e inoltre E[Xt2 ] = tE[Z] = td da cui

2Γ((d + 1)/2)2
 
V [Xt ] = t d − .
Γ(d/2)2

Ricordando che Γ(1) = 1, Γ(1/2) = π e che Γ(α + 1) = αΓ(α) si trova subito
62 6. MOTO BROWNIANO

d Γ((d + 1)/2)/Γ(d/2) q t]
E[X V [Xt ]
√ 2t 2

1 1/ π π t 1− π
√ q
π πt π

2 2 2 t 2− 2
q
√2 2 2t 8

3 π t 3− π
√π √
3 π 3 9π

4 4 4 2πt t 4− 8

6.5 Integrale di funzione rispetto al moto browniano


Vari processi stocastici interessanti si possono scrivere in funzione del moto browniano. La
funzione in questione è però uno speciale integrale rispetto al moto browniano stesso.
L’integrale di una funzione g : [0, +∞[→ R rispetto al moto browniano si costruisce in
un modo diverso dall’integrale rispetto a una misura.
Nel caso in cui la g sia una funzione costante a tratti, cioè della forma
n
X
g(s) = g(tk )1[tk ,tk+1 [ (s)
k=1

con t1 < . . . < tn+1 , si pone


Z t n
X 
g(s)dBs = g(tk ) Bt∧tk+1 − Bt∧tk . (6.1)
0 k=1

Si verifica quindi la seguente


Proposizione 6.9 Sia (Bt )t≥0 un moto browniano. Per ogni t ≥ 0 si ha
" Z 2 #
t
Z t
g(s)dBs = σ 2 |g(s)|2 ds.

E (6.2)
0 0

Dimostrazione. Supponiamo, per semplificare le notazioni, che σ 2 = 1. Le variabili aleatorie



Bt1 ∧t , (Bt∧t2 − Bt∧t1 ) , . . . , Bt∧tn+1 − Bt∧tn
sono indipendenti e hanno leggi normali con media 0 e varianze t1 ∧ t, t2 ∧ t − t1 ∧ t, . . .,
tn+1 ∧ t − tn ∧ t. Si ha quindi
" Z 2 # n
t X   
E g(s)dBs = g(tj )g(tk )E Bt∧tj+1 − Bt∧tj Bt∧tk+1 − Bt∧tk
0 j,k=1
n h
X 2 i
= |g(tk )|2 E Bt∧tk+1 − Bt∧tk
k=1
Xn
= |g(tk )|2 (t ∧ tk+1 − t ∧ tk )
k=1
Z t
= |g(s)|2 ds.
0

La Proposizione 6.9 permette di estendere la definizione dell’integrale rispetto al moto


browniano ad ogni funzione g ∈ L2 [0, t]. Infatti si può trovare una successione (gn )n≥1 di
funzioni continue a tratti tali che
Z t
lim gn (s) = g(s), per quasi ogni s ∈ [0, t], lim |gn (s) − gm (s)|2 ds = 0. (6.3)
n→∞ n,m→∞ 0
6.6. PROCESSO DI ORNSTEIN-UHLENBECK E PONTE BROWNIANO 63

La formula (6.2) assicura allora che


" Z 2 #
t
Z t

lim E gn (s)dBs − gm (s)dBs = 0
n,m→∞ 0 0

e quindi la successione degli integrali delle gn rispetto a B è convergente in L2 (Ω, F, P).


Poniamo quindi
Z t Z t
2
g(s)dBs := L − lim gn (s)dBs .
0 n→∞ 0

Si verifica facilmente che questa definizione non dipende dalla particolare successione scelta
per approssimare g (ogni altra successione con le proprietà (6.3) darebbe lo stesso limite).
Poniamo inoltre, per ogni intervallo ]s, t]
Z t Z t Z s
g(r)dBr = g(r)dBr − g(r)dBr .
s 0 0

Valgono le seguenti formule

Teorema 6.10 Sia (Bt )t≥0 un moto browniano. Per ogni g, h ∈ L2 [0, t] e ogni 0 ≤ a < b ≤
t, 0 ≤ c < d ≤ t si ha
"Z #
b
E g(s)dBs = 0,
a
"Z #
b Z d Z
2
E g(s)dBs h(s)dBs = σ g(s)h(s)ds.
a c [a,b]∩[c,d]

Dimostrazione. Le formule si verificano direttamente per g e h continue a tratti e si estendono


a tutte le g, h ∈ L2 ([0, t]) per approssimazione cosı̀ come abbiamo fatto con la definizione di
integrale.
Osserviamo che l’integrale rispetto al moto browniano è stato definito in L2 (Ω, F, P)
perché le traiettorie del moto browniano non sono derivabili e quindi non si può definire
Z t
g(s)Bs0 ds.
0

6.6 Processo di Ornstein-Uhlenbeck e ponte browniano


Il processo di Ornstein-Uhlenbeck descrive il moto casuale (browniano) di una particella con
attrito. Detta Xt la posizione (casuale), lo spostamento in un intervallo temporale “piccolo”

dXt = −bXt dt + σdBt
dove b, σ > 0 e (Bt )t≥0 è un moto browniano standard. Più precisamente

Definizione 6.11 Si chiama processo di Ornstein-Uhlenbeck il processo (Xt )t≥0 definito da


Z t
−bt
Xt = X0 e +σ e−b(t−s) dBs .
0
64 6. MOTO BROWNIANO

Se E[X02 ] < ∞ e X0 è indipendente dalle Bt si calcola

E[Xt ] = E[X0 ]e−bt ,


σ2
= V [X0 ]e−2bt + 1 − e−2bt

V [Xt ]
2b
−b(t+s) σ 2  −2b(t∧s) 
Cov[Xt , Xs ] = V [X0 ]e + e − 1 e−b(t+s) .
2b

Se la variabile aleatoria X0 ha legge N (0, σ 2 /(2b)) allora le variabili Xt1 , Xt2 , . . . , Xtn (per
ogni 0 < t1 < t2 < . . . < tn ) hanno legge congiunta gaussiana.

Definizione 6.12 Si chiama ponte browniano tra a e b nell’intervallo [0, t] il processo


(Xt )t≥0 definito da
Z s
 s  bs t−s
Xs = a 1 − + + dBr .
t t 0 t −r

Osserviamo che X0 = a e Xt = b.

 s  bs
E[Xs ]= a 1− +
t t
Z r∧s
du rs
Cov[Xr Xs ] = (t − r)(t − s) 2
= (r ∧ s) − .
0 (t − u) t

Nei due casi precedenti abbiamo affermato che i processi ottenuti per mezzo dell’integrale
stocastico rispetto al moto browniano sono processi gaussiani ovvero tutte le variabili Xt1 , Xt2 ,
. . . , Xtn (0 < t1 < t2 < . . . < tn ) hanno legge congiunta gaussiana. Questo fatto segue dalla
proposizione seguente

Proposizione 6.13 Per ogni g ∈ L2 [0, t] le variabili aleatorie Xt1 , Xt2 , . . . , Xtn ( n ∈ N,
0 < t1 < t2 < . . . < tn ) hanno legge congiunta gaussiana con medie nulle e matrice di
covarianza (C`m )1≤`,m≤n data da
Z t` ∧tm
C`m = |g(r)|2 dr.
0

Dimostrazione. Osserviamo innanzitutto che, nel caso in cui g sia una funzione costante a
tratti, la conclusione segue subito dalla definizione (6.1). Nel caso in cui g sia una funzione
qualunque in L2 [0, t], consideriamo una successione (gk )k≥1 di funzioni costanti a tratti
con le proprietà (6.3). Detta (X (k) )k≥1 la successione di processi corrispondenti e posto
u = (u1 , . . . , un ) si ha
 
h  
(k) (k)
i 1
E exp i u1 Xt1 + . . . + un Xtn = exp − hu, C (k) ui
2

per ogni u1 , . . . , un ∈ R. La conclusione segue facendo tendere k a +∞ poiché la succes-


(k)
sione di variabili aleatorie (Xtj )k≥1 converge in L2 [0, t] verso la variabile aleatoria Xtj e la
(k)
succesione di numeri reali (C`,m )k≥1 converge verso C`m .
6.7. MOTO BROWNIANO GEOMETRICO 65

6.7 Moto browniano geometrico


Sia (Bt )t≥0 un moto browniano standard su uno spazio probabilizzato (Ω, F, P) munito di
una filtrazione (Ft )t≥0 .

Definizione 6.14 Si chiama moto browniano geometrico il processo (Xt )t≥0 definito da

Xt = eBt , per ogni t ≥ 0.

Osserviamo che si tratta di un processo a valori positivi le cui traiettorie hanno le stesse
proprietà di quelle del moto browniano. Abbiamo inoltre

E[Xt ] = et/2
V [Xt ] = et et − 1


Cov[Xt , Xs ] = e2(s∧t) e(t∨s−s∧t)/2 − e(t+s)/2 .

6.8 Esercizi
Esercizio 6.1 Sia (Bt )t≥0 un moto browniano con parametro σ 2 . Verificare che
 (2n)!
E |Bt − Bs |2n = n σ 2n |t − s|n .

2 n!
Esercizio 6.2 Sia (Bt )t≥0 un moto browniano standard. Mostrare che, per ogni t > s > 0,
le variabili aleatorie
1. Bt2 − Bs2 e Bs2 ,
2. exp(Bt ) − exp(Bs ) e exp(Bs )
non sono indipendenti.

Esercizio 6.3 Sia (Bt )t≥0 un moto browniano standard. Si consideri il processo X =
(Xt )t≥0 definito da Xt = tB1/t per t > 0 e X0 = 0. Mostrare che, per ogni t > s,
l’incremento Xt − Xs ha legge normale N (0, (t − s)). Verificare che il processo (Xt )t≥0 (con
X0 = 0) è un moto browniano.
R. Legge dell’incremento Xt − Xs
   
E exp iu(tB1/t − sB1/s ) = E exp iu(t − s)B1/t − ius(B1/s − B1/t )
   
= E exp iu(t − s)B1/t · E exp −ius(B1/s − B1/t )
 2
u (t − s)2 1
  2 2 
u s 1 1
= exp − · exp − −
2 t 2 s t
 2 
u (t − s)
= exp − .
2
Esercizio 6.4 Verificare che le quasi tutte le traiettorie di un moto browniano standard
non sono funzioni derivabili e non hanno variazione limitata su ogni intervallo.

Esercizio 6.5 Sia (Bt )t≥0 un moto browniano standard. Verificare che le variabili aleatorie
Z π Z π
X= cos(t)dBt , Y = sin(t)dBt
0 0

sono indipendenti.
66 6. MOTO BROWNIANO

Esercizio 6.6 Sia (Bt )t≥0 un moto browniano standard e sia (Xt )t≥0 il processo definito
da
Xt = Bt + bt.
Determinare la legge del tempo Ta del primo attraversamento del livello a (a > 0).

Esercizio 6.7 Sia (Xt )t≥0 un processo con tutte le traiettorie continue. Verificare che, per
ogni t > 0, e ogni insieme D contenuto in [0, t] numerabile denso si ha

σ(Bs | 0 ≤ s ≤ t) = σ(Br | r ∈ D)
7

Speranza condizionale

Sia (Ω, F, P) uno spazio probabilizzato fissato e G una sotto-σ-algebra di F. La speranza


condizionale di una variabile aleatoria X rispetto alla σ-algebra G fornisce una valutazione
ragionevole della speranza della variabile aleatoria X supponendo di conoscere l’informazione
data dagli eventi della σ-algebra G.

Definizione 7.1 Sia X una variabile aleatoria reale integrabile. Si chiama versione della
speranza condizionale di X rispetto alla σ-algebra G ogni variabile aleatoria reale integrabile
V , misurabile rispetto alla σ-algebra G tale che
Z Z
XdP = V dP (7.1)
G G

per ogni insieme G ∈ G.

La variabile aleatoria V che verifica (7.1) è essenzialmente unica. Infatti, se V 0 è un’altra


variabile aleatoria reale integrabile con la stessa proprietà, allora

E [1G V ] = E [1G V 0 ]

per ogni G ∈ G e quindi, essendo V e V 0 G-misurabili, risulta P{V 6= V 0 } = 0.


Ogni versione della speranza condizionale di V rispetto a G si denota E[V |G].
Per sviluppare l’intuizione sulla speranza condizionale consideriamo alcuni esempi.

Esempio 7.1 Nel caso particolare in cui G = F si può prendere V = X mentre, nel caso
particolare in cui F = {∅, Ω}, poiché ogni variabile aleatoria G-misurabile è quasi certamente
costante, basterà prendere V = E[X].

Esempio 7.2 Siano X, Y due variabili aleatorie reali indipendenti con X integrabile e sia G
la σ-algebra σ(Y ) generata da Y . Si ha allora E[X|σ(Y )] = E[X]. In questo caso la speranza
condizionale di X rispetto a Y si denota anche con E[X|Y ].

Esempio 7.3 Siano X1 , . . . , Xn variabili aleatorie indipendenti con legge di Bernoulli B(1, p)
e sia Sn = X1 + . . . + Xn . Partendo dal calcolo della probabilità condizionata
k
P { X ` = 1 | Sn = k } =
n
per ogni ` ∈ {1, . . . , n} si trova
Sn
E[X` |Sn ] = .
n

67
68 7. SPERANZA CONDIZIONALE

7.1 Speranza condizionale di variabili aleatorie integra-


bili
La speranza condizionale di una variabile aleatoria integrabile esiste sempre. Si dimostra
infatti il seguente
Teorema 7.2 Sia (Ω, F, P) uno spazio probabilizzato, G una sotto σ-algebra di F. Per ogni
variabile aleatoria reale estesa X integrabile esiste E[X|G].
Dimostrazione. Si può supporre che X sia non negativa. Infatti, se cosı̀ non fosse,
basterebbe decomporre X nella differenza X + − X − , mostrare l’esistenza di E[X + |G] e
E[X − |G] e porre E[X|G] = E[X + |G] − E[X − |G].
Supponendo quindi X non negativa, chiamiamo Q la misura su G definita da
Z
Q(G) = XdP
G

e chiamiamo P la restrizione di P alla σ-algebra G. È chiaro che Q è assolutamente con-


tinua rispetto a P quindi, per il Teorema di Radon-Nikodym, esiste una V non negativa e
misurabile rispetto alla σ-algebra G tale che
Z
Q(G) = V dP.
G

La conclusione segue dalle identità


Z Z
XdP = Q(G) = V dP.
G G

La dimostrazione precedente, una semplice applicazione del teorema di Radon-Nikodym,


non è costruttiva cioè non fornisce un metodo per calcolare effettivamente E[X|G]. Mostre-
remo quindi il metodo di calcolo in due casi particolari notevoli.
Proposizione 7.3 Supponiamo che G sia la σ-algebra σ(X1 ) generata da una variabile
aleatoria reale X1 e che X1 e X2 abbiano densità congiunta f rispetto alla misura di Lebesgue
su B(R2 ). Siano f1 e f2 le densità marginali di X1 e X2 rispettivamente e g(·|x1 )

f (x1 , x2 )/f1 (x1 ) se f1 (x1 ) > 0,
g(x2 |x1 ) =
0 altrimenti.
la densità condizionata di X2 rispetto a X1 . Si ha allora
Z
E[X2 | σ(X1 )] = x2 g(x2 |X1 )dx2 .
R

Analogamente, se X1 , X2 sono variabili aleatorie con densità discreta p, allora, dette p1


e p2 le densità marginali di X1 e X2 e q la densità condizionata di X2 rispetto a X1
q(x2 |x1 ) = P {X2 = x2 | X1 = x1 }
(definita per le x1 tali che P {X1 = x1 } > 0) si ha
X
E[X2 | σ(X1 )] = x2 q(x2 |X1 ).
x2

Proposizione 7.4 Sia (Xn )n≥1 una catena di Markov con insieme degli stati E e matrice
di transizione T . Per ogni funzione f : E → R limitata si ha
E [ f (Xn+1 ) | σ{Xn , . . . , X0 } ] = (T f )(Xn ).
7.2. PROPRIETÀ DI MONOTONIA E PROIETTIVITÀ 69

7.2 Proprietà di monotonia e proiettività


Sia (Ω, F, P) uno spazio probabilizzato fissato e G una sotto σ-algebra di F.
La speranza condizionale ha molte proprietà analoghe a quelle della speranza
Proposizione 7.5 La speranza condizionale ha le proprietà seguenti:
1. (linearità) se X, Y sono due variabili aleatorie integrabili e a, b ∈ R allora
E[ aX + bY | G ] = aE[ X | G ] + bE[ Y | G ],

2. (normalizzazione) se X = x è una variabile aleatoria costante allora E[ X | G ] = x,


3. (positività) se X è una variabile aleatoria positiva e integrabile allora E[ X | G ] è
positiva,
4. (monotonia) se X, Y sono due variabili aleatorie integrabili tali che P{X ≥ Y } = 1
allora E[ X | G ] ≥ E[ Y | G ].
Dimostrazione. Verifichiamo la prima proprietà. La variabile aleatoria aE[ X | G ] + bE[ Y |
G ] è evidentemente G-misurabile. Per ogni G ∈ G si ha
Z Z Z
(aE[ X | G ] + bE[ Y | G ]) dP = a E[ X | G ] + b E[ Y | G ]dP
G G G
Z Z
= a XdP + b Y dP
Z G G

= (aX + bY ) dP.
G

Quindi la speranza condizionale è lineare.


Le altre proprietà si dimostrano in modo analogo.
Anche la dimostrazione delle due proprietà seguenti è solo un esercizio sulla definizione
di speranza condizionale.
Teorema 7.6 Sia X una variabile aleatoria integrabile e siano G, H due sotto σ-algebre di
F tali che H ⊆ G. Si Ha allora
 
E E [ X | G ] H = E [ X | H ]
Teorema 7.7 Sia X una variabile aleatoria integrabile. Per ogni variabile aleatoria V che
sia G-misurabile e limitata si ha
E[ V X | G ] = V E[ X | G ].
Osserviamo infine che se X è indipendente dalla σ-algebra G (e, naturalmente, integra-
bile) ovvero
P ({ X ∈ A } ∩ G) = P ({ X ∈ A }) · P (G) (7.2)
per ogni A boreliano e G ∈ G, allora
E [ X | G ] = E[ X ]. (7.3)
Infatti dalla (7.2) segue subito che
Z Z
f (X)dP = E[ f (X) ] · P(G) = E[ f (X) ] · dP
G G

per ogni funzione f semplice. Con un tipico procedimento di teoria dell’integrazione la for-
mula precedente si estende alle funzioni f positive e poi a quelle tali che f (X) sia integrabile.
Se X è integrabile, basterà per trovare la (7.2).
70 7. SPERANZA CONDIZIONALE

7.3 Diseguaglianza di Jensen


La diseguaglianza di Jensen si enuncia e si dimostra in modo analogo a quella per la speranza.

Proposizione 7.8 Sia X una variabile aleatoria reale integrabile e ϕ : R → R una funzione
convessa. Supponiamo che anche la variabile aleatoria ϕ(X) sia integrabile. Si ha allora

ϕ(E[X|G]) ≤ E[ϕ(X)|G]

Indichiamo con Lp (Ω, F, P) (1 ≤ p < ∞) lo spazio vettoriale delle variabili aleatorie X


tali che E[|X|p ] < ∞.

Proposizione 7.9 Se X ∈ Lp (Ω, F, P) allora E[X|G] ∈ Lp (Ω, F, P).

Dimostrazione. Basta applicare la diseguaglianza di Jensen prendendo la funzione convessa


ϕ(x) = |x|p .
Il Teorema 7.7 si può generalizzare un pò come segue

Proposizione 7.10 Sia X una variabile aleatoria e V una variabile aleatoria G-misurabile.
Supponiamo che E[|X|p ] < ∞ e che E[|V |q ] < ∞ con p, q numeri reali maggiori di 1 tali che
1/p + 1/q = 1. Si ha allora
E[ V X | G ] = V E[ X | G ]

Dimostrazione. (Cenno) Decomponendo V = V + − V − si vede che basta dimostrare la


proposizione nel caso in cui V sia inoltre non negativa.
Per ogni n ≥ 1 la variabile aleatoria Vn = (V ∧ n) è limitata, dunque

E[ Vn X | G ] = Vn E[ X | G ]

grazie al Teorema 7.7. La conclusione segue facendo tendere n all’infinito.

7.4 Speranza condizionale e stima


La Proposizione 7.9 assicura, in particolare, che la speranza condizionale di una variabile
aleatoria X di quadrato integrabile ha anch’essa quadrato integrabile.
Si può anzi vedere che la speranza condizionale di X rispetto a una sotto σ-algebra G di
F è la migliore approssimazione di X con una variabile aleatoria G misurabile, di quadrato
integrabile, nel senso seguente

Teorema 7.11 Per ogni variabile aleatoria Z, G-misurabile, di quadrato integrabile, si ha

E |X − Z|2 = E |X − E[ X | G ]|2 + E |E[ X | G ] − Z|2 .


     

In particolare
E |X − Z|2 = E |X − E[ X | G ]|2 .
   
min
2
Z∈L (Ω,G,P)

Dimostrazione. Scriviamo
h i
2
E |X − Z|2 = E ((X − E[ X | G ]) − (E[ X | G ] − Z))
 

= E (X − E[ X | G ])2 + E (E[ X | G ] − Z)2


   

+ 2E [ (X − E[ X | G ])(E[ X | G ] − Z)] .

Utilizzando le proprietà della speranza condizionale si verifica che l’ultimo termine della
somma precedente è nullo.
7.5. SPERANZA CONDIZIONALE RISPETTO A σ(V1 , . . . , VN ) 71

7.5 Speranza condizionale rispetto a σ(V1 , . . . , Vn )


Il caso in cui la σ-algebra G è generata da un vettore V = (V1 , . . . , Vn ) di variabili aleatorie
reali è particolarmente significativo nelle applicazioni ed illustra ulteriormente la speranza
condizionale. Mostreremo infatti che, in questo caso, la speranza condizionale di una va-
riabile aleatoria integrabile X rispetto a G è una funzione di V1 , . . . , Vn . Questa proprietà
segue essenzialmente dal seguente Teorema.

Teorema 7.12 (Criterio di misurabilità di Doob). Sia G la σ-algebra σ(V1 , . . . , Vn ) generata


da n variabili aleatorie reali V1 , . . . , Vn . Ogni variabile aleatoria G-misurabile limitata X si
scrive nella forma X = g(V ) con g : Rn → R boreliana limitata.

Dimostrazione. La σ-algebra G è costituita dai sottoinsiemi di Ω della forma { V ∈ B } con


B sottoinsieme boreliano di Rn .
Seguiremo uno schema classico di teoria della misura verificando che l’affermazione vale
per variabili aleatorie X via via più generali.
Per cominciare è vera per le variabili aleatorie che sono funzioni indicatrici di insiemi
{ V ∈ B } di G perché queste si scrivono

1{ V ∈B } = 1B (V )

quindi g = 1B . Dunque, per linearità, l’affermazione è vera per le combinazioni lineari finite
di funzioni indicatrici di insiemi di G, ovvero per le variabili aleatorie G-semplici.
Ricordiamo che ogni variabile aleatoria X, G-misurabile, non-negativa è limite puntuale
di una successione non decrescente (Xn )n≥1 di variabili aleatorie G-semplici. Per ogni n pos-
siamo trovare come sopra una funzione gn : Rn → R boreliana semplice tale che Xn = gn (V ).
In più la successione (gn )n≥1 è non decrescente e limitata superiormente da supω∈Ω |X(ω)|.
Quindi ponendo g = supn≥1 gn , troviamo X = g(V ).
Infine, decomponendo X nella sua parte positiva X + e negativa X − , abbiamo X + =
g + (V ) e X − = g − (V ), con g + , g − boreliane limitate, quindi, posto g = g + − g − abbiamo
X = g(V ).
Come conseguenta immediata abbiamo il

Corollario 7.13 Esiste una funzione g : Rn → R tale che

E[ X | σ(V1 , . . . , Vn ) ] = g(V1 , . . . , Vn ).

La funzione g dipenderà ovviamente da X. La Proposizione 7.3 è un caso particolare di


questo corollario.

7.6 Esercizi
Esercizio 7.1 Sia X una variabile aleatoria integrabile e G la σ-algebra generata da una
variabile aleatoria della forma X
Z= an 1An
n≥1

dove (An )n≥1 è una partizione di Ω fatta con elementi di F e (an )n≥1 è una successione di
numeri reali distinti. Verificare che
R
X A XdP
E[ X | G ] = n
1An .
P(An )
n≥1
72 7. SPERANZA CONDIZIONALE

Esercizio 7.2 Siano X1 , X2 due variabili aleatorie reali con densità gaussiana bidimension-
ale N (m, Γ) dove m = (m1 , m2 ) è il vettore delle medie e Γ è la matrice di covarianza.
Mostrare che
Γ12
E [ X2 | σ(X1 ) ] = m2 + (X1 − m1 )
Γ11
Esercizio 7.3 Sia (Xn )n≥1 una successione di variabili aleatorie integrabili convergente in
L1 (Ω, F, P) verso una variabile aleatoria integrabile X cioè tale che

lim E[|Xn − X|] = 0.


n→∞

Mostrare che la successione (Vn )n≥1 dove Vn = E[ Xn | G ] converge in L1 (Ω, G, P) verso la


variabile aleatoria E[ X | G ].
8

Martingale

Le martingale sono una classe di processi stocastici nella quale la dipendenza tra le variabili
aleatorie del processo si esprime in un modo speciale, la cosiddetta proprietà di martingala.
Questa proprietà costituisce una relazione di dipendenza che si può verificare in numerose
situazioni ed è diventata uno strumento fondamentale nella teoria e nelle applicazioni. In
questo capitolo studieremo le proprietà principali delle martingale e mostreremo qualche
applicazione.
Sia (Ω, F, P) uno spazio probabilizzato munito di una filtrazione (Ft )t∈I .

Definizione 8.1 Un processo (Mt )t∈I è una martingala se è adattato, la variabile aleatoria
Mt è integrabile per ogni t ∈ I e

E [ Mt | Fs ] = Ms , per ogni s ≤ t.

Esempio 8.1 Sia (Nt )t≥0 un processo di Poisson con parametro λ ed (Ft )t≥0 la sua fil-
trazione naturale. Il processo (Mt )t≥0 definito da

Mt = Nt − λt

è una martingala.

Esempio 8.2 Sia B = (Bt )t≥0 un moto browniano standard. È chiaro che B è una mar-
tingala come pure il processo (Xt )t≥0 definito da

Xt = Bt2 − t.

Esempio 8.3 Sia I = N e (Xn )n≥0 una catena di Markov con insieme degli stati uguale a
un insieme numerabile E e matrice di transizione T = (Tjk )jk∈E . Supponiamo che λ ∈]0, 1]
sia un autovalore della matrice T con autovettore una funzione f : E → R limitata ovvero
X
(T f )(j) = Tjk f (k), per ogni j ∈ E. (8.1)
k∈E

Il processo (Mn )n≥0 definito da


Mn = λ−n f (Xn )
è una martingala rispetto alla filtrazione naturale (Fn )n≥0 della catena di Markov (Xn )n≥0
(Fn = σ{ Xj | j ≤ n }).

73
74 8. MARTINGALE

Grazie alla proprietà di Markov, per ogni n ≥ 0 e ogni funzione g : E n+1 → R (dove
E n+1 denota il prodotto di n + 1 copie dell’insieme E), si ha
E [Mn+1 g(Xn , . . . , X0 )]
X
= λ−(n+1) f (jn+1 )g(jn , jn−1 , . . . , j0 )P{Xn+1 = jn+1 , Xn = jn , . . . , X0 = j0 }
jn+1 ,jn ,...,j0
X
= λ−(n+1) f (jn+1 )g(jn , jn−1 , . . . , j0 )
jn+1 ,jn ,...,j0

·P{Xn+1 = jn+1 | Xn = jn , . . . , X0 = j0 } · P{Xn = jn , . . . , X0 = j0 }


X
−(n+1)
= λ f (jn+1 )g(jn , jn−1 , . . . , j0 )
jn+1 ,jn ,...,j0

·P{Xn+1 = jn+1 | Xn = jn } · P{Xn = jn , . . . , X0 = j0 }


X
−(n+1)
= λ Tjn jn+1 f (jn+1 )g(jn , jn−1 , . . . , j0 )P{Xn = jn , . . . , X0 = j0 }
jn+1 ,jn ,...,j0
X
= λ−(n+1) (T f )(jn )g(jn , jn−1 , . . . , j0 )P{Xn = jn , . . . , X0 = j0 }.
jn ,...,j0

Dato che T f = λf , si ha λ−(n+1) (T f )(jn ) = λ−n f (jn ) e quindi


E [Mn+1 g(Xn , . . . , X0 )] = E [Mn g(Xn , . . . , X0 )]
ovvero, data l’arbitrarietà di g,
E [ Mn+1 | Fn ] = Mn .
Per induzione si deduce subito che E [ Mm | Fn ] = Mn per ogni m ≥ n.
Esempio 8.4 (Schema d’urna) Un’urna contiene inizialmente una pallina blu e una nera.
Si pesca una pallina a caso e si rimette nell’urna insieme ad un’altra pallina dello stesso
colore. Si ripete quindi l’esperimento all’infinito ...
Sia Xn la frazione di palline blu e Yn il numero di palline blu presenti nell’urna dopo
l’n-esimo esperimento. Chiaramente Y0 = 1, Yn = (n + 2)Xn e

 k/(n + 2) se j = k + 1,
P { Yn+1 = j | Yn = k } = 1 − k/(n + 2) se j = k,
0 altrimenti.

La speranza di Yn+1 per la probabilità condizionata P{· | Yn = k} è pertanto


(k + 1)P { Yn+1 = k + 1 | Yn = k } + kP { Yn+1 = k | Yn = k }
k(k + 1) k(n + 2 − k) k(n + 3)
= + =
n+2 n+2 n+2
e perciò
n+3
E [ Yn+1 | σ(Yn ) ] = Yn .
n+2
Ne segue che la successione (Xn )n≥0
Yn
Xn =
n+2
è una martingala rispetto alla sua filtrazione naturale. In particolare
1
E[Xn ] = E [ E [Xn | σ{X0 }] ] = E[ X0 ] = .
2
8.1. PRIME PROPRIETÀ, SOTTOMARINGALE, SUPERMARTINGALE 75

Definizione 8.2 Sia (Ω, F, P) uno spazio probabilizzato munito di una filtrazione (Ft )t∈I e
Z una varibile aleatoria reale estesa integrabile. Si chiama martingala chiusa dalla varia-
bile aleatoria Z un processo stocastico (Mt )t∈I tale che Mt sia una versione della speranza
condizionale di Z rispetto alla σ-algebra Ft per ogni t ∈ I.

Esempio 8.5 (Rapporti di verosimiglianza) Sia (Yn )n≥0 una successione di variabili aleato-
rie reali indipendenti identicamente distribuite e siano f0 ed f1 due densità di probabilità.
Supponiamo, per semplicità, che la funzione f0 sia strettamente positiva. La successione dei
rapporti di verosimiglianza

f1 (Y0 )f1 (Y1 ) · · · f1 (Yn )


Xn =
f0 (Y0 )f0 (Y1 ) · · · f0 (Yn )

costituisce un processo stocastico di grande importanza nei metodi sequenziali per i test di
ipotesi statistiche.
Si verifica facilmente che, se le variabile aleatorie f1 (Yn )/f0 (Yn ) sono integrabili, allora
 
f1 (Yn+1 )
E [ Xn+1 | σ{Y0 , . . . , Yn } ] = Xn E .
f0 (Yn+1 )

Di conseguenza, se f0 è la densità di tutte le Yn , allora (Xn )n≥0 è una martingala rispetto


alla filtrazione (Fn )n≥0 con Fn = σ{Y0 , . . . , Yn }. Si ha infatti
  Z Z
f1 (Yn+1 ) f1 (y)
E = f0 (y)dy = f1 (y)dy = 1.
f0 (Yn+1 ) f0 (y)

Si dimostra immediatamente che le somme e moltiplicazioni per scalari di martingale


sono ancora martingale.

8.1 Prime proprietà, sottomaringale, supermartingale


Per studiare le martingale e le loro applicazioni è utile estendere la Definizione 8.1.

Definizione 8.3 Un processo (Xt )t∈I è una supermartingala (risp. sottomartingala) se è


adattato, la variabile aleatoria Xt è integrabile per ogni t ∈ I e

E [ Xt | Fs ] ≤ Xs , (risp. ≥) per ogni s ≤ t.

Osserviamo che (Xt )t∈I è una supermartingala se e solo se il processo (−Xt )t∈I è una
sottomartingala.

Esempio 8.6 Sia (Nt )t≥0 un processo di Poisson di parametro λ > 0. Si verifica facilmente
che il processo (Nt − ct)t≥0 (rispetto alla sua filtrazione naturale) è una sottomartingala se
c < λ e una supermartingala se c > λ.

Le supermartingala e sottomartingale si ottengono spesso con semplici trasformazioni di


martingale, supermartingale o sottomartingale.

Teorema 8.4 Siano X = (Xt )t∈I e Y = (Yt )t∈I due sottomartingale. Il processo Z =
(Zt )t∈I definito da
Zt (ω) = max{Xt (ω), Yt (ω)}
è una sottomartingala.
76 8. MARTINGALE

Dimostrazione. Il processo Z è evidentemente adattato e integrabile (|Zt | ≤ |Xt | + |Yt | per


ogni t ≥ 0). Per verificare che è una sottomartingala consideriamo due tempi s < t e un
insieme A ∈ Fs . Si ha allora
Z Z Z
Zs dP = Xs dP + Ys dP
A A∩{Xs ≥Ys } A∩{Xs <Ys }
Z Z
≤ Xt dP + Yt dP
A∩{Xs ≥Ys } A∩{Xs <Ys }
Z Z
≤ Zt dP + Zt dP
A∩{Xs ≥Ys } A∩{Xs <Ys }
Z
= Zt dP.
A

Ne segue che E[ Zt | Fs ] ≥ Zs .
Analogamante il minimo tra supermartingale è una supermartingala
Corollario 8.5 Se X = (Xt )t∈I è una martingala allora i processi
X + = (Xt+ )t≥0 , X − = (Xt− )t≥0 , |X| = (|Xt |)t≥0 ,
sono sottomartingale.
Dimostrazione. Basta osservare che: X + è il massimo tra X e la martingala nulla, X − è
l’opposto del minimo tra X e la martingala nulla, |X| è la somma di X + e X − .
Teorema 8.6 Sia X = (Xt )t∈I una martingala e ϕ : R → R una funzione convessa.
Supponiamo che, per ogni t ∈ I, la variabile aleatoria ϕ(Xt ) sia integrabile. Allora il processo
ϕ(X) = (ϕ(Xt ))t≥0 è una sottomartingala.
Dimostrazione. Basta ricordare la diseguaglianza di Jensen per la speranza condizionale.
Corollario 8.7 Sia X = (Xt )t∈I una martingala. Se le variabili aleatorie Xt hanno
quadrato integrabile allora il processo (Xt2 )t∈I è una sottomartingala.
Dimostrazione. Basta applicare il Teorema 8.6 con ϕ(x) = x2 .

8.2 Tempi d’arresto


Sia (Ω, F, P) uno spazio probabilizzato munito di una filtrazione (Ft )t∈I . L’insieme dei
tempi I sarà un sottoinsieme di [0, +∞[ tale che 0 appartenga a I.
Definizione 8.8 Una variabile aleatoria T : Ω → [0, +∞] è un tempo d’arresto se l’evento
{T ≤ t} appartiene alla σ-algebra Ft per ogni t ∈ I. Un tempo d’arresto T si chiama
discreto se ha valori in un sottoinsieme discreto D di [0, +∞].
Ricordiamo che un sottoinsieme D di [0, +∞] si chiama discreto se D ∩ [a, b] è finito per
ogni intervallo [a, b] (a, b ∈ R).
Osserviamo che, se T è un tempo d’arresto, anche gli insiemi
{T < t}, {T = t}
appartengono a Ft . Si ha infatti
[ 1

{T < t} = T ≤t− , {T = t} = {T ≤ t} − {T < t}.
n
n≥1
8.2. TEMPI D’ARRESTO 77

Esempio 8.7 (Tempo d’attesa dell’n-mo successo) Sia (Xn )n≥1 un processo di Bernoulli
con paramento p ed (Fn )n≥1 la sua filtrazione naturale. Le variabili aleatorie Tn definite da

T1 (ω) = min{ k ≥ 1 | Xk (ω) = 1 }


Tn+1 (ω) = min{ k > Tn (ω) | Xk (ω) = 1 }

(con la convenzione min ∅ = +∞), ovvero i tempi d’attesa dell’n-esimo successo, sono tempi
d’arresto. Infatti

{ T1 = 1 } = { X1 = 1 } ∈ F1 ,
[
{ T1 ≤ k } = { X` = 1 } ∈ Fk (k > 1),
1≤`≤k
{ Tn+1 = k } = { Tn < k, Xk = 1 } ∈ Fk .

Esempio 8.8 (Tempi di salto di un processo di Poisson) I tempi di salto Tn di un processo


di Poisson sono tempi d’arresto rispetto allla filtrazione naturale del processo. Infatti, come
abbiamo visto,
{ Tn ≤ t } = { Nt ≥ n } ∈ Ft
per ogni t ≥ 0.

Esempio 8.9 (Tempo del primo attraversamento del moto browniano) Sia (Bt )t≥0 un moto
browniano standard e a > 0. Il tempo Ta del primo attraversamento del livello a definito da

Ta (ω) = inf{ s ≥ 0 | Bs (ω) ≥ a }

è un tempo d’arresto rispetto alla filtrazione naturale del processo. Osserviamo infatti che
\
{ Ta > t } = { Bs < a } .
s∈[0,t]

Tutti gli insiemi { Bs > a } (con s ≤ t) appartengono a Ft ma questo non ci permette


ancora di concludere che l’insieme { Ta > t } appartiene a Ft perché, l’intersezione nella
formula precedente è più che numerabile. Grazie alla continuità delle traiettorie abbiamo
però
\ [ \  1
 [ \  1

{ Bs < a } = Bs ≤ a − = Br ≤ a − .
n n
s∈[0,t] n≥1 s∈[0,t] n≥1 r∈[0,t]∩Q

Ne segue che l’insieme { Ta > t } è unione numerabile di insiemi di Ft e perciò appartiene a


Ft come pure il suo complementare { Ta ≤ t }. Questo dimostra che Ta è un tempo d’arresto.

La classe dei tempi d’arresto ha le seguenti proprietà

Proposizione 8.9 Siano S, T due tempi d’arresto. Le variabili aleatorie S + T , S ∧ T ,


S ∨ T sono tempi d’arresto.

Dimostrazione. Si ha infatti, per ogni t > 0,

{S ∧ T ≤ t} = {S ≤ t} ∪ {T ≤ t}, {S ∨ T ≤ t} = {S ≤ t} ∩ {T ≤ t}.

Quanto alla somma S + T osserviamo che

{ S + T > t } = { S > t } ∪ { T > t } ∪ ({ S ≤ t, T ≤ t } ∩ { S + T > t }) .


78 8. MARTINGALE

Gli insiemi { S > t } e { T > t } appartengono a Ft perché S e T sono tempi d’arresto. Inoltre
abbiamo
[
{ S ≤ t, T ≤ t } ∩ { S + T > t } = { S = x, T = y }
x,y∈[0,t], x+y>t
[ \ 1 1

= x − < S ≤ x, y − < T = y
n n
x,y∈[0,t], x+y>t n≥1
 
[ \ 1 1
= s − < S ≤ s, r − < T = r .
n n
s,r∈([0,t]∩(Q∪{t})), s+r>t n≥1

L’insieme { S + T ≤ t } appartiene quindi a Ft .

Proposizione 8.10 Sia (Tn )n≥1 una successione di tempi d’arresto. La variabile aleatoria
supn≥1 Tn è un tempo d’arresto.

Dimostrazione. Basta osservare che si ha


  [
sup Tn > t = { Tn > t },
n≥1
n≥1

per ogni t ≥ 0.
L’estremo inferiore di una successione (Tn )n≥1 di tempi d’arresto di una filtrazione
(Ft )t≥0 potrebbe non essere un tempo d’arresto della stessa filtrazione. Infatti, per ogni
k > 0, si ha
  \  \ [ 
1 1
inf Tn ≤ t = inf Tn < t + = Tn < t +
n≥1 n≥1 j j
j≥k j≥k n≥1

e quindi l’insieme { inf n≥1 Tn ≤ t } appartiene alla σ-algebra Ft+1/k qualunque sia k. Ne
segue che appartiene alla σ-algebra
\
Ft+ = Ft+ k1 .
k≥1

È chiaro che la σ-algebra Ft+ è più grande della σ-algebra Ft perché tutte le Ft+1/k con-
tengono la Ft . In moltissime applicazioni però si può verificare che Ft = Ft+ per ogni
t ≥ 0. Questo succede, per esempio, nel caso della filltrazione naturale del moto browniano
o del processo di Poisson. Quando vale questa proprietà si dice che la filtrazione (Ft )t≥0 è
continua a destra.
Indipendentemente dal fatto che la filtrazione sia continua a destra possiamo comunque
mostrare la seguente
Proposizione 8.11 Ogni tempo d’arresto limitato è limite di una successione non-crescente
di tempi d’arresto discreti.
Dimostrazione. Basta considerare la successione
X
Tn = (k + 1)2−n 1{k2−n <T ≤(k+1)2−n } .
k≥0

I tempi d’arresto si utilizzano quando si voglia stabilire una regola che indichi, sulla
base delle osservazioni di passato e presente, l’instante in cui si voglia effettuare una certa
operazione.
8.3. TEOREMA D’ARRESTO DISCRETO 79

Esempio 8.10 Una partita a testa e croce in cui un giocatore vinca 1 quando esce testa e
perda 1 quando esce croce si modellizza naturalmente con un processo di Bernoulli (Rn )n≥1
con parametro 1/2 (supporremo che il gioco sia equo). Il capitale del giocatore al tempo n
sarà
Xn
Xn = 2 Rk − n.
k=1

Una “strategia” naturale è di interrompere il gioco non appena il capitale sia strettamente
positivo ovvero al tempo T

T (ω) = inf{ n ≥ 1 | Xn (ω) > 0 } = inf{ n ≥ 1 | Xn (ω) = 1 }.

La variabile aleatoria T è un tempo d’arresto infatti


c
{ T ≤ k } = { T > k }c = { X1 < 1, X2 < 1, . . . , Xk < 1 } ∈ Fk .

È chiaro che, ad ogni istante k si può osservare il valore di Sn e, sulla base dell’osservazione,
decidere se continuare o meno.

Definizione 8.12 Sia X = (Xt )t∈I un processo stocastico con insieme dei tempi I ⊆
[0, +∞[ e sia T un tempo d’arresto discreto a valori in I. Si chiama processo X arrestato
al tempo T e si denota con X |T il processo definito da
|T
Xt (ω) = XT (ω)∧t (ω).

Per assicurarsi che la formula precedente definisca effettivamente un processo occorre


|T
verificare che le funzioni Xt : Ω → R siano variabili aleatorie ovvero che, per ogni r ∈ R,
|T
l’insieme { Xt ≤ r } appartenga a F. Questa verifica è piuttosto facile perché l’insieme dei
valori di T è numerabile. Si ha infatti
|T
[
{ Xt ≤ r } = (∪s∈D { T = s, Xs∧t ≤ r }) { T > t, Xt ≤ r } .

La formula precedente permette inoltre di dimostrare la proposizione seguente

Proposizione 8.13 Sia X = (Xt )t∈I un processo stocastico con insieme dei tempi I ⊆
[0, +∞[ tale che 0 ∈ I e sia T un tempo d’arresto discreto a valori in I. Se il processo X è
adattato, allora anche il processo arrestato X |T è adattato.

8.3 Teorema d’arresto discreto


Sia (Ω, F, P) uno spazio probabilizzato munito di una filtrazione (Ft )t∈I . L’insieme dei
tempi I sarà un sottoinsieme di [0, +∞[ tale che 0 appartenga a I.

Teorema 8.14 Sia X = (Xt )t∈I una martingala (risp. supermartingala oppure sottomartin-
gala) e T un tempo d’arresto discreto a valori in I. Il processo arrestato X |T è una mar-
tingala (risp. supermartingala oppure sottomartingala). In particolare, per ogni t ∈ I, si
ha
E[Xt ] = E[XT ∧t ] = E[X0 ] (8.2)

( risp. ≤ oppure ≥) per ogni t ∈ I.


80 8. MARTINGALE

Dimostrazione. Denotiamo con D il sottoinsieme numerabile di I tale che { T ∈ D } = Ω.


La Proposizione 8.13 assicura che il processo X |T è adattato. La variabile aleatoria XT ∧t è
integrabile per ogni t ∈ I perché
X X
|XT ∧t | = 1{T =s} |Xs∧t | ≤ |Xs∧t |
s∈D∩[0,t] s∈D∩[0,t]

e l’insieme D ∩ [0, t] è finito.


Verifichiamo infine la proprietà di martingala. Siano t, s ∈ I con t > s e A ∈ Fs fissati.
Si ha allora
Z Z Z
XT ∧s dP = XT dP + Xs dP
A A∩{T ≤s} A∩{T >s}
Z Z
= XT dP + Xt dP,
A∩{T ≤s} A∩{T >s}

poiché l’insieme A ∩ {T > s} appartiene a Fs . Dato che, per ogni r ∈ D che soddisfa la
diseguaglianza s < r ≤ t l’insieme A ∩ {T = r} appartiene a Fr , valgono le eguaglianze
Z Z X Z Z
XT ∧s dP = XT dP + Xt dP + Xt dP
A A∩{T ≤s} r∈D,s<r≤t A∩{T =r} A∩{T >t}
Z X Z Z
= XT dP + Xr dP + Xt dP
A∩{T ≤s} r∈D,s<r≤t A∩{T =r} A∩{T >t}
Z X Z Z
= XT ∧t dP + XT ∧t dP + XT ∧t dP
A∩{T ≤s} r∈D,s<r≤t A∩{T =r} A∩{T >t}
Z
= XT ∧t dP.
A

La formula (8.2) segue immediatamente prendendo s = 0 e A = Ω.


Il Teorema d’arresto discreto (8.14) ammette il seguente
Corollario 8.15 Sia X = (Xt )t∈I una sottomartingala (risp. supermartingala) e T, U due
tempi d’arresto discreti a valori in I tali che T ≤ U . Per ogni t ∈ I si ha allora
E[XT ∧t ] ≤ E[XU ∧t ] (risp. E[XT ∧t ] ≥ E[XU ∧t ].)
Dimostrazione. Per ogni s ∈ I l’insieme { T = s } appartiene alla σ-algebra Fs e quindi,
dato che il processo arrestato X |U è una sottomartingala, se s ≤ t si ha
Z Z Z Z
XT ∧t dP = Xs dP = XU ∧s dP ≤ XU ∧t dP.
{ T =s } { T =s } { T =s } { T =s }

Sommando sugli s ∈ I ∩ [0, t] si trova quindi


Z Z
XT ∧t dP ≤ XU ∧t dP.
{ T ≤t } { T ≤t }

Dato che le variabili aleatorie XT ∧t e XU ∧t coincidono con la variabile aleatoria Xt sull’insieme


{ T > t } la conclusione segue immediatamente.
Osservazione. In generale non si può far tendere t all’infinito nella formula (8.2) per
trovare E[XT ] = E[X0 ]. Per convincersene basta considerare il tempo d’arresto T dell’E-
sempio 8.10. In questo caso infatti X0 = 0 e XT = 1 dunque E[X0 ] = 0 6= 1 = E[XT ].
Il teorema seguente dà certe condizioni sotto le quali il passaggio al limite è lecito.
8.4. APPLICAZIONI 81

Teorema 8.16 Sia X = (Xt )t∈I una martingala e T un tempo d’arresto discreto a valori
in I. Supponiamo che T abbia valori in un insieme discreto D e

P{ T < ∞ } = 1, E[ |XT | ] < ∞, lim E[Xt 1{ T >t } ] = 0.


t→∞,t∈D

Si ha allora E[XT ] = E[X0 ].

Dimostrazione. Per ogni t ∈ D si ha

E[XT ] = E[XT 1{ T ≤t } ] + E[XT 1{ T >t } ]


= E[XT ∧t ] − E[Xt 1{ T >t } ] + E[XT 1{ T >t } ]
= E[X0 ] − E[Xt 1{ T >t } ] + E[XT 1{ T >t } ]

grazie al Teorema (8.14). Sotto le ipotesi del teorema si può far tendere t all’infinito e
concludere.
Osservazione. La condizione

lim E[Xt 1{ T >t } ] = 0


t→∞,t∈D

è soddisfatta se vale la condizione P{ T < ∞ } = 1 e

sup E Xt2 = K < ∞.


 
t∈I

Infatti, grazie alla diseguaglianza di Schwarz, si ha


E[Xt 1{ T >t } ] 2 ≤ E Xt2 P{ T > t } ≤ KP{ T > t }
 

e P{ T > t } converge verso 0 per t tendente a +∞ perché T ha quasi certamente valori


finiti.

8.4 Applicazioni
8.4.1 Passeggiata casuale unidimensionale
Calcoliamo le probabilità di uscita da un intervallo [−a, b] (a, b ∈ N∗ ) della passeggiata
casuale simmetrica su Z che parte da 0. Il processo stocastico (Xn )n≥1 in questione si può
rappresentare
Xn
Xn = Yk
k=1

dove le variabili aleatorie Yk sono indipendenti, identicamente distribuite con


1
P{ Yk = 1 } = = P{ Yk = −1 }.
2
Sia T il primo istante in cui la passeggiata casuale arriva al bordo dell’intervallo [a, b] ovvero
la variabile aleatoria T : Ω → N∗ ∪ {+∞} cosı̀ definita

T (ω) = inf{ n ≥ 1 | Xn (ω) = −a, oppure Xn (ω) = b }.

Si verifica immediatamente che T è un tempo d’arresto per la filtrazione naturale (Fn )n≥1
del processo (Xn )n≥1 data da
Fn = σ{ Y1 , . . . , Yn }.
82 8. MARTINGALE

Inoltre il processo (Xn )n≥1 è una martingala rispetto a questa filtrazione. Per il teorema
d’arresto 8.14 si ha quindi
E[XT ∧n ] = E[X0 ] = 0.
Poiché P{ T < ∞ } = 1 (la passeggiata casuale simmetrica su Z è ricorrente ...) e inoltre
|XT ∧n | ≤ max{ a, b }, grazie al teorema della convergenza dominata, facendo tendere n
all’infinito si ha E[XT ] = 0 ovvero,

−aP{ XT = −a } + bP{ XT = b } = 0 (8.3)

e inoltre (la variabile aleatoria XT prenderà il valore −a o il valore b) si ha

P{ XT = −a } + P{ XT = b } = 1. (8.4)

Dalle equazioni (8.3) e (8.4) si trova quindi


b a
P{ XT = −a } = , P{ XT = b } = .
a+b a+b
Calcoliamo ora la speranza di T . Consideriamo il processo Z = (Zn )n≥0 definito da

Zn = Xn2 − n.

Grazie al teorema d’arresto discreto, per ogni n ≥ 1, si ha

0 = E[ZT ∧n ] = E[Xn2 ] − E[T ∧ n]

ovvero E[XT2 ∧n ] = E[T ∧ n]. Facendo tendere n all’infinito (applicando il teorema della
convergenza dominata alla successione (XT2 ∧n )n≥1 che soddisfa |XT2 ∧n | ≤ (max{a, b})2 e il
teorema della convergenza monotona alla successione non decrescente (T ∧ n)n≥1 ) si ha

E[T ] = E[XT2 ] = a2 P{ XT = −a } + b2 P{ XT = b } = ab.

8.4.2 Livello di un bacino


Sia Ln il livello (aleatorio) al tempo n dell’acqua in un bacino di capacità b, Yn+1 la quantità
casuale di acqua che entrerà o uscirà (Yn+1 può assumere valori positivi o negativi) dal bacino
dal tempo n al tempo n + 1. Il livello del bacino al tempo n + 1 è quindi

Ln+1 = min (Ln + Yn+1 )+ , b .




Supponiamo di voler mantenere il livello del bacino al di sopra di un certo valore minimo a.
Le variabili aleatorie Yn sono, a loro volta, differenza di due variabili aleatorie En e Un che
rappresentano rispettivamente il flusso in entrata e in uscita. La capacità b è un parametro
modificabile in fase di costruzione e il flusso in uscita Un è controllabile, in qualche misura,
nella gestione del bacino.
Sia T il tempo d’arresto (rispetto alla filtrazione naturale del processo (Ln )n≥0 )

T (ω) = inf{ n ≥ 1 | Ln (ω) ≤ a }.

Per determinare la capacità b di solito si cerca di fare in modo che il tempo medio E[T ]
della discesa del livello sotto a sia abbastanza grande. A questo scopo si cerca di trovare
qualche valutazione di E[T ] in termini di b, a e della legge delle variabili aleatorie En , Un .
Supponiamo, per esempio, che

E [ Yn+1 | σ{Y0 , . . . , Yn } ] ≤ m (8.5)


E [ exp(−λYn+1 ) | σ{Y0 , . . . , Yn } ] ≤ 1 (8.6)
8.4. APPLICAZIONI 83

dove m e λ sono due costanti positive.


Mostriamo che E[T ] ≥ f (y) dove y = L0 è il livello iniziale del bacino e

− e−λ(y−a)
 
1 λ(b−a) 1
f (y) = e − (y − a) per a ≤ y ≤ b.
m λ

Dato che L0 = y è costante si verifica facilmente che, per ogni n ≥ 1,

σ{L0 , . . . , Ln } ⊆ σ{Y0 , . . . , Yn−1 } ⊆ σ{Y0 , . . . , Yn }

dunque T è un tempo d’arresto anche per la filtrazione (Fn )n≥0 data da Fn ⊆ σ{Y0 , . . . , Yn }.
Verifichiamo inoltre che il processo (Xn )n≥0 definito da

Xn = f (Ln ) + n

è una sottomartingala rispetto alla stessa filtrazione.


Estendendo la definizione della funzione f ponendo f (y) = 0 per y < a e f (y) = b per
y > b si ha f (Ln+1 ) = f (Ln + Yn+1 ). Poniamo poi

− e−λ(y−a)
 
1 λ(b−a) 1
g(y) = e − (y − a) per ogni y.
m λ

Poiché la funzione g è non decrescente per y < b e non crescente per y > b si ha f (y) ≥ g(y)
per ogni y e

E [ Xn+1 | Fn ] = E [ f (Xn+1 ) | Fn ] + (n + 1)
= E [ f (Ln + Yn+1 ) | Fn ] + (n + 1)
≥ E [ g(Ln + Yn+1 ) | Fn ] + (n + 1).

Grazie alle diseguaglianze (8.5), (8.6) abbiamo

1 − E[ e−λ(y+Yn+1 −a) | Fn ]
 
1
E [ g(y + Yn+1 ) | Fn ] = eλ(b−a) − (y + E[Yn+1 | Fn ] − a)
m λ
λ(y−a)
E[ e−λYn+1 | Fn ]
 
1 λ(b−a) 1 − e E[Yn+1 | Fn ]
= e −(y−a) −
m λ m
≥ f (y) − 1, per ogni y ∈ [a, b].

Ne segue che
E [ Xn+1 | Fn ] ≥ f (Ln ) + n = Xn
ovvero il processo (Xn )n≥1 è una sottomartingala. Grazie al Teorema d’arresto discreto
8.14, per ogni n ≥ 1, si ha allora

E[ f (XT ∧n ) ] + E[ (T ∧ n) ] ≥ f (y).

Dato che la funzione f è limitata (come nell’applicazione precedente) si può far tendere n
all’infinito trovando cosı̀
E[ T ] = lim E[ (T ∧ n) ] ≥ f (y).
n→∞

Osserviamo che le ipotesi (8.5) e (8.6) sono abbastanza deboli perché non si suppone quasi
nulla sulla legge delle Yn e sulle loro correlazioni.
Un modello simile si potrebbe utilizzare per valutare il rischio di bancarotta di un’assicura-
zione. In questo caso le En potrebbero rappresentare i premi e le Un gli indennizzi versati.
84 8. MARTINGALE

8.5 Diseguaglianza massimale discreta


Sia (Ω, F, P) uno spazio probabilizzato munito di una filtrazione (Ft )t∈I . L’insieme dei
tempi I sarà un sottoinsieme discreto [0, +∞[ tale che 0 appartenga a I.

Teorema 8.17 Sia (Xt )t∈I una sottomartingala. Per ogni x > 0 e ogni t ∈ I si ha allora
 
xP max Xs > x ≤ E[Xt+ ].
s∈I∩[0,t]

Dimostrazione. Denotiamo con Mt la variabile aleatoria Mt = maxs∈I∩[0,t] Xs . Sia T il


tempo d’arresto
T (ω) = inf { s ∈ I ∩ [0, t] | Xs (ω) > x }
(con la convenzione abituale inf ∅ = +∞). Chiaramente si ha
 
{T < ∞} = max Xs > x = { XT ∧t > x }
s∈I∩[0,t]

Grazie alla diseguaglianza di Markov e al Corollario 8.15 (applicato alla sottomartingala


(X |T )+ considerando il tempo d’arresto U = t costante) si ha allora
 
xP max Xs > x = xP { XT ∧t > x }
s∈I∩[0,t]

≤ E[XT+∧t ] ≤ E[Xt+ ].

8.6 Numero di attraversamenti di un intervallo


Il Teorema 8.17 mostra che il valore massimo delle traiettorie di una sottomartingala discreta
su un intervallo [0, t] si “controlla” con la variabile aleatoria “finale”. Mostreremo ora che un
risultato simile vale per il numero di attraversamenti di un intervallo [a, b] (a, b ∈ R, a < b).
Definiamo prima gli istanti successivi di attraversamento dell’intervallo [a, b] per in-
duzione (con la convenzione abituale inf ∅ = +∞)

T1 (ω) = inf { r ∈ I ∩ [0, t] | Xr (ω) ≥ b } ,


U1 (ω) = inf { r ∈ I ∩ [0, t] | r > T1 (ω), Xr (ω) ≤ a } , . . .
Tk+1 (ω) = inf { r ∈ I ∩ [0, t] | r > Uk (ω), Xr (ω) ≥ b } ,
Uk+1 (ω) = inf { r ∈ I ∩ [0, t] | r > Tk+1 (ω), Xr (ω) ≤ a } .

Le funzioni Tk e Uk sono tempi d’arresto e, chiaramente, si ha

T1 ≤ U1 ≤ T2 ≤ U2 ≤ . . . ≤ Tk ≤ Uk ≤ . . .

Il numero di attraversamenti (in discesa) dell’intervallo [a, b] al tempo t è la variabile aleatoria


X
J= 1{ Uk <∞ } . (8.7)
k≥1

Teorema 8.18 Sia (Xt )t∈I una sottomartingala. Per ogni t ∈ I vale la diseguaglianza

E[(Xt − b)+ ]
E[J] ≤ (8.8)
b−a
8.7. VERSIONI CON TRAIETTORIE REGOLARI 85

Premettiamo alla dimostrazione il seguente

Lemma 8.19 Sia (Xs )s∈I una sottomartingala, T , U due tempi d’arresto a valori in (I ∩
[0, t]) ∪ {+∞} tali che T ≤ U . Si ha allora
Z Z
(XT − XU ) dP ≤ (Xt − XT ) dP.
{ U <+∞ } { T <+∞, U =+∞ }

Dimostrazione. Grazie al Corollario 8.15 vale la diseguaglianza E[XT ∧t ] ≤ E[XU ∧t ] ovvero


Z Z Z Z
XT dP + Xt dP ≤ XU dP + Xt dP.
{ T <∞ } { T =∞ } { U <∞ } { U =∞ }

Da questa diseguaglianza si trova subito


Z Z Z
XT dP ≤ XU dP + Xt dP
{ T <∞ } { U <∞ } { U =∞,T <∞ }

e quindi la conclusione.
Dimostrazione del Teorema 8.18. Grazie al Lemma 8.19, per ogni k ≥ 1, si ha
Z
(b − a)P{ Uk < ∞ } ≤ (XTk − XUk )dP
{ Uk <∞ }
Z
≤ (Xt − XTk )dP
{ Tk <∞,Uk =∞ }
Z
≤ (Xt − b)dP.
{ Tk <∞,Uk =∞ }

Sommando su k si trova la diseguaglianza (8.8).

8.7 Versioni con traiettorie regolari


Mostreremo ora come si costruiscono martingale con traiettorie regolari nel caso in cui
l’insieme dei tempi non sia discreto. Supporremo che l’insieme dei tempi sia l’intervallo
[0, +∞[. Come sempre supporremo fissato uno spazio probabilizzato (Ω, F, P) munito di
una filtrazione (Ft )t≥0 .

Proposizione 8.20 Sia X = (Xt )t≥0 una sottomartingala positiva e D un sottoinsieme


numerabile di [0, +∞[ tale che sups∈D E[Xs ] = c < +∞. Quasi tutte le traiettorie di X
hanno una restrizione a D che è una funzione limitata con limiti da destra e da sinistra in
ogni punto di D.

La Proposizione precedente afferma che per quasi tutti gli ω si ha sups∈D Xs (ω) < ∞ ed
esistono i limiti

lim Xs (ω), lim Xs (ω), per ogni t ≥ 0


s→t− , s∈D s→t+ , s∈D

(se t = 0 si prende in considerazione il solo limite da destra).


Dimostrazione. Sia (Dn )n≥1 una successione crescente di sottoinsiemi finiti di D la cui
unione è uguale a D. Per ogni n ≥ 1 sia

tn = max Dn , Un (ω) = max{ Xs (ω) | s ∈ Dn }.


86 8. MARTINGALE

La successione di variabili aleatorie reali (Un )n≥1 è non decrescente ed evidentemente con-
verge puntualmente verso la variabile aleatoria U definita da

U (ω) = sup{ Xs (ω) | s ∈ D }.

Grazie al Teorema 8.17, per ogni n ≥ 1 e ogni x > 0, si ha


Z
1 c
P{ Un > x } ≤ Xtn dP ≤ .
x x
Ne segue che
P{ U > x } = lim P{ Un > x } ≤ c/x
n→∞

e quindi
P{ U = +∞ } = lim P{ U > x } = 0,
x→∞

cioè la restrizione all’nsieme D di quasi tutte le traiettorie è limitata.


Mostriamo ora l’esistenza dei limiti da destra e da sinistra. Per ogni coppia a, b di
numeri reali con a < b sia J(a, b) la variabile aleatoria (8.7), numero di attraversamenti
dell’intervallo [a, b] con D insieme dei tempi, e sia Jn (a, b) la variabile analoga ottenuta
considerando Dn come insieme dei tempi. Chiaramente la successione di variabili aleatorie
(Jn (a, b))n≥1 è non decrescente converge puntualmente verso la variabile aleatoria

J(a, b)(ω) = sup Jn (a, b).


n≥1

Grazie al Teorema 8.18 per ogni n ≥ 1 si ha

E[Jn (a, b)] ≤ (b − a)−1 E[(Xtn − b)+ ] ≤ (b + c)/(b − a).

Facendo tendere n all’infinito (convergenza monotona) si trova quindi

E[J(a, b)] ≤ (b + c)/(b − a).

L’insieme { J(a, b) = ∞ } ha quindi probabilità nulla come l’insieme


[
{ J(a, b) = ∞ }
a,b∈Q, a<b

che è unione numerabile di insiemi di probabilità nulla.


Sia t → Xt (ω) una traiettoria la cui restrizione a D non ha la proprietà voluta. Sup-
poniamo, per esempio, che non ammetta limite da sinistra in qualche punto t ∈ [0, +∞[. È
possibile allora trovare due numeri razionali a, b con a < b e una successione (sk )k≥1 in D
crescente verso t tali che

Xs1 (ω) ≥ b, Xs2 (ω) ≤ a, Xs3 (ω) ≥ b, . . .

e quindi J(a, b)(ω) = ∞ cioè ω appartiene all’insieme di probabilità 0.


Se invece la traiettoria t → Xt (ω) non ammette limite da destra in qualche punto t ∈
[0, +∞[, allora è possibile trovare due numeri razionali a, b con a < b e, per ogni intero k ≥ 1
indipendente da a e b e degli (sj )kj=1 in D tali che s1 > s2 > . . . > sk e

Xs1 (ω) ≥ b, Xs2 (ω) ≤ a, Xs3 (ω) ≥ b, . . .

Ne segue che J(a, b)(ω) ≥ k e perciò, data l’arbitrarietà di k, si ha J(a, b)(ω) = ∞ come
prima.
8.7. VERSIONI CON TRAIETTORIE REGOLARI 87

La Proposizione 8.20 permette di costruire martingale con traiettorie regolari adattate


però rispetto ad una filtrazione un pò più grande ovvero la filtrazione (Ft+ )t≥0 definita da
\
Ft+ = Fs .
s>t

Teorema 8.21 Data una variabile aleatoria Z integrabile esiste un processo X = (Xt )t≥0
con traiettorie regolari (e cioè continue a destra con limiti da sinistra) adattato alla fil-
trazione (Ft+ )t≥0 tale che
Xt = E[ Z | Ft+ ]
per ogni t ≥ 0. Il processo X una martingala con traiettorie regolari chiusa dalla variabile
aleatoria Z.

Dimostrazione. Si può supporre, utilizzando eventualmente la decomposizione Z = Z + −Z −


che Z sia non negativa.
Sia D ⊆ [0, +∞[ numerabile denso e, per ogni s ∈ D, sia Xs una versione della speranza
condizionale E[ Z | Fs ]. Il processo (Xs )s∈D è una martingala positiva tale che E[Xs ] = E[Z]
per ogni s ∈ D. Grazie alla Proposizione 8.20, per ogni t ≥ 0 possiamo quindi definire

Xt (ω) = lim+ Xs (ω)


s→t

per tutti gli ω dell’evento quasi certo che la restrizione a D della traiettoria s → Xs (ω) sia
regolare e definire poi Xt (ω) = 0 per tutti gli altri ω.
Il processo cosı̀ottenuto è evidentemente adattato a (Ft+ )t≥0 poiché, per ogni numero
reale x e ogni t0 > t si ha
[ \
{ Xt > x } = { Xr > x } .
{ s∈D | t≤s<t0 } { r∈D | t≤r<s, }

L’insieme { Xt > x } appartiene dunque a tutte le σ-algebre Ft0 con t0 > t cioè a Ft+ .
La variabile aleatoria Xt è integrabile poiché è limite puntuale di una successione di
variabili aleatorie uniformemente integrabili (Lemma previsto in Appendice).
Verifichiamo infine la proprietà di martingala. Siano t, s due numeri reali con s < t e
A ∈ Fs+ e sia (sn )n≥1 una successione di elementi di D ∩ [s, t] convergente verso s. Si ha
allora, per ogni n ≥ 1, Z Z
Xsn dP = Xt dP.
A A
La conclusione segue subito facendo tendere n all’infinito grazie all’uniforme integrabilità
delle variabili aleatorie Xsn .
Si verifica, infine, che le traiettorie della martingala (Xt )t≥0 sono regolari.
Nelle applicazioni la filtrazione (Ft+ )t≥0 spesso coincide con la filtrazione (Ft )t≥0 . Si
potrebbe dimostrare, per esempio, che la filtrazione naturale di un moto browniano stan-
dard o del processo di Poisson che abbiamo costruito è continua a destra. Tuttavia questa
proprietà non vale in generale. Si introduce perciò la definizione seguente

Definizione 8.22 Sia (Ω, F, P) uno spazio probabilizzato. Una filtrazione (Ft+ )t≥0 soddisfa
le condizioni abituali se
1. per ogni t ≥ 0 si ha Ft = Ft+ ,
2. ogni evento A ∈ F con P(A) = 0 appartiene a F0 .

Nel seguito supporremo sempre che la filtrazione in questione soddisfi le condizioni abituali.
88 8. MARTINGALE

8.8 Teorema d’arresto


Mostreremo ora un teorema d’arresto per martingale con insieme dei tempi [0, +∞[. Sup-
poniamo, come al solito, fissato uno spazio probabilizzato (Ω, F, P) e (Ft )t≥0 una filtrazione
che soddisfa le condizioni abituali.

Teorema 8.23 Sia X = (Xt )t≥0 una martingala con traiettorie regolari e T un tempo
d’arresto. Il processo X |T arrestato al tempo T è una martingala. In particolare si ha
E[XT ∧t ] = E[X0 ] per ogni t ≥ 0.

Il teorema si dimostra approssimando il tempo d’arresto T con una successione non


crescente di tempi d’arresto discreti e utilizzando il seguente lemma

Lemma 8.24 Sia X = (Xt )t≥0 una martingala, t > 0 e T la famiglia dei tempi d’arresto
discreti maggiorati da t. La famiglia di variabili aleatorie (XT )T ∈T è uniformemente inte-
grabile.

Dimostrazione. Un tempo d’arresto discreto T ∈ T si scrive nella forma


n
X
T = tk 1{ T =tk }
k=1

con 0 ≤ t1 < . . . < tn ≤ t. Il processo X è una martingala e quindi, per ogni c > 0
Z Xn Z
XT dP = Xtk dP
{ XT >c } k=1 { Xtk >c, T =tk }
Xn Z
= Xt dP
k=1 { Xtk >c, T =tk }
Xn Z
≤ |Xt | dP
k=1 { Xtk >c, T =tk }
Z
= |Xt | dP.
{ XT >c }

Analogamente abbiamo
Z Z
−XT dP ≤ |Xt |dP.
{ XT <−c } { XT <−c }

Troviamo perciò la diseguaglianza


Z Z
|XT |dP ≤ |Xt |dP
{ |XT |>c } { |XT |>c }

e quindi, dato che


c P{ |XT | > c } ≤ E[ |XT | ] ≤ E[ |Xt | ],
grazie al Teorema d’arresto discreto per sottomartingale, concludiamo che la famiglia (XT )T ∈T
è uniformemente integrabile.
Dimostrazione del Teorema 8.23. Sia (Tn )n≥1 una successione non crescente di tempi
d’arresto discreti a valori in [0, +∞] convergente verso T . Grazie alla continuità a destra
delle traiettorie di X, per ogni t ≥ 0 e ogni ω ∈ Ω si ha

XT ∧t (ω) = lim XTn ∧t (ω).


n→∞
8.9. DISEGUAGLIANZA DI DOOB 89

Le variabili aleatorie XTn ∧t sono Ft misurabili (Teorema 8.14) dunque anche la variabile
aleatoria XT ∧t è Ft misurabile. La successione (XTn ∧t )n≥1 è uniformemente integrabile per
il Lemma 8.24, dunque la variabile aleatoria XT ∧t è integrabile grazie al Teorema 11.7.
Verifichiamo infine la proprietà di martingala. Fissiamo s < t e un evento A ∈ Fs .
Poiché i processi X |Tn sono martingale, si ha
Z Z
XTn ∧s dP = XTn ∧t dP.
A A

La conclusione segue facendo tendere n all’infinito.


In modo sostanzialmente analogo si dimostra il teorema d’arresto per sottomartingale e
supermartingale con traiettorie regolari. Nei due casi si ha rispettivamente E[XT ∧t ] ≥ E[X0 ]
e E[XT ∧t ] ≤ E[X0 ].

8.9 Diseguaglianza di Doob


Sia (Ω, F, P) uno spazio probabilizzato munito di una filtrazione (Ft )t≥0 e (Xt )t≥0 una
martingala con tutte le traiettorie continue a destra tale che E[ |Xt |p ] < +∞ (con 1 < p < ∞)
per ogni t ≥ 0.

Teorema 8.25 Per ogni t > 0 si ha


 p   p
p
E [ |Xt |p ] .

E sup Xs ≤

0≤s≤t p−1

8.10 Teorema di convergenza


Sia (Ω, F, P) uno spazio probabilizzato munito di una filtrazione (Ft )t≥0 e (Xt )t≥0 che
soddisfa le condizioni abituali

Teorema 8.26 Sia Z una variabile aleatoria integrabile e X = (Xt )t≥0 una martingala con
traiettorie regolari chiusa dalla variabile aleatoria Z. Sia F∞ la σ-algebra generata dalle Fs
con s ≥ 0. Si ha allora
lim Xt = E[ Z | F∞ ]
t→∞
1
quasi certamente e in L (Ω, F, P).

La dimostrazione è analoga a quella del Teorema 8.21. Infatti si può verificare l’esistenza
dei limiti delle traiettorie all’infinito utilizzando la diseguaglianza sul numero di attraversa-
menti di un intervallo.

8.11 Decomposizione di Doob-Meyer


Ogni sottomartingala (risp. supermartingala) si può essenzialmente decomporre nella somma
di una martingala e di un processo a traiettorie non decrescenti (risp. non crescenti). Il
processo a traiettorie monotòne, inoltre, ha una proprietà di misurabilità più forte della
martingala. Per illustrare questo fatto iniziamo dal caso di una sottomartingala a tempi
discreti.
Sia (Ω, F, P) uno spazio probabilizzato munito di una filtrazione (Fn )n≥0 .

Proposizione 8.27 Ogni sottomartingala X = (Xn )n≥0 si decompone nella somma di una
martingala e di un processo A = (An )n≥0 tale che
90 8. MARTINGALE

1. A0 = 0 e le traiettorie di A sono non decrescenti,

2. per ogni n ≥ 1 la variabile aleatoria An è Fn−1 misurabile.

Dimostrazione. Dobbiamo trovare una decomposizione Xn = Mn + An con An misurabile


rispetto alla σ-algebra Fn−1 . Grazie alle proprietà della speranza condizionale, per ogni
n ≥ 0 deve valere l’identità

Xn − An = E[ Xn+1 − An+1 | Fn ] = E[ Xn+1 | Fn ] − An+1 (8.9)

da cui
An+1 = An + E[ Xn+1 | Fn ] − Xn .
Poniamo quindi A0 = 0 e, per ogni n ≥ 1,
n
X
An = (Ak−1 + E[ Xk | Fk−1 ] − Xk−1 ) .
k=1

Dato che X è una sottomartingala, si verifica subito che il processo A = (An )n≥0 ha trai-
ettorie non decrescenti. Infine il processo (Xn − An )n≥0 è una martingala per come è stato
definito il processo A (a partire dalla formula (8.9)).
La proprietà 2 del processo A = (An )n≥0 si esprime dicendo che il processo è prevedibile.
Infatti, se la variabile aleatoria An+1 è Fn misurabile, allora il suo valore è determinato
dalla conoscenza (del verificarsi o meno) degli eventi della σ-algebra Fn ovvero, al tempo n
si può “prevedere” il valore di A all’istante successivo. Un processo adattato è ovviamente
prevedibile.

Esempio 8.11 Consideriamo un gioco nel quale la successione dei capitali (Mn )n≥0 di un
giocatore che, ad ogni istante, scommette una somma fissa formi una martingala. Suppo-
niamo poi che il giocatore voglia provare a scommettere somme non fisse (con la speranza
di vincere di più) ma variabili (Hn )n≥0 , sulla base dei risultati delle scommesse precedenti.
Questa richiesta, insieme al fatto che dovrà dichiarare quanto scommette prima dell’n-esima
giocata, si esprime dicendo che Hn deve essere una variabile aleatoria Fn−1 -misurabile. La
domanda naturale è: potrà determinare una qualche stategia di puntate (Hn )n≥0 in modo
da rendere il gioco a lui favorevole?
Il capitale Xn+1 del giocatore al tempo n + 1 sarà dato da

Xn+1 = Xn + Hn (Mn+1 − Mn )

e quindi, detto X0 il capitale al tempo 0, si ha


n
X
Xn+1 = Hk (Mk+1 − Mk ).
k=0

Supponendo che le variabili aleatorie Hn siano limitate (cosa molto ragionevole) si verifica
facilmente che il processo (Xn )n≥0 è una martingala. Ne segue che il valore medio del
capitale del giocatore al tempo n è uguale a quello al tempo 0 ovvero la scelta di qualunque
strategia prevedibile (Hn )n≥0 (e limitata) non produce vantaggi o svantaggi.

La decomposizione della Proposizione 8.27 ha un analogo risultato a tempi continui. In


questo caso, però, la nozione di prevedibilità deve essere definita in modo diverso perché
non esiste l’istante precedente a un certo istante t.
8.12. ESERCIZI 91

8.12 Esercizi
Esercizio 8.1 Sia (Bt )t≥0 un moto browniano standard. Mostrare che il processo (Xt )t≥0
definito da Xt = Bt3 − 3tBt è una martingala.

Esercizio 8.2 Sia (Nt )t≥0 un processo di Poisson con parametro λ e u ∈ R. Mostrare che
il processo (Xt )t≥0 definito da

Xt = exp(iuNt − λ(eiu − 1)t)

è una martingala.

Esercizio 8.3 Sia T un tempo d’arresto e c una costante. Mostrare che cT è un tempo
d’arresto se e solo se c ≥ 1.

Esercizio 8.4 Sia T un tempo d’arresto tale che T ≥ 1. Mostrare che T 2 è un tempo
d’arresto.

Esercizio 8.5 Sia (Bt )t≥0 un moto browniano standard, ε > 0 e S il primo istante t tale
che, dopo un tempo ε il moto browniano supererà un livello a > 0 cioè

S = { t ≥ 0 | Bt+ε > a }

non è un tempo d’arresto rispetto alla filtrazione naturale del moto browniano.

Esercizio 8.6 Calcolare le probabilità di arrivo in −a oppure in b (a, b ∈ N∗ ) della passeg-


giata casuale su Z che parte da 0 e, ad ogni istante, avanza (risp. arretra) di 1 con probabilità
p (risp. q) (p + q = 1) con p 6= 1/2. Calcolare la speranza del tempo medio di arrivo in −a
oppure in b.

Esercizio 8.7 Sia (Mt )t≥0 una martingala di quadrato integrabile. Verificare che se anche
il processo (Mt2 )t≥0 è una martingala allora Mt = M0 quasi certamente per ogni t ≥ 0.

Esercizio 8.8 Nell’Esempio 8.10 determinare la legge del tempo d’arresto T .


92 8. MARTINGALE
9

Applicazioni al moto browniano


e catene di Markov

In questo capitolo illustreremo alcune applicazioni della teoria delle martingale, in parti-
colare del teorema d’arresto allo studio delle proprietà del moto browniano. Mostreremo
inoltre come si possa utilizzare il moto browniano per scrivere le soluzioni di certe equazioni
differenziali a derivate parziali.

9.1 Probabilità e tempi d’uscita del moto browniano


Sia [a, b] un intervallo e x ∈]a, b[. Vogliamo calcolare le probabilità di uscita dall’estremo a
oppure dall’estremo b del moto browniano che parte da x cioè del processo (Xt )t≥0 definito
da Xt = x + Bt con (Bt )t≥0 moto browniano standard (che parte da 0).
Il tempo di uscita dall’intervallo [a, b] è il tempo d’arresto

T = inf { s ≥ 0 | Bs ∈ { a, b }} .

Si verifica facilmente che i processi (Bt )t≥0 e (Bt2 − t)t≥0 sono martingale. Grazie al teorema
d’arresto si ha quindi

0 = E[B0 ] = E[BT ∧t ] = E[XT ∧t − x] = E[XT ∧t ] − x


0 = E[ BT2 ∧t − T ∧ t ] = E[(XT ∧t − x)2 − T ∧ t]

Rimuoviamo ora il troncamento T ∧ t. Osservando che |XT ∧t | ≤ max{|a|, |b|} (perché Xt ha


valori in [a, b] prima del tempo T ), la seconda relazione, grazie ai teoremi della convergenza
monotona e della convergenza dominata, fornisce

E[T ] = sup E[T ∧ t] = lim E[(XT ∧t − x)2 ] = E[(XT − x)2 ]. (9.1)


t≥0 t→∞

In particolare quindi E[T ] ≤ max{ (a − x)2 , (b − x)2 } < +∞ e T ha quasi certamente


valori finiti. Sempre grazie al teorema della convergenza dominata, la prima relazione ci dà
l’identità
E[XT ] = lim E[XT ∧t ] = x,
t→∞

ovvero, dato che XT può prendere solo i valori a e b,

aP{ XT = a } + bP{ XT = b } = x.

93
94 9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV

Quest’identità, insieme alla

aP{ XT = a } + bP{ XT = b } = 1,

ci dà allora

P{ XT = a } = (b − x)/(b − a), P{ XT = b } = (x − a)/(b − a).

La relazione ci dà allora

E[T ] = E[(XT − x)2 ] = (a − x)2 P{ XT = a } + (b − x)2 P{ XT = b } = (b − x)(x − a).

9.2 Moto browniano con deriva


Consideriamo ora il problema analogo per il moto browniano con deriva (drift) cioè il
processo (Xt )t≥0 dato da
Xt = x + Bt − µt
con µ ∈ R. Il tempo d’uscita dall’intervallo [a, b] è definito nello stesso modo. Applicando il
teorema d’arresto alle martingale (Xt − x + µt)t≥0 e ((Xt − x + µt)2 − t)t≥0 troviamo

E[XT ∧t − x + µ(T ∧ t)] = 0


E[(XT ∧t − x + µ(T ∧ t))2 − µ(T ∧ t)] = 0.

La seconda relazione questa volta coinvolge un’altra quantità non nota E[(T ∧ t)2 ] e, man-
dando t all’infinito, E[T 2 ]. Non potendo procedere come nel caso in cui µ = 0 consideriamo
altre martingala ovvero la martingala esponenziale (Mt )t≥0 data da

β2
    2  
β
Mt = exp βBt − t = exp β(Xt − x) − − βµ t
2 2

con β ∈ R. La scelta β = 2µ si rivela particolarmente utile poiché annulla il termine in t


dell’esponenziale. Applicando quindi il teorema d’arresto alla martingala

Mt = exp (2µ(Xt − x))

troviamo l’identità
E[exp(2µXT ∧t )] = exp(2µx).
Passando al limite per t → ∞ come abbiamo già fatto nel caso in cui µ = 0 troviamo quindi
il sistema 
P { XT = a } + P { XT = b } = 1
e2µa P { XT = a } + e2µb P { XT = b } = exp(2µx)
da cui, risolvendo,

e2µb − e2µx e2µx − e2µa


P { XT = a } = , P { XT = b } = .
e2µb − e2µa e2µb − e2µa
Sostituendo nella relazione E[ x − XT ] = µE[T ] si trova infine

(x − a)e2µb − (b − a)e2µx + (b − x)e2µa


E[T ] = .
µ (e2µb − e2µa )
9.3. MOTO BROWNIANO ED EQUAZIONE DI LAPLACE 95

9.3 Moto browniano ed equazione di Laplace


Mostreremo ora che la soluzione di alcune equazioni a derivate parziali si può scrivere utiliz-
zando il moto browniano. In questo paragrafo (Bt )t≥0 è un moto browniano d-dimensionale
su uno spazio probabilizzato (Ω, F, P) con una filtrazione (Ft )t≥0 di sotto σ-algebre di F.
La chiave per ottenere le formule è il seguente

Teorema 9.1 Sia f una funzione reale su Rd di classe C 2 limitata con tutte le derivate
parziali di ordine minore o uguale a 2 limitate. Allora il processo (Mt )t≥0 definito da
Z t
1
Mtf = f (Bt ) − (∆f )(Bs )ds
0 2

è una martingala.

Dimostreremo questo risultato partendo da un lemma preliminare. I processi considerati


qui sono a valori complessi; per ridursi al caso di processi reali basterebbe separare la parte
reale e quella immaginaria.

Lemma 9.2 Per ogni u ∈ Rd il processo (Mtu )t≥0 definito da


t
|u|2
Z
Mtu = eihu,Bt i + eihu,Br i dr
2 0

(dove |u|2 = u21 + . . . + |ud |2 ) è una martingala.

Dimostrazione. Per s < t, grazie all’indipendenza degli incrementi del moto browniano,
abbiamo
h i h i
E eihu,Bt i | Fs = eihu,Bs i E eihu,(Bt −Bs )i | Fs
h i
= eihu,Bs i E eihu,(Bt −Bs )i
2
= eihu,Bs i e−|u| (t−s)/2
.

Analogamente
 2Z t  2Z s
 |u|2 t ihu,Br i

|u| |u|
Z
eihu,Br i dr Fs = E eihu,Br i dr + e dr Fs

E
2 0 2 0 2 s
2 Z s 2 Z t
 
|u| |u|
= eihu,Br i dr + E eihu,Bs i eihu,(Br −Bs )i dr Fs

2 0 2 s
|u|2 s ihu,Br i
Z t
|u|2 ihu,Bs i
Z 
ihu,(Br −Bs )i
= e dr + e E e dr
2 0 2 s
|u|2 s ihu,Br i |u|2 ihu,Bs i t h ihu,(Br −Bs )i i
Z Z
= e dr + e E e dr
2 0 2 s
|u|2 s ihu,Br i |u|2 ihu,Bs i t −|u|2 (r−s)/2
Z Z
= e dr + e e dr
2 0 2 s

Calcolando l’integrale troviamo perciò


 2Z t  |u|2 Z s
|u| ihu,Br i
 2

e dr Fs = eihu,Br i dr + 1 − e−|u| (t−s)/2 eihu,Bs i .

E
2 0 2 0
96 9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV

A questo punto si verifica immediatamente che (Mtu )t≥0 è una martingala.


Osserviamo che
d d
X ∂ 2 ihu,xi X
∆eihu,xi = 2 e = −u2k eihu,xi = −|u|2 eihu,xi .
∂xk
k=1 k=1

Il Teorema 9.1 è quindi verificato per le funzioni f (x) = eihu,xi che chiameremo, per
brevità, funzioni trigonometriche. Estenderemo ora la formula ad una classe più ampia
di funzioni utilizzando la densità delle funzioni trigonometriche nelle funzioni C 2 . È noto
infatti che, detto I(R) l’ipercubo I(R) = { x ∈ Rd | max1≤k≤d |xk | ≤ R }, per ogni funzione
f ∈ C 2 (Rd ), esiste una successione (fn )n≥1 di combinazioni lineari (a coefficienti complessi)
di funzioni trigonometriche che converge uniformemente verso f insieme con tutte le sue
derivate parziali di ordine minore o eguale a 2 sull’ipercubo I(R). Abbiamo cioè

lim sup |(f (x) − fn (x))| = 0, lim sup |(∆f )(x) − (∆fn )(x))| = 0.
n→∞ x∈I(R) n→∞ x∈I(R)

Sia TR il tempo d’uscita del moto browniano da I(R)

TR = inf { t ≥ 0 | |Bt | > R } .


f |TR
Le martingale arrestate (Mt n )t≥0 sono evidentemente limitate (uniformemente in n).
Presi s < t e A ∈ Fs abbiamo
Z Z
f |TR
Msfn |TR dP = Mt n dP,
A A

e, quindi, facendo tendere n all’infinito,


Z Z
MTfR ∧s dP = MTfR ∧t dP. (9.2)
A A

f |TR
Abbiamo quindi verificato che i processi arrestati (Mt )t≥0 sono martingale qualunque
sia R > 0. Possiamo ora dimostrare il Teorema 9.1.
Dimostrazione del Teorema 9.1. Cominciamo con l’osservare che i tempi d’arresto TR con-
vergono quasi certamente verso +∞ per R tendente all’infinito. Infatti il moto browniano d
dimensionale esce dall’ipercubo I(R) se e solo se una delle sue componenti esce dall’intervallo
[−R, R] cosa che accade quasi certamente per quanto visto nel paragrafo 9.1.
Poiché la funzione f e tutte le sue derivate parziali di ordine minore o uguale a 2 sono
limitate, le variabili aleatorie MTfR ∧s e MTfR ∧t sono uniformemente limitate in R. Facendo
tendere R all’infinito in (9.2) troviamo
Z Z
Msf dP = Mtf dP,
A A

per ogni s < t e A ∈ Fs e quindi (Mtf )t≥0 è una martingala.


Sia D un sottoinsieme aperto e limitato di Rd con frontiera di classe C 1 a tratti (per
esempio una sfera { x ∈ Rd | |x| ≤ R } o un ipercubo { x ∈ Rd | max1≤k≤d |xk | < R }).
Indichiamo con ∂D il bordo di D (che non appartiene all’insieme D) e con D̄ l’insieme D
con il bordo ovvero D̄ = D ∪ (∂D). Il problema di Dirichlet in D consiste nel trovare una
funzione u ∈ C 2 (D̄), con u ∈ C 2 (D) tale che

(∆u)(x) = 0 x∈D
u(x) = f (x) x ∈ ∂D
9.4. MOTO BROWNIANO ED EQUAZIONE DEL CALORE 97

dove f è una funzione continua su ∂D. La soluzione si può rappresentare per mezzo del
moto browniano d-dimensionale.
Sia (Xtx )t≥0 il moto browniano uscente da x cioè Xtx = x + Bt . Si ha allora

u(x) = E [ f (XTx ) ] , x∈D

dove T è il tempo di uscita da D del moto browniano con origine in x cioè

T = { t ≥ 0 | Xtx ∈
/ D}.

Infatti, grazie al Teorema 9.1, il processo (Mt )t≥0


Z t
1
Mt = u(Xtx ) − (∆u)(Xsx )ds
2 0

è una martingala e quindi, per il teorema d’arresto

u(x) = E[M0 ] = lim E[MT ∧t ] = E[MT ] = E[u(XTx )] = E [ f (XTx ) ] .


t→∞

L’argomento precedente non è del tutto preciso perché abbiamo dimostrato il Teorema
9.1 supponendo che f sia una funzione di classe C 2 su tutto Rd . La soluzione u del problema
di Dirichlet è una funzione di classe C 2 su D e non abbiamo visto se si può estendere ad una
funzione di classe C 2 su Rd ...

9.4 Moto browniano ed equazione del calore


Consideriamo l’equazione del calore
 ∂ 1
∂t u(t, x) = 2 ∆u(t, x), (t, x) ∈ [0, +∞[×Rd
u(0, x) = f (x) x ∈ Rd

Supponiamo che f sia di classe C 2 con tutte le derivate di ordine minore o uguale a 2 limitate
(per evitare questioni tecniche).
Sia (Xtx )t≥0 il moto browniano d-dimensionale con origine in x. La soluzione dell’equazione
del calore si può scrivere nella forma

u(t, x) = E [ f (Xtx ) ] .

Infatti, grazie al Teorema 9.1, il processo (Mt )t≥0 definito da


Z t
1
Mtf = f (Xtx ) − (∆f )(Xsx )ds
2 0

è una martingala. Abbiamo quindi E[Mt ] = E[M0 ] ovvero


Z t
1
E[f (Xtx )] − E[(∆f )(Xsx )]ds = f (x).
2 0

Le ipotesi che abbiamo fatto su f permettono di scambiare Laplaciano e speranza trovando


cosı̀
1 t
Z
u(t, x) − (∆u)(s, x)ds = f (x)
2 0
98 9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV

da cui ponendo t = 0 si trova u(0, x) = f (x) e derivando rispetto a t si verifica che u soddisfa
l’equazione del calore.
Il moto browniano si utilizza per scrivere la soluzione di varie equazioni a derivate parziali.
Per esempio la soluzione dell’equazione
 ∂ 1
∂t u(t, x) = 2 ∆u(t, x) + V (x)u(t, x), (t, x) ∈ [0, +∞[×Rd
u(0, x) = f (x) x ∈ Rd
si scrive con la cosiddetta formula di Feynman-Kac
 Rt 
x V (Xrx )dr
u(t, x) = E f (Xt )e 0 .

Anche questa formula si verifica introducendo un’opportuna martingala del moto browniano.

9.5 Moto browniano geometrico


Il tempo d’uscita dall’intervallo [a, b] con 0 < a < 1 < b del processo
σ2
   
Xt = exp σBt + µ − t
2
coincide ovviamente con il tempo d’uscita T del processo
σ2
 
Zt = σBt + µ − t
2
dall’intervallo [log(a), log(b)]. Supponiamo che µ 6= σ 2 /2. Applicando il teorema d’arresto
alle martingale
σ2 β2
   
Bt = Zt − µ − t, Mt = exp βBt − t ,
2 2
dove β = σ − 2µ/σ, si trovano le probabilità di uscita dalla barriera inferiore o superiore e
il tempo medio di uscita.
Il caso µ = σ 2 /2, in cui (Zt )t≥0 è un multiplo del mosto browniano, si tratta a parte
considerando le martingale (Bt )t≥0 e (Bt2 − t)t≥0 . Si trova
 −1  −1
log(a) log(b)
P{ ZT = log(a) } = 1 − , P{ ZT = log(b) } = 1 −
log(b) log(a)
e E[T ] = σ −1 log(b/a).

9.6 Martingale e catene di Markov


Sia (Xt )t≥0 una catena di Markov a tempo continuo con insieme degli stati S, semigruppo
associato (Pt )t≥0 e filtrazione naturale (Fs )s≥0 .
Lemma 9.3 Per ogni s < t e ogni f : S → R limitata si ha
X
E [ f (Xt ) | Fs ] = f (j)pXs j (t − s).
j∈S

In particolare
E [ f (Xt ) | Fs ] = E [ f (Xt ) | σ(Xs )]
9.6. MARTINGALE E CATENE DI MARKOV 99

Dimostrazione. La σ-algebra Fs è generata dagli insiemi della forma


A(s1 , i1 , . . . , sn , in ) = { Xs1 = i1 , . . . , Xsn = in }
con n ≥ 1, 0 ≤ s1 ≤ . . . ≤ sn = s e i1 , . . . , in ∈ S. Basterà quindi verificare che
Z Z X
f (Xt )dP = f (j)pXs j (t − s) dP
A(s1 ,i1 ,...,sn ,in ) A(s1 ,i1 ,...,sn ,in ) j∈S

Il membro destro si scrive nella forma


XZ XZ
f (Xt )dP = f (j)dP
j∈S A(s1 ,i1 ,...,sn ,in ) j A(s1 ,i1 ,...,sn ,in )∩{Xt =j}
X
= f (j)P { Xt = j, Xsn = in , . . . , Xs1 = i1 }
j
X
= f (j)P { Xt = j, Xsn = in , . . . , Xs1 = i1 }
j

e quindi, grazie alla proprietà di Markov, è uguale a


X
f (j)P { Xt = j | Xs = in } P { Xsn = in , . . . , Xs1 = i1 }
j
X Z
= f (j) pXs j (t − s)dP
j A(s1 ,i1 ,...,sn ,in )

da cui segue subito la conclusione.


Teorema 9.4 Per ogni funzione f : S → R limitata il processo (Mt )t≥0 definito da
Z t
Mt = f (Xt ) − (Qf )(Xs )ds
0

è una martingala rispetto alla filtrazione naturale della catena di Markov.


Dimostrazione. Basterà verificare che, per ogni s < t risulta
Z t 
E [ f (Xt ) − f (Xs ) | Fs ] = E (Qf )(Xr )dr | Fs .
s

Osserviamo che, grazie al Lemma 9.3 e alle equazioni di Kolmogorov all’avanti, il membro
destro si scrive
Z t Z tX
E [ (Qf )(Xr ) | Fs ] dr = pXs j (r − s)(Qf )(j)dr
s s j
Z tX
= pXs j (r − s)qjk f (k)dr
s j,k
Z tX
= p0Xs k (r − s)f (k)dr
s k
X
= (pXs k (t − s) − δXs k ) f (k)
k
= E [ f (Xt ) | Fs ] − f (Xs ).
Si verifica cosı̀ che (Mt )t≥0 è una martingala.
Il risultato precedente si generalizza facilmente alle funzioni f non limitate se valgono le
opportune condizioni d’integrabilità.
100 9. APPLICAZIONI AL MOTO BROWNIANO E CATENE DI MARKOV

9.7 Esercizi
Esercizio 9.1 Sia [a, b] un intervallo e x ∈]a, b[ un suo punto interno. Detto T il tempo di
uscita da [a, b] del moto browniano (Xtx )t≥0 con origine in x mostrare che

E[ T XTx ] = (b − x)(x − a)(x + a + b)/3.

Suggerimento: Si ricordi l’Esercizio 8.1.

Esercizio 9.2 Sia Ta il tempo del primo attraversamento del livello a del moto browniano
standard con origine in 0. Mostrare che

E e−λTa = e−a 2λ
 
10

Processi di Markov

Sia (Ω, F, P) uno spazio probabilizzato, (Ft )t≥0 una filtrazione di sotto-σ-algebre di F ed
E un sottoinsieme boreliano di Rd munito della σ-algebra E indotta dalla σ-algebra B(Rd )
dei sottoinsiemi boreliani di Rd . Le variabili aleatorie (Xt )t≥0 di un processo di Markov o
markoviano, a valori in E sono dipendenti tra loro in un modo speciale per precisare il quale
introduciamo la seguente definizione.

Definizione 10.1 Un nucleo di transizione o transizione markoviana un’applicazione

p : (s, t) ∈ R2 | s ≤ t × E × E → [0, 1]


tale che

1. per ogni s, t e ogni x ∈ E, l’applicazione A → p(s, t, x, A) è una misura di probabilità


su E,

2. per ogni s, t e ogni A ∈ E l’applicazione x → p(s, t, x, A) è misurabile,

3. (equazione di Chapman-Kolmogorov) per ogni r < s < t, x ∈ E, A ∈ E si ha


Z
p(r, t, x, A) = p(s, t, y, A)p(r, s, x, dy).
E

Le p(s, t, x, A) si chiamano anche probabilità di transizione e rappresentano la probabilità


che il processo parta dal punto x al tempo s e arrivi nell’insieme A al tempo t. L’equazione
di Chapman-Kolmogorov si può quindi interpretare come una sorta di “formula della proba-
bilità totale” pensando che la probabilità di partire da x al tempo r e arrivare in A al tempo
t è la “somma” delle probabilità di partire da x al tempo r, passare per un punto y al tempo
s, e arrivare in A al tempo t.

Definizione 10.2 Un processo (Xt )t≥0 a valori in E si chiama markoviano o di Markov,


rispetto alla filtrazione (Ft )t≥0 , se

1. è adattato,

2. (proprietà di Markov) per ogni s < t ed ogni f : E → R misurabile limitata si ha


Z
E [ f (Xt ) | Fs ] = f (y)p(s, t, Xs , dy).
E

101
102 10. PROCESSI DI MARKOV

Osserviamo che l’equazione di Chapman-Kolmogorov costituisce essenzialmente una con-


dizione necessaria affinché valga la relazione

E [ E [ f (Xt ) | Fs ] | Fr ] = E [ f (Xt ) | Fr ]

per ogni r < s < t. Infatti, se A ∈ E,

E [ E [ 1A (Xt ) | Fs ] | Fr ] = E [ p(s, t, Xs , A) | Fr ]
Z
= p(s, t, y, A)p(r, s, Xr , dy).
E

Talvolta la filtrazione non è data esplicitamente. In questi casi, quando di dice che un
processo è markoviano, si sottointende rispetto alla sua filtrazione naturale.
La transizione markoviana p e la legge iniziale µ della variabile aleatoria X0 individuano
le leggi congiunte delle variabili aleatorie (Xt1 , . . . , Xtn ).

Teorema 10.3 Se (Xt )t≥0 è un processo di Markov con legge iniziale µ e nucleo di tran-
sizione p, per ogni n e ogni t1 < . . . tn si ha

P {Xt1 ∈ A1 , . . . , Xtn ∈ An } (10.1)


Z Z Z
= µ(dx0 ) p(0, t1 , x0 , dx1 ) . . . p(tn−2 , tn−1 , xn−2 , dxn−1 )p(tn−1 , tn , xn−1 , An ).
E A1 An−1

Reciprocamente, date una legge di probabilità µ su E e un nucleo di transizione p esiste un


processo di Markov (Xt )t≥0 , su un opportuno spazio probabilizzato, tale che valga (10.1).

10.1 Semigruppi markoviani


Lo studio dei processi markoviani inizia da quelli omogenei.

Definizione 10.4 Un processo di Markov (Xt )t≥0 con nucleo di transizione p si chiama
omogeneo se p(s, t, x, A) = p(s + r, t + r, x, A) per ogni s < t, r ≥ 0, A ∈ E.

In questo caso, la notazione p(s, t, x, A) si semplifica in p(t − s, x, A).


Nel séguito, quando non diversamente specificato, tratteremo processi di Markov omo-
genei.

Teorema 10.5 Sia p un nucleo di transizione. L’applicazione


Z
Tt : L∞ (E, E) → L∞ (E, E), (Tt f )(x) = f (y)p(t, x, dy)
E

per t ≥ 0 soddisfa le proprietà seguenti:

1. (identità in 0) T0 f = f per ogni f ∈ L∞ (E, E),

2. (proprietà di semigruppo) Tt+s f = Tt Ts f per ogni t, s ≥ 0 e ogni f ∈ L∞ (E, E),

3. (positività) per ogni f ∈ L∞ (E, E) non negativa anche la funzione Tt f è non negativa,

4. (invarianza costanti) Tt 1E = 1E per ogni t ≥ 0.


10.1. SEMIGRUPPI MARKOVIANI 103

Dimostrazione. Verifichiamo solo la proprietà di semigruppo perché le altre affermazioni


sono immediate. Per ogni t, s ≥ 0, f ∈ L∞ (E, E) e ogni x ∈ E, si ha
Z
(Tt (Ts f ))(x) = (Ts f )(y)p(t, x, dy)
ZE Z
= p(t, x, dy) f (z)p(s, y, dz)
ZE Z E

= f (z) p(s, y, dz)p(t, x, dy).


E E

Grazie all’equazione di Chapman-Kolmogorov, per ogni A ∈ E, si ha


Z
p(s, y, A)p(t, x, dy) = p(t + s, x, A)
E

e quindi Z
(Tt (Ts f ))(x) = f (z)p(t + s, x, dz) = (Tt+s f )(x).
E
Il teorema è cosı̀ dimostrato.

Definizione 10.6 Una famiglia (Tt )t≥0 di operatori lineari su L∞ (E, E) con le proprietà
1, 2, 3 e 4 del Teorema 10.5 si chiama semigruppo markoviano.

Ad un nucleo di transizione omogeneo abbiamo associato un semigruppo markoviano.


Reciprocamente è chiaro che il semigruppo determina univocamente un nucleo di transizione
poiché, per ogni t ≥ 0, x ∈ E e A ∈ E si ha

(Tt 1A )(x) = p(t, x, A).

Grazie al Teorema 10.3, si può quindi affermare che un processo markoviano omogeneo è
determinato dalla legge iniziale e dal semigruppo markoviano associato.
Lo spazio vettoriale L∞ (E, E) tuttavia non è nemmeno uno spazio di Banach e quindi,
per utilizzare gli strumenti dell’Analisi Matematica è preferibile ridursi a semigruppi marko-
viani i cui operatori Tt agiscano almeno su spazi di Banach. Per questo motivo nel séguito
supporremo che:
tutte le misure p(t, x, ·) sono assolutamente continue rispetto a una misura σ-finita µ su E.
Il semigruppo (Tt )t≥0 induce allora un semigruppo, che denoteremo sempre nello stesso
modo, su L∞ (E, E, µ) e, denotando con p(t, x, ·) anche le densità di queste misure rispetto
a µ, abbiamo Z
(Tt f )(x) = f (y)p(t, x, y)µ(dy). (10.2)
E
Supporremo inoltre che: la funzione
Z
t→ g(x)(Tt )f (x)µ(dx)
E

è continua su [0, +∞[ per ogni g ∈ L1 (E, E, µ), f ∈ L∞ (E, E, µ).


Un semigruppo markoviano, sotto quest’ipostesi, è determinato dal suo generatore cioè
dall’operatore A definito da

(Tt f )(x) − f (x)


Z Z
g(x)(Af )(x)µ(dx) = lim+ g(x) µ(dx)
E t→0 E t
104 10. PROCESSI DI MARKOV

su tutte le funzioni f ∈ L∞ (E, E, µ) per le quali il limite esiste per ogni g ∈ L1 (E, E, µ).
La teoria matematica che descrive la relazione è però di livello troppo elevato per gli
scopi di questo corso e quindi ci accontenteremo di qualche cenno. Osserviamo però che,
presa una f su cui è definito il generatore e posto u(t, x) = (Tt f )(x), si potrebbe verificare
che la funzione u soddisfa
∂u
= Au(t, x), u(0, x) = f (x).
∂t
(La verifica è immediata supponendo che il generatore sia definito anche sulle funzioni Tt f
per ogni t > 0). Vedremo tra poco (Teorema 10.8) che, nel caso in cui E sia lo spazio
euclideo, l’operatore A è un operatore differenziale. Pertanto, almeno in questo caso, si
vede bene che il generatore individua il semigruppo sempre che la soluzione dell’equazione
differenziale alle derivate parziali sia unica.

10.2 Processi markoviani di salto


Consideriamo innanzitutto un processo di Poisson (Nt )t≥0 con parametro λ con la sua
filtrazione naturale Fs = σ(Nr , 0 ≤ r ≤ s). Si vede subito che, per s < t,

X λk (t − s)k
E [ f (Nt ) | Fs ] = e−λ(t−s) f (k + Ns ) = E [ f (Nt ) | σ(Ns ) ] .
k!
k≥0

Dunque (Nt )t≥0 è un processo di Markov omogeneo con nucleo di transizione

X (λt)k−x
p : [0, +∞[ ×N × P(N) → [0, 1], p(t, x, B) = e−λt
(k − x)!
k∈B,k≥x

e il semigruppo markoviano su L∞ (N, P(N), µ) dove µ è la misura di conteggio u P(N ) è

X (λt)(k−n)
(Tt f )(n) = e−λt f (k). (10.3)
(k − n)!
k≥n

Si verifica facilmente la proprietà di continuità in t richiesta nel paragrafo percedente.

Proposizione 10.7 Il generatore del semigruppo markoviano del processo di Poisson è


l’operatore A su L∞ (N, P(N)) dato da

(Af )(n) = λ (f (n + 1) − f (n)) .

Dimostrazione. Dalla (10.3) abbiamo subito

X (λt)(k−n) X (λt)(k−n)
(Tt f )(n) − f (n) = e−λt f (k) − f (n) = e−λt (f (k) − f (n))
(k − n)! (k − n)!
k≥n k>n

e quindi

(Tt f )(n) − f (n) X λk−n tk−n−1


= e−λt λ (f (n + 1) − f (n)) + e−λt (f (k) − f (n)) .
t (k − n)!
k>n+1
10.3. PROCESSI DI DIFFUSIONE 105

Osservando che

−λt X λk−n tk−n−1 X (λt)k−n−1

≤ 2λkf k∞ e−λt

e (f (k) − f (n))
(k − n)! (k − n)!
k≥n+2 k≥n+2
X (λt)h
≤ 2λkf k∞ e−λt
h!
h≥1

1 − e−λt

= 2λkf k∞

troviamo subito

(Tt f )(n) − f (n)
− λ (f (n + 1) − f (n)) ≤ 4λkf k∞ 1 − e−λt


t

per ogni n e quindi



(Tt f )(n) − f (n)
lim sup
− λ (f (n + 1) − f (n)) = 0.
+
t→0 n≥0 t

Ne segue che ((Tt f ) − f )/t converge uniformemente verso la funzione n → λ(f (n + 1) − f (n))
e cui la conclusione è immediata.
Nel caso di un processo di nascita e morte con insieme degli stati N, utilizzando le
equazioni di Kolmogorov (all’avanti o all’indietro), si vede che il generatore è l’operatore

(Af )(n) = λn (f (n + 1) − f (n)) + ωn (f (n − 1) − f (n))

dove le λn (risp. ωn ) sono le intensità delle transizioni (o salti) dallo stato n allo stato n + 1
(risp. n − 1).
Più in generale, se il processo può saltare da un punto n ad un altro punto m con
intensità λnm allora (sotto opportune ipotesi non molto restrittive sulle intensità λnm dei
salti) si trova che il generatore infinitesimale è
X
(Af )(n) = λnm (f (m) − f (n)).
m≥0

10.3 Processi di diffusione


Il moto browniano d-dimensionale (Bt )t≥0 è un processo di Markov omogeneo. Infatti, come
si vede subito utilizzando l’indipendenza degli incrementi, per ogni f ∈ L∞ (Rd , B(Rd ), dx)
e ogni s < t si ha

|y − Bs |2
Z  
1
E [ f (Bt ) | Fs ] = f (y) exp − dy.
(2π(t − s))d/2 Rd 2(t − s)

Il nucleo di transizione è quindi


Z
1 |y−x|2
p(t, x, E) = e− 2t dy
(2πt)d/2 E

per ogni E ∈ B(Rd ). Il semigruppo relativo è definito di conseguenza. L’azione del generatore
infinitesimale A si calcola facilmente sulle funzioni di classe C 2 con tutte le derivate di ordine
106 10. PROCESSI DI MARKOV

minore o eguale a 2 limitate. Si ha infatti, grazie al Teorema 9.1

(Tt f )(x) − f (x) 1


lim = lim E [ f (x + Bt ) − f (x) ]
t→0+ t t→0+ t
Z t 
1 1
= lim+ E (∆f )(x + Bs )ds
t→0 t 0 2
Z t
1
= lim E [ (∆f )(x + Bs )ds ]
t→0+ 2t 0
Z t
1
= lim (Ts (∆f ))(x)ds
t→0+ 2t 0
1
= (∆f )(x).
2
Il generatore infinitesimale del moto browniano d-dimensionale è quindi 1/2 dell’operatore
Laplaciano.
Indichiamo con SR (x) = { x ∈ Rd | |x| ≤ R } la sfera di centro x e raggio R in Rd . Si
potrebbe verificare che
Z
1 c 1
lim p(t, x, SR (x) ) = 0, lim (yk − x − k)p(t, x, dy) = 0,
t→0+ t t→0+ t SR (x)
Z
1
lim (yj − xj )(yk − xk )p(t, x, dy) = δjk
t→0+ t SR (x)

dove δjk = 0 se j 6= k e δjk = 1 se j = k.


Le tre proprietà precedenti sono tipiche dei processi markoviani detti processi diffusione.
Infatti, se (Ω, F, P) è uno spazio probabilizzato con una filtrazione (Ft )t≥0 di sotto-σ-algebre
di F e
p :]0, +∞[×Rd × B(Rd ) → [0, 1]
è il nucleo di transizione di un processo di Markov omogeneo (Xt )t≥0 a traiettorie continue.

Teorema 10.8 Supponiamo che esistano i limiti

1
lim p(t, x, BR (x)c ) = 0, (10.4)
t→0+ t
Z
1
lim (yi − xi )p(t, x, dy) = bi (x), (10.5)
t→0+ t BR (x)
Z
1
lim (yi − xi )(yj − xj )p(t, x, dy) = aij (x). (10.6)
t→0+ t BR (x)

Allora le matrici (aij (x))1≤i,j≤d sono semidefinite positive e il generatore di (Xt )t≥0 è

1 X ∂2f X ∂f
(Af )(x) = aij (x) (x) + bj (x) (x). (10.7)
2 ∂xi ∂xj ∂xj
1≤i,j≤d 1≤j≤d

Per la dimostrazione rimandiamo a P. Baldi Equazioni differenziali stocastiche e appli-


cazioni, Pitagora Editrice, Bologna 2000, Prop. 5.20 pp. 98–99.
Un processo markoviano con generatore del tipo (10.7) si chiama processo di diffusione.
La funzione di x a valori matrici (aij (x))1≤i,j≤d si chiama covarianza e il campo vettoriale
(bj (x))1≤j≤d si chiama deriva.
10.4. MARTINGALE DI UN PROCESSO DI MARKOV 107

10.4 Martingale di un processo di Markov


La teoria delle martingale trova un’applicazione naturale nello studio dei processi di Markov.
In questo paragrafo vedremo come si trovano in modo semplice e naturale martingale, sotto
e supermartingale associate ad un processo di Markov.
Il primo risultato, una generalizzazione del Teorema 9.1, è lo strumento di base per
utilizzare la teoria delle martingale nello studio dei processi di Markov.

Teorema 10.9 Sia f una funzione per la quale è definito Af . Il processo (Mtf )t≥0 definito
da Z t
Mtf = f (Xt ) − (Af )(Xs )ds
0

è una martingala.

Dimostrazione. Si ha infatti, grazie al teorema di Fubini,

E [ f (Xt ) − f (Xs ) | Fs ] = (Tt−s f )(Xs ) − f (Xs )


Z t−s
= (Tr Af )(Xs )ds
0
Z t−s
= E [ (Af )(Xs+r ) | Fs ] dr
0
Z t
= E [ (Af )(Xr ) | Fs ] dr
s
Z t 
= E (Af )(Xr ) dr | Fs
s

e quindi
 Z t  Z s
E f (Xt ) − (Af )(Xr )dr | Fs = f (Xs ) − (Af )(Xr )dr
0 0
 Z t 
+ E f (Xt ) − f (Xs ) − (Af )(Xr )dr | Fs
s
Z s
= f (Xs ) − (Af )(Xr )dr.
0

Il processo (Mtf )t≥0 è quindi una martingala.


Il risultato seguente fa intervenire il semigruppo invece del generatore. Premettiamo la
seguente definizione

Definizione 10.10 Una f ∈ L∞ (E, E, µ) si chiama superarmonica (risp. subarmonica,


armonica) se Tt f ≤ f (risp. ≥, =) per ogni t ≥ 0.

Le funzioni subarmoniche, superarmoniche o armoniche determinano naturalmente sot-


timartingale, supermartingale e martingale associate al processo markoviano.

Proposizione 10.11 Se f ∈ L∞ (E, E) è una funzione superarmonica (risp. subarmonica,


risp. armonica) per il semigruppo markoviano (Tt )t≥0 associato al processo (Xt )t≥0 allora
il processo (f (Xt ))t≥0 è una supermartingala.
108 10. PROCESSI DI MARKOV

Dimostrazione. Basta osservare che il processo (f (Xt ))t≥0 è adattato, le variabili aleatorie
f (Xt ) sono ovviamente integrabili perché limitate e

E [ f (Xt ) | Fs ] = (Tt−s f )(Xs ) ≤ f (Xs )

per ogni t > s > 0.


Vale la pena di osservare che le conclusioni della proposizione precedente valgono anche
per funzioni f non limitate purché le variabili aleatorie (Tr f )(Xs ) siano integrabili.

10.5 Proprietà di Feller


Studiando i processi di Markov a valori in uno spazio metrico (o, addirittura, topologico)
E con la σ-algebra E dei boreliani di E si può utilizzare questa proprietà aggiuntiva che
semplifica le cose. In questo paragrafo consideriamo solo, per semplicità, il caso in cui E è
lo spazio euclideo Rd con la σ-algebra dei boreliani oppure un insieme numerabile come N,
Nd , Z, Zd con la σ-algebra di tutti i suoi sottoinsiemi.
Un semigruppo markoviano definito da (10.2) è determinato dalla sua azione sulle fun-
zioni continue e limitate su E poiché ogni funzione E)-misurabile e limitata è limite puntuale,
µ-quasi ovunque, di una successione di funzioni continue.
Sia C`0 (E; R) lo spazio di Banach delle funzioni continue su E con limite all’infinito con
la norma
kf k∞ = sup |f (x)|.
x∈E

Nel caso in cui E sia uno degli insiemi numerabili elencati sopra, l’unica condizione che deve
soddisfare una f per essere nello spazio C`0 (E; R) è avere limite all’infinito.

Definizione 10.12 Un semigruppo markoviano (Tt )t≥0 si chiama di Feller o felleriano se


1) Tt f ∈ C`0 (Rd ; R) per ogni f ∈ C`0 (Rd ; R) e ogni t ≥ 0,
2) limt→0 kTt f − f k∞ = 0 per ogni f ∈ C`0 (Rd ; R).

Si vede subito che il semigruppo markoviano del processo di Poisson (Proposizione 10.7)
è felleriano e, con un pò più di lavoro che lo è anche il semigruppo del moto browniano.
Se un semigruppo è felleriano di solito si denota con lo stesso simbolo anche la sua
restrizione a C`0 (E; R). Anche il generatore infinitesimale, sempre denotato con lo stesso
simbolo, è una restrizione del generatore su L∞ (E, E, µ ed è definito da
 
Dom(A) = f ∈ C`0 (E; R) | ∃ lim (Tt f − f ) per k · k∞
t→0+
Tt f − f
(Af )(x) = lim .
t→0+ t
Vale la pena si sottolineare il fatto che f appartiene al dominio Dom(A) di A se il limite
precedente esiste per la norma uniforme k · k∞ ovvero

lim+ sup t−1 ((Tf )(x) − f (x)) − Af (x) = 0.



t→0 x∈E

Proposizione 10.13 Sia (Tt )t≥0 un semigruppo markoviano felleriano. Il suo generatore
infinitesimale A ha le proprietà seguenti:
a) la funzione costante 1E appartiene a Dom(A) e A1E = 0,
10.6. IRRIDUCIBILITÀ E TEMPO DI SOGGIORNO IN UN INSIEME 109

b) (principio del massimo) se x ∈ E è un punto di massimo assoluto per una funzione


f ∈ Dom(A) allora (Af )(x) ≤ 0.
Dimostrazione. La proprietà a) segue immediatamente dall’identità Tt 1E = 1E . Per verifi-
care la b) osserviamo che, se x è un punto di massimo assoluto per f allora, posto c = f (x),
abbiamo
(Tt f )(y) ≤ (Tt c1E )(y) = c = f (x)
per ogni y ∈ E grazie alla positività di Tt . Ne segue che
(Tt f )(x) − f (x)
≤0
t
e quindi, prendendo il limite per t → 0+ , troviamo (Af )(x) ≤ 0.

10.6 Irriducibilità e tempo di soggiorno in un insieme


Sia (Ω, F, P) uno spazio probabilizzato e (Ft )t≥0 una filtrazione di sotto-σ-algebre di F. Sia
inoltre
p :]0, +∞[×E × E → [0, 1]
il nucleo di transizione dei processi di Markov omogenei (Xtx )t≥0 a valori un sottoinsieme E
di Rd con insieme dei tempi [0, +∞[, legge iniziale δx e (Tt )t≥0 il semigruppo markoviano
associato. Nel séguito supporremo sempre che i processi (Xtx )t≥0 abbiano traiettorie regolari.
Indicheremo con Ex la speranza rispetto alla misura di probabilità Px determinata dalla
legge iniziale δx di X0 e dalla transizione markoviana p. Ricordiamo che il semigruppo
(Tt )t≥0 induce un semigruppo, denotato sempre nello stesso modo, su L∞ (E, E, µ) poiché
abbiamo supposto che tutte le misure p(t, x, ·) (t > 0) siano assolutamente continue rispetto
alla misura di riferimento µ.
Osserviamo che, data la continuità a destra delle traiettorie, per ogni funzione f continua
e limitata su E, la funzione t → Tt f (x) è pure continua a destra dunque è misurabile.
Definizione 10.14 Il processo markoviano (Xt )t≥0 si chiama irriducibile se, gli unici in-
siemi A ∈ E tali che p(t, x, A) = 0 per µ-quasi ogni x ∈ Ac e ogni t > 0 soddisfano µ(A) = 0
oppure µ(Ac ) = 0.
Diciamo quindi che un processo markoviano è irriducibile se (a meno di insiemi µ-
trascurabili) non esiste nessun sottoinsieme (misurabile) proprio di E nel quale il processo,
partendo da fuori di esso, non può entrare.
Proposizione 10.15 Le condizioni seguenti sono equivalenti:
1. il processo (Xt )t≥0 è irriducibile,
2. per ogni A ∈ E tale che Tt 1A ≤ 1A risulta µ(A) = 0 oppure µ(Ac ) = 0.
Dimostrazione. Dato che
(Tt 1A )(x) ≤ (Tt 1E )(x) = 1
per µ-quasi ogni x ∈ E, è chiaro che Tt 1A ≤ 1A se e solo se (Tt 1A )(x) = 0 per µ-quasi
ogni x ∈ Ac . L’equivalenza delle due affermazioni segue subito dall’identità (Tt 1A )(x) =
p(t, x, A).
Per studiare il comportamento del processo, cosı̀ come abbiamo fatto per il moto brow-
niano multimensionale e per alcuni processi da questo ottenuti, introduciamo la variabile
aleatoria che rappresenta il tempo trascorso dal processo in un certo insieme
110 10. PROCESSI DI MARKOV

Definizione 10.16 Si chiama tempo di soggiorno del processo (Xt )t≥0 nell’insieme A ∈ E
la variabile aleatoria τA a valori [0, +∞]
Z ∞
τA = 1A (Xs )ds.
0

Si chiama tempo medio di soggiorno in A partendo da x la speranza Ex [τA ] (eventualmente


uguale a +∞).

Per verificare che τA è effettivamente una variabile aleatoria basta osservare che, grazie
alla regolarità delle traiettorie, l’applicazione definita su [0, +∞[×Ω a valori in E

(s, ω) → Xs (ω)

è misurabile rispetto alle σ-algebre B([0, +∞[) ⊗ F sul dominio e E sul codominio e quindi,
l’applicazione
(s, ω) → 1A (Xs (ω))
ottenuta per composizione con la funzione 1A definita su E, è pure misurabile. La funzione
τA risulta quindi misurabile per il teorema di Fubini.
Una semplice applicazione dello stesso teorema permette di verificare che

Proposizione 10.17 Il tempo medio di soggiorno in un insieme A è dato da


Z ∞
Ex [τA ] = (Ts 1A )(x)ds.
0

Dimostrazione. Si ha infatti
Z ∞ 
Ex [τA ] = Ex 1A (Xs )ds
Z ∞ 0
= Ex [1A (Xs )] ds
0
Z ∞
= (Ts 1A )(x)ds.
0

Indichiamo con M+ (E, E, µ) l’insieme delle funzioni E-misurabili su E a valori [0, +∞].
La definizione degli operatori (Tt )t≥0 si estende immediatamente a M+ E, E, µ) ponendo

Tt f = sup(Tt (f ∧ n)), (f ∈ M+ (E, E, µ)) .


n≥1

Definizione 10.18 Si chiama potenziale associato al semigruppo markoviano (Tt )t≥0 l’applicazione
U : M+ (E, E, µ) → M+ (E, E, µ) definita da
Z ∞
(U f )(x) = (Ts f )(x)ds.
0

Il potenziale di una funzione f non negativa ha la seguente proprietà.

Proposizione 10.19 Sia f una funzione non negativa. Il potenziale U f è una funzione
superarmonica.

Dimostrazione. Per ogni t > 0 si ha infatti


Z ∞ Z ∞ Z ∞ Z ∞
Tt (U f ) = Tt Ts f ds = Tt+s f ds = Ts f ds ≤ Ts f ds = U f.
0 0 t 0
10.7. RICORRENZA E TRANSIENZA 111

Esempio 10.1 (Potenziale del processo di Poisson) Sia (Tt )t≥0 il semigruppo del processo
di Poisson di parametro λ dato da (10.3). Con semplici calcoli si vede subito che, per ogni
f : N → [0, +∞[ si ha
X f (k) Z ∞
(U f )(n) = e−λt (λt)k dt
k! 0
k≥n
1 X f (k) ∞ −s k
Z
= e s ds
λ k! 0
k≥n
1X
= f (k)
λ
k≥n

poichéPl’integrale è uguale a k!. In particolare, il potenziale è una funzione limitata se la


serie k f (k) è convergente.
Esempio 10.2 (Moto browniano d-dimensionale) Il semigruppo markoviano (Tt )t≥0 è dato
da Z
1 2
(Tt f )(x) = d/2
f (y)e−|y−x| /2t dy
(2πt) Rd
Consideriamo prima il caso in cui d ≥ 3. Per ogni f boreliana non negativa abbiamo
Z ∞ Z
dt 2
(U f )(x) = d/2
f (y)e−|y−x| /2t dy
0 (2πt) R d
Z Z ∞ −|y−x|2 /2t
e
= f (y)dy dt.
Rd 0 (2πt)d/2
Osserviamo che, con il cambiamento di variabili s = R2 /2t, si ha
Z ∞ −R2 /2t Z ∞
e 1
d/2
dt = d/2 Rd−1
e−s sd/2−2 ds
0 (2πt) π 0
Γ(d/2 − 1)
= .
π d/2 Rd−2
Il potenziale U f è quindi
Γ(d/2 − 1)
Z
f (y)
(U f )(x) = d/2 d−2
dy.
π Rd |y − x|

È abbastanza facile verificare che, se f è una funzione a supporto compatto, allora U f è una
funzione limitata.
Nei casi in cui d = 1 e d = 2 l’integrale rispetto a t è divergente (a meno che f sia µ-quasi
ovunque nulla) e, dunque, il potenziale U f è infinito.

10.7 Ricorrenza e transienza


I processi di Markov irriducibili si dividono in due classi: quelli il cui tempo medio di
soggiorno negli insiemi limitati è infinito (processi ricorrenti) e quelli il cui tempo medio di
soggiorno in ogni insieme limitato è finito (processi transienti). I processi transienti tendono
quindi a muoversi verso l’infinito.
La classificazione dei processi di Markov in transienti e ricorrenti generalizza l’analoga
classificazione delle catene di Markov.
Lo studio del potenziale è lo strumento fondamentale per stabilire se un processo è
transiente o ricorrente. Iniziamo quindi con il risultato seguente
112 10. PROCESSI DI MARKOV

Teorema 10.20 Le condizioni seguenti sono equivalenti:

1. esiste una f ∈ L∞ (E, E, µ) strettamente positiva con potenziale U f limitato,

2. esiste una f ∈ L∞ (E, E, µ) non negativa con potenziale U f finito e strettamente posi-
tivo µ-quasi ovunque,

3. esiste una successione non decrescente (An )n≥1 di elementi di E la cui unione è
l’insieme E (a meno di insiemi µ-trascurabili) tali che U 1An sia limitato.

Dimostrazione. 1. ⇒ 2. È evidente poiché se f è strettamente positiva allora anche U f è


strettamente positivo.
2. ⇒ 1. Sia f ∈ L∞ (E, E, µ) non negativa con potenziale U f finito e strettamente positivo
µ-quasi ovunque. Ricordiamo che, grazie alla Proposizione 10.19, il potenziale U f di f è
una funzione superarmonica ovvero Tt U f ≤ U f per ogni t ≥ 0 e inoltre, dato che f è
strettamente positiva, si ha Tt U f < U f per ogni t > 0. Poiché la funzione r → r/(1 + r) su
[0, +∞[ è concava, posto g = U f /(1 + U f ), grazie alla diseguaglianza di Jensen abbiamo
 
(U f )(Xt )
Tt g(x) = Ex
1 + (U f )(Xt )
Ex [(U f )(Xt )]

1 + Ex [(U f )(Xt )]
(Tt U f )(x)
= .
1 + (Tt U f )(x)

La funzione r → r/(1 + r) su [0, +∞[ è inoltre strettamente crescente e quindi

(U f )(x)
Tt g(x) ≤ = g(x)
1 + (U f )(x)

e Tt g < g per ogni t > 0 perché Tt U f < U f per ogni t > 0. Posto h = g − T1 g abbiamo una
funzione strattamente positiva con
Z ∞ Z 1
(U h)(x) = ((Tt g)(x) − (Tt+1 g)(x)) dt = (Tt g)(x)dt ≤ kgk∞ ≤ 1
0 0

cioè con potenziale limitato da 1.


2. ⇒ 3. Basta considerare An = { x ∈ E | f (x) ≥ 1/n } e osservare che 1An ≤ nf da cui

(U 1An )(x) ≤ n(U f )(x)

poiché gli operatori Tt del semigruppo markoviano sono positivi.


3. ⇒ 1. Basta considerare la funzione f definita da
X
f (x) = 2−n kU 1An k−1
∞ 1An (x)
n≥1

dove k · k∞ indica l’estremo superiore essenziale di U 1An . Questa f è strettamente positiva


perché l’unione degli An è uguale a E e ha potenziale limitato perché
X X
kU f k∞ ≤ 2−n kU 1An k−1
∞ · kU 1An k∞ = 2−n = 1.
n≥1 n≥1

Il teorema è cosı̀ dimostrato.


10.8. MISURE INVARIANTI 113

Supponendo che il semigruppo markoviano sia di Feller ovvero che: E è uno spazio
metrico, E è la σ-algebra dei boreliani di E e la funzione x → (Tt f )(x) è continua per
ogni f continua. Allora si può prendere come successione (An )n≥1 una successione di sfere
(B(x, rn ))n≥1 con centro un qualunque punto di E e raggi rn divergenti a +∞.
In modo simile al Teorema 10.20 si dimostra il seguente

Teorema 10.21 Le condizioni seguenti sono equivalenti:

1. per ogni funzione f non negativa e quasi ogni x ∈ E risulta (U f )(x) = 0 oppure
(U f )(x) = +∞,

2. per ogni insieme A ∈ E risulta (U 1A )(x) = 0 oppure (U 1A )(x) = +∞.

Definizione 10.22 Un processo markoviano si chiama ricorrente se valgono le condizioni


equivalenti del Teorema 10.21, si chiama transiente se valgono le condizioni equivalenti del
Teorema 10.20.

Teorema 10.23 Un processo markoviano irriducibile è transiente o ricorrente.

Dimostrazione. (idea)Basta dimostrare che la funzione indicatrice dell’insieme delle x ∈ E


tali che (U f )(x) < +∞ è subarmonica e quindi, per l’irriducibilità l’insieme stesso o il suo
complementare devono avere misura nulla.

Teorema 10.24 Un processo markoviano irriducibile è transiente se e solo se esiste una


f : E → [0, +∞[ non costante tale che Tt f ≤ f per ogni t ≥ 0.

Dimostrazione. (idea) Se il processo è transiente allora esiste una f : E → [0, +∞[ tale che
0 < U f (x) < +∞ per µ-quasi ogni x. Posto g = U f si ha allora Tt g ≤ g. La funzione g non
e’ costante perche’, se lo fosse, si avrebbe Tt g = g per ogni t ≥ 0. Tuttavia
Z ∞
lim Tt g = lim Ts f ds = 0
t→∞ t→∞ t

e quindi g non può essere costante.


Viceversa, se esiste una f con le proprietà suddette, detto A il generatore del semigruppo
(Tt )t≥0 , poniamo g = −Af . Dato che Tt f ≤ f per ogni t ≥ 0, la g risulta non negativa. Si
ha inoltre Z t Z t
d
Ts gds = − Ts f ds = [−Ts f ]t0 = f − Ts f ≤ f.
0 0 ds
Facendo tendere t all’infinito si vede che U g ≤ f e dunque abbiamo trovato una g con
potenziale finito µ quasi ovunque.
Nota. La dimostrazione del “viceversa” del teorema precedente è incompleta per due ra-
gioni: 1) la g potrebbe essere la funzione nulla, 2) la f potrebbe non appartenere al dominio
del generatore A. La dimostrazione completa però sarebbe più tecnica e la omettiamo.

10.8 Misure invarianti


Sia (Ω, F, P) uno spazio probabilizzato e (Ft )t≥0 una filtrazione di sotto-σ-algebre di F. Sia
inoltre p il nucleo di transizione di un processo di Markov omogeneo (Xt )t≥0 a valori in E
con insieme dei tempi [0, +∞[ e (Tt )t≥0 il semigruppo markoviano su L∞ (E, E, µ) associato.
114 10. PROCESSI DI MARKOV

Definizione 10.25 Una misura di probabilità ν su E si chiama invariante se, per ogni
f ∈ Mb (E) e ogni t ≥ 0, si ha
Z Z
f (x)ν(dx) = (Tt f )(x)ν(dx).
E E

Il semigruppo markoviano agisce sulle misure limitate ν su E nel modo seguente


Z
(νTt )(A) = ν(dx)(Tt 1A )(x).
E

In particolare, se g è una densità di probabilità su E (ovvero una funzione g non negativa su


E, E-misurabile il cui integrale su E rispetto a µ è uguale a 1) e ν la misura di probabilità
su E di base µ allora si ha
Z
(νTt )(A) = µ(dx)g(x)(Tt 1A )(x).
E

In questo caso, indicheremo con gTt la densità di νTt rispetto a µ. Utilizzeremo inoltre la
notazione Z
hg, Tt f i := g(x)(Tt f (x))µ(dx)
E
∞ 1
per f ∈ L (E, E, µ) e g ∈ L (E, E, µ).

Teorema 10.26 Siano g0 , g∞ densità di probabilità su E e (tn )n≥1 una successione diver-
gente a +∞ tale che  Z tn 
1
lim (g0 Ts )ds, f = h g∞ , f i (10.8)
n→∞ tn 0

per ogni f ∈ L∞ (E, E, µ). Allora g∞ è la densità di una misura invariante.

Osserviamo che la condizione (10.8) equivale alla convergenza debole in L1 (E, E, µ) della
successione di densità di probabilità su E
Z tn
1
(g0 Ts )ds.
tn 0

Dimostrazione. Occorre verificare che g∞ Tt = g∞ per ogni t ≥ 0. Si vede subito che


tn
1 tn
Z Z
1
(g0 Ts )dsTt = (g0 Ts+t )ds
tn 0 tn 0
1 t+tn
Z
= (g0 Ts )ds
tn t
1 tn 1 t 1 t+tn
Z Z Z
= (g0 Ts )ds − (g0 Ts )ds + (g0 Ts )ds
tn 0 tn 0 tn tn

per ogni n ≥ 1. Facendo tendere n all’infinito, il primo termine converge (debolmente in


L1 (E, E, µ)) a g∞ . Il secondo e il terzo tendono a 0 perché gli integrali sono limitati, infatti
Z t+tn Z t+tn Z t+tn


(g0 Ts )ds ≤
k(g0 Ts )k1 ds ≤ kg0 k1 ds = tkg0 k1
tn 1 tn tn

e 1/tn tende a 0.
10.8. MISURE INVARIANTI 115

Il Teorema precedente non fornisce un metodo pratico per il calcolo delle densità delle
misure invarianti. Per determinarle effettivamente si può partire dall’osservazione che una
densità invariante g soddifa la condizione

hg, Tt f i = hg, f i

per ogni t ≥ 0 e ogni f ∈ L∞ (E, E, µ). Ne segue che , derivando in 0,

hg, Af i = 0

per ogni f nel dominio del generatore A. Nel caso in cui A sia un operatore differenziale si
può calcolare g con un’integrazione per parti e risolvendo poi un’equazione differenziale
116 10. PROCESSI DI MARKOV

10.9 Esercizi
Esercizio 10.1 Sia (Nt )t≥0 un processo di Poisson con parametro λ > 0. Mostrare che il
processo (Xt )t≥0 definito da Xt = Nt − λt è un processo di Markov ricorrente.

Esercizio 10.2 Sia (Nt )t≥0 un processo di Poisson con parametro λ >. Mostrare che il
processo (Xt )t≥0 definito da
Xt = (−1)Nt
è un processo di Markov, determinare il semigruppo associato e il suo generatore. Mostrare
che il processo (Xt )t≥0 è ricorrente.
11

Appendice

11.1 Somme di variabili aleatorie indipendenti


Nel Calcolo delle Probabilità si pone spesso il problema di trovare la legge di una somma di
variabili aleatorie indipendenti con leggi date.
Nel caso particolare di due varibili aleatorie reali X1 , X2 con densità f1 , f2 , come è ben
noto, la densità di X1 + X2 è data dalla funzione f1 ∗ f2 , chiamata prodotto di convoluzione
di f1 e f2 , definita da
Z
(f1 ∗ f2 )(s) = f1 (s − r)f2 (r)dr
R

In generale si dà la definizione seguente

Definizione 11.1 Siano X1 , . . . , Xn variabili aleatorie reali indipendenti con leggi µ1 , . . . , µn .


Si chiama prodotto di convoluzione delle µ1 , . . . , µn la legge della somma X1 + · · · + Xn .

Molte leggi notevoli sono prodotto di convoluzione di un certo numero n di altre leggi.
Certe leggi notevoli sono esprimibili come prodotto di convoluzione di k leggi di probabilità
qualunque sia k.
Le leggi di Poisson e normale, per esempio, godono di questa proprietà. Infatti, per ogni
k ≥ 1, la legge di Poisson di parametro λ è prodotto di convoluzione di k leggi di Poisson
di parametro λk. Analogamente la legge normale N (µ, σ 2 ) è prodotto di convoluzione di k
leggi normali N (µk, σ 2 k).
Le leggi che godono di questa proprietà si chiamano infinitamente divisibili e sono carat-
terizzate dal seguente

Teorema 11.2 Una legge di probabilità µ su B(R) è infinitamente divisibile se e solo se la


sua funzione caratteristica ϕ si può rappresentare nella forma

σ 2 t2
 Z   
itx itx
ϕ(t) = exp itm − + e −1− ν(dx)
2 R 1 + x2

dove m ∈ R, σ 2 ≥ 0 e ν è una misura su B(R) tale che

x2
Z
ν(dx) < ∞.
R 1 + x2

117
118 11. APPENDICE

11.2 Speranza di una variabile aleatoria non negativa


Mostreremo la seguente formula notevole sulla speranza di una variabile aleatoria reale estesa
non negativa V definita su uno spazio probabilizzato (Ω, F, P)
Z ∞
E[V ] = P { V > x } dx. (11.1)
0

Infatti, grazie al teorema di Fubini, si ha


Z
E[V ] = V (ω)dP(ω)

Z Z V (ω)
= dP(ω) dx
Ω 0
Z
= 1[0,V (ω)[ (x)dx
Ω×[0,+∞[
Z ∞ Z
= dx 1{ V >x } (ω)dP(ω)
0 Ω
Z ∞
= dxP { V > x } dx.
0

Osserviamo che la formula (11.1) vale anche scrivendo P { V ≥ x } al posto di P { V > x }


come si vede sùbito dalla dimostrazione.
Nel caso in cui la variabile aleatoria V abbia valori in N si può dimostrare analogamente
la formula
X∞
E[V ] = P{V > n}. (11.2)
n=0

Questa formula si può anche dedurre immediatamente dalla (11.1) osservando che
Z ∞ ∞ Z
X n+1
dxP { V > x } dx = P { V > x } dx
0 n=0 n
X∞ Z n+1
= P { V > n } dx
n=0 n

X∞
= P{V > n}.
n=0

11.3 Funzioni α-hölderiane


Una funzione f definita su un intervallo [a, b] a valori reali si chiama α-hölderiana oppure
hölderiana con esponente α se soddisfa la diseguaglianza

|f (t) − f (s)| ≤ K|t − s|α

con α ∈]0, 1] e K costante per ogni t, s ∈]a, b[. La costante K potrebbe dipendere da f, a, b
ma, naturalmente, deve essere indipendente da t, s. Nel caso in cui α = 1 la f si dice
lipschitziana.
Una funzione α-hölderiana è anche β-hölderiana per ogni β ∈]0, α]. Infatti si ha

|t − s|α = |t − s|α−β · |t − s|β ≤ (b − a)α−β · |t − s|β


11.4. UNIFORME INTEGRABILITÀ 119

Una funzione α-holderiana è continua anzi, addirittura uniformemente continua, ma non


necessariamente derivabile. Basta pensare alla funzione modulo x → |x| per mostrare una
funzione f : [−1, 1] → R lipschitziana (dunque α-hölderiana per ogni α ∈]0, 1]) che non è
derivabile in tanti punti. Infatti, presa una successione (rn )n≥1 densa in [−1, 1], la funzione
X
f (x) = 2−n |x − rn |
n≥1

è lipschitziana ma non derivabile in ogni punto rn .


Il seguente esempio notevole è utile per capire quanto irregolare può essere una funzione
hölderiana.

Proposizione 11.3 Qualunque siano b > 0 e θ ∈]0, 1] la funzione

f : [0, b] → R, f (t) = |t|θ

soddisfa
|f (t) − f (s)| ≤ |t − s|θ
dunque è θ-hölderiana con costante K = 1.

Dimostrazione. Basta verificare la diseguaglianza precedente per ogni t > s ≥ 0. Se θ = 1


si tratta di una nota proprietd̀el modulo. Supponiamo quindi θ ∈]0, 1[.
Ponendo x = s/t basta verificare che, per ogni x ∈ [0, 1] si ha
1 − xθ ≤ |1 − x|θ .

Condideriamo la funzione

1 − xθ
ϕ :]0, 1] → R, ϕ(x) = .
|1 − x|θ

Si verifica facilmente (con la regola dell’Hôpital) che

ϕ(0) = 1, lim ϕ(x) = (1 − x)1−θ xθ−1 = 0.


x→1−

Inoltre, calcolando la derivata, si trova

ϕ0 (x) = θ(xθ−1 − 1)(1 − x)−(θ+1) ≤ 0

per ogni x ∈]0, 1[. Ne segue che la funzione ϕ è non-crescente su [0, 1] e quindi ϕ(x) ≤
ϕ(0) = 1 per ogni x ∈ [0, 1].
Il caso in cui α > 1 non è interessante perché

lim |f (t) − f (s)| ≤ K lim |t − s|α−1 = 0.


t→s t→s

Dunque f è derivabile con derivata nulla e quindi costante.

11.4 Uniforme integrabilità


L’uniforme integrabilità è una proprietà di una famiglia di funzioni che si utilizza spesso
nei passaggi al limite sotto il segno d’integrale quando non è possibile applicare il più noto
teoremi sulla convergenza dominata.
Sia (E, E, µ) uno spazio di misura
120 11. APPENDICE

Definizione 11.4 Una famiglia (fα )α∈A di funzioni reali estese su E, E-misurabili e µ-
integrabili, si chiama uniformemente integrabile se
Z
lim sup |fα (x)| µ(dx) = 0. (11.3)
c→+∞ α∈A { x∈E | |fα (x)|>c }

Osserviamo che, se la misura µ è finita cioè µ(E) < +∞, allora una famiglia (fα )α∈A uni-
formemente integrabile è uniformemente limitata in L1 (E, E, µ). Infatti, detto c un numero
reale strettamente positivo tale che
Z
|fα (x)| µ(dx) < 1
{ x∈E | |fα (x)|>c }

per ogni α ∈ A si ha
Z Z Z
|fα (x)| µ(dx) = |fα (x)| µ(dx) + |fα (x)| µ(dx)
E { x∈E | |fα (x)|≤c } { x∈E | |fα (x)|>c }
≤ cµ(E) + 1.
Come abbiamo detto l’uniforme integrabilità è una condizione più debole dell’uniforme
dominazione. Vale infatti la seguente
Proposizione 11.5 Una famiglia (fα )α∈A di funzioni reali estese su E, E-misurabili tali
che |fα | ≤ g per qualche funzione reale estesa g, E-misurabile e µ-integrabile è uniforme-
mente integrabile.
Dimostrazione. Si ha infatti, per ogni α ∈ A e c > 0,
Z Z
|fα (x)| µ(dx) ≤ g(x)µ(dx) = 0
{ x∈E | |fα (x)|>c } { x∈E | |fα (x)|>c }

e, inoltre,
Z Z
1 1
µ { x ∈ E | |fα (x)| > c } ≤ |fα (x)|µ(dx) ≤ g(x)µ(dx).
c E c E

Ne segue che µ { x ∈ E | |fα (x)| > c } converge verso 0 per c tendente all’infinito uniforme-
mente in α ovvero per ogni δ > 0 esiste un c(δ) > 0 tale che
sup µ { x ∈ E | |fα (x)| > c } < δ
α

per ogni c > c(δ). Dato che la funzione g è µ-integrabile, per ogni ε > 0 esiste un δ > 0 tale
che se µ(F ) < δ allora Z
g(x)µ(dx) < ε.
F
Si ha quindi, per ogni c > c(δ) e α ∈ A
Z Z
|fα (x)| µ(dx) ≤ g(x)µ(dx) < ε.
{ x∈E | |fα (x)|>c } { x∈E | |fα (x)|>c }

La condizione (11.3) è cosı̀ verificata.


La proposizione seguente dà un’altra condizione sufficiente per l’uniforme integrabilità.
Ricordiamo che una famiglia di funzioni reali estese su E (fα )α∈A , E-misurabili, è detta
limitata in Lp (E, E, µ) se Z
sup |f (x)|p µ(dx) < ∞.
α∈A E
11.4. UNIFORME INTEGRABILITÀ 121

Proposizione 11.6 Supponiamo che µ(E) < +∞. Una famiglia (fα )α∈A limitata in Lp (E, E, µ)
con p > 1 è uniformemente integrabile.

Dimostrazione. Posto
 Z 1/p
p
M := sup |fα (x)| µ(dx) ,
α∈A E

e q = p/(p − 1), indicando con { |fα | > c } l’insieme { x ∈ E | |fα (x)| > c }, grazie alla
diseguaglianza di Hölder abbiamo
Z Z  p1
1 1
p
|fα (x)| µ(dx) ≤ (µ { |fα | > c }) q
|fα (x)| µ(dx) ≤ M (µ { |fα | > c }) q
{ |fα |>c } E

Inoltre, come nella dimostrazione della Proposizione 11.5,


Z
1
µ { |fα | > c } ≤ |fα (x)|µ(dx)
c { |fα |>c }
Z  p1
1 1
p
≤ (µ { |fα | > c }) q
|fα (x)| µ(dx)
c E
M 1
≤ (µ { |fα | > c }) q .
c
Ne segue che, per ogni α
µ { |fα | > c } ≤ (M/c)p ,
La misura dell’insieme { |fα | > c } converge quindi verso 0 per c tendente all’infinito uni-
formemente in α e la conclusione segue come nella Proposizione 11.5.
Mostriamo ora il teorema sul passaggio al limite nell’integrale che si utilizza nella di-
mostrazione del teorema d’arresto. Enunciamo il risultato per successioni ma evidentemente
vale anche per famiglie di funzioni indicizzate, per esempio, da un parametro in un intervallo
(eventualmente illimitato) di R.

Teorema 11.7 Sia (E, E, µ) uno spazio di misura con µ(E) < ∞ ed (fn )n≥1 una suc-
cessione di funzioni reali estese E-misurabili, µ-integrabili, uniformemente integrabili, che
convergano µ-quasi ovunque verso una funzione f . Allora f è µ-integrabile e
Z Z
lim fn (x)µ(dx) = f (x)µ(dx).
n→∞ E E

Dimostrazione. La funzione f è µ-integrabile; infatti, grazie al lemma di Fatou,


Z Z
|f (x)|µ(dx) ≤ lim inf |fn (x)|µ(dx) < ∞
E n→∞ E

poiché, come abbiamo osservato, se µ(E) < ∞, allora l’uniforme integrabilità garantisce che
la successione (fn )n≥1 è limitata in L1 (E, E, µ).
Verifichiamo che possono scambiare limite e integrale. Grazie all’uniforme integrabilità,
per ogni ε > 0, possiamo trovare un c(ε) > 0 tale che
Z
|fn (x)|µ(dx) < ε
{ x∈E | |fn (x)|>c }
122 11. APPENDICE

per ogni n ≥ 1 e ogni c > c(ε). Si ha allora


Z Z Z Z Z

fn dµ − f dµ ≤

(fn − f ) dµ +

fn dµ +

f dµ


E E { |fn |≤c } { |fn |>c } { |fn |>c }
Z Z

≤ (fn − f ) dµ + f dµ + ε.

{ |fn |≤c } { |fn |>c }

Dato che f è integrabile e, come nella dimostrazione della Proposizione 11.5,


Z Z
µ{ |fn | > c } ≤ c−1 |fn |dµ ≤ c−1 sup |fn |dµ
E n≥1 E

per ogni c > 0, prendendo eventualmente un c(ε) più grande del precedente abbiamo quindi
Z

f dµ < ε


{ |fn |>c }

per ogni n ≥ 1 e c > c(ε) da cui


Z Z Z


fn dµ − f dµ ≤ (fn − f ) dµ + 2ε.


E E { |fn |≤c }

Sull’insieme { |fn | ≤ c } si ha evidentemente |fn − f | ≤ c + |f | e quindi, grazie al teorema


della convergenza dominata,
Z Z

lim sup fn dµ − f dµ ≤ 2ε.
n→∞ E E

La conclusione segue dall’arbitrarietà di ε.


Osserviamo che il teorema precedente è falso se la misura µ non è finita come mostra il
seguente controesempio. Consideriamo E = R con la σ-algebra E dei boreliani di R e sia µ
la misura di Lebesgue su E. La successione di funzioni (fn )n≥1 definita da

fn (x) = 1[n,n+1]

è uniformemente integrabile perché l’insieme { x ∈ E | |fn (x)| > 1 } è vuoto per ogni n ≥ 1
e converge verso 0. Tuttavia si ha
Z
lim fn (x)µ(dx) = lim 1 = 1 6= 0.
n→∞ E n→∞

Il Teorema 11.7 e la Proposizione 11.5 fanno sorgere spontaneamente la domanda: es-


istono successioni di funzioni uniformemente integrabili, convergenti puntualmente e non
dominate? La risposta è affermativa come mostra il seguente esempio (e il fatto che, se cosı̀
non fosse, ci saremmo accontentati del classico teorema della convergenza dominata).
Consideriamo lo spazio probabilizzato (E, E, µ) dove E = [0, +∞[, E è la σ-algebra dei
boreliani di [0, +∞[ e µ è la misura definita dalla densità x → (1 + x)2 ovvero
Z
dx
µ(B) = 2
B (1 + x)
11.4. UNIFORME INTEGRABILITÀ 123

per ogni boreliano B contenuto in [0, +∞[. Per ogni n ≥ 1 sia fn la funzione

fn (x) = nα 1]n,n+1] (x)

con α > 0 che è integrabile su [0, +∞[ poiché


n+1

Z Z
fn (x) dx
dx = nα = .
[0,+∞[ (1 + x)2 n (1 + x)2 n(n + 1)

La successione di funzioni (fn )n≥1 è dunque limitata in L1 (E, E, µ) per α ≤ 2. Inoltre è


uniformemente integrabile per α < 2. Infatti, qualunque sia c > 0 è chiaro che, per n ≥ c1/α
si ha

Z Z
fn dµ = fn dµ =
{ |fn |>c } [0,+∞[ n(n + 1)
mentre per n < c1/α l’integrale qui sopre è nullo. Per α < 2 si ha quindi
Z
c
0 ≤ lim sup fn dµ ≤ lim 1/α 1/α =0
c→∞ n≥1 { |f |>c } c→∞ c (c + 1)
n

e la successione (fn )n≥1 è uniformemente integrabile.


Verifichiamo infine che non è dominata da nessuna funzione integrabile. Infatti, se g è
una funzione che soddisfa fn ≤ g per ogni n ≥ 1, allora si ha
X
g≥ fn
n≥1

e quindi

Z Z X
gdµ ≥ fn dµ = = +∞
[0,+∞[ [0,+∞[ n(n + 1)
n≥1

per ogni α > 0.


Si potrebbe verificare che l’uniforme integrabilità è condizione necessaria per ottenere la
conclusione del Teorema 11.7.