Sei sulla pagina 1di 216

Universit`a degli Studi di Roma La Sapienza

Anno Accademico 2008-2009


` di Scienze Matematiche Fisiche e Naturali
Facolta

Corso di Laurea in Matematica


Alcuni appunti per il corso di
METODI PROBABILISTICI
PER LECONOMIA E LA FINANZA
Giovanna Nappo
A.A. 2008/09

versione del 29 maggio 2009

Indice
Introduzione

iv

1 Cenni sul funzionamento e sulla storia dei mercati finanziari


1.1 Mercati Finanziari . . . . . . . . . . . . . . . . . . . . . . . . . . .
Appendice: tasso di interesse a tempo continuo . . . . . . . . . . .
Appendice: Richiami sulle equazioni differenziali lineari
1.2 Un esempio concreto di derivato finanziario . . . . . . . . . . . . .
1.3 Teorema dellarbitraggio . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Il modello binomiale uniperiodale . . . . . . . . . . . . . . . . . . .
1.4.1 Modello binomiale uniperiodale con contingent claim . . . .
2 Richiami su spazi di probabilit`
a
2.1 Esempi di spazi di probabilit`
a . . . . . . . . . . . . . . . . . . .
2.2 Variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Distribuzioni di variabili aleatorie . . . . . . . . . . . . . . . . .
2.4 Valori attesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Appendice: variabili Gaussiane multidimensionali . . . . . . . .
2.6 Appendice: Spazi di variabili aleatorie . . . . . . . . . . . . . .
2.6.1 Sottospazi dello spazio delle v.a.di quadrato integrabile
2.6.2 Regressione lineare . . . . . . . . . . . . . . . . . . . . .
2.7 Appendice: Approccio soggettivista alla probabilit`a . . . . . . .
3 Valori attesi e probabilit`
a condizionali
3.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Propriet`a del valore atteso condizionale . . . . . . . . . . .
3.4 Equivalenza tra le definizioni di valore atteso condizionale
sommabile . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5 Dimostrazioni delle propriet`
a del valore atteso condizionale
3.6 Probabilit`
a condizionali regolari . . . . . . . . . . . . . . .
3.7 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.
.
. .
. .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
per variabili aleatorie
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .

4 Martingale
4.1 Esempi di martingale e di submartingale . . . . . . . . . . . . . .
4.2 Decomposizione di Doob . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Applicazioni: verso lintegrale stocastico a tempo continuo
4.3 Martingale, submartingale e tempi darresto . . . . . . . . . . . .
4.3.1 Tempo continuo . . . . . . . . . . . . . . . . . . . . . . .
4.4 Alcune propriet`
a dei tempi darresto . . . . . . . . . . . . . . . .
4.5 Caso a tempo discreto . . . . . . . . . . . . . . . . . . . . . . . .
4.6 Applicazione: la rovina del giocatore con le martingale . . . . .
4.7 Disuguaglianza di Kolmogorov per submartingale non negative .
4.8 Convergenza di martingale . . . . . . . . . . . . . . . . . . . . . .
4.9 Disuguaglianza di Doob . . . . . . . . . . . . . . . . . . . . . . .
4.10 Estensioni alle martingale a tempo continuo (cenni)*** . . . . .
4.11 Processi misurabili e tempi darresto*** . . . . . . . . . . . . . .

. . .
. . .
***
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

1
2
7
8
10
12
14
16
20

.
.
.
.
.
.
.
.
.

27
27
30
32
34
37
41
42
42
44

47
. 47
. 49
. 56

. . . . . . .
. . . . . . .
. . . . . . .
di quadrato
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .

.
.
.
.

58
59
63
65

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

68
69
75
79
85
86
87
88
90
92
92
94
95
96

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

ii

MPEF 01-07-2009

5 Mercato (B,S): investimenti, propriet`


a e caratteristiche
5.1 Struttura del mercato (B,S) . . . . . . . . . . . . . . . . . . . .
5.1.1 Strategia di investimento di un portfolio . . . . . . . . . .
5.1.2 Mercato scontato . . . . . . . . . . . . . . . . . . . . . . .
5.2 Nozione di copertura. Prezzo superiore e inferiore. . . . . . . . .
5.2.1 Mercato completo e incompleto . . . . . . . . . . . . . . .
5.3 Mercato senza opportunit`
a di arbitraggio . . . . . . . . . . . . .
5.4 Primo e Secondo Teorema Fondamentale . . . . . . . . . . . . . .
5.4.1 Sufficienza del Teorema APT1 . . . . . . . . . . . . . . .
5.4.2 Necessit`
a del Teorema APT1: trasformazione condizionale
5.5 Completezza e rappresentabilit`
a*** . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

98
98
99
103
104
107
108
109
113
114
119

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

122
122
123
125
126
129
133

7 Il modello di Black e Scholes come limite del modello binomiale multiperiodale


7.1 Il Modello Binomiale Multiperiodale . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.1 Ipotesi e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Approssimazione del Modello Binomiale Multiperiodale . . . . . . . . . . . . . . . . .
7.2.1 Il modello approssimato, a tempo continuo . . . . . . . . . . . . . . . . . . . .
7.2.2 Dimostrazione della formula di Black e Scholes . . . . . . . . . . . . . . . . . .
7.2.3 Dimostrazione alternativa della formula di Black e Scholes . . . . . . . . . . . .
7.3 Il moto Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3.1 Approssimazione del moto browniano per t fissato . . . . . . . . . . . . . . . .
7.3.2 Indipendenza ed omogeneit`
a degli incrementi . . . . . . . . . . . . . . . . . . .
7.3.3 Definizione del moto browniano e del modello di Black e Scholes . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

140
140
140
142
142
144
150
151
151
153
153

6 Il modello di Cox Ross Rubinstein (CRR-model)


6.1 Caratteristiche del modello . . . . . . . . . . . . . . . .
6.1.1 ***Il modello CRR `e arbitrage-free e completo .
6.1.2 ***Rappresentabilit`
a nel mercato scontato, per il
6.2 Prezzi di copertura per opzioni Europee . . . . . . . . .
6.2.1 Calcolo del prezzo di copertura per lopzione call
6.3 Appendice: Alberi binomiali e modello CRR*** . . . . .

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
di Esscher .
. . . . . . . . .

. . . . . . . .
. . . . . . . .
modello CRR
. . . . . . . .
. . . . . . . .
. . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

8 Processi aleatori a tempo continuo


8.1 Processi aleatori, definizioni ed esempi . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Osservazione sulla definizione di un processo solo attraverso le sue distribuzioni finito
8.3 Esistenza di una versione continua: criterio di Chensov-Kolmogorov. . . . . . . . . .
8.4 Le traiettorie del processo di Wiener non sono a variazione limitata . . . . . . . . . .
8.5 Processi ad incrementi indipendenti ed omogenei . . . . . . . . . . . . . . . . . . . .
8.6 Esempi di martingale a tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . .
8.7 Processi di Markov regolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.7.1 Processo di Orstein-Ulhenbeck . . . . . . . . . . . . . . . . . . . . . . . . . .
8.7.2 Moto browniano geometrico e modello di Black-Scholes . . . . . . . . . . . .
8.8 Appendice: dimostrazione del Teorema di esistenza di Kolmogorov . . . . . . . .
8.8.1 Caso a tempo discreto: metodo diretto . . . . . . . . . . . . . . . . . . . . . .
8.8.2 Osservazione su RI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.8.3 Problemi con lo spazio canonico . . . . . . . . . . . . . . . . . . . . . . . . .
8.9 Appendice: dimostrazione del criterio di Chensov-Kolmogorov . . . . . . . . . . .

156
. . . . . . . 156
dimensionali161
. . . . . . . 162
. . . . . . . 162
. . . . . . . 165
. . . . . . . 167
. . . . . . . 170
. . . . . . . 173
. . . . . . . 176
. . . . . . . 179
. . . . . . . 185
. . . . . . . 186
. . . . . . . 187
. . . . . . . 188

9 Propriet`
a del moto browniano
9.1 Trasformazioni del moto browniano . . . . . . . . .
9.2 Propriet`a di Markov forte per il processo di Wiener
9.3 Principio di riflessione . . . . . . . . . . . . . . . .
9.4 Tempi di uscita da una striscia . . . . . . . . . . .
9.5 Integrale stocastico: cenni . . . . . . . . . . . . . . .
9.5.1 Processi elementari . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

191
191
191
193
195
198
198

MPEF 01-07-2009

9.6
9.7

iii

Calcolo stocastico e formula di It


o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
9.6.1 Moto browniano geometrico e il suo differenziale stocastico . . . . . . . . . . . . . . . . . 206
Equazioni differenziali stocastiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

Bibliografia

211

iv

MPEF 01-07-2009

Introduzione
Questi appunti sono una raccolta di vari appunti, scritti durante vari anni di insegnamento di corsi universitari
sui processi aleatori. E questo spiega la ancora non completa coerenza della presentazione degli argomenti.
Nella preparazione delle lezioni ho utilizzato diversi testi e i principali sono il testo di P. Baldi [1] e quello di A.
N. Shiryaev [17]. Ma andrebbero citati anche altri testi, come ad esempio il testo di L. Breiman [6] e i testi di S.
Ross [14] e [15]. Inoltre, in particolare per le parti dedicate agli esempi in finanza, ho utilizzato, rimaneggiandole,
anche alcune parti delle tesi di laurea di due studentesse Valeria Belleudi e Stefania Latella, che ringrazio per
il lavoro svolto. Questo spiega la grande discontinuit`a di stile delle varie parti di questi appunti.

A partire dallanno accademico 2003/04 il corso di Metodi Probabilistici per lEconomia e la Finanza `e
divenuto un corso complementare della laurea triennale in Matematica, di conseguenza si `e posto il problema
di riuscire a presentare argomenti come il valore atteso condizionato e le martingale in modo che uno studente
con un bagaglio minimo di conoscenze in probabilit`a possa ugualmente capire lutilit`a di questi concetti e le
sue applicazioni in finanza. Lo sforzo principale fatto consiste appunto in questo tentativo, ma per ora si tratta
solo di un tentativo preliminare.
Nonostante ci`
o rimangono nel testo alcune note che erano state scritte per studenti con un bagaglio di
conoscenze pi`
u elevato, quelle parti per`
o non sono state ancora riguardate.

Notazioni: I capitoli, o le sezioni, con il segno r contengono richiami di nozioni di base di teoria delle
probabilit`a, mentre i capitoli, o le sezioni, con il segno contengono argomenti di approfondimento.

Programma per lanno accademico 2003/04: I capitoli, le sezioni, singoli teoremi o dimostrazioni con il
segno non sono in programma per lanno accademico 2003/04.
Si ricorda che per la preparazione allesame si richiedono anche alcuni elementi di Matematica Finanziaria
(che corrispondono ai capitoli 4 e 5 del testo di Ross [15]), lenunciato del teorema dellarbitraggio, con
relative applicazioni e lo studio elementare del modello binomiale multiperiodale (Cox, Ross e Rubistein) (che
corrispondono alle sezioni 6.1 e 6.2 del testo di Ross [15] e ai capitoli 1 e 2 del testo di Bjork [4]). Infine si richiede
la trattazione elementare del moto browniano geometrico e la formula di Black e Scholes (che corrispondono al
capitolo 3 e alle sezioni 7.1 e 7.2 del testo di Ross [15]).
Programma per lanno accademico 2004/05: Rispetto allo scorso anno manca la parte sui processi a
tempo continuo. Rimangono validi i richiami dei testi di Bjork [4] e di Ross [15], ma in queste note compaiono
anche alcuni dei temi che prima erano affrontati solo in quei testi.
Programma per lanno accademico 2005/06 e 2006/07: Si tratta di studiare i capitoli 1-6, con lesclusione
delle parti con il segno . Si noti che `e stata aggiunta la sezione 6.3 sugli alberi binomiali. Inoltre, oltre ad
alcune parti di elementi di matematica finanziaria (testo base il Ross) si richiede di studiare lapprossimazione
del modello di Black e Scholes (le note di questa parte sono su un file a parte).
Programma di massima, per lanno accademico 2007/08: Si tratta di studiare i capitoli 1-7, con
lesclusione delle parti con il segno (il capitolo 7 contiene lapprossimazione del modello di Black e Scholes).
Inoltre, sono necessarie alcuni di elementi di base di matematica finanziaria (testo di riferimento il Ross).
Si noti che lappendice sulle variabili Gaussiane multidimensionali `e stata spostata nel Capitolo 2, Sezione 2.5.
ATTENZIONE: I capitoli, le sezioni, singoli teoremi o dimostrazioni con il segno non sono in programma.
Per una versione aggiornata dei capitoli 8, 9, si faccia riferimento agli appunti per il corso di Dottorato Metodi
probabilistici per le equazioni alle derivate parziali (A.A. 2007-08).

Capitolo 1

Cenni sul funzionamento e sulla storia


dei mercati finanziari
Prima di tutto proviamo a definire di cosa si occupa quella che viene chiamata la teoria matematica della finanza
(o matematica finanziaria)1 .
I quattro protagonisti sono
gli individui, la cui attivit`
a viene descritta in termini del dilemma consumo-investimento: consumare di
pi`
u ora o investire per ottenere di pi`
u dopo? Lambivalenza del loro comportamento sia come consumatore
che come investitore porta a problemi di ottimizzazione formulati in termini di economia matematica come
problemi di consumo-risparmio e di decisione sulla composizione del portafoglio2 . Nellambito della teoria
dellutilit`a il primo problema `e trattato in base al postulato del comportamento razionale (Von NeumannMorgestern) degli individui in stato di incertezza. Questa teoria porta a determinare strategie preferibili
in termini di analisi qualitativa, ad esempio con il valore atteso delle funzioni di utilit`a. Il problema della
composizione del portafoglio porta a problemi di miglior allocazione dei fondi, tenendo conto del rischio,
tra i diversi beni possibili, quali propriet`
a, oro, titoli (o securities: buoni, azioni, opzioni, future...).
le corporazioni (compagnie, ditte,...) che posseggono beni di valore (terra, fabbriche, macchinari,
tecnologie,...) organizzano affari, mantengono relazioni commerciali. Per aumentare il loro capitale a
volte le corporazioni emettono azioni (stocks) o buoni (bonds). I buoni sono emessi anche dai governi. Lo
scopo delle corporazioni `e quello di andare incontro agli interessi dei possessori delle azioni (shareholders)
e dei buoni (bondholders).
gli intermediari o meglio le strutture finanziare intermediatrici (banche, compagnie di investimenti,
fondi pensioni, compagnie di assicurazioni...). Tra queste si possono mettere anche i mercati finanziari,
che scambiano azioni opzioni, future, etc..., Tra i mercati finanziari, quelli degli Stati Uniti sono tra i pi`
u
famosi:
NYSE: New York Stock Exchange
AMEX: American Stock Exchange
NASDAQ: NASDAQ Stock Exchange
NYFE: New York Future Exchange
CBOT: Chicago Board of Trade
i mercati finanziari (di denaro, di metalli preziosi, di strumenti finanziari). In particolare nei mercati
di strumenti finanziari, di solito si distingue tra
1 Questa

prima parte `
e basata principalmente sul testo di Shiryaev [17].
termine portafoglio (portfolio) significa nei modelli base la suddivisione tra investimenti e risparmio, con eventuali altre
restrizioni, come ad esempio limiti superiori od inferiori delle quantit`
a investite. In modelli pi`
u complessi pu`
o riguardare anche le
quantit`
a utilizzate in consumo.
2 Il

MPEF 01-07-2009

strumenti sottostanti o primari come


conti bancari
buoni
azioni
strumenti derivati o secondari

opzioni
contratti future
warrants
swaps
combinazioni
etc.

Notiamo che lingegneria finanziaria `e spesso pensata come la manipolazione dei derivati per aumentare
il capitale e ridurre il rischio causato dallincertezza della situazione del mercato nel futuro.

1.1

Mercati Finanziari

1 Denaro Si tratta di un meccanismo che permette di commerciare cose/beni che si hanno in modo da
ottenere poi cose/beni che si desiderano. Al momento attuale monete e banconote sono solo una piccola
parte del denaro esistente. La maggior parte dei pagamenti viene effettuata tramite assegni o per via
telematica (bancomat, carte di credito, web-banking, ...). Oltre alla funzione di mezzo di circolazione il
denaro ha un ruolo importante anche come mezzo di valutazione e come mezzo di risparmio.
2 Moneta, Cambio, Numerario Le riserve di moneta di altri paesi, i tassi di cambio, etc. sono
unindicatore importante del benessere di una nazione, del suo sviluppo; inoltre `e spesso un mezzo di
pagamento per il commercio con lestero.
Nellambito della storia dei cambi di valuta spesso si sono avuti accordi internazionali e unioni monetarie.
Ad esempio a Bretton-Woods (New Hampshire, USA) nel 1944 si svolse una famosa conferenza durante
la quale si decise il sistema di credito e di valuta del mondo occidentale, in particolare i tassi di cambio
delle valute coinvolte potevano variare solo del 1% rispetto a quelli ufficiali. In quella occasione fu istituito
la Fondazione Monetaria Internazionale (International Monetary Foundation, IMF). Laccordo rimase in
vigore fino alla crisi petrolifera e alla crisi monetaria del 1973, che coinvolse il dollaro statunitense, il marco
tedesco e lo yen giapponese. Nel 1979 furono poste le basi per lUnione Monetaria Europea (il famoso
Serpentone: venne stipulato un patto secondo il quale le variazioni dei tassi di cambio potevano variare
in una fascia del 2.25%. Per ottenere questo risultato le banche centrali nazionali dovevano intervenire
per assicurare la stabilit`
a dei tassi di cambio. Successivamente si `e arrivati alla moneta unica: a partire
dalla fine del 2001, nei paesi dellUnione Europa circola leuro.
3 Metalli Preziosi Si tratta di oro, argento, platino e altri (iridio, palladio, osmio, rodio, rutenio). Hanno
avuto un ruolo importante nel passato, specialmente nel 19 simo secolo, ma hanno ancora un ruolo ai
nostri giorni nel sistema del credito internazionale e del cambio di valute.
Un po di storia: si pu`
o considerare che let`a delloro sia iniziata nel 1821, anno in cui il governo britannico
proclam`o la convertibilit`
a in oro della sterlina. Poco dopo anche gli Stati Uniti fecero lo stesso con il dollaro
(as good as gold). Lo standard delloro ebbe il suo apice tra il 1880 e il 1914, ma dopo la prima guerra
mondiale non recuper`
o pi`
u il suo status. Le sue tracce si persero definitivamente quando Nixon nellagosto
del 1971 dichiar`
o formalmente la fine della convertibilit`a in oro del dollaro3 .
3 In realt`
a dopo la crisi del 1929, e precisamente nel 1934, il governo degli USA dichiar`
o che unoncia (28, 35 grammi) doro valeva
35 dollari. Cos` rimase formalmente fino al 1971, anche se gi`
a da tempo era chiaro che i dollari in circolazione erano molti di pi`
u
di quelli che si sarebbero potuti convertire in oro con le riserve di questo metallo prezioso in possesso degli USA. La dichiarazione
di Nixon, che va ricordato anche come il presidente che gest` la fine della guerra in Vietnam, ebbe forti ripercussioni su tutta
leconomia mondiale, e port`
o ad una svalutazione del dollaro e ad una conseguente impennata dei prezzi del petrolio, forse anche
maggiore di quella che stiamo vivendo in questo periodo (autunno 2004). La svalutazione del dollaro comport`
o la svalutazione delle
altre monete, in particolare della lira, legata al dollaro dopo che il piano Roosevelt aveva permesso allItalia di riprendersi dopo la

MPEF 01-07-2009

4 Conto bancario Un conto bancario (bank account) `e un titolo (o una security) dello stesso tipo dei
buoni4 , in quanto si riduce allobbligo da parte della banca di pagare certi interessi sulla somma che `e
stata messa sul conto. I conti in banca sono convenienti come misura dei prezzi di varie altre security. Si
distinguono vari tipi di interesse
interesse semplice a tasso
u
 r significa che se oggi ho la cifra x0 dopo n anni avr`o la stessa cifra pi`
n r x0 , cio`e x0 1 + n r . Sostanzialmente `e quello che accade se ogni anno gli interessi vengono
ritirati e non rimessi sul conto in banca.
interesse composto Se invece gli interessi venissero messi sul conto si avrebbe la seguente tabella
0

x0

x1 = x0 1 + r

x0

x1 = x0 1 + r




x2 = x1 1 + r
2
x2 = x0 1 + r

k


xk = xk1 1 + r
k
xk = x0 1 + r

n

xn = xn1 1 + r
n
xn = x0 1 + r

dove x0 rappresenta il valore inizialmente (t = 0) depositato, (ovvero allinizio del primo periodo
cio`e per 0 t < 1) x1 rappresenta lammontare dalla fine del primo periodo allinizio (escluso) del
secondo periodo (cio`e per 1 t < 2), mentre xk rappresenta lammontare dalla fine del k simo
periodo alla sua fine (cio`e per k t < k + 1).
interesse composto (m volte in un anno) a tasso (nominale) r significa che gli interessi sono
versati sul conto alla fine di ogni periodo di durata lm sima parte di anno, ovvero alla fine del
primo periodo si avr`
a x0 (1 + r/m), alla fine del secondo periodo si avr`a x0 (1 + r/m)2 , e alla fine
dellh simo periodo si avr`
a x0 (1 + r/m)h . Se non vengono effettuati prelievi la quantit`a di denaro
al tempo t = N + k/m, ovvero dopo N anni e k periodi di un m simo di anno, cio`e dopo N m + k
periodi, si avr`
a sul conto la quantit`a
(m)

xt

= x0 (1 + r/m)N m+k = x0 (1 + r/m)m(N +k/m) = x0 (1 + r/m)mt

(1.1)

seconda guerra mondiale. Anche linflazione era impressionante: dellordine del 17% annuo. La crisi fu tale che furono inventate le
domeniche a piedi: ma non per motivi ecologici (la parola ecologia non era entrata ancora nelluso comune), bens` per cercare di
risparmiare sul consumo del petrolio e di conseguenza di diminuire nel bilancio dello stato la voce dei pagamenti allestero. La fine
della convertibilit`
a del dollaro ebbe come conseguenza una forte instabilit`
a dei prezzi e fu uno dei motivi per cui nacque lesigenza di
avere delle coperture finanziarie contro la grande variabilit`
a dei prezzi. Per dare ancora unidea delle fluttuazioni si tenga presente
che prima del 1971 il dollaro veniva scambiato a 600 lire, mentre nel giro di poco tempo (non so precisare al momento quanto
tempo) il cambio si aggirava attorno al doppio. Comunque per essere pi`
u precisi si pu`
o considerare che loro pass`
o dai 35 dollari
per oncia del periodo 1934 1971 al massimo di 570 dollari per oncia del 1980. Successivamente precipit`
o ai 308 dollari per oncia
del 1984, per poi continuare ad oscillare tra i 300 e i 400 dollari.
Pu`
o essere interessante riportare i 10 punti con cui Nixon diede lannuncio il 15 agosto 1971 (come riportato dai giornali italiani
dellepoca):
1 Sospensione temporanea della convertibilit`
a in oro del dollaro, eccezion fatta per le operazioni che saranno di interesse per gli
Stati Uniti.
2 Gli Stati Uniti chiederanno al Fondo Monetario Internazionale il varo di un nuovo sistema monetario internazionale e terranno
in sospeso la convertibilit`
a in oro fino a quando non si saranno trovati adeguati accordi.
3 Sar`
a introdotta una tassa temporanea del 10% su tutte le importazioni negli Stati Uniti.
4 Saranno congelati per tre mesi prezzi, stipendi, affitti e dividendi.
5 Sar`
a abrogata la sovrattassa del 7% sullacquisto di vetture nuove nazionali o straniere.
6 Saranno anticipate al gennaio 1972 le riduzioni fiscali gi`
a previste per il gennaio 1973.
7 Sar`
a richiesto al Congresso di approvare un piano per lestensione della mano dopera, con la possibilit`
a di riduzione delle tasse
per coloro che seguiranno questa idea.
8 Ricerche e sviluppo tecnologico e industriale saranno stimolati e incoraggiati.
` previsto un risparmio di 4 miliardi e 700 milioni nelle spese federali, comprese alcune limitazioni negli aumenti degli stipendi
9 E
degli impiegati.
` prevista una riduzione del 10% degli aiuti americani allestero.
10 E
4 Si

veda pi`
u avanti una brevissima spiegazione sui buoni.

MPEF 01-07-2009
` interessante notare che alla fine dellanno, cio`e dopo m periodi, si ha a disposizione la cifra di
E

x0 (1 + r/m)m . Si pu`
o quindi definire (e calcolare) il tasso semplice effettivo ref
f (m) equivalente

al tasso r composto su m periodi in un anno come quel valore ref f (m) tale che:
m
m

1
ref
1 + ref
f (m) = 1 + r/m
f (m) = 1 + r/m
interesse composto a tempo continuo5 Nel caso in cui il numero di periodi per anno tende ad
infinito, ovvero nel caso in cui gli interessi vengono pagati con scadenze cos` ravvicinate da poter
essere pensate in tempo continuo appare naturale che al tempo t vada considerato il valore definito
da
(m)

xt := lim xt
m

(m)

Tenendo conto che6 xt

(m)

= xbmtc/m dalla (1.1) si ottiene che

xt =

(m)
lim x
m bmtc/m

m
= lim 1 + r/m

bmtc/m

= ert .

Anche in questo caso si possono definire dei tassi equivalenti: ad esempio, dato il tasso nominale a
tempo continuo rc esiste un tasso (nominale) di interesse annuale r(m)(= r(m, rc ) composto in m
periodi, equivalente al tasso nominale a tempo continuo rc , ovvero tale che
m

x1 = x0 erc = x0 1 + r(m)/m r(m) = m erc /m 1 .
La formula inversa, cio`e la formula che, dato il tasso di interesse r(m) composto in m periodi,
permette di ottenere il valore del tasso r = rc (r(m)) a tempo continuo corrispondente `e ovviamente

r = m log 1 + r(m)/m .
Vale la pena di sottolineare il caso in cui m = 1, che corrisponde al tasso (effettivo) di interesse
semplice r(1) = r (sempre su base annua), in cui le due formule diventano
r = er 1,


r = log 1 + r ,

Infine va ricordata anche la definizione di tasso di sconto q (su base annua), ovvero quella quantit`a
q che permette di calcolare la somma B0 che devo mettere in banca oggi, se voglio ottenere tra un
anno la somma B1 , attraverso la formula

B0 = B1 1 q .

Tenendo conto che B1 = B0 1 + r si ottiene che


1 q 1 + r = 1,

(1.2)

5 In questo paragrafo consideriamo solo il caso in cui il tasso rimane costante per tutto il periodo al quale siamo interessati. Per
il caso in cui il tasso varia nel tempo, in modo deterministico, si veda lappendice a questa sezione.
6 Infatti il valore della funzione s 7 x(m) `
e costante sugli intervalli di tempo del tipo [k/m, (k + 1)/m). Dato t si tratta di trovare
s
k = k(t) per il quale valga che t [k/m, (k + 1)/m), ovvero per il quale k/m t < (k + 1)/m, chiaramente k(t) = bm tc, la parte
intera inferiore di t. Per quel che segue `
e poi utile notare che

0 t bm tc/m =

m t bm tc
< 1/m
m

e che quindi
t = lim bm tc/m.
m

MPEF 01-07-2009

ovvero7
q =

r
,
1 + r

r =

q
1 q

5 Buoni ***(DA RIVEDERE) I buoni (o bond) sono obbligazioni emesse da un governo, o da una
corporazione, da una banca, o da unaltro ente finanziario per aumentare il proprio capitale. I buoni sono
molto popolari in alcuni paesi, in particolare perche impegnano lente che li emette ad uno scadenzario
prefissato in modo deterministico: il compratore paga inizialmente il prezzo (iniziale) del buono, e
linteresse gli viene pagato dallente emittente con scadenze regolari (in cedole), mentre il pagamento
dellintero prestito `e garantito ad una scadenza prefissata (maturit`a). Esistono anche buoni senza cedole
(zero coupon bond), tipicamente con maturit`a breve. Si considera quindi linvestimento in buoni un
investimento senza rischio8 .
Per caratterizzare un buono servono delle caratteristiche numeriche (caso a tempo discreto, con cedole
costanti, emesso al tempo t = 0):
valore facciale (face value) P (T, T )
maturit`
a (maturity date) T
breve termine (short term) da 3 mesi a 1 anno
medio termine (middle term) da 2 a 10 anni
lungo termine (long term) oltre 30 anni
tasso di interesse, o rendimento (nominale???) del buono (coupon yield) rc che permette di
calcolare il valore di ciascuna cedola9 : Ck = rc P (T, T ), per k = 1, 2, ..., T
prezzo iniziale (original price) P (0, T ), che `e il prezzo pagato al tempo t = 0
valore di mercato(market value) P (t, T ), che `e il valore del contratto al tempo t (0, T ) e che
pu`o variare in modo aleatorio (a causa di vari fattori economici: domanda/offerta e viene di solito
modellato come un processo aleatorio)
rc P (T, T )
, che `e il rapporto tra il valore di una
rendimento corrente (current yield) rc (t, T ) =
P (t, T )
cedola rispetto al valore di mercato del buono al tempo t, e che `e importante per comparare i valori
di buoni differenti.
rendimento alla maturit`
a (yield to maturity), su base percentuale (T t, T ), che `e definito10
7E
` interessante notare che se il tasso di sconto viene aumentato di allora il tasso di interesse corrispondente passa dal valore
q
r(
q ) = 1
al valore
q



d
q
1
q +

= r(
q) +
+ o() = r(
q) +
+ o().
r(
q + ) =
1 q
dq 1 q q=
(1 q)2
q

Inoltre va sottolineato che la relazione (1.2) va pensata come una definizione del tasso di sconto. Inoltre in tutta la trattazione
precedente si `
e considerato che il tasso di credito e quello di prestito sono gli stessi, ovvero non abbiamo considerato il segno di x0 .
Ci`
o non `
e vero di solito nella realt`
a: la banca prevede un tasso di interesse se depositate delle somme di denaro (cio`
e se x0 > 0),
mentre prevede un tasso di interesse diverso (e pi`
u elevato) se siete creditori di somme di denaro nei confronti della banca (cio`
e se
x0 > 0). Comunque per semplicit`
a di trattazione, di solito si ammette che i due tassi coincidano.
8 Ovviamente c`
e il rischio di insolvenza (o default risk), dovuto alla possibilit`
a che lente che ha emesso il buono fallisca e non
ottemperi limpegno preso. Ovviamente i buoni emessi dai governi sono in genere meno esposti al rischio di credito rispetto ai buoni
emessi da ditte, ma ovviamente ci sono controesempi clamorosi (si veda il caso dellArgentina).
Questo tipo di rischio `
e di tipo diverso da quello dovuto alle fluttuazioni del mercato: si tratta di rischio di credito, dovuto
allincertezza sulla solidit`
a dellente emittente, e non di un rischio dovuto al fatto che il contratto stesso riguarda quantit`
a aleatorie,
come invece accade nel caso delle azioni o delle opzioni. Il rischio di credito `
e presente quando vengono comperate delle azioni: `
e
possibile che la corporazione che le emette fallisca e, in questo caso, le azioni potrebbero perdere parzialmente o del tutto il loro
valore (si vedano il caso Cirio e Parmalat).
9 Il tasso r va inteso come tasso annuale se le cedole sono staccate alla fine di ogni anno, trimestrale, se vengono staccate alla
c
fine di ogni trimestre, o mensile se vengono staccate alla fine di ogni mese, e cos` via
10 E
` da ricordare che T t va inteso come tempo di vita residuo del buono, o tempo residuo alla maturit`
a e da osservare che nel
caso in cui fosse P (t, T ) = P (T, T ) allora = rc `
e lunica soluzione di
1=

T
t
X
k=1

rc 1
1
+
.
(1 + )k
(1 + )T t

MPEF 01-07-2009

come la soluzione (unica) di


P (t, T ) =

T
t
X
k=1

P (T, T )
rc P (T, T )
+
.
(1 + )k
(1 + )T t

In altre parole (T t, T ) `e definito come il tasso di rendimento interno del flusso dei pagamenti
residui.
Infine va sottolineato che poiche dato P (t, T ) si ricava (T t, T ) e viceversa11 , la descrizione aleatoria
(la modellizzazione) del valore di mercato di un buono pu`o essere fatta a partire dalla struttura
temporale di (T t, T ) invece che di P (t, T ). La descrizione attraverso il valore di mercato P `e
detta diretta, mentre la descrizione attraverso `e detta indiretta.
6 Azioni (Stock o Share) Come gi`
a detto le azioni, come i buoni, sono emesse da compagnie per aumentare
il capitale. Anche se esistono diversi tipi di azioni, i tipi principali sono due: azioni ordinarie (equity
e common stock) e azioni preferenziali (preferred stock). Le differenze sono nel tipo di rischio e nel
pagamento dei dividendi:
chi possiede azioni ordinarie ottiene come dividendi la sua parte dei profitti della compagnia, e il
loro ammontare dipende dal suo successo finanziario, mentre se la ditta fallisce perde tutto il suo
investimento;
chi possiede azioni preferenziali ha minor rischio di perdere tutto, i suoi dividendi sono garantiti, ma
non aumentato con i profitti della compagnia.
Di solito per`
o linvestitore, cio`e colui che compra azioni, ma ci`o vale anche per i bond, `e attratto pi`
u che
dai dividendi, dalla opportunit`
a di fare soldi dalle fluttuazioni dei prezzi delle azioni, ovvero di comprare
a un prezzo basso (prima degli altri) e vendere ad un prezzo alto (sempre prima degli altri12 )
7 Mercati dei derivati (DA RIVEDERE) Questi mercati ebbero grande espansione allinizio degli anni
settanta del ventesimo secolo. Fino al decennio precedente i cambi erano stati stabili e la volatilit`a
del mercato era bassa. La situazione cambi`o radicalmente13 e questo caus`o linteresse verso strumenti
finanziari14 che permettevano di coprirsi contro i rischi di inflazione, i cambi sfavorevoli e la grande
volatilit`a dei mercati finanziari. Nel paragrafo 1.2 vedremo un esempio che illustra il tipo di problemi che
possono essere affrontati con questo tipo di strumenti.
11 Esistono buoni con interessi composti, trimestralmente, mensilmente o anche a tempo continuo, di cui viene dato il tasso
nominale rc annuo. Ovviamente di questo fatto va tenuto conto nel momento in cui si definisce la relazione che lega P (t, T ) e
(T t, T ).
12 Va tenuta presente la legge di mercato, che vale per ogni tipo di merce: se un prezzo `
e basso, la domanda (di comprare)
aumenta, e se la domanda aumenta allora il prezzo sale, mentre, viceversa, se il prezzo `
e alto, lofferta aumenta, e se lofferta
aumenta, allora il prezzo scende.
13 Tra le motivazioni di questi cambiamenti vanno ricordate le seguenti:
i. il passaggio dal cambio fisso al cambio fluttuante, a seguito della crisi monetaria del 1973,
ii. la svalutazione del dollaro rispetto alloro (1971), che invece dal 1934 era sempre stato scambiato a 35 dollari per oncia,
iii. la crisi mondiale del petrolio provocata dalla politica dellOPEC, la comunit`
a economica dei paesi produttori di petrolio, che
divenne il principale price maker del petrolio,
iv. il declino dei mercati azionari (negli USA il declino era stato pi`
u forte che durante la crisi degli anni trenta, la Grande
Depressione)
14 I primi strumenti furono le opzioni (insieme anche ai futures) Tali titoli derivati erano presenti sui mercati non ufficiali (over
the counter), ma il primo mercato ufficiale specializzato in opzioni fu il Chicago Board Option Exchange (CBOE) aperto il 26 aprile
del 1973. Nel primo giorno di apertura furono trattati 911 contratti di opzioni, mentre appena un anno dopo il numero di opzioni
scambiate giornalmente era di 20 000, tre anni pi`
u tardi di 100 000, e 700 000 nel 1987. Per capire le dimensioni del fenomeno va
ricordato che ogni contratto riguardava 100 azioni e quindi gli scambi giornalieri riguardavano opzioni su 70 milioni di azioni, cio`
e
poco pi`
u di un terzo dei 190 milioni di azioni scambiate giornalmente nel New York Stock Exchange (NYSE) nello stesso anno.
Il 1973 va ricordato anche per essere lanno in cui furono pubblicati due articoli fondamentali, uno di Black e Scholes [5] e laltro
di Merton [11], che influenzarono notevolmente i metodi di prezzaggio.

MPEF 01-07-2009

Appendice: tasso di interesse a tempo continuo


Si supponga che D(t) rappresenti il valore di un deposito in banca al tempo t. Il tasso di interesse istantaneo
(o spot rate) al tempo t sia denotato da r(t): per definizione questo significa che nellintervallo di tempo [t, t+h],
per ogni h > 0, ma abbastanza piccolo la cifra depositata passa dal valore D(t) al valore

D(t + h) = D(t) + D(t) r(t) h = D(t) 1 + r(t) h ,
(1.3)
ovvero15 (a meno di infinitesimi) il tasso nellintervallo considerato `e proporzionale allampiezza h dellintervallo
considerato (t, t + h), esattamente come nel caso a tasso costante, ma dipende dallistante iniziale t. Come
conseguenza della precedente uguaglianza si ottiene che (sempre a meno di infinitesimi)
D(t + h) D(t) D(t) r(t) h

D(t + h) D(t)
= D(t) r(t).
h

ovvero

Con un semplice passaggio al limite per h che tendo a zero16 si ottiene che la condizione (1.3) equivale allesistenza
della derivata di D(t) e al fatto che
d
D(t) = D(t) r(t)
dt
equivale a dire che D(t) `e soluzione di una equazione differenziale (lineare omogenea a coefficienti non costanti)
e pi`
u precisamente del problema di Cauchy
(
x(t)

= (t) x(t), per t t0


(1.4)
x(t0 ) = x0
con (t) = r(t), e x0 = D(t0 ).
Essendo la soluzione17 del precedente problema (1.4) data da
Z t

x(t) = x0 exp
(s) ds ,

(1.5)

t0

si ottiene che, se t0 = 0 e D0 `e il valore di D(0),


t

Z
D(t) = D0 exp


r(s) ds .

di conseguenza, ragionando come nel caso a tempo continuo18 , si ha che il valore attualizzato (al tempo t = 0)
di una cifra D che verr`
a data al tempo t si pu`
o esprimere come
 Z t

D exp
r(s) ds
0

` interessante notare che nellottenere lequazione differenziale per D(t) abbiamo ipotizzato implicitamente
E
che i soldi depositati non fossero prelevati per costi o consumi, e che inoltre abbiamo ipotizzato che non venissero
15 La

formulazione esatta sarebbe


D(t + h) = D(t) + D(t) r(t) h + o(h) = D(t) 1 + r(t) h + o(h).

16 Si

tenga presente che in realt`


a il limite si sta facendo per h 0+ e quindi si ottiene solo lesistenza della derivata destra.
fatto che (1.5) sia soluzione del problema di Cauchy (1.4), si pu`
o verificare per calcolo diretto.
18 Il valore attualizzato (al tempo 0) di una cifra D data al tempo t `
= D(t)

e definito come quella cifra D


tale che

Z t
exp
D=D
r(s) ds ,
17 Il

da cui immediatamente

D(t)
= D exp
0


r(s) ds .

MPEF 01-07-2009

effettuati neanche ulteriori depositi dovuti a entrate (o income) di alcun tipo. Se invece prelievi e ulteriori
depositi fossero ammessi, ovviamente bisognerebbe tenerne conto. E in tale caso, se I(t) rappresenta il totale
delle entrate fino al tempo t, e C(t) il totale dei consumi effettuati fino al tempo t, allora si ha che, sempre
nellintervallo [t, t + h] le entrate totali sono I(t + h) I(t), mentre le uscite sono C(t + h) C(t). Se le funzioni
I(t) e C(t) sono derivabili con derivata i(t) e c(t) rispettivamente, allora19

D(t + h) =D(t) + D(t) r(t) h + I(t + h) I(t) C(t + h) C(t)
D(t) + D(t) r(t) h + i(t) h c(t) h.
Procedendo come nel caso precedente si ottiene che in questo caso D(t) soddisfa unaltra equazione differenziale
(lineare non omogenea a coefficienti non costanti)
d
D(t) = D(t) r(t) + i(t) c(t),
dt
e pi`
u precisamente D(t) `e soluzione del problema di Cauchy
(
x(t)

= (t) x(t) + (t), per t t0


x(t0 ) = x0

(1.6)

con (t) = r(t), (t) = i(t) c(t), e x0 = D(t0 ).


La soluzione del precedente problema (1.6) vale20
Z

x(t) = exp
t0


Z t
n R
o 
t
(s) ds
x0 +
(s) exp s (u) du ds

(1.7)

t0

Appendice: Richiami sulle equazioni differenziali lineari


In questo paragrafo, ad uso degli studenti che non avessero ancora superato unesame di equazioni differenziali,
ricordiamo il metodo per ottenere la soluzione dei problemi di Cauchy (1.4) e (1.6). Infatti pur essendo facile
verificare che le soluzioni (1.5) e (1.7) date precedentemente sono soluzioni dei rispettivi problemi (1.4) e (1.6),
`e interessante sapere come si arriva a tali soluzioni.

1 Problema omogeneo Il problema


(
x(t)

= (t) x(t), per t t0


x(t0 ) = x0
`e equivalente a

dx(t) = (t) dt, per t t


0
x(t)

x(t0 ) = x0 .
19 Nellequazione per il calcolo di D(t + h) abbiamo trascurato lapporto degli interessi maturati nellintervallo [t, t + h] per via
delle ulteriori entrate e quelli dovuti alla banca per via delle spese effettuate. Del resto nelle ipotesi di regolarit`
a per le funzioni
I(t) e C(t), si ha che
I(t + h) I(t) i(t) h e C(t + h) C(t) c(t) h,

da cui le corrispondenti somme di denaro a credito e a debito dovuti agli interessi maturati sono rispettivamente

I(t + h) I(t) r(t) h i(t) h r(t) h e
C(t + h) C(t) r(t) h c(t) h r(t) h.
Si tratta quindi di infinitesimi dellordine di h2 , e quindi sono trascurabili nei passaggi successivi.
20 Il fatto che (1.7) sia soluzione del problema di Cauchy (1.6), si pu`
o verificare per calcolo diretto.

MPEF 01-07-2009

Integrando tra t0 e t, si ottiene


t

dx(s)
=
x(s)

t0

(s) ds
t0

m
Z t



(s) ds
d log x(s) = log x(t) log x(t0 ) =
t0

t0

(tenendo conto che x(t0 ) = x0 )


m

 Z t


x(t)
log x(t) log x0 = log
=
(s) ds
x0
t0
m

Z t
o
n

x(t)
x(t)
(s) ds
= exp
= exp log x0
x0
t0
da cui

Z


(s) ds

x(t) = x0 exp
t0

2 Problema non omogeneo - Metodo della variazione della costante


Lidea consiste nel cercare una soluzione del problema
(
x(t)

= (t) x(t) + (t), per t t0


x(t0 ) = x0
che si possa esprimere come
x(t) = C(t) xo (t)
dove
Z

xo (t) := exp


(s) ds

t0

e C(t) `e una funzione da determinare.


Si noti che xo (t) `e soluzione dellequazione differenziale omogenea, infatti
Z t

d
xo (t) := exp
(s) ds xo (t) = (t) xo (t).
dt
t0
Se x(t) = C(t) xo (t) allora, da una parte




d
d
d
x(t) =
C(t) xo (t) + C(t)
xo (t)
dt
dt
dt


d
C(t) xo (t) + C(t) (t) xo (t)
=
dt


d
=
C(t) xo (t) + (t) x(t),
dt
mentre dallaltra
d
x(t) = (t) + (t) x(t).
dt
Confrontando le ultime due espressioni si ottiene che, affinche la funzione x(t) = C(t) xo (t) sia soluzione
dellequazione lineare non omogenea, `e sufficiente che


 Z t

d
(t)
d
C(t) xo (t) = (t),
C(t) =
= (t) exp
(s) ds
dt
dt
xo (t)
t0

10

MPEF 01-07-2009

e che, affinche x(t) = C(t) xo (t) soddisfi la condizione iniziale,


C(t0 ) = x0 .

C(t0 ) xo (t0 ) = x0
Di conseguenza, integrando tra t0 e t si ottiene
 Z s

Z t
C(t) C(t0 ) =
(s) exp
(u) du
t0

C(t) = x0 +

t0

 Z
(s) exp

t0


(u) du ,

t0

e da cui infine si ottiene che



x(t) = C(t) xo (t) =

x0 +

 Z
(s) exp

t0

ovvero
Z

t0


(u) du

Z

exp


(u) du ,

t0

t0

(u) du x0 +

x(t) = exp

 Z t

(s) exp
(u) du ds.

t0

Infine rimane da sottolineare che si pu`


o parlare della soluzione in quanto valgono le condizioni di unicit`a. Si
rimanda ai corsi di Analisi Matematica sulle equazioni differenziali per i dettagli.

1.2

Un esempio concreto di derivato finanziario

Si consideri una compagnia italiana, la GPR, che oggi (denotato come tempo t = 0) ha firmato un contratto
con la controparte americana BCG. Il contratto stipulato prevede che esattamente fra sei mesi (denotato come
tempo t = T ) la BCG invii alla ditta italiana 1000 computer, il contratto prevede anche che la ditta italiana
GPR paghi 1000 dollari USA per ogni computer. Diamo anche come informazione21 che il cambio euro/dollaro
`e 0, 80 euro per un dollaro22 .
Il problema di questo contratto, dal punto di vista della ditta italiana, sta nel rischio dovuto al cambio:
nonostante si sappia che deve pagare 1 000 000 $, non si sa quale sar`a il cambio tra sei mesi, di conseguenza
la GPR non sa esattamente quanto dovr`
a pagare in euro per i computer. Ad esempio se dovesse pagare tutto
subito, cio`e al tempo t = 0, allora dovrebbe pagare
1000 1000 $ 0, 80 euro/$ = 800 000 euro.
Se invece tra sei mesi, cio`e al tempo t = T , il cambio fosse, sempre ad esempio, di 0, 85 euro per un dollaro,
allora la ditta GPR dovrebbe pagare
1000 1000 $ 0, 85 euro/$ = 850 000 euro.
Per questo motivo la GPR deve affrontare il problema di come coprirsi contro il rischio dovuto al cambio.
Di seguito diamo alcune strategie naturali:
1 Una strategia nave potrebbe essere quella di comprare oggi i 1 000 000 $ con 800 000 euro, e tenere questi
dollari bloccati. Il vantaggio di questo procedimento sta nel fatto che elimina completamente il rischio del
cambio, ma c`e qualche grave controindicazione: prima di tutto si blocca una ingente somma di denaro
per un periodo abbastanza lungo, in secondo luogo potrebbe anche darsi il caso che al tempo t = 0, la
ditta italiana non possegga affatto il denaro necessario per effettuare questo tipo di operazione.
2 Una soluzione pi`
u sofisticata, e che non richiede alcun esborso di denaro al tempo t = 0, consiste nel
fatto che la GPR vada sul mercato dei contratti forward per 1 000 000 $, con scadenza a sei mesi. Un tale
contratto pu`
o essere stipulato con una banca commerciale e prevede due punti
La banca fornir`
a alla ditta GPR 1 000 000 $, al tempo t = T .
21 Nel

mese di ottobre 2004, data in cui scriviamo, il cambio `


e solo approssimativamente giusto, i dati sono stati modificati per
ottenere numeri pi`
u semplici.
22 Questo esempio `
e tratto dallintroduzione del libro di Bj
ork [4].

MPEF 01-07-2009

11

La ditta GPR pagher`


a, al tempo t = T , al tasso di cambio K euro/$
Il tasso di cambio K viene detto prezzo in avanti (forward), o anche tasso di cambio forward, al tempo
t = 0 con tempo di consegna t = T . Nei contratti forward non ci sono costi di stipulazione23 , ed il tasso
K deve essere determinato dalla domanda e dallofferta del mercato forward.
Assumiamo che K = 0, 81, allora la GPR sa che tra sei mesi dovr`a dare alla banca 810 000 euro. Ed in
questo modo il rischio dovuto al cambio `e completamente eliminato.
Tuttavia ci sono anche qui alcune controindicazioni, dovute al fatto che un contratto forward `e un contratto
che deve essere onorato:
Supponiamo che il tasso di cambio al tempo t = T sia di 0, 82 euro/$.
In questo caso la ditta risparmia la differenza tra 820 000 euro che avrebbe pagato senza il contratto
e gli 810 000 euro che paga, cio`e risparmia 10 000 euro.
Supponiamo che il tasso di cambio al tempo t = T sia di 0, 79 euro/$.
Essendo la ditta costretta ad onorare il contratto, deve pagare il milione di dollari sempre 810 000 euro,
mentre se non avesse dovuto onorare il contratto avrebbe pagato solo 790 000 euro, con una perdita
di 20 000 euro
3 A questo punto `e chiaro che lideale sarebbe un contratto che coprisse contro eventuali tassi di cambio alti
al tempo t = T , ma permettesse di usufruire del vantaggio di un eventuale tasso di cambio basso. Questo
tipo di contratto esiste e si chiama opzione call europea, e prevede la possibilit`
a, ma non lobbligo,
di comprare al tempo t = T (tempo di esercizio) un dollaro (o comunque un titolo sottostante) al
prezzo di K euro (prezzo di esercizio)
Ovviamente, mentre il contratto forward non prevede costi iniziali, unopzione deve prevedere un prezzo
iniziale o premio (altrimenti non si troverebbe nessuna banca disponibile a vendere lopzione)24 .
Un problema importante `e proprio quello di come determinare tale prezzo (o problema del prezzaggiopricing ), sotto opportune ipotesi sul mercato e sulla base del valore del cambio attuale. Questo sar`a la
motivazione principale del corso, ovviamente in contesti pi`
u generali.
Una prima risposta potrebbe essere la seguente: siamo in condizioni di incertezza, sono possibili diverse
situazioni (o scenari) e per ciascuna situazione possiamo valutare la probabilit`a che si verifichi. Per valutare
il prezzo si potrebbe calcolare il valore atteso del futuro guadagno stocastico25 . Un problema che nasce
immediatamente risiede nel fatto che i fenomeni economici e finanziari, pur essendo aleatori, non sono ripetibili, e
quindi non esiste immediatamente una definizione oggettiva di probabilit`a, come nel caso dei fenomeni ripetibili,
in cui `e ragionevole prendere la frequenza come probabilit`a.
Un altro problema importante, che si pone chi vende lopzione call europea `e il seguente: il venditore
si `e impegnato a fornire un bene ad un prezzo prefissato, e ci`o comporta un rischio finanziario; come fare a
proteggersi (o coprirsi) dal rischio finanziario che corre allistante t = T ? Si tratta del problema della coperturahedging . E anche questo `e un problema interessante da affrontare.
Introduciamo ora un po di notazioni e di gergo economico.
Il termine opzione si usa tutte le volte in cui si tratta di avere la possibilit`a, ma non lobbligo di comprare
o vendere un titolo (o security). Il titolo da comprare o da vendere viene detto titolo sottostante o
primario, mentre lopzione viene detto titolo derivato o secondario. Il termine call si usa quando si
23 Va detto che comunque un contratto forward pu`
o richiedere delle spese durante lintervallo [0, T ], ma non entriamo qui nella
descrizione di questo tipo di contratti.
24 Inoltre se non ci fosse un costo iniziale sarebbe possibile, con un capitale iniziale nullo e senza rischi, ottenere un guadagno
non negativo e che pu`
o risultare addirittura strettamente positivo. La situazione vantaggiosa appena descritta `
e detta in termine
tecnico arbitraggio. Daremo comunque una definizione formale di arbitraggio nel seguito di queste note.
25 Si tratta di seguire la definizione soggettivista di probabilit`
a, o meglio di valore atteso E(X) di una variabile aleatoria X, come
quel prezzo c (certo) che si `
e disposti a pagare per accettare una scommessa e in cui reputiamo equivalente prendere il ruolo di
scommettitore o di broker. A questo proposito si veda il paragrafo dedicato allimpostazione soggettiva delle probabilit`
a, alla fine
del capitolo con i richiami di probabilit`
a.

12

MPEF 01-07-2009

tratta dellopportunit`
a di comprare qualcosa, se invece si tratta dellopportunit`a di vendere qualcosa si parla
di opzione put. Il prezzo K concordato per lacquisto o la vendita del bene viene detto prezzo di esercizio
(dellopzione) o prezzo di strike. Listante finale t = T viene detto tempo di esercizio (dellopzione) o
tempo di strike. Laggettivo europea si riferisce al fatto che lopzione pu`o essere esercitata solo alla fine
del periodo [0, T ], si parlerebbe invece di opzione americana nel caso in cui lopzione fosse esercitabile in un
istante qualunque dellintervallo di tempo [0, T ].
Il compratore del bene viene detto holder , mentre il venditore writer , inoltre si dice che lholder assume
una posizione lunga (long position), mentre il writer assume la posizione corta (short position).
Pi`
u in generale si considerano quelli che sono detti pagamenti a scadenza (o terminal pay-off ) che
corrispondono allobbligo di corrispondere una quantit`a aleatoria fT , che dipende dal valore del bene sottostante
al tempo T (anche detti plain vanilla), oppure dai valori che il bene sottostante assume durante lintervallo
di tempo [0, T ]. Per questo motivo tali tipi di obbligazioni sono detti anche derivati (o in inglese anche
contingent claim, cio`e affermazioni che dipendono dal valore contingente che assume appunto il sottostante).

1.3

Teorema dellarbitraggio

Supponiamo di avere un mercato in cui si possano verificare solo un numero finito di casi possibili (detti anche
scenari ). In altre parole supponiamo che levento certo sia finito: = {1 , 2 , 3 , ..., m }. Supponiamo
inoltre che si possano fare d + 1 scommesse. Le scommesse sono caratterizzate26 da d + 1 variabili aleatorie
0 , 1 , 2 , . . . , d nel seguente modo: se scommettiamo la quantit`a x sulla scommessa i, con i = 0, 1, 2, ..., d,
e si verifica j , allora ricaveremo27 la somma x i (j ).
Una strategia di scommessa `e un vettore x = (x0 , x1 , ...., xd ), con xi che indica la quantit`a (positiva o
negativa) relativa alla scommessa i esima.
Supponiamo che le strategie di scommessa x = (x0 , x1 , ...., xd ), con xi scommesse, godano della propriet`
a
di linearit`
a , ossia la strategia di scommessa x produce un guadagno28 pari a
d
X

xi i (j ).

i=0

Osservazione 1.1. In molti esempi la scommessa 0 corrisponde al titolo cos` detto non rischioso, come ad
esempio il deposito in banca o un titolo di tipo bond, e che viene poi usato come unit`
a di misura per tutti gli
altri beni. In alcuni casi si distingue rispetto a scommesse fatte in tempi diversi, e quindi per poter confrontare
guadagni ottenuti in tempi diversi, tali guadagni vanno attualizzati, in molte applicazioni la scommessa 0 vale
identicamente 0 (si veda la parte relativa agli esempi)
Come definizione di arbitraggio si utilizza la seguente:
26 Si

noti che se si indica con ri (j) il valore i (j ), per i = 0, 1, 2, ..., d, e j = 1, 2, ..., m, si ottengono m vettori (colonna) r(j)
d + 1-dimensionali
0
1
0
1
0
1
r0 (1)
r0 (2)
r0 (m)
B r1 (1) C
B r1 (2) C
B r1 (m) C
B
C
B
C
B
C
r(2) = B
r(1) = B
C
C r(m) = B
C,
..
..
..
@
A
@
A
@
A
.
.
.
rd (1)
rd (2)
rd (m)
o equivalentemente si ottengono d + 1 vettori (riga)

r0 = r0 (1) r0 (2) r0 (m)
r1 = r1 (1)

r1 (2)

r1 (m)

rd =

rd (1)

rd (2)

rd (m)

27 In vanno considerate incorporate sia la somma ottenuta alla fine del gioco che leventuale somma da intascare alla fine del
j
gioco.
28 Con la notazione della nota precedente il guadagno `
e pari a la prodotto scalare

x r(j) =

d
X
i=0

xi ri (j).

MPEF 01-07-2009

13

Definizione 1.1 (arbitraggio forte). Data una strategia x, si dice che questultima permette un arbitraggio
Pd
forte se a partire da un capitale iniziale nullo (cio`e se i=0 xi = 0) si pu`
o ottenere un guadagno (sempre)
Pd
strettamente positivo (ovvero i=0 xi i (j ) > 0) per ogni j = 1, 2, ..., m.
Tuttavia va detto che c`e unaltra definizione di arbitraggio, che poi utilizzeremo in seguito, con una richiesta
leggermente pi`
u debole:
Definizione 1.2 (arbitraggio debole). Data una strategia x, si dice che questultima permette un arbitraggio
Pd
se a partire da un capitale iniziale nullo (cio`e se i=0 xi = 0) si pu`
o ottenere un guadagno non negativo (ovvero
Pd
x

(
)

0)
per
ogni
j
=
1,
2,
...,
m,
ma
non
identicamente
nullo (ovvero con almeno un j {1, 2, ..., m}
i
i=0 i
Pj d
per il quale i=0 xi i (j ) > 0).
A questo punto possiamo enunciare il risultato principale di questo capitolo.
Teorema 1.1 (Teorema dellarbitraggio). In un mercato con le condizioni precedenti pu`
o verificarsi una delle
seguenti alternative29 :
su , con pj := P(
j ) > 0, per ogni j = 1, 2, ..., m, ovvero caratterizzata dal vettore
(a) esiste una probabilit`
aP
:= (
di probabilit`
ap
p1 , p2 , ...., pm ), con pj > 0, per ogni j = 1, 2, ..., m, e tale che
e i ) = 0,
E(

per ogni i = 0, 1, 2, ..., d,

e indica il valore atteso rispetto alla probabilit`


ovvero
dove E
a P,
e i) =
E(

m
X

pj i (j ) = 0 per ogni i = 0, 1, 2, ..., d;

j=1

(b) esiste una strategia x = (x0 , x1 , ...., xd ) ****con


d
X

Pd

i=0

xi = 0 e tale che

xi i (j ) > 0 per ogni j = 1, 2, ..., m;

i=0

in altre parole ci sono opportunit`


a di arbitraggio (forte).
che soddisfi le condizioni dellalternativa (a) `e detta
Osservazione 1.2. Una (misura di) probabilit`
a P
nellambito finanziario misura martingala equivalente. Il termine misura si riferisce al fatto che le
probabilit`
a sono dette anche misure di probabilit`
a. Il termine equivalente corrisponde al fatto che prevedono
che ogni scenario/evento elementare j abbia probabilit`
a positiva, infine il termine martingala si riferisce al
si tratta
fatto che le scommesse danno luogo a guadagni nulli, ed in un certo senso, rispetto alla probabilit`
aP
di scommesse eque. Una buona parte del seguito di questi appunti `e dedicata alla precisazione del concetto di
martingala (si veda il capitolo 4 corrispondente).
Non diamo in queste note la dimostrazione del teorema dellarbitraggio, perche nel seguito vedremo la
dimostrazione probabilistica nel caso del modello binomiale multiperiodale (capitoli 5 e 6). Segnaliamo tuttavia
che nelle note di Baldi e Caramellino [2] se ne pu`o trovare la dimostrazione analitico/geometrica.
Nella prossima sezione illustriamo luso del teorema dellarbitraggio in un esempio relativo alle scommesse
dei cavalli. Gli esempi relativi al modello di mercato pi`
u semplice si trovano nelle sezioni successive.
29 Sempre con le notazioni delle note precedenti le due alternative si possono scrivere come:
= (
(a) esiste un vettore di probabilit`
ap
p1 , p2 , ...., pm ), con pj > 0, per ogni j = 1, 2, ..., m, e tale che

r0i =
p

m
X

pj ri (j) = 0 per ogni i = 0, 1, 2, ..., d;

j=1

(b) esiste una strategia x = (x0 , x1 , ...., xd ) tale che


x r(j) =

d
X
i=0

xi ri (j) > 0 per ogni j = 1, 2, ..., m.

14

1.3.1

MPEF 01-07-2009

Applicazioni

Esempio 1.1. Come primo esempio di applicazione vediamo il caso delle scommesse sui cavalli30 . In una
gara ippica con n cavalli ci sono ovviamente n scommesse, ciascuna caratterizzata dal dare vincente un cavallo
diverso. Assumiamo per semplicit`
a che questa sia la sola tipologia di scommesse ammissibili. Ovviamente si ha
= {1 , 2 , ..., n } dove j corrisponde alla vincita da parte del cavallo j, e in questo caso si ha anche che il
numero delle scommesse vale n(= d + 1). Le scommesse vengono date in termini dei cos` detti odds, ovvero
si dice che sono date 1 a oi intendendo che se si scommette sul cavallo i si paga immediatamente la cifra 1,
mentre si riceve la cifra oi + 1 se solo se vince il cavallo corrispondente. Per comodit`
a di notazioni conviene
assumere che le scommesse siano indicizzate da 1 ad n invece che da 0 ad n 1, in modo che nella scommessa
i si riceva31 oi + 1 se e solo si verifica il caso i . Con questa convenzione le scommesse si possano esprimere
come
(
oi (= oi + 1 1) se j = i
i (j ) =
1
se j 6= i.
per la quale valga E(
i ) = 0 per ogni i = 1, 2, ..., n diviene
La condizione che esista una probabilit`
aP

E(i ) = oi pi + (1) (1 pi ) = 0
n
X
pj = 1,

per ogni i = 1, 2, ..., n;


con pj > 0, j = 1, 2, ..., n;

j=1

che equivale a

pi = 1 + oi ;
n
X
1

= 1,

1+o
j=1

per ogni i = 1, 2, ..., n;


1
> 0, j = 1, 2, ..., n.
1 + oj

1
sia strettamente positiva (e sia un numero reale) corrisponde alla ovvia condizione
La condizione che pi = 1+o
i
che la quantit`
a che si riceve in caso di vincita per la scommessa i, sia strettamente positiva, ovvero

oi + 1 > 0.

Esempio
1.2. Continuando il precedente Esempio 1.1 `e interessante mostrare come, se la condizione
Pn
1
=
1 di assenza di opportunit`
a di arbitraggio non `e soddisfatta, ovvero se accade che
j=1 1+oj
O :=

n
X
j=1

1
6= 1,
1 + oj

allora si pu`
o trovare esplicitamente una strategia che permette un arbitraggio, e precisamente se si punta
xi =

1
1
,
1 O 1 + oi

per i = 1, 2, ..., n,

si ottiene una vincita certa di 1. Ci`


o `e chiaramente equivalente a mostrare che se
xi =

1
,
1 + oi

per i = 1, 2, ..., n,

allora si vince un guadagno certo (1 O). Ovviamente per ottenere che il guadagno sia positivo, il segno di
va scelto in dipendenza del segno di 1 O.
30 Questo
31 Ovvero

esempio `
e tratto dal libro di Ross [15]. Si veda anche lesempio I.5.1 del libro di DallAglio [7].
in caso di vincita si riceve 1 + oi e quindi, tenuto conto del pagamento iniziale di 1, il ricavo totale `
e di oi = (1 + oi ) 1.

MPEF 01-07-2009

15

Infatti se si verifica la vincita del cavallo j, ovvero se si verifica j , allora, tenendo presente che
j (j ) = (1 + oj ) 1 = oj ,

i (j ) = 0 1 = 1, per i 6= j,

si ottiene come guadagno complessivo


n
X

xi i (j ) = xj j (j ) +

i=1

1,n
X

xi i (j )

i6=j

X
1
1
oj

1 + oj
1 + o`
`6=j
`6=j

!
n
X 1
X
1
1
= 1

= 1
1 + oj
1 + o`
1 + o`

= xj oj

x` =

`6=j

`=1

= (1 O) .
Osservazione 1.3. Nellesempio precedente quindi accade che un capitale iniziale

n
X
i=1

1
= O
1 + oj

permette di effettuare le n scommesse e, alla fine, permette di ottenere al botteghino sempre


=

1
(1 + oj ),
1 + oj

qualunque sia il cavallo vincente. Il guadagno `e quindi sempre (1 O).


Per la linearit`
a delle scommesse si tratta quindi di un arbitraggio considerando che, se inizialmente ho un
capitale nullo, devo prendere in prestito dalla banca la quantit`
a di denaro O, che alla fine devo restituire
(corrisponde alla scommessa non rischiosa 0 = O O 0) e quindi allinizio ho O O e alla fine dal
broker ricevo sempre , qualunque sia il cavallo vincente, ma devo restituire il capitale O inizialmente preso
dalla banca, e quindi alla fine ho in totale (1 O), che `e strettamente positivo a seconda del segno di (1 O).
In particolare se O > 1 allora per ottenere un guadagno sicuramente positivo si deve avere negativo, il che
corrisponde a prendere la parte del broker, mentre se O < 1 allora `e positivo e quindi `e lo scommettitore che
vince di sicuro con questa strategia.

16

MPEF 01-07-2009

1.4

Il modello binomiale uniperiodale

In questa sezione vedremo il modello di mercato pi`


u semplice possibile.
Definizione 1.3 (modello binomiale uniperiodale). DA RIVEDERE IN MODO PESANTE!!! Consideriamo
ora il modello binomiale uniperiodale ovvero il caso in cui si abbia solo due tipi di titoli B (titolo non
rischioso) ed S (titolo rischioso):
al tempo t=0

B0 > 0 (si

suppone spesso B0 = 1 per semplicit`


a)

al tempo t=1

B1 = B0 (1 + r)

S0 = s0 > 0
S1 = S0 Z = s0 Z

dove Z `e una variabile aleatoria che pu`


o assumere solo due valori u (per UP) e d (per DOWN) (da cui il nome
binomiale)
Osservazione 1.4. La circostanza che Z possa assumere solo due valori, si pu`
o tradurre nel fatto che
= {0 , 1 }, e che Z(0 ) = d e Z(1 ) = u. Tuttavia questa interpretazione pu`
o risultare riduttiva, e
conviene pi`
u in generale non assumere che la cardinalit`
a di sia due, ma conviene invece assumere che
Z() = d IA0 () + u IA1 (),

dove A0 = Ac1 ,

o in altre parole che


(
d
Z() =
u

se A0
se A1 ,

e assumere come sigma-algebra


F = {, A0 , A1 , },
di modo che sia la sigma-algebra F ad essere un insieme con un numero finito di elementi e non .
Cominciamo con il caso in cui le uniche scommesse ammissibili32 sono quelle del tipo
comprare (o anche vendere a corto33 ) il titolo rischioso al tempo t = 0 e rivenderlo (o comprare, se si
era venduto a corto, al tempo successivo t = 1.
Mettere in banca (o chiedere in prestito) al tempo t = 0 e ritirare (o restituire) al tempo successivo t = 1.
Ovviamente le combinazioni lineari delle due precedenti danno luogo a tutte le scommesse ammissibili.
Il titolo non rischioso, come si usa solitamente, viene utilizzato per attualizzare i valori ai vari tempi. Quindi si
S con i valori attualizzati come segue
considera anche un mercato B,

32 Ovviamente

al tempo t=0

0 = B0 = 1
B
B0

S0
s0
S0 =
=
B0
B0

al tempo t=1

B1
B1 =
=1
B1

S1
S1
s0 Z
S1 =
=
=
B1
B0 (1 + r)
B0 (1 + r)

i titoli sono due, e poi sono ammesse anche le combinazioni lineari delle due relative scommesse.
a corto (o short selling) significa vendere anche senza possedere lazione. La differenza tra comprare e vendere sar`
a
nel segno della strategia.
33 Vendere

MPEF 01-07-2009

17

Allora la scommessa relativa al titolo non rischioso B


0 = B1 B0 = 1 1 = 0
non comporta alcun contributo, mentre laltra scommessa, relativa al titolo S diviene
1 = S1 S0 =

s0
s0 Z

.
B0 (1 + r) B0

Questo modello verr`


a studiato prima come unapplicazione del teorema dellarbitraggio (Esempio 1.3) e
successivamente si otterranno direttamente le condizioni necessarie e sufficienti per lassenza di opportunit`a di
arbitraggio (Teorema 1.2)
Esempio 1.3 (il modello binomiale uniperiodale con il teorema dellarbitraggio). Per il teorema dellarbitraggio,
la condizione di assenza di opportunit`
a di arbitraggio `e equivalente alla condizione di esistenza della misura
su per la
martingala equivalente, che in questo modello si riduce alla richiesta che esista una probabilit`
a P
quale valga


s0 Z
s0

(Z) = 1 + r,
1 ) = 0 E(
S1 ) = s0 = s0
E

=0 E
E(
B0
B0 (1 + r) B0
e che dia probabilit`
a positiva a tutti gli scenari o gli eventi possibili.
In altre parole, la condizione equivale allesistenza di due numeri p > 0 e q > 0, con p + q = 1, che
= u) e q = P(Z
= d), rispettivamente, e per i quali si abbia
rappresentino p = P(Z

= u) + d P(Z
= d) = 1 + r u P(Z
= u) + d 1 P(Z
= u) = 1 + r u p + d (1 p) = 1 + r
u P(Z
da cui, immediatamente,
p =

1+rd
,
ud

q = 1 p =

u (1 + r)
.
ud

(1.8)

= u) > 0 e q = P(Z
= d) > 0
Infine, la condizione che i due numeri p e q definiscano una probabilit`
a con p = P(Z
`e soddisfatta se e solo se
d < 1 + r < u.

Osservazione 1.5. Nel caso in cui sia composto solo di due eventi elementari, ovvero in cui = {0 , 1 }
e Z(0 ) = d mentre Z(1 ) = u, ovviamente la precedente osservazione permette di individuare univocamente la
probabilit`
a (misura martingala equivalente) sullinsieme delle parti. Nel caso in cui invece la cardinalit`
a di sia
`e univocamente determinata solo sulla strettamente maggiore di due, allora la misura martingala equivalente P
algebra generata da Z, ovvero, con le notazione dellOsservazione 1.4, su F, ma non su -algebre pi`
u grandi. Ad
esempio se = {0 , 1 , 2 , 3 }, e Z(0 ) = Z(2 ) = d e Z(1 ) = Z(3 ) = u, allora A0 = {Z = d} = {0 , 2 }
e A1 = {Z = u} = {1 , 3 }. Se invece si prendesse come -algebra linsieme delle parti, allora ogni misura di
probabilit`
a Q sarebbe determinata da
p0 , p 1 , p 2 , p 3 ,

pi 0,

3
X

pi = 1,

i=0

dove pi = Q({i }). La condizione che Q sia una misura martingala equivalente, diventerebbe
p1 + p3 = p,

p0 + p2 = q = 1 p,

0 p1 , p3 p,

e non si avrebbe pi`


u lunicit`
a della misura martingala equivalente.

0 p0 , p2 1 p,

18

MPEF 01-07-2009

Dimostriamo ora direttamente (senza far uso del teorema dellarbitraggio) che la condizione precedente,
ovvero d < 1 + r < u, ***`e necessaria e sufficiente per non avere arbitraggi. ***
Teorema 1.2. Per il modello di mercato binomiale uniperiodale la condizione
d < 1 + r < u.

(1.9)

`e necessaria e sufficiente per non avere arbitraggi (in senso debole), ovvero affinche con un capitale iniziale
nullo, non sia possibile non avere (con certezza) perdite, ed avere un guadagno positivo con probabilit`
a positiva.
Prima di iniziare la dimostrazione fissiamo le notazioni: indichiamo una strategia con
= (, )
ovvero B0 `e la quantit`
a di denaro investita nel titolo non rischioso (in banca, o in buoni del tesoro34 ) mentre
S0 `e la quantit`a di denaro investita nel titolo rischioso (lazione), ovvero `e il numero di azioni comprate35 .
Allora il capitale iniziale (o il valore della strategia al tempo t = 0) `e
X0 = B0 + S0 (= + s0

se B0 = 1)

mentre al tempo t = 1 vale


X1 = B1 + S1 = B0 (1 + r) + s0 Z (= (1 + r) + s0 Z

se B0 = 1)

ed il suo valore attualizzato `e

s0 Z
1 = X1 = B1 + S1 = + S1 = +
X
B1
B1
B0 (1 + r)

Dimostrazione.
La condizione (1.9) `
e necessaria 36 affinche non ci siano opportunit`a di arbitraggio:
Mostreremo infatti che, se la condizione (1.9) non `e soddisfatta, allora in ciascuno dei due casi d < u 1 + r e
1 + r d < u esistono strategie (, ) di arbitraggio.
Se fosse
d < u 1 + r,
allora, con capitale iniziale nullo
al tempo t = 0 si potrebbe vendere corto una azione ( = 1) al prezzo s0 , e mettere i soldi ottenuti in banca
0 = X0 = B0 + S0 = B0 s0

( = +

s0
)
B0

al tempo t = 1 si potrebbe comprare lazione al prezzo s0 Z (e che risulta minore di s0 (1 + r), cio`e il valore di
quanto depositato in banca); dopo aver ritirato i soldi in banca, si compra lazione (che si era venduta a corto)
ricavando quindi
(
s0 (1 + r u) 0 se Z = u,
B1 + S1 = s0 (1 + r) s0 Z =
s0 (1 + r d) > 0 se Z = d.
34 Nel caso dei buoni rappresenta il numero di buoni comprati . E
` importante capire che quando `
e negativo significa che
stiamo prendendo in prestito i soldi dalla banca, oppure che stiamo vendendo buoni.
35 E
` anche importante capire che `
e ammessa la vendita a corto, cio`
e si pu`
o vendere oggi un titolo, impegnandosi a fornirlo
domani , pur non avendolo ancora comprato oggi . Ci`
o vale anche per i buoni, ovvero per i titoli non rischiosi e non solo per le
azioni, ovvero per i titoli rischiosi.
36 La dimostrazione formale oscura leggermente il significato:
Se d < u 1 + r, allora conviene vendere lazione oggi e mettere in banca s0 , domani in banca ci sar`
a di sicuro una somma
sufficiente per comprare lazione, e c`
e anche la possibilit`
a (se lazione non cresce troppo) di un guadagno strettamente positivo.
Se 1 + r d < u, allora conviene comprare lazione oggi, prendendo in prestito dalla banca la cifra s0 necessaria, domani
rivendendo lazione di sicuro si otterr`
a una somma sufficiente per restituire i soldi alla banca, e c`
e anche la possibilit`
a (se lazione
cresce abbastanza) di un guadagno strettamente positivo.

MPEF 01-07-2009

19

In termini del mercato attualizzato



u 

0
s
1

1+r

se Z = u,

d 
>0
1+r

se Z = d.

s0 Z
=
+ S1 = s0

1+r

s0 1

Se invece fosse
1 + r d < u,
allora, con capitale iniziale nullo,
al tempo t = 0 si potrebbe comprare una azione ( = 1) al prezzo s0 , prendendo i soldi in prestito dalla banca
0 = X0 = B0 + S0 = B0 + s0

( =

s0
)
B0

al tempo t = 1 si potrebbe vendere lazione al prezzo s0 Z (e che risulta strettamente maggiore di s0 (1 + r),
cio`e il valore di quanto va restituito in banca); dopo aver venduto lazione si restituiscono i soldi (che si erano
presi in prestito) alla banca, ricavando quindi
(

s0 u (1 + r) > 0

B1 + S1 = s0 (1 + r) + s0 Z =
s0 d (1 + r) 0

se Z = u,
se Z = d.

In termini del mercato attualizzato



 u

1
>0

1+r

s0 Z
=
+ S1 = s0 +
 d

1+r

s0
1 0
1+r

se Z = u,

se Z = d.

La condizione (1.9) `
e sufficiente affinch
e non ci siano strategie di arbitraggio:
Mostreremo infatti che, se la condizione (1.9) `e soddisfatta, allora non esistono strategie (, ) di arbitraggio.
Dobbiamo cio`e mostrare che, se vale (1.9), allora per ogni (, ) tale che
X0 = B0 + s0 = 0

X1 () = B0 (1 + r) + s0 Z() 0

per ogni

si ha che
X1 () = 0,

per ogni .

Infatti
X0 = B0 + s0 = 0,

B0 = s0 ,

e di conseguenza
(

s0 1 + r u se Z = u,

= B0 (1 + r) + s0 Z() =
s0 1 + r d
se Z = d,


Poiche 1 + r u < 0 mentre 1 + r d > 0, `e impossibile che s0 1 + r u e s0 1 + r d siano entrambi
maggiori o uguali a zero, tranne nel caso in cui siano entrambi uguali a zero, ovvero se s0 = 0. Poiche s0 > 0, ci`o
s0
e quindi X1 () = B0 (1 + r) + s0 Z() = 0.
significa che deve essere = 0. Lo stesso vale per =
B0
X1 ()

20

MPEF 01-07-2009

1.4.1

Modello binomiale uniperiodale con contingent claim

Siamo sempre nel mercato binomiale uniperiodale della definizione 1.3, ma ora sono ammesse anche scommesse
del tipo contingent claim 37 , ovvero il valore della scommessa dipende dal valore del titolo rischioso:
oggi (al tempo t = 0) pago c e domani (al tempo t = 1) ricevo f1 (S1 ) = f1 (s0 Z) =: (Z).
Il valore attualizzato di questa scommessa `e
2 =

f1 (S1 )
c
f1 (S1 )
c
(Z)
c

.
B1
B0
B0 (1 + r) B0
B0 (1 + r) B0

Il modello binomiale uniperiodale con derivati38 verr`a studiato prima come unapplicazione del teorema
dellarbitraggio (Esempio 1.4) per determinare il prezzo del derivato in modo che non ci siano opportunit`a
di arbitraggio. Successivamente (si veda lesempio 1.5) troveremo di nuovo tale prezzo con un procedimento
collegato con il concetto di strategia di copertura perfetta (si veda la definizione 1.4).
Esempio 1.4 (modello binomiale uniperiodale con contingent claim: il prezzo, sempre con il teorema
dellarbitraggio). Rispetto allEsempio 1.3, abbiamo unaltra scommessa, ma lo spazio `e rimasto lo stesso
di prima, e abbiamo anche la scommessa di prima, quindi la misura martingala equivalente o rimane la stessa
di prima o non esiste.
Il teorema dellarbitraggio assicura lassenza di opportunit`
a di arbitraggio se e solo se la scommessa 2 ha
valore atteso nullo rispetto a tale misura (oltre alla scommessa 1 ). Quindi lunico prezzo che non permette
arbitraggi `e perci`
o quel valore c per il quale si abbia
2) = E

E(

c
f1 (S1 )

B1
B0


=0

c = B0 E

f1 (S1 )
B1

ossia
2) = 0
E(


(Z)
c =0
1+r

c=E

(Z)
1+r

da cui
c=

1
1+r



u (1 + r)
1+rd
+ f1 (s0 d)
f1 (s0 u)
.
ud
ud

(1.10)

Quindi il teorema dellarbitraggio39 ci permette di ottenere il prezzo del contingent claim f1 (S1 ).
Osservazione 1.6. Contingent claim `e uno dei possibili nomi che si pu`
o dare ad un contratto che preveda
che la quantit`
a di denaro (o di beni) che ci si impegna a dare dipenda (sia contingente) dalle circostanze future.
In questo esempio abbiamo supposto che la dipendenza sia stabilita in modo deterministico dallandamento dei
prezzi di un altro bene, che `e detto (bene) sottostante (in questo caso il sottostante, o titolo primario, `e
lazione).
37 Per chiarire meglio il significato delle due parole
CONTINGENT: (aggettivo, formale) contingent on/upon something, depending on something else in the future in order to happen:
Outdoor arrangements are, as ever, contingent on the weather and we have other plans in the event of rain.
Our success is contingent upon your support.
CLAIM: (fra gli altri significati) a right to have something or obtain something from someone:
She has no rightful claim to the title.
Our neighbours have no claim to (= cannot say that they own) that strip of land between our houses.
My ex-wife has no claims on me (= has no right to any of my money).
38 Si veda la successiva osservazione 1.6 per il motivo per cui si parla di derivati.
39 Infatti

solo scegliendo come prezzo c := E

(Z)
1+r


, si ottiene che non ci sono opportunit`
a di arbitraggio.

MPEF 01-07-2009

21

Osservazione 1.7. Oltre a derivati che sono funzioni deterministiche del sottostante, sarebbe possibile
considerare anche scommesse (attualizzate) pi`
u generali, ovvero del tipo
() =

c
()
c
()

B1
B0
B0 (1 + r) B0

Se lo spazio degli eventi non contenesse solo due elementi, allora con il teorema dellarbitraggio si
individuerebbe
in modo unico la misura martingala equivalente solo sulla -algebra generata da Z, cio`e su

F = , {Z = d}, {Z = u}, , ma non si individuerebbe in modo unico su tutte le possibili -algebre.
Per capire meglio il significato di questa osservazione riprendiamo il caso esaminato nellOsservazione 1.5
di = {0 , 1 , 2 , 3 }, e la -algebra sia linsieme delle parti di .
La richiesta che Q sia una misura martingala equivalente corrisponde a chiedere che
EQ [0 ] = 0
EQ [1 ] = 0
EQ [ ] = 0
La prima condizione `e ovvia, la seconda condizione (come abbiamo gi`
a visto) corrisponde a
p1 + p3 = p,

p0 + p2 = q = 1 p,

0 p1 , p3 p,

0 p0 , p2 1 p,

ovvero
0 p0 1 p,

0 p1 p,

p2 = 1 p p0 ,

p3 = p p1 ,

(1.11)

che come `e chiaro ha due gradi di libert`


a (cio`e le soluzioni dipendono da (p0 , p1 ) [0, p] [0, 1 p].
Infine la terza condizione diviene
p0 (0 ) + p1 (1 ) + p2 (2 ) + p3 (3 ) (1 + r)B0

c
=0
B0

ovvero tenendo conto della (1.11)


p0 (0 ) + p1 (1 ) + (1 p p0 ) (2 ) + (
p p1 ) (3 ) (1 + r)B0

c
= 0.
B0

(1.12)

Da questa relazione si ottiene quindi che c non `e univocamente determinato dalla richiesta che non ci siano
opportunit`
a di arbitraggio, ossia, mentre nel caso in cui F = {, A0 , A1 , } il suo prezzo `e univocamente
 
, nel caso
determinato dalla (unica) misura di probabilit`
a martingala equivalente dalla relazione c = B0 E
B1
in esame, in cui F = P(), il prezzo pu`
o variare in un range che dipende, in non solo dai valori che pu`
o
assumere (), ma anche da (p0 , p1 ), senza che ci siano opportunit`
a di arbitraggio. Tuttavia se accade che
(0 ) = (2 )

(1 ) = (3 ),

() = (Z()),

per una opportuna funzione (z), allora invece il suo prezzo `e univocamente determinato.
Vale la pena anche di osservare che potrebbe anche darsi la situazione in cui alcuni contingent claim j (),
j = 1, , ` sono prezzati dal mercato e sia cj il corrispondente prezzo di mercato. In altre parole non abbiamo
il problema di fare il prezzo di questi contingent claim, ma prendiamo per buoni i prezzi di questi contingent
claim. In questo caso le condizioni di assenza di opportunit`
a di arbitraggio
EQ [0 ] = 0

(1.13)

E [1 ] = 0
Q

E [j ] = 0
dove
j () =

(1.14)
j = 1, . . . `

cj
cj
j ()
()

B1 )
B0
B0 (1 + r) B0

(1.15)

22

MPEF 01-07-2009

divengono ulteriori condizioni sulla probabilit`


a martingala equivalente. Ad esempio, se applicate sempre
allesempio dellOsservazione 1.5 con = {0 , 1 , 2 , 3 }, permetterebbero di ricavare relazioni analoghe alla
(1.12), ovvero
p0 (0 ) + p1 (1 ) + (1 p p0 ) (2 ) + (
p p1 ) (3 ) (1 + r)B0

cj
= 0,
B0

j = 1, `.

(1.16)

Queste relazioni si possono interpretare in questo caso invece come una condizione su (p0 , p1 ). Non solo, esse
ci permettono altre considerazioni:
(i) se ` = 1, allora `e possibile determinare p1 in funzione di p0 (o viceversa);
(ii) se ` = 2, allora `e possibile che siano univocamente determinate sia p0 che p1 ;
(iii) se ` 3, allora `e possibile che nessuna coppia di valori (p0 , p1 ) soddisfi tutte le condizioni (1.16), ovvero
che il sistema (1.13) (1.14) (1.15) di assenza di opportunit`
a di arbitraggio non abbia nessuna soluzione.
Ovviamente nessun problema sorge nella seguente situazione: esiste (ed `e unica) una misura di probabilit`a
rispetto alla quale le variabili aleatorie i hanno valore atteso nullo, per i = 0, 1, , m, e il contingent
P,
claim `e una variabile aleatoria che si pu`
o scrivere come combinazione lineare delle precedenti, ovvero esiste
un vettore di numeri reali (, 1 , , m ) per i quali
() = 0 +

m
X

i i ()

per ogni .

i=1

In questo caso infatti la condizione


] = 0
E[
m
m
X
0] +
i] = 0
i E[
E[
i=1

`e automaticamente soddisfatta.
Questa banale osservazione ha delle interessanti interpretazioni in Finanza come si vede nel seguente esempio.
Il vettore (, 1 , , m ) viene interpretato come una strategia di copertura perfetta, e contemporaneamente
permette, in alcuni casi la determinazione dei prezzi.

Esempio 1.5 (modello binomiale uniperiodale con contingent claim: la strategia di copertura perfetta). Il
prezzo del derivato con contingent claim f1 (S1 ) (che brevemente chiameremo anche opzione) si pu`
o ottenere
anche a partire dal concetto di copertura perfetta (si veda la successiva definizione 1.4).
Sia c il prezzo (ancora da determinare) dellopzione (cio`e il prezzo del derivato con contingent claim
f1 (S1 ) = f (s0 Z) =: (Z)). Si immagini di comprare derivati caratterizzati dal precedente contingent claim
(Z). Nel seguito considereremo solo il caso = 1, che invece corrisponde a vendere lopzione, e quindi
prenderemo il punto di vista del venditore, ma questo non lede la generalit`
a40 . Siano inoltre B0 la quantit`
a di
denaro investita nel titolo non rischioso (B), e S0 la quantit`
a di denaro investita nel titolo rischioso (S). La
coppia := (, ) viene detta strategia di investimento o portfolio41 .
Si suppone inoltre che la strategia sia autofinanziante, cio`e che non ci siano costi di transazione, non ci
siano consumi, e neppure introiti ulteriori.

40 E
` chiaro che supporre = 1 non comporta nessuna perdita in generalit`
a in quanto basterebbe considerare 0 =
e

analogamente 0 =
.
41 Secondo la terminologia del teorema dellarbitraggio 1.1 la strategia sarebbe la terna (, , ), ma come gi`
a osservato si pu`
o
considerare = 1, e quindi solo la parte relativa a (, ) `
e interessante.

MPEF 01-07-2009

23

La condizione che il capitale iniziale sia nullo diviene


(X0, =) c + X0 = c + B0 + S0 = 0

(1.17)

nel caso in cui = 1 corrisponde a chiedere che


X0 = B0 + S0 = c.

(1.18)

Questa formulazione corrisponde a chiedere che il prezzo di vendita c sia il capitale iniziale che viene ripartito
nel mercato (B, S), ovvero investito in banca (o nel titolo non rischioso) e nelle azioni (o nel titolo rischioso).
Ovviamente alla fine del periodo, ovvero al tempo t = 1, il valore complessivo si esprime come
(X1, =) f1 (S1 ) + X1 = f1 (S1 ) + B1 + S1 ,
mentre il valore complessivo attualizzato si esprime come

s0 u
f1 (s0 u)

+1+

B0 (1 + r)
B0 (1 + r)
, =) f1 (S1 ) + 1 + S1 =
(X
1

B0 (1 + r)

s0 d
f (s d)

1 0
+1+
B0 (1 + r)
B0 (1 + r)

se

Z=u

se

Z = d.

Definizione 1.4 (copertura perfetta nel modello binomiale uniperiodale). Una strategia di copertura
perfetta `e una strategia (, ) per la quale il capitale finale
f1 (S1 ) + B0 (1 + r) + S1 = 0
o, il che `e lo stesso, che il capitale finale attualizzato

f1 (S1 )
+ 1 + S1 = 0
B0 (1 + r)

sia nel caso Z = u che nel caso Z = d.


Nel caso = 1 ci`
o corrisponde a chiedere che il valore
X1 = B1 + S1 = f (S1 ),

(1.19)

ovvero che la strategia (, ) permetta di onorare esattamente il contratto: vendendo lopzione il venditore (cio`e
chi ha la posizione corta) si `e impegnato a fornire al compratore (cio`e chi ha la posizione lunga) la quantit`
a
contingente f (S1 ), e questa strategia (, ) gli permette di ottenere esattamente la quantit`
a di denaro necessaria.
Affermazione: Si supponga che esista e siano unico un valore c che assicura lesistenza di una strategia di
copertura perfetta (, ), a partire da un capitale iniziale nullo (ossia c e (, ) sono tali che valgono le relazioni
(1.18) e (1.19)).
Allora il valore c `e lunico valore del prezzo che assicura che non ci siano opportunit`
a di arbitraggio42 .
Dimostrazione dellaffermazione precedente: si distinguono due casi
se il prezzo dellopzione della strategia fosse c, con c > c, allora vendendo al tempo t = 0 lopzione al
prezzo c, si potrebbe utilizzare c per mettere in atto la strategia (, ) (che permette di ottenere f (S1 ) al tempo
t = 1) e mettere in banca la differenza c c > 0. Al tempo t = 1 il venditore potrebbe ottemperare al contratto,
dando, come dovuto, al compratore f (S1 ), e avere inoltre la quantit`
a di denaro (1 + r)(c c) > 0. Si ha cio`e
un arbitraggio.
Riassumendo
42 Tale valore c prende anche il nome di prezzo di copertura. Il suo interesse sta nel seguente fatto: colui che vende lopzione al
prezzo c di copertura riceve la somma c al tempo t = 0 e la investe nel mercato (B, S) secondo la strategia di copertura perfetta
(, ), ed `
e sicuro in tale modo di ottemperare allimpegno preso, cio`
e di poter fornire al tempo t = 1 il contingent claim f1 (S1 ) al
compratore. Questo `
e interessante anche per il compratore, in quanto sa che il venditore riuscir`
a ad ottenere il contingent claim.

24

MPEF 01-07-2009

opzione strategia = azioni e bond/banca

bond/banca

totale

cc

S0 B0 = c

t=0

+c

t=1

f (S1 )

S1 + B1 = f (S1 )

(1 + r)(c c) (1 + r)(c c) > 0

se invece il prezzo dellopzione della strategia fosse c, con c < c, allora vendendo al tempo t = 0 il portfolio
(, ) al prezzo c = B0 + S0 > c (impegnandosi a restituire al tempo t = 1 il corrispettivo valore, ossia
B1 + S1 ), comprando al tempo t = 0 lopzione al prezzo c, e infine, sempre al tempo t = 0, mettendo in
banca la differenza c c, al tempo t = 1 si ottempera allimpegno preso prendendo il valore f (S1 ) tramite
lopzione: per tale valore infatti vale f (S1 ) = B1 + S1 . A questo punto al tempo t = 1 in banca `e rimasta la
quantit`
a (1 + r)(c c) > 0 strettamente positiva. Si ha cio`e un arbitraggio.
Riassumendo
opzione strategia = azioni e bond/banca
t=0

t=1

f (S1 )

bond/banca

totale

cc

S0 + B0 = c
S1 B1 = f (S1 )

(1 + r)(c c) (1 + r)(c c) > 0

Rimane da vedere che il prezzo c di copertura dellaffermazione esista e sia unico e che esso coincide con il
prezzo ottenuto precedentemente, attraverso la formula (1.10), ottenuta con il teorema dellarbitraggio. Lidea
alla base del ragionamento sta nella seguente osservazione: affinche si trovi qualcuno disposto a comprare, il
prezzo deve essere tale che il venditore non possa fare un guadagno sicuro, ma anche non si troverebbe nessuno
disposto a vendere se il compratore avesse un guadagno sicuro.43 . Questo `e possibile solo se, sempre a partire
, = 0, indipendentemente dal valore di Z.
da capitale iniziale nullo X0, = 0, c`e una strategia per la quale X
1
, = 0.
In particolare deve valere X0, = 0, cio`e la relazione (1.17), e la condizione di copertura, cio`e X
1
Questultima si traduce nelle due condizioni seguenti:
f1 (s0 u)
s0 u
+1+
=0
B0 (1 + r)
B0 (1 + r)
f1 (s0 d)
s0 d

+1+
=0
B0 (1 + r)
B0 (1 + r)

(1.20)
(1.21)

o equivalentemente
f1 (s0 u)
s0 u
+1+
=0
B0 (1 + r)
B0 (1 + r)
f1 (s0 u)
s0 u
f1 (s0 d)
s0 d

+1+
=
+1+
B0 (1 + r)
B0 (1 + r)
B0 (1 + r)
B0 (1 + r)

(1.22)
(1.23)

ovvero, esplicitando in funzione di *** e di tramite la (1.22)


f1 (s0 u)
s0 u

B0 (1 + r)
B0 (1 + r)
f1 (s0 u)
s0 u
f1 (s0 d)
s0 d

+
=
+
.
B0 (1 + r)
B0 (1 + r)
B0 (1 + r)
B0 (1 + r)
= (, ) =

(1.24)
(1.25)

43 Va inoltre ricordato che implicitamente abbiamo supposto che il mercato sia liquido, cio`
e che sia possibile trovare sempre
qualcuno disposto a comprare e qualcuno disposto a vendere: se ci fossero opportunit`
a di arbitraggio per il venditore, allora tutti
vorrebbero vendere e non si troverebbe nessuno disposto a comprare, mentre accadrebbe il contrario se ci fossero opportunit`
a di
arbitraggio per il compratore.
.

MPEF 01-07-2009

25

La seconda condizione (1.25) permette di trovare in funzione di




1 f1 (s0 u) f1 (s0 d)
f1 (s0 u) f1 (s0 d) = s0 d s0 u = () =
,
s0
ud
ovvero44 per = 1 (B0 = 1, per semplicit`
a)
=

f1 (s0 u) f1 (s0 d)
.
s0 u s0 d

(1.26)

Di conseguenza la prima condizione (1.24) permette di trovare45 , infatti si ha


= () =

f1 (s0 d) u f1 (s0 u) d
1
B0 (1 + r)
ud

che per = 1 diviene


=

1
f1 (s0 d) u f1 (s0 u) d
B0 (1 + r)
ud

(1.27)

La condizione precedente (1.17) di capitale iniziale nullo, ossia X0, = 0, diviene quindi46 per = 1 (si
pu`
o supporre anche B0 = 1, per semplicit`
a)
B0 + S0 = + s0 = c

= c s0

da cui si pu`
o trovare (in modo nuovo) il valore che deve avere c affinche non ci siano opportunit`
a di arbitraggio:
44 Si osservi che il numero di azioni che permettono una copertura perfetta del titolo derivato, cio`
e il numero , si ottiene attraverso
una sorta di derivata discreta della funzione costo f (x), come funzione del prezzo dellazione sottostante. Inoltre () dipende
linearmente da .
45 Si

osservi che

f1 (s0 u)
s0 u
= , () =
()
B0 (1 + r)
B0 (1 + r)
1 f1 (s0 u) f1 (s0 d)
s0 u
f1 (s0 u)
+
=
B0 (1 + r)
s0
ud
B0 (1 + r)
h
i
1
1 f1 (s0 u) f1 (s0 d)
=
f1 (s0 u)
s0 u
B0 (1 + r)
s0
ud
h f (s u) (u d)
1
f1 (s0 u) u f1 (s0 d) u i
1 0
=

B0 (1 + r)
ud
ud
1
f1 (s0 d) u f1 (s0 u) d
=
B0 (1 + r)
ud

46 Per

generico si ottiene lo stesso:


c + () B0 + () S0 = c + () (1) B0 + () (1) s0 = 0

che equivale a
B0 + S 0 = + s 0 = c
dove per semplicit`
a = (1) e = (1).

26

MPEF 01-07-2009

infatti si ricava che47


1 f1 (s0 d) [u (1 + r)] + f1 (s0 u) [(1 + r) d]
1+r
ud

1 
f1 (s0 d) p + f1 (s0 u) (1 p) ,
=
1+r

c=

dove p `e definita in (1.8).


***Nella seguente Figura 1.1 riassumiamo il procedimento con un albero:
p =

1+rd
ud
1

c=

1+r

q = 1 p

[pf
(s0 u) + qf (s0 d)]

s0
c

s0 u
p *
 f (s0 u)


HH
s0 d
HH
j
f (s d)
q
0

f (s0 u) f (s0 d)
s0 u s0 d

1
B0

(c s0 )

Figura 1.1: Albero binomiale per il calcolo del prezzo c e della strategia di copertura perfetta: trovati c e , il
valore `e automaticamente determinato.

Osservazione 1.8. La condizione di copertura perfetta `e stata definita attraverso le condizioni (1.18) ed (1.19),
ossia
c = B 0 + S0 ,
f (S1 ) = B1 + S1 .
Da queste relazioni `e immediato verificare che allora, attualizzando i prezzi al tempo t = 0,
c
B0
S0
=
+
,
B0
B0
B0
B1
S1
f (S1 )
=
+
,
B1
B1
B1
da cui immediatamente, facendo la differenza tra la seconda e la prima riga si ottiene




f (S1 )
c
B1
B0
S1
S0

ossia 2 = 0 + 1 .
B1
B0
B1
B0
B1
B0
Abbiamo quindi ritrovato il fatto che trovare la copertura perfetta equivale ad esprimere la scommessa 2 ,
relativa al contingent claim, come una combinazione lineare delle scommesse 0 e 1 . ***
47 Con

semplici passaggi si ottiene


1
f1 (s0 d) u f1 (s0 u) d
1 f1 (s0 u) f1 (s0 d)
B0 +
s0
B0 (1 + r)
ud
s0
ud
1 f1 (s0 d) u f1 (s0 u) d
f1 (s0 u) f1 (s0 d)
=
+
1+r
ud
ud


f1 (s0 d) u f1 (s0 u) d
f1 (s0 u)(1 + r) f1 (s0 d)(1 + r)
1
=
+
1+r
ud
ud
1 f1 (s0 d) [u (1 + r)] + f1 (s0 u) [(1 + r) d]
=
1+r
ud

c = B0 + s 0 =

Capitolo 2

Richiami su spazi di probabilit`


a
2.1

Esempi di spazi di probabilit`


a

Come dovrebbe essere noto uno spazio di probabilit`a `e una terna (, F, P), dove
F `e una -algebra, ovvero F `e una famiglia di sottoinsiemi di , cio`e F `e un sottoinsieme di P(), tale
che
F;
se A F, allora Ac F;
se An F, n N, allora nN An F;

(2.1)
(2.2)
(2.3)

P `e una misura di probabilit`


a , ovvero
P :F 7 [0, 1];

A 7 P(A)

con le propriet`a che


P() = 1;
se An F, n N, con An Am = per n 6= m,
[
 X

allora P
An =
P An .
nN

(2.4)
(2.5)

nN

La -algebra F rappresenta linformazione disponibile, ovvero gli eventi appartenenti a F sono gli unici
eventi di cui abbiamo la possibilit`
a di sapere se si sono verificati oppure no.
Oltre alla misura di probabilit`
a P, per tutti gli eventi A F con P(A) > 0, si possono definire le probabilit`
a
condizionate 1 allevento A, che rappresentano la valutazione della probabilit`a nel caso in cui si verificasse
levento A:
P(|A) F : [0, 1]
P(E A)
E
7 P(E|A) :=
P(A)

(2.6)
(2.7)

Vediamo ora alcuni esempi elementari di spazi di probabilit`a:


1E
` facile verificare che la funzione P(|A) definita in (2.6) `
e una probabilit`
a, cio`
e soddisfa gli assiomi delle probabilit`
a. Per
mettere in evidenza tale fatto va detto che Kolmogorov aveva adottato la notazione PA (), ovvero PA (E) invece di P(E|A), anche
per mettere meglio in evidenza questa propriet`
a.

27

28

MPEF 01-07-2009

Esempio 2.1. Qualunque sia , la -algebra banale F = {, } `e una -algebra, e necessariamente P() = 1
e P() = 0.
Esempio 2.2. Qualunque sia , preso un sottoinsieme proprio A di la -algebra F = {, A, Ac , } `e una
-algebra, e necessariamente P() = 1, P() = 0, P(A) = p, P(Ac ) = 1 p, per un p [0, 1].
Esempio 2.3. Qualunque sia , sia {Hm , m = 1, 2, . . . , N } una partizione finita di , cio`e se gli eventi
sono incompatibili:
Hn Hm = per n 6= m, n, m {1, 2, . . . , N }
ed esaustivi:
N
[

Hm = ,

m=1

allora la famiglia M = {A =

mI

Hm , al variare di I {1, 2, . . . , N }}, (con la convenzione che

Hm = )

`e una -algebra. Inoltre se p1 , p2 , . . . , pN sono numeri non negativi, a somma 1, ovvero


N
X

pm 0, m = 1, 2, . . . , N,

pm = 1,

m=1

allora P : M 7 [0, 1]; A 7 P(A), con


P(A) =

pm ,

per A =

mI

Hm ,

(2.8)

mI

definisce una probabilit`


a su (, M).
Esempio 2.4. Le propriet`
a dellesempio precedente valgono anche nel caso di una partizione numerabile
{Hm , m N} con i dovuti cambiamenti: cio`e, se
Hn Hm = per n 6= m, n, m N,
[
Hm = ,
mN

allora la famiglia
F = {A =

Hm , al variare di I N},

mI

(con la convenzione che

Hm = ), `e una -algebra2 .

Inoltre se p1 , p2 , . . . , pm , . . . sono numeri non negativi, somma 1, ovvero


X
pm 0, m N,
pm = 1,
mN
2 La

verifica `
e banale:
=

Hm , ovvero I = N

mN

se A =

Hm , allora Ac =

mI

se An =

[
mIn

Hm

mI c

Hm , n 1, allora

[
n=1

An =

[
mI

Hm , per I =
n=1 In .

MPEF 01-07-2009

29

allora P : F 7 [0, 1]; A 7 P(A), con


X

P(A) =

pm ,

per A =

mI

Hm ,

(2.9)

mI

definisce una probabilit`


a su (, F).
La verifica di questultima propriet`
a `e banale3 .
Elenchiamo adesso alcune propriet`
a e notazioni relative alle -algebre:
1 lintersezione di -algebre `
e una -algebra
\
Sia {G , } una famiglia di -algebre, allora F :=
G `e una -algebra4 .

2 lunione di -algebre non `


e (in generale) una -algebra
Basta mostrare con un controesempio che lunione di due -algebre non `e una -algebra: ad esempio se
Gi = {, Ai , Aci , }, con A1 A2 6= , A1 , A2 , allora G1 G2 = {, A1 , A2 , Ac1 , Ac2 , } non `e una -algebra.
3 la -algebra generata da una collezione di eventi
Sia K un sottoinsieme di P(), linsieme delle parti di , allora
\
(K) :=
G:KG

`e la -algebra5 generata da K.
In particolare quindi la -algebra M, generata dalla partizione {Hm ; m N} come nellEsempio 2.4,
coincide con ({Hm ; m N}), in quanto, come gi`a visto M `e una -algebra, e inoltre ogni -algebra che
contenga {Hm ; m N}, deve necessariamente contenere tutte le unioni del tipo mI Hm .
4 la -algebra generata
S da una collezione di -algebre
Nel caso in cui K = G , dove G sono -algebre, allora si pone
_
[

G :=
G .


In particolare se M = ({Hm ; m N}) e N = {K` ; ` N} , allora
[


M N = ({Hm K` ; m N, ` N}) = E =
Hm K` ; con J N N .
(m,`)J
3 La

funzione P : M 7 [0, 1] definita in (2.9) `


e una probabilit`
a, infatti
X
P() =
pm = 1,
mN

se An =

Hm M, n N, con An An0 = per n 6= n0 ,

mIn

allora

An =

nN

e quindi P

nN
4 La

Hm con I =

mI

In , e con In In0 = per n 6= n0 ,

nN

X X
X

 X

An = P A =
p` =
pm =
P An ,
`I

nN mIn

nN

verifica `
e banale:

F , in quanto G , per ogni ;


se A F , cio`
e se A G , per ogni , allora Ac G , per ogni , e quindi Ac F ;
[
[
se An F , n N cio`
e se An G , per ogni , n N allora
An G , per ogni , e quindi
An F;
nN
5 Il

fatto che

T
G:KG

nN

sia una -algebra, deriva dalla propriet`


a che lintersezione di -algebre `
e una -algebra.

30

MPEF 01-07-2009
5 la -algebra dei Boreliani Nel caso in cui K = A, la famiglia degli aperti di Rk , allora
B(Rk ) := (A)
`e detta -algebra dei boreliani, o -algebra di Borel, ed ogni elemento di I di B(Rk ) `e detto boreliano.

2.2

Variabili aleatorie

Definizione 2.1. Dato uno spazio di probabilit`


a (, F, P)6 , una variabile aleatoria reale X `e una funzione
F-misurabile, ovvero una funzione
X : 7 R; 7 X(),
tale che la controimmagine di ogni aperto O A sia un elemento di F 7 , cio`e tale che
X 1 (O) := { tali che X() O} F, per ogni aperto O A.
Si dice anche che X `e una variabile aleatoria F-misurabile.
Una definizione analoga vale nel caso di variabili aleatorie multidimensionali
X : 7 Rk ;


7 X() = X1 (), . . . , Xk () ,

basta infatti sostituire R con Rk .


Vediamo alcuni esempi di variabili aleatorie F-misurabili, al variare della -algebra F.
Esempio 2.5. Se F = {, }, allora le uniche variabili aleatorie reali X F-misurabili sono le costanti:
Se X : 7 R; 7 X() = c, allora X 1 (O) `e levento impossibile(=insieme vuoto ), se c
/ O, oppure `e
linsieme certo(=), se c O.
Viceversa se X : 7 R; 7 X() non `e costante allora X assume almeno due valori c1 e c2 distinti (cio`e
esistono i tale che X(i ) = ci , per i = 1, 2, con c1 6= c2 ). Quindi se c1 O, ma c2
/ O, allora 1 X 1 (O),
1
1
mentre 2
/ X (O), ovvero X (O) (dove le inclusioni sono in senso stretto), e quindi X non `e
F-misurabile.
Si noti che lesempio precedente mostra anche che tutte le variabili aleatorie costanti sono misurabili rispetto
a qualunque -algebra ({, } F, per ogni -algebra F).
Esempio 2.6. Sia {Hm , m N} una partizione numerabile, e sia M come nellesempio 2.4. Allora
X : 7 R; 7 X() `e M-misurabile, se e solo se esiste una successione di costanti {cm , m N}8 ,
tale che
X
X() =
cm IHm ().
(2.10)
mN

Se X `e definita come in (2.10) allora X `e M-misurabile, infatti per ogni aperto O,


[
X 1 (O) =
Hm ,
m:cm O
6 In realt`
a basta che ci sia uno spazio probabilizzabile, ovvero basta solo la coppia (, F ), mentre non `
e necessario specificare la
misura di probabilit`
a P.
7 Si noti lanalogia con la definizione di funzione continua f : Rk 7 Rd , come una funzione tale che le controimmagini di aperti
sono aperti.
8 Si noti che non si assume che i valori di {c } siano tutti distinti, ad esempio nel caso della successione costante, cio`
e cm = c
m
per ogni m N, si trova una variabile aleatoria costante.

MPEF 01-07-2009

31

S
ovvero X 1 (O) = mI Hm M, per I = {m : cm O}.
Viceversa se X `e M-misurabile, cio`e, per ogni aperto O, esiste un I N tale che
[
X 1 (O) =
Hm ,
mI

allora qualunque sia c R, preso On lintervallo aperto (c 1/n, c + 1/n) si ha che


\ [
[
\
 \ 1 n
X 1 ({c}) = X 1
On =
X (O ) =
Hm =
Hm M,
n

n mI n

In

Esempio 2.7. Sia X : 7 R; 7 X(), una funzione discreta, ovvero tale che limmagine X() =
{x R, tali che esiste un con X() = x} di X sia un insieme numerabile (finito o infinito), cio`e X() =
{xm , m N}, con xn 6= xm per n 6= m. Allora
X
X() =
xm IHm (),
(2.11)
mN

dove
Hm = X 1 ({xm }) = { tali che X() = xm }.
Si noti che {Hm , m N} forma una partizione numerabile.
Inoltre la funzione X `e una variabile aleatoria F -misurabile, se e solo se
Hm = X 1 ({xm }) F, per ogni m N,
come `e immediato da (2.11), osservando che, come nel caso precedente,
[
X 1 (O) =
Hm .
m:xm O

Infine la variabile aleatoria X si dice semplice o elementare, se linsieme X() `e un insieme finito.
Si pu`o dimostrare che
1 se X `e una variabile aleatoria F-misurabile, allora la controimmagine X 1 (I) F, per ogni boreliano
I B(R),
9
2 la variabile aleatoria X `e F-misurabile, se e solo se ciascuna componente X
Ti `e F-misurabile , per ogni
1
i = 1, . . . , k. In particolare X ({x}) F, per ogni x R, in quanto {x} = n (x 1/n, x + 1/n).

Connessa con la precedente Definizione 2.1 `e la seguente definizione:



Definizione 2.2. Sia data una funzione X : 7 Rk ; 7 X() = X1 (), . . . , Xk () . Si dice -algebra
generata da X, la -algebra
\
(X) =
G
GRX

dove RX `e la famiglia delle -algebre, per le quali X `e G-misurabile10 .


Si dimostra che
3 La -algebra generata da X, si pu`
o caratterizzare come:
(X) = {A = X 1 (I), per I B(Rk )},
9 Dimostriamo

solo la necessit`
a, che `
e immediata: basta prendere O = R R Oi R R.
|
{z
}
|
{z
}
i1 volte

10 La

ki volte

famiglia RX non `
e vuota, in quanto contiene almeno G = P(), linsieme delle parti di .

32

MPEF 01-07-2009

4 la funzione X `e F-misurabile, se e solo se (X) F,


5 le variabili aleatorie (X)-misurabili a valori in Rd sono tutte e sole le variabili aleatorie Z per le quali
esiste una funzione g boreliana11 tale che
Z = g(X).
Esempio 2.8. Sia X una funzione semplice, come in Esempio 2.7, allora
[
(X) = ({Hm , m N}) = {A =
Hm ; I N},
mI

dove Hm = X 1 ({xm }).


Inoltre tutte e sole le variabili aleatorie (X)-misurabili sono le funzioni
X
Z : 7 R; 7 Z() :=
cm IHm ,
m

come discende immediatamente dallEsempio 2.6. Di conseguenza se g : R 7 R tale che g(xm ) = cm , per ogni
m N, allora
X
X
X

Z() :=
cm IHm = Z() =
g(xm )IX 1 ({xm }) () =
g(xm )I{xm } X() = g(X()).
m

Terminiamo questa sezione, ricordando che le operazioni di massimo, minimo, somma, prodotto, di due
funzioni misurabili, danno luogo a funzioni misurabili: quindi se X ed Y sono variabili aleatorie F-misurabili,
lo sono anche X Y = max(X, Y ), X Y = min(X, Y ), X + Y , XY . In particolare sono variabili aleatorie
X + := X 0 e X := (X) 0.

2.3

Distribuzioni di variabili aleatorie

Sia (, F, P) uno spazio di probabilit`


a e sia
X : 7 Rk ; 7 X()
una variabile aleatoria a valori ******in Rk ******. Tramite X `e possibile definire una misura di probabilit`a
PX sullo spazio misurabile (Rk , B(Rk )) nel seguente modo:

PX : B(Rk ) 7 [0, 1] I 7 PX (I) := P X I .
` facile verificare che effettivamente PX definisce una probabilit`a sui boreliani B(Rk ). La misura di
E
probabilit`a cos` definita `e detta misura di probabilit`
a indotta da X, o distribuzione di X.
***
A volte, per indicare
di probabilit`a indotta, si usa il simbolo PX 1 , che nasce dall fatto che
 la misura
1
PX (I) := P X I = P X (I) . Nel seguito, a volte useremo anche il simbolo X per indicare la
distribuzione di probabilit`
a di X.
***
Esempio 2.9 (una variabile aleatoria binomiale). Sia
= {0, 1}N = { = (1 , 2 , . . . , N ), con i {0, 1}, per i = 1, 2, . . . , N },
11 Una funzione g : Rk 7 Rd , si dice boreliana se `
e una funzione tale che le controimmagini di aperti sono boreliani.
Ovviamente le funzioni continue sono boreliane. Sono boreliane anche le funzioni continue a tratti, o meglio ancora costanti a
tratti.
Per chi non avesse familiarit`
a con i concetti di misurabilit`
a pu`
o pensare a queste funzioni, o a funzioni che siano limite puntuale di
funzioni di uno dei due tipi precedenti.

MPEF 01-07-2009

33

sia
F = P(),
linsieme delle parti di , sia la probabilit`
a definita attraverso ***la relazione ***
P( {} ) := p

N
i=1

(1 p)N

N
i=1

dove p `e un numero fissato con la condizione che p (0, 1). Sia infine X la variabile aleatoria definita da
N
X

X() :=

i .

i=1

Si vede facilmente che


1 la variabile aleatoria X assume solo i valori {0, 1, . . . N },
2 per h {0, 1, . . . N } si ha12
 
N h
PX (h) := P(X = h) =
p (1 p)N h ,
h
3 per ogni boreliano I
PX (I) := P(X I) =

N  
X
N
h=0
hI

ph (1 p)N h

Definizione 2.3 (variabili aleatorie con distribuzione binomiale). Ogni variabile aleatoria X che ******per la
quale
n  
X
n h
PX (I) :=
p (1 p)nh
h
h=0
hI

******viene detta una variabile aleatoria binomiale di parametri n e p e si scrive in breve X Bin(n, p).
A volte, invece di definire lo spazio di probabilit`a e la variabile aleatoria X ed infine trovare la distribuzione
di X, si pu`o dare direttamente la distribuzione di X. Questo `e il caso delle variabili aleatorie che vengono
caratterizzate solo attraverso la densit`
a discreta o con densit`a (di probabilit`a).
Definizione 2.4 (variabili aleatorie con densit`a discreta). Si dice che una variabile aleatoria elementare X ha
densit`
a discreta


x1 x2 xm
p1 p2 pm
dove x1 , x2 , xm sono elementi di Rk e p1 , p2 , pm sono numeri reali tali che
pj 0

per ogni j = 1, 2, , m,

m
X

pj = 1,

j=1
12 Levento

che

Ah := {X = h} `
e rappresentato dallinsieme, di cardinalit`
a

=
h.
La
probabilit`
a
di
ciascuno
di
questi

vale
quindi
i
i=1

PN

P() = p

N
i=1

(1 p)N

N
i=1

N
,
h

i cui elementi = (1 , 2 , . . . , N ) hanno la propriet`


a

= ph (1 p)N h

e la probabilit`
a dellinsieme vale
P(X = h) = P(Ah ) =

X
Ah

P() =

X
Ah

ph (1 p)N h = |Ah |ph (1 p)N h =

N 

ph (1 p)N h

34

MPEF 01-07-2009

se, per ogni boreliano I, vale


m
X

PX (I) := P(X I) =

pj .

j=1
xj I

In particolare quindi il significato di pj `e chiaro, essendo


P(X = xj ) = pj .
La definizione `e analoga nel caso di variabili aleatorie discrete, la cui distribuzione viene caratterizzata attraverso
una densit`
a discreta ******su un insieme numerabile {xk , k 1}******


x1 x2 xm xm+1
p1 p2 pm pm+1
Definizione 2.5 (variabili con densit`
a). Si supponga di avere una funzione f : R 7 R con le propriet`
a:
Z
f (x) 0 per ogni x Rk ,
f (x) dx = 1,
Rk

si dice che X ha distribuzione con densit`


a (di probabilit`
a) f se accade che, per ogni boreliano I,
Z
PX (I) :=
f (x) dx.
I

Esempio 2.10 (distribuzione gaussiana). Come caso particolare si consideri il caso della variabile aleatoria
unidimensionale con densit`
a
(x)2
1
e 22
f (x) =
2
dove `e un numero reale e `e un numero (strettamente) positivo. Una variabile aleatoria con questa
distribuzione `e detta gaussiana o normale di valore atteso (o valore medio) e varianza 2 . Brevemente si
indica X N (, 2 ). Se = 0 e 2 = 1 si dice che X `e una variabile gaussiana o normale standard.

2.4

Valori attesi

In questa sezione ricordiamo come si pu`


o definire il valore atteso per variabili aleatorie generali, a partire dalla
sua definizione per variabili aleatorie semplici. Per maggiori approfondimenti si rimanda, ad esempio, al libro
di Billingsley [3] o a quello di Williams [19].
Definizione 2.6 (Valore atteso per variabili semplici). Sia X una variabile aleatoria in (, F, P), non negativa
e semplice, cio`e come in Esempio 2.7,
X
X() =
xm IHm (), con Hm F per ogni m N,
mN

allora si definisce
E[X] =

xm P(Hm ).

mN

Osservazione 2.1. Ogni variabile aleatoria X in (, F, P), non negativa, ammette una successione di variabili
aleatorie Xn , semplici e non negative, tali che
0 Xn () Xn+1 (),

e tali che lim Xn () = X().


n

MPEF 01-07-2009

35

Infatti13 basta prendere


Xn () =

n
n2
1
X

m=0

n2
1
X
m
m
I
()
+
nI
()
=
1 m m+1 (X()) + n1[n,) (X()),
(n)
(n)
Hn2n
n [ 2n , 2n )
2n Hm
2
m=0

(2.12)

dove si `e posto
(n)
Hm
= X 1



m m+1
,
2n
2n




(n)
Hn2n = X 1 [n, ) ,

F per 0 m n2n 1,

e, per A F,
IA () = 1

IA () = 0

x [a, b)

1[a,b) (x) = 0

se

se

/ A,

ed infine, per a < b numeri reali,


1[a,b) (x) = 1

se

se

x
/ [a, b).

` infine interessante notare che, posto bxc la parte intera inferiore14 di x, si pu`
E
o riscrivere nel seguente
modo
b2n X()c
n.
Xn () =
2n
Definizione 2.7 (Valore atteso per variabili nonnegative). Sia X una variabile aleatoria in (, F, P), non
negativa, si definisce
E[X] = lim E[Xn ],
n

dove {Xn ; n N} `e la successione monotona definita come in (2.12) dellOsservazione precedente. Il limite
esiste ed `e monotono, per la propriet`
a di monotonia del valore atteso, sulle variabili aleatorie semplici. Si noti
bene che tale limite pu`
o valere anche +, nel qual caso si dice che la variabile X ha valore atteso infinito.
Arriviamo ora alla definizione generale del valore atteso:
Definizione 2.8 (Valore atteso per variabili generali). Sia X una variabile aleatoria in (, F, P), Siano
X + := X 0 e X := (X) 0, le variabili aleatorie non negative, definite alla fine della sezione precedente.
Si noti che X = X + X e che invece |X| = X + + X . Si definisce allora, se ha senso15
E[X] = E[X + ] E[X ].
13 La monotonia della successione delle variabili aleatorie X `
n e evidente:
se Xn () = m/2n , con m < n2n , allora i soli casi possibili sono

Xn+1 () = (2m)/2n+1 = m/2n = Xn (),


oppure
Xn+1 () = (2m + 1)/2n+1 = m/2n + 1/2n+1 > Xn ();
se Xn () = n allora Xn+1 () pu`
o assumere un valore compreso tra n ed n + 1.
Per la convergenza basta osservare che, qualunque sia , pur di prendere n sufficientemente grande e in modo che X() < n,
si ha che
0 X() Xn () 1/2n .
14 La
15 Si

parte intera inferiore bxc di x `


e quel numero intero k tale che k x < k + 1.
considera che la somma E[X + ] E[X ] ha senso

1 se E[X + ] < , E[X ] < , nel qual caso E[X] R e inoltre si ha anche E[|X|] = E[X + ] + E[X ] < ;
2 se E[X + ] < , E[X ] = , nel qual caso E[X] = ;
3 se E[X + ] = , E[X ] < , nel qual caso E[X] = +;
Il caso che rimane escluso `
e quindi il caso in cui E[X + ] = , E[X ] = , del resto si avrebbe la forma indeterminata .

36

MPEF 01-07-2009

Se invece di usare la probabilit`


a P si usa la probabilit`a condizionata ad un evento A, ovvero P(|A), allora
si parla di valore atteso di X condizionato allevento A e si usa la notazione
E[X|A].
Ci`o significa che, nel caso di una variabile aleatoria semplice
X
xm IHm (), con Hm F per ogni m N,
X() =
mN

si ha
E[X|A] =

X
mN

xm P(Hm |A).

MPEF 01-07-2009

2.5

37

Appendice: variabili Gaussiane multidimensionali

Cominciamo con il definire una variabile aleatoria gaussiana standard unidimensionale:


Definizione 2.9. Si dice che una variabile aleatoria reale Z `e gaussiana di valore atteso e varianza 2 , se
ammette densit`
a
(

2 )
1
1 x
.
fZ (z) = exp
2

2
In questo caso si usa la notazione Z N (, 2 ). Se = 0 e 2 = 1 allora si dice che Z segue una legge
normale o gaussiana standard.
Caso ndimensionale: iniziamo con il caso di un vettore (colonna) aleatorio

Y1
Y2

Y =
Yk


Yn
a componenti indipendenti e tutte gaussiane standard, ovvero il caso in cui
n
Y

n
Y



1
1 2
exp yi
fYi (yi ) =
fY (y) =
2
2
i=1
i=1
(
)


n
1X 2
1
1
1 0
exp
=
yi =
exp

y
y
.
2 i=1
2
(2)n/2
( 2)n
dove lapice indica loperazione di trasposizione, ovvero y 0 `e il vettore riga (y1 , y2 , , yn ).
` immediato verificare che E(Yi ) = 0, V ar(Yi ) = 1 e che Cov(Yi , Yj ) = 0, per i 6= j.
E
Sia ora A una matrice non singolare e sia m un vettore (colonna). Definiamo ora Z = AY + m e cerchiamo
la sua densit`a. Sappiamo dai risultati generali che se Y ammette densit`a e Z = (Y ) con invertibile e con
derivate continue, allora anche Z ammette densit`a:

 1 

(z)
1
1



= fY (1 (z))
fZ (z) = fY ( (z)) det


(y)
z
det y
1
y=

di conseguenza, poiche nel nostro caso (y) = Ay + m e 1 (z) = A1 (z m)




0 1
1
1 1
1
fZ (z) = n exp A (z m) A (z m)
.
2
|det(A)|
2
Essendo
(A1 (z m))0 A1 (z m) = (z m)0 (A1 )0 A1 (z m)
= (z m)0 (A0 )1 A1 (z m) = (z m)0 (AA0 )1 (z m)
si ottiene


1
1
1
0
0 1
exp (z m) (AA ) (z m) .
fZ (z) =
2
(2)n/2 |det(A)|
La precedente espressione si basa sulle seguenti propriet`a:

(z)

38

MPEF 01-07-2009

(A0 )1 = (A1 )0

(i)

in quanto
A0 z = w z = (A0 )1 w
e inoltre
0

A0 z = w (z 0 A) = w z 0 A = w0 z 0 = w0 A1
z = w0 A1
1

(AA0 )

(ii)

= (A0 )

0

0
z = A1 w.

A1

in quanto
1

(AA0 )

z = w z = AA0 w A1 z = A0 w (A0 )

A1 z = w.

` interessante notare che sia il vettore m che la matrice AA0 = A0 A hanno una interpretazione probabilistica:
E

E(Zi ) = E(

n
X

ai,k Yk ) + mi =

n
X

ai,k E(Yk ) + mi = mi

k=1

k=1

Cov(Zi , Zj ) = E[(Zi mi )(Zj mj )] = E[

n
X

ai,k Yk

k=1

n
X

aj,h Yh ] =

h=1

n X
n
X

ai,k aj,h E[Yk Yh ]

k=1 h=1

e quindi
Cov(Zi , Zj ) =

n
X
k=1

ai,k aj,k E[Yk Yk ] +

1,n
n X
X

ai,k aj,h E[Yk Yh ] =

k=1 h6=k

n
X

ai,k aj,k = (AA0 )i,j

k=1

Si osservi che se Z = (Z1 , ..., Zn ) `e un vettore gaussiano allora (Z1 ...Zk ) e (Zk+1 , ..., Zn ) sono indipendenti,
se e solo se Cov(Zi , Zh ) = 0 per ogni i = 1, , k e h = k + 1, , n. In tale caso allora `e ovvio che il vettore
(Z1 ...Zk ) `e un vettore gaussiano16
Terminiamo questo paragrafo con il ricordare quanto valgono i momenti di una variabile aleatoria
gaussiana. Sia Z una variabile aleatoria N (0, 2 ). Per quanto visto prima possiamo considerare Z = Y con
Y una variabile aleatoria N (0, 1). Da questa osservazione segue subito che
E[Z k ] = k E[Y k ]
16 Per ottenere lo stesso risultato nel caso generale, ovvero che se Z = (Z , ..., Z ) `
e un
n e un vettore gaussiano allora (Z1 ...Zk ) `
1
vettore gaussiano, si pu`
o procedere nel seguente modo. Innanzitutto basta considerare il caso in cui i valori attesi sono nulli senza
ledere in generalit`
a. Inoltre si pu`
o pensare che Z = AY . Se la matrice A0 = (a0ij ) `
e definita in modo che a0ij = aij qualunque siano
e definito da
i = 1, ...k e j = 1, ...., n, e il vettore aleatorio Z 0 `

Z 0 = A0 Y ,
allora, chiaramente,
Zi0 = (A0 Y )i = Zi = (AY )i ,

per i = 1, ...k.

Se inoltre a0hj per h = k + 1, ...n e j = 1, ...., n sono presi in modo che il vettore (Z10 , , Zk0 ) = (Z1 , , Zk ) sia indipendente dal
0
0 ), ovvero in modo che
vettore (Zk+1
, , Zn
0 = E[Zi Zh0 ] = Cov(Zi , Zh0 ) =

n
X

ai,` a0h,`

`=1

per i = 1, ...k e h = k + 1, ...n, allora si ottiene il risultato voluto.


Nel caso in cui la matrice A sia non singolare ci`
o`
e sempre possibile perch
e i vettori a(i) = (ai1 , ai2 , , ain ) sono linearmente
indipendenti e quindi basta trovare n k vettori a0(h) = (a0i1 , a0h2 , , a0hn ) ortogonali allo spazio vettoriale k-dimensionale
span(a(i) , i = 1, , k).

MPEF 01-07-2009

39

e
E[|Z|k ] = ||k E[|Y |k ].
Vale poi la pena di ricordare che
E[Y 2k+1 ] = 0,
E[Y 2k ] = (2k 1)!! = (2k 1)(2k 3) 5 3 1,
mentre17 infine

r
r
2
2
2 k
(2k)!! =
(2k)(2k 2) 4 2 =
2 k!.
E[|Y |
]=

***Prima di dimostrare queste tre uguaglianze si osservi che le ultime due si possono scrivere in modo
sintetico come
r
2
n
E[|Y | ] = C((1)n ) (n 1)!!
.
C(+1) = 1
C(1) =

***
La prima relazione `e banale, per ragioni di simmetria, e permette di ricavare la seconda osservando che
r

2k+1

E[euY ] = e

u2
2

h
X
X
1 u2
1 u2h
=
.
h! 2
h! 2h

h=0

e daltra parte, essendo appunto ovviamente E[Y


E[euY ] = E[

2k+1

h=0

] = 0,

X
X
1 k k
1
u Y ]=
u2h E[Y 2h ]
k!
(2h)!

k=0

h=0

si deve necessariamente avere che i coefficienti delle due serie devono coincidere:
1 1
1
=
E[Y 2h ],
h! 2h
(2h)!
ovvero
(2h)!
2h(2h 1)(2h 2)(2h 3) 3 2 1
=
h!2h
h(h 1) 3 2 1 2h
(2h)!!(2h 1)!!
2h h! (2h 1)!!
= (2h 1)!!.
=
=
h
h!2
2h h!

E[Y 2h ] =

Infine la terza si ricava per integrazione per parti e calcolando a mano che E[|Y |] =

2
.

***Concludiamo questo paragrafo con un lemma che riguarda il comportamento asintotico della funzione di
sopravvivenza di una gaussiana standard e del modulo di una gaussiana standard.
2

Lemma 2.1. Sia Y una gaussiana standard, allora, posto fY (y) =

y
1 e 2
2

1
1
1
x+
fY (x) P(Y > x) fY (x),
x
x

1
1
1
x+
f|Y | (x) P(|Y | > x) f|Y | (x),
x
x

, si ha, per x > 0,

P(|Y | > x) e
17 Si

x2
2

noti che dalle ultime due relazioni sui momenti si ottiene che
E[|Y |m ] = (m 1)!!C(1)m ,

con C+1 = 1, C1 =

x > 0,

(2.13)

x > 0,

(2.14)

x > 0.

(2.15)

2
.

40

MPEF 01-07-2009

Dimostrazione. La disuguaglianza (2.14) discende immediatamente dalla prima disuguaglianza (2.13), la quale
equivale a
1

x2
x2
1
1
1 1
e 2 P(Y > x) e 2 ,
x+
x
x 2
2
e discende dalla seguente relazione


1
w

w+

1

w2
2

z2
2

dz

1 w2
e 2 ,
w

w > 0.

(2.16)

La disuguaglianza destra della (2.16) discende da


Z

z2

e
w

Inoltre

1
dz
w

z e

z2
2

dz =

1 w2
e 2 ,
w



w2
d 1 w2
1
e 2 = 1 + 2 e 2
dw w
w

e quindi
1 w2
e 2 =
w

1
1+ 2
z

z2

dz

1
1+ 2
w

Z

z2
2

dz ,

che prova laltra disuguaglianza nella (2.16).


Infine, per provare la disuguaglianza (2.15), basta osservare che,
Z
P(|Y | > x) = 2
x

= 2 e
2 e

Z +
2
y 2 x2
1
1 y2
x2
2
e
e 2 dy
dy = 2 e
2
2
x
Z +
Z +
(z+2x)z
x2
1 (y+x)(yx)
1
2
e
e 2 dz
dy = 2 e 2
2
2
x
0
Z +
x2
1 z2
e 2 dz = e 2 .
2
0

x2
2

x2
2

(essendo x > 0,)

MPEF 01-07-2009

2.6

41

Appendice: Spazi di variabili aleatorie

Sia dato uno spazio di probabilit`


a (, F, P). Linsieme delle variabili aleatorie X, che sono F-misurabili ed
integrabili18 , cio`e per le quali E[|X|] < , forma uno spazio vettoriale reale: se E[|Xi |] < , per i = 1, 2,
con Xi F-misurabili, allora la variabile aleatoria a1 X1 + a2 X2 `e ancora F-misurabile e inoltre
E[|a1 X1 + a2 X2 |] E[|a1 ||X1 | + |a2 ||X2 |] |a1 |E[|X1 |] + |a2 |E[|X2 |] < .
Linsieme di tali variabili aleatorie `e indicato con L1 (, F, P).
Questo spazio differisce dallusuale spazio L1 (, F, P) dellanalisi, solo in quanto in questultimo spazio si
considerano equivalenti due variabili aleatorie X ed Y se e solo se P(X = Y ) = 1. Lo spazio L1 (, F, P) `e uno
spazio metrico completo e separabile rispetto alla distanza
dL1 (X, Y ) = E[|X Y |]
(cio`e si passa alle classi di equivalenza modulo la relazione di equivalenza19 : X Y se e solo se E[|X Y |] = 0,
perche altrimenti d(X, Y ) non gode della propriet`a delle metriche che d(X, Y ) = 0 se e solo se X = Y ).

Anche linsieme delle variabili aleatorie X, che sono F-misurabili e quadrato integrabili , cio`e per le quali
E[|X|2 ] < , forma uno spazio vettoriale reale che si indica con L2 (, F, P). Come prima passando alle classi
di equivalenza20 si ottiene lusuale spazio L2 (, F, P), che inoltre `e uno spazio metrico completo e separabile
rispetto alla distanza
d2L2 (X, Y ) = E[|X Y |2 ]
(modulo passare a classi di equivalenza X Y se e solo se E[|X Y |2 ] = 0). Inoltre L2 (, F, P) `e uno spazio
di Hilbert: questo significa che `e possibile introdurre un prodotto scalare
< X1 , X2 >:= E[X1 X2 ],
e definire21 d2L2 (X, Y ) =< X Y, X Y >= E[|X Y |2 ]. Si noti che, per la disuguaglianza di Cauchy,
|E(X1 X2 )| E(|X1 X2 |) E1/2 (|X1 |2 )E1/2 (|X2 |2 ),
e quindi < X1 , X2 > `e finito se E[|Xi |2 ] < , per i = 1, 2.

Ovviamente si ha
L2 (, F, P) L1 (, F, P),
ed analogamente
L2 (, F, P) L1 (, F, P),
Infatti se X `e di quadrato integrabile allora se X `e integrabile:
E[X 2 ] < E[|X|] < ,
come si vede immediatamente, ad esempio, con la disuguaglianza di Cauchy:
1/2
1/2
1/2
E[|X|] = E[1|X|] E[12 ]
E[X 2 ]
= E[X 2 ]
,
18 Ovvero,

in termini analitici,

|X()| P(d) =< .

E[|X|] =

19 Se

E[|X|] < e E[|Y |] < , allora P(X = Y ) = 1 se e solo se E[|X Y |] = 0.


E[|X|2 ] < e E[|Y |2 ] < , allora P(X = Y ) = 1 se e solo se E[|X Y |2 ] = 0.
21 Va ricordato che `
e usuale indicare d2L2 (X, Y ) =< X Y, X Y >= E[|X Y |2 ] con d2L2 (X, Y ) = kX Y k2L2 , o equivalentemente
1/2
kXk (= kXkL2 ) := E[|X|2 ]
.

20 Se

42

MPEF 01-07-2009

oppure direttamente considerando che |x| 1 + x2 , e per la propriet`


a di monotonia del valore atteso
E[|X|] 1 + E[X 2 ].

2.6.1

Sottospazi dello spazio delle v.a. di quadrato integrabile

Sia G una sotto--algebra di F, ovvero G F: se X `e G-misurabile, allora X `e anche F-misurabile22 .


Di conseguenza23
L2 (, G, P) L2 (, F, P),
ed analogamente24
L2 (, G, P) L2 (, F, P),
Nel Capitolo 3 sui valori attesi condizionali, per ogni variabile aleatoria X L2 (, F, P) verr`a definita la
variabile aleatoria E[X|G], sostanzialmente come la proiezione di X sul sottospazio L2 (, G, P), ovvero come
L2 (, G, P) per la quale
quella variabile aleatoria25 X
2] =
E[(X X)

min

ZL2 (,G,P)

E[(X Z)2 ].

(2.17)

In particolare la proiezione sullo spazio generato dalla variabile aleatoria costante 1, 7 1() = 1, cio`e
prendendo G = {, } si ottiene il valore atteso.
Nel caso in cui G = (Y ), tenendo presente che le variabili aleatorie (Y )-misurabili sono le variabili aleatorie
Z = g(Y ), con g boreliana, allora il valore atteso condizionato E[X|(Y )], secondo la precedente definizione
= g(Y ), tale che
(2.17) (si veda anche la successiva Definizione 3.2), `e quella variabile aleatoria X

2 

2 
E X g(Y )
= min E X g(Y ) ,
g boreliane



dove il minimo va preso rispetto alle funzioni g per le quali E |g(Y )|2 `e finito. In tale caso la media condizionata
viene indicata con E[X|Y ] = g(Y ), invece che con E[X|(Y )].

2.6.2

Regressione lineare

Siano X ed Y due variabili aleatorie di quadrato integrabile. Il problema di trovare la retta di regressione lineare
di X rispetto ad Y corrisponde al problema di trovare il punto di minimo, tra tutte le funzioni affini a + b y
del valore atteso del quadrato della differenza tra X, ovvero trovare e tali che

2 

2 
E X ( + Y )
= min E X (a + b Y ) .
a,b

22 Infatti se la controimmagine di ogni aperto `


e un insieme (evento) di G, allora ovviamente la controimmagine di ogni aperto `
e
un insieme (evento) di F .
23 Si

a G.

b oppure L2 (, G, P)
b dove P
b = P| , cio`
noti che, per maggiore precisione, si dovrebbe scrivere L2 (, G, P)
e la restrizione di P
G

24 ***Bisogna per`
o fare una precisazione:
se lo spazio L2 (, F , P) viene considerato come spazio di Hilbert, siamo passati alle classi di equivalenza delle variabili aleatorie
F -misurabili e tali che P (X 6= X 0 ) = 0, ossia che differiscono su un insieme di NF , la classe degli insiemi F -misurabili di Pb dove P
b`
probabilit`
a nulla. Invece lo spazio L2 (, G, P), [o meglio L2 (, G, P),
e la misura P ristretta a G,] `
e lo spazio delle classi di
equivalenza delle variabili aleatorie G-misurabili e tali che P (X 6= X 0 ) = 0, ossia che differiscono su un insieme di NG , la classe
degli insiemi G-misurabili di P-probabilit`
a nulla. Quindi il passaggio agli spazi di Hilbert si pu`
o fare soltanto se gli insiemi NF e
NG coincidono. Ci`
o`
e sicuramente vero se NF G.***
25 Sarebbe pi`
u corretto dire quella classe di equivalenza di variabili aleatorie.

MPEF 01-07-2009

43

Si noti che anche qui sia ha la proiezione su un sottospazio di L2 (, F, P). Questa volta per`o si tratta di
un sottospazio di dimensione 2:
V = {Z = a + bY ; a, b R}
La soluzione `e data in analogia con il caso delle proiezioni sui sottospazi vettoriali in Rd . Si denota con

X = + Y la variabile aleatoria che si cerca. Allora deve essere


E(X)
Y E(Y )
X
= X,Y
X
Y

(2.18)

dove X,Y `e il coefficiente di correlazione, cio`e


X,Y =

Cov(X, Y )
X Y

)
rappresenta il vettore unitario con direzione parallela ad Y , e invece X,Y
Lanalogia sta nel fatto che Y E(Y
Y
rappresenta il coseno tra langolo formato tra due vettori26 :

X,Y =

< X E(X), Y E(Y ) >


kX E(X)k kY E(Y )k

Dalla (2.18) si possono ottenere i valori di e di . In particolare


= X,Y X (Y E(Y )) + E(X),
X
Y
da cui immediatamente, tenendo conto della definizione di coefficiente di correlazione
=

Cov(X, Y )
X,Y
X =
Y
Y2

Vedremo nel capitolo sui valori attesi condizionali che, per variabili aleatorie (X, Y ) congiuntamente
gaussiane il valore atteso condizionale E[X|Y ] di X dato Y `e una funzione affine di Y , e che quindi coincide
anche con la retta di regressione.

26 Si

ricordi che se u e v sono due vettori non nulli, allora


dv) =
cos(u,

e che con la notazione kXk := E[|X|2 ]

1/2

uv
kuk vk

si ha V ar(X) = kX E(X)k1/2 .

44

MPEF 01-07-2009

2.7

Appendice: Approccio soggettivista alla probabilit`


a

In questo paragrafo vogliamo illustrare come con lapproccio soggettivista, si possa arrivare agli assiomi della
probabilit`a (con la additivit`
a semplice) attraverso una opportuna definizione di valore atteso e di probabilit`a
come prezzo, e attraverso opportune regole di linearit`a e di coerenza.
Daremo due definizioni che sostanzialmente si equivalgono, una con un linguaggio pi`
u neutrale e generale ed
unaltra con un linguaggio pi`
u economico.
Definizione 2.10 (valore atteso). Il valore atteso E(X) di una variabile aleatoria X `e quel valore certo c che
sono disposto a scambiare con il valore aleatorio dato proprio da X, nel senso che per me `e indifferente ricevere
c o X. La probabilit`
a P(A) di un evento A `e definito come il valore atteso della variabile aleatoria indicatrice
di A, ovvero la variabile aleatoria X = IA che vale 1 se si verifica A e vale 0 altrimenti.
La seconda definizione vede X come valore aleatorio che si ottiene come esito di una scommessa, mentre c
come prezzo da pagare per prendere parte alla scommessa (o al gioco).
Definizione 2.11 (valore atteso come prezzo). Il valore atteso di X `e quel valore certo c che si `e disposti
a pagare per effettuare la scommessa in cui si ottiene il valore aleatorio X, con laccordo che si `e disposti
indifferentemente a prendere il ruolo sia dello scommettitore che del banco.
Regola di linearit`
a27 : Siano X ed Y due variabili aleatorie allora
i E(X + Y ) = E(X) + E(Y )
ii E( X + Y ) = E(X) + E(Y ), per ogni e costanti reali
La regola di coerenza seguente `e basata sul fatto alla fine della scommessa ricevo X e pago c e quindi alla
fine ho X c, se ho il ruolo dello scommettitore, mentre ricevo c e pago X se ho il ruolo del banco (broker).
Regola di coerenza: Non `e possibile che X c sia certamente positivo o certamente negativo28 .
La giustificazione della precedente regola di coerenza sta nel fatto che se X c ha segno costante, non
si troverebbe nessuno disposto a prendere il ruolo dello scommettitore, se X c fosse certamente negativo, e
analogamente non si troverebbe nessuno disposto a prendere il ruolo del banco se invece X c fosse certamente
positivo.
A titolo di esempio mostriamo come dalla regola di coerenza si ottenga che se X `e una funzione indicatrice di
un evento A, ovvero X assume solo i valori 0 ed 1 (e allora A = {X = 1}) e, posto per definizione P(A) = E(X),
allora necessariamente deve valere P(A) [0, 1].
La seguente tavola illustra i ricavi possibili se P(A) = p `e il prezzo da pagare per la scommessa in cui si vince
1 se si verifica A (e quindi si ottiene globalmente 1 p), mentre se si verifica Ac non si vince nulla (e quindi si
ottiene p)
27 In realt`
a, per ottenere regola di linearit`
a [i], basterebbe la regola di coerenza (data immediatamente dopo la regola di linearit`
a)
e aggiungere lipotesi che sia sempre possibile trovare qualcuno disposto a scommettere su ciascuna singola scommessa:
se il prezzo di due scommesse insieme fosse maggiore della somma dei prezzi delle due scommesse separatamente, allora converrebbe
accettare (comprare) due singole scommesse e prendere la posizione del banco (vendere) la scommessa relativa alla somma

se invece il prezzo della somma fosse minore della somma dei prezzi, allora converrebbe vendere le due scommesse separatamente
e invece accettare la scommessa. Per capire meglio si veda la seguente tabella: se non ci possono essere arbitraggi, allora
necessariamente deve accadere che c c1 c2 = 0
tipo di scommessa

solo la 1

solo la 2

1 e 2, ma con il ruolo opposto

le precedenti insieme

vincita

X1

X2

X = (X1 + X2 )

X1 + X2 X = 0

pagamento

c1

c2

+c

c1 c2 + c

ricavo

X1 c1

X2 c2

cX

X1 c1 + X2 c2 + c X = c c1 c2

Per la regola di linearit`


a [ii] si pu`
o invece pensare allassenza di sconti, nel senso che se si scommette X si paga esattamente
volte il prezzo della scommessa X, nessun prendi tre paghi due!!!
28 Interpretando X c come il guadagno di chi ha pagato c per ottenere in cambio la cifra aleatoria X, e quindi c X come il
guadagno del venditore, la Regola di coerenza afferma che non pu`
o esserci un arbitraggio (forte) ne per il compratore, ne per il
venditore.

MPEF 01-07-2009

45

evento

Ac

pagamento

vincita

ricavo

1p

Per la regola di coerenza si ottiene che non pu`


o essere


1p<0 e p<0
oppure
Equivalentemente non pu`
o essere

1<p

1p>0 e

1>p e


0<p

oppure

1<p

oppure

0 > p,


p>0 ,


0>p ,

cio`e non pu`


o essere
e quindi in altre parole deve essere necessariamente
0 p = P(A) 1,
che corrisponde alla richiesta degli assiomi che la probabilit`a sia a valori in [0, 1].
Nel caso particolare in cui A = `e levento certo la tabella si precedente si riduce a
evento

pagamento

vincita

ricavo

1p

Non potendo essere ne 1 p < 0 ne 1 p > 0, ovvero non potendo essere ne 1 < p ne 1 > p, deve
necessariamente essere p = P() = 1, che `e un altro degli assiomi delle probabilit`a.
Se inoltre ho n scommesse
Snrelative ad n eventi A1 , A2 , ..., An incompatibili (cio`e Ai Aj = per i 6= j)
allora la scommessa su A = i=1 Ai equivale29 alla somma delle singole n scommesse su Ai , in quanto grazie
allincompatibilit`a degli Ai in entrambe le scommesse ricevo 1 se e solo se si verifica uno degli Ai , mentre
altrimenti ottengo 0. Quindi la linearit`
a dei prezzi, pi`
u il fatto implicito che se due scommesse danno luogo alla
stessa vincita, allora devono avere lo stesso prezzo, si ottiene che
n


 X
P(A) = P ni=1 Ai
=
P(Ai ),
i=1

che corrisponde allassioma delladditivit`


a finita.

Riassumendo abbiamo mostrato come si possano riottenere gli assiomi della probabilit`a (con lesclusione
della additivit`a) con la definizione di valore atteso come prezzo di scommesse aleatorie, con la regola di
coerenza che corrisponde allassenza di opportunit`
a di arbitraggio.
29 Ovvero

se A =

Sn
i=1

Ai e se Ai Aj = per i 6= j, allora
IA =

n
X
i=1

IAi .

46

MPEF 01-07-2009

Va notato che lipotesi di linearit`


a corrisponde allassenza di costi di transazione: quando ci sono costi
di transazione allora comprare allingrosso (ovvero fare ununica scommessa su A = ni=1 Ai ) `e in genere pi`
u
conveniente che comprare al dettaglio (ovvero fare n scommesse separate su ciascun Ai , per i = 1, . . . , n).
Terminiamo queste osservazioni sulle probabilit`a soggettive dando linterpretazione del valore atteso
condizionato 30 ad un evento A di una variabile aleatoria X come il valore certo cA che si `e disposti a
scambiare con X, tenendo presente che lo scambio avviene solo se si verifica leventualit`a rappresentata
dallevento A, ovvero con lintesa che se levento A non si verifica, allora non viene effettuato alcuno scambio31 .

30 Vale

uninterpretazione analoga per le probabilit`


a condizionate ad un evento A, prendendo X = IE .
a dire che il contratto o la scommessa non hanno validit`
a se non si verifica la condizione A.

31 Come

Capitolo 3

Valori attesi e probabilit`


a condizionali
3.1

Definizioni

Sia (, F, P) uno spazio di probabilit`


a e sia X una variabile aleatoria. Si supponga di avere una sotto e che sia G-misurabile e che in qualche senso abbia
algebra G F. Cerchiamo una variabile aleatoria X
un comportamento simile a X. Vale la pena di ricordare che una -algebra pu`o essere interpretata come
e che sia G-misurabile con un comportamento simile
informazione disponibile, e quindi cercare una variabile X
ad X, significa cercare una variabile aleatoria che, sulla base dellinformazione disponibile G, sia simile. Un
e consiste, pi`
altro modo di definire questa variabile X
u banalmente, nel richiedere che sia una variabile aleatoria
G-misurabile vicina ad X. Naturalmente `e necessario definire il senso di vicinanza, cio`e quale metrica mettere
sullo spazio delle variabili aleatorie.
Diamo ora due pre-definizioni, in cui per`
o mancano le ipotesi da fare su X e delle precisazioni, affinche
risultino definizioni ben poste.
e G-misurabile, per la quale valga
pre-Definizione 1. Si cerca una variabile aleatoria X,
A G, con P(A) > 0.

e
E[X|A] = E[X|A],

(3.1)

dove
E[X|A] =

E[XIA ]
.
P(A)

Si noti che (3.1) equivale a


A G, con P(A) > 0.

e A ],
E[XIA ] = E[XI

(3.2)

e che quindi la richiesta che P(A) > 0 si pu`


o omettere.
e esiste, allora
Si noti inoltre che la precedente (3.2) per A = , implica che, se una tale variabile aleatoria X
e = E[X].
E[X]
e G-misurabile, per la quale valga
pre-Definizione 2. Si cerca una variabile aleatoria X,
e 2 ],
E[(X Z)2 ] E[(X X)

Z G misurabile.

(3.3)

Prima di tutto, dobbiamo trovare sotto quali condizioni le pre-definizioni siano ben poste, cio`e, in questo
e per cui valga la (3.1) (o equivalentemente la (3.2)) oppure valga la (3.3), ed in
caso, che esista una variabile X
che senso ne viene individuata una sola. Notiamo che intanto ci sono delle condizioni necessarie da rispettare:
47

48

MPEF 01-07-2009

chiaramente, per la pre-definizione 1, `e necessario che X sia una variabile aleatoria integrabile1 , cio`e E[|X|] < ,
mentre, per la pre-definizione 2, `e necessario richiedere che X sia di quadrato integrabile 2 , cio`e E[|X|2 ] < , ed
inoltre anche la (3.3) va modificata, nel senso che `e necessario richiedere che anche Z sia di quadrato integrabile,
e 0 `e una variabile aleatoria G-misurabile, che differisce da X
e a
oltre che G-misurabile3 . Inoltre `e chiaro che se X
0
e
meno di un insieme di misura nulla, anche X gode della propriet`a (3.2) o (3.3) rispettivamente e quindi non
si individua una sola variabile aleatoria, ma una classe di variabili aleatorie. Queste modifiche in realt`a sono
sufficienti a garantire che le due pre-definizioni diventino due definizioni.
Definizione 3.1 (valore atteso condizionale 1). Sia X una variabile aleatoria integrabile, cio`e X L1 (, F, P).
e G-misurabile, per la quale valga
Sia data una variabile aleatoria (integrabile) X,
A G.

e A ],
E[XIA ] = E[XI

(3.4)

In questo modo si individua univocamente una classe di funzioni che si indica con E[X | G] e che si chiama
e `e una versione di E[X | G].
anche media condizionale (o condizionata) di X data G. Si dice inoltre che X
Definizione 3.2 (valore atteso condizionale 2). Sia X una variabile aleatoria di quadrato integrabile, cio`e
e G misurabile, per la quale
X L2 (, F, P). Sia data una variabile aleatoria (di quadrato integrabile) X,
4
valga
e 2 ], Z
E[(X Z)2 ] E[(X X)

G misurabile, con E[Z 2 ] < .

(3.7)

In questo modo si individua univocamente una classe di funzioni che si indica con E[X | G] e che si chiama
e `e una versione di E[X | G].
anche media condizionale (o condizionata) di X data G. Si dice inoltre che X
Rimandiamo la verifica che effettivamente la Definizione 3.1 e la Definizione 3.2 sono ben poste a dopo aver
trattato alcuni esempi, e anticipiamo che, se X `e di quadrato integrabile5 , allora le Definizioni 3.1 e 3.2 sono
1 Linsieme delle variabili aleatorie X, che sono F -misurabili ed integrabili, cio`
e per le quali E[|X|] < , forma uno spazio
vettoriale reale: se E[|Xi |] < , per i = 1, 2, con Xi F -misurabili, allora la variabile aleatoria a1 X1 + a2 X2 `
e ancora F -misurabile
e inoltre
E[|a1 X1 + a2 X2 |] E[|a1 ||X1 | + |a2 ||X2 |] |a1 |E[|X1 |] + |a2 |E[|X2 |] < .

Linsieme di tali variabili aleatorie `


e indicato con L1 (, F , P) che `
e uno spazio metrico completo e separabile rispetto alla distanza
d(X, Y ) = E[|X Y |] (modulo passare a classi di equivalenza X Y se e solo se E[|X Y |] = 0, perch
e altrimenti d(X, Y ) non
gode della propriet`
a delle metriche che d(X, Y ) = 0 se e solo se X = Y ).
2 Anche in questo caso linsieme delle variabili aleatorie X, che sono F -misurabili e quadrato integrabili, cio`
e per le quali
E[|X|2 ] < , forma uno spazio vettoriale reale che si indica con L2 (, F , P), che inoltre `
e uno spazio metrico completo e separabile
rispetto alla distanza d2L2 (X, Y ) = E[|X Y |2 ] (modulo passare a classi di equivalenza X Y se e solo se E[|X Y |2 ] = 0). Inoltre
L2 (, F , P) `
e uno spazio di Hilbert. Questo significa che `
e possibile introdurre un prodotto scalare
< X1 , X2 >:= E[X1 X2 ],
e definire

d2L2 (X, Y

) =< X Y, X Y >= E[|X Y |2 ]. Si noti che, per la disuguaglianza di Cauchy,


|E(X1 X2 )| E(|X1 X2 |) E1/2 (|X1 |2 )E1/2 (|X2 |2 ),

e quindi < X1 , X2 > `


e finito se E[|Xi |2 ] < , per i = 1, 2.
3

b dove P
b = P| , cio`
Si noti che quindi deve essere Z L2 (, G, P)
e la restrizione di P a G.
G
propriet`
a (3.7) `
e equivalente alla propriet`
a

e 2] =
E[(X X)
min
E[(X Z)2 ] ,

4 La

(3.5)

ZL2 (,G,P)

ovvero

e =
d2L2 (X, X)

min

b dL
2

ZL2 (,G,P)

(X, Z).

b e di d2 )
(vedere le note precedenti per la definizione di L2 (, G, P)
L2
5 Si

ricordi che se X `
e di quadrato integrabile allora se X `
e integrabile:
E[X 2 ] < E[|X|] < ,

come si vede immediatamente, ad esempio, con la disuguaglianza di Cauchy:


1/2
1/2
1/2
E[|X|] = E[1|X|] E[12 ]
E[X 2 ]
= E[X 2 ]
,

(3.6)

MPEF 01-07-2009

49

equivalenti, e quindi non c`e ambiguit`


a nello scegliere una definizione o laltra e che in seguito, riferendoci a
E[X | G], intenderemo riferirci alla Definizione 3.1, che valendo per variabili aleatorie integrabili, `e pi`
u generale.
Non c`e quindi ambiguit`
a nella seguente definizione che viene data in analogia con P(A) = E[IA ].
Definizione 3.3 (probabilit`
a condizionale di un evento). Sia A F un evento e G una sotto algebra di F,
allora
P(A | G) := E[IA | G]
`e detta probabilit`
a condizionale di A data G.
Va inoltre sottolineato un abuso di notazione per cui si identifica la classe di equivalenza E[X | G] e la
e che ne `e un rappresentante.
variabile aleatoria X

3.2

Esempi

Esempio 3.1. Caso in cui G = {, }.


In questo caso E[X | G] si riduce al valore medio usuale, cio`e
E[X | G] = E[X],
in quanto ovviamente E[XI ] = E[E[X]I ] = E[X] 1, mentre banalmente E[XI ] = E[E[X]I ] = E[X] 0.
Esempio 3.2. Caso in cui G = M = {Hm , m N} ed {Hm , m N} `e una partizione.
Intanto ricordiamo che in questo caso le variabili aleatorie G-misurabili sono le funzioni del tipo

Z() =

cm IHm (),

m=1

dove cm sono costanti reali, e gli insiemi G-misurabili sono le unioni di sottofamiglie numerabili di elementi
e imponendo la condizione6 che
della partizione. Basta quindi calcolare i valori e
cm che caratterizzano X,
e H ] = E[
E[XIHn ] = E[XI
n

e
cm IHm IHn ] = E[e
cn IHn ] = e
cn P[Hn ]

(3.8)

m=1

Quindi
e
cm =

E[XIHm ]
P(Hm )

se P(Hm ) > 0

e = E[X | G] =
X

X E[XIH ]
n
IHn ,
P(Hn )

n1

dove n1 `e la somma estesa agli indici n per cui P(Hn ) > 0.


Si noti labuso di notazione: in realt`
a
E[X | G] = { v.a. G misurabili, t.c. =

X E[XIH ]
X
n
IHn +
cm IHm , per cm R}
P(Hn )

n1

m1

oppure direttamente considerando che |x| 1 + x2 , e per la propriet`


a di monotonia del valore atteso
E[|X|] 1 + E[X 2 ].
S
e A ] per ogni A =
chiaro che la condizione che E[XIA ] = E[XI
nI Hn , implica la condizione (3.8): basta prendere A = Hn .
Tuttavia vale anche il viceversa, in quanto
X
X
E[XIA ] = E[X
IHn ] =
E[XIHn ]
6E
`

X
nI

nI

e H ] = E[X
e
E[XI
n

nI

nI

e A ].
IHn ] = E[XI

50

MPEF 01-07-2009

dove

m1

`e la somma estesa agli indici m per cui P(Hm ) = 0.

In particolare se X = IB , con B F, e ponendo (come `e usuale)


P(B | G)() = E[IB | G](),
otteniamo che una versione7 di P(B | G)() `e data da
P(B | G) =

X P(B Hn )
X
X E[IB IH ]
n
IHn =
IHn =
P(B | Hn )IHn .
P(Hn )
P(Hn )

n1

n1

(3.9)

n1

Ritroviamo quindi forse pi`


u chiaramente lidea che se si verifica Hn cambiamo la probabilit`a prendendo
P(B | Hn ) al posto di P(B), che consideriamo se non abbiamo alcuna informazione (corrisponde al caso in cui
la -algebra a nostra disposizione `e quella banale).
Vale la pena di considerare il caso in cui B sia un evento della -algebra G a nostra disposizione: B G, o
equivalentemente B = nI Hn , per un insieme di indici I. A parole si tratta del caso in cui B `e un evento
completamente osservabile, ovverosia il caso in cui B sia un evento che possiamo conoscere perfettamente. In
tale caso una versione di P(B | G)() `e proprio la funzione indicatrice di B, ovvero IB (). Infatti P(B | Hn ) = 1
per n I e P(Hn ) > 0, mentre P(B | Hn ) = 0 per n
/ I e P(Hn ) > 0.
` interessante osservare che, se F `e a sua volta generato da una partizione {K` , ` N}, pi`
E
u fine8 di
{Hm , m N}, e nel caso in cui P(Hn ) > 0 per ogni n N, allora (3.9) definisce una probabilit`a su F:
per iniziare
P( | G)() =

X E[I IH ()]
X
X E[I IH ()]
n
n
IHn =
IHn =
IHn = 1,
P(Hn )
P(Hn )
n1

n1

inoltre, se B =

`IB

n1

K` , allora

P(B | G)() =

X E[IB IH ()]
X P(B Hn )
X E[IB IH ()]
n
n
IHn =
IHn =
IHn ()
P(Hn )
P(Hn )
P(Hn )
n1

n1

n1

X X P(K` Hn )
X X P(K` Hn )
X
=
IHn () =
IHn () =
P(K` | G)(),
P(Hn )
P(Hn )
n1 `IB

`IB n1

`IB

e da questa relazione immediatamente si ricava che, qualunque sia , lapplicazione B 7 P(B | G)() definisce
una probabilit`a. Anche nel caso in cui non si faccia lipotesi che P(Hn ) > 0 per ogni n N, si pu`o trovare una
versione di P(B | G)() in modo che per ogni la funzione
P( | G)() : F 7 [0, 1]; B 7 P(B | G)()
sia una probabilit`
a:
fissata a piacere una probabilit`
a P0 su F 9 , si definisce
P(K` | G)() =

X P(K` Hn )
n1

X P(K` Hn )
n1

P(Hn )

P(Hn )

IHn () +

P0 (K` )IHn () =

(3.10)

n1

IHn () + P0 (K` )I{


H } ().
n1 n

(3.11)

7 La versione di P(B | G)() data in (3.9) non `


e in generale una probabilit`
a per ogni : ad esempio se Hm e P(Hm ) = 0,
allora P( | G)() = 0 invece di 1.
8 La

partizione {K` , ` N} `
e pi`
u fine della partizione {Hm , m N} se e solo se per ogni m N esiste un Im N tale che
[
Hm =
K` .
`Im

9 Ad

esempio fissando una successione {p` ; ` N}, con p` 0, per ogni ` N e

P
`N

p` = 1, in modo che P0 (K` ) = p` .

MPEF 01-07-2009

51

e
P(B | G)() :=

P(K` | G)().

(3.12)

`IB

Si vede immediatamente che la parte a destra di (3.12) `e effettivamente una versione di P(B | G), e si vede
facilmente che in questo modo, qualunque sia , P( | G)() definisce una probabilit`a10 .
Inoltre questa probabilit`
a gode della propriet`a che se X `e F-misurabile, cio`e se
X
X=
c` IK` ,
`N

allora
E[X | G]() =

c` P(K` | G)() =

X( 0 )dP(d 0 | G)().

`N

Per -algebre F pi`


u generali del caso di -algebre generate da una partizione, non `e detto che queste propriet`a
valgano (per approfondimenti vedere la Sezione 4).
Esempio 3.3. Ritorniamo nel caso dellEsempio precedente, quando G = (Y ), e Y `e una variabile aleatoria
discreta, a valori in {ym ; m N}. Infatti allora
G = ({Hm := Y 1 ({ym }); m N}),
e di conseguenza, se P(Y = ym ) > 0 per ogni m N, si ha
X
X
E[X | (Y )]() =
E[X | {Y = ym }]I{Y =ym } () =
E[X | {Y = ym }]I{ym } (Y ()),
mN

mN

con il solito abuso di notazione (il secondo membro `e un rappresentante della classe di equivalenza E[X | (Y )]).
Quindi posto
(y) =

E[X | {Y = ym }]I{ym } (y),

mN

e indicato con
E[X | {Y = y}] = (y),
cio`e la funzione, che vale E[X | {Y = y}], se y {ym ; m N}, e zero altrimenti, si ha:


E[X | (Y )]() = E[X | {Y = y}]
= (Y ()).
y=Y ()

Ci`
o giustifica il fatto che si usa scrivere
E[X | (Y )] = E[X | Y ],
P
in questo caso `
e come se avessimo definito una successione {p` (); ` N}, con `N p` () = 1 per ogni
(
p` () = P(K` |Hm ) se Hm , con P(Hm ) > 0,
p` () = P0 (K` )
se Hm , con P(Hm ) = 0,
S
e poi avessimo definito, per B = `I ,
X
P(B|G)() =
p` ().
10 Infatti

`I

Cos`, ad esempio,
P( | G)() :=

X
`N

P(K` | G)() =

(
P(|Hm ) = 1
P0 () = 1

se Hm , con P(Hm ) > 0,


se Hm , con P(Hm ) = 0.

52

MPEF 01-07-2009

e ci fa ritrovare il concetto elementare di valore atteso condizionato di una variabile aleatoria discreta X rispetto
a una variabile aleatoria discreta Y .
Analogamente a quanto fatto nellesempio precedente si ottiene che in tale caso, cio`e se anche X `e una
variabile aleatoria discreta a valori in {xn ; n N}, allora


X

E[X | Y ]() =
xn P(X = xn | {Y = y})

nN

y=Y ()

Infine notiamo che `e facile ripetere quanto sopra nel caso in cui al posto di X ci sia una variabile aleatoria
Z = h(X), integrabile, e ottenere che


X

h(xn )P(X = xn | {Y = y})
E[h(X) | Y ]() =

nN

y=Y ()

Nel caso in cui non si abbia che P(Y = ym ) > 0 per ogni m N, si ottiene, fissata una probabilit`
a P0 , come
nellesempio precedente,
X

E[X | (Y )]() =

mN

E[X | {Y = ym }]I{Y =ym } () +

E0 [X]I{Y =ym } ()

mN

E[X | {Y = ym }]I{ym } (Y ()) +

mN

E0 [X]I{ym } (Y ()),

mN

con il solito abuso di notazione (il secondo membro `e un rappresentante della classe di equivalenza E[X | (Y )]).
Quindi posto
(y) =

E[X | {Y = ym }]I{ym } (y) +

mN

E0 [X]I{ym } (y),

mN

e indicato con
E[X | {Y = y}] = (y),
cio`e la funzione, che vale E[X | {Y = y}], se y {ym ; m N} e se P({Y = y}) > 0, e vale E0 [X] altrimenti,
si ha:


E[X | Y ]() = E[X | {Y = y}]
= (Y ()).
y=Y ()

Pi`
u in generale si ha anche che posto
h (y) =

E[h(X) | {Y = ym }]I{ym } (y) +

mN

E0 [h(X)]I{ym } (y),

mN

si ottiene che
E[h(X) | Y ]() = h (Y ()).
Esempio 3.4. Caso in cui G = (Y ), con Y una variabile aleatoria a valori in Rd , e (X, Y ) ammette densit`
a
di probabilit`
a congiunta fX,Y (x, y). Allora, posto
fX|Y (x|y) = I{z:fY (z)>0} (y)

fX,Y (x, y)
+ I{z:fY (z)=0} (y)f0 (x)
fY (y)

dove f0 (x) `e una qualunque densit`


a di probabilit`
a prefissata, si ha
Z
e
X()
= E[X | Y ]() =
R


x fX|Y (x|y) y=Y () dx

MPEF 01-07-2009

53

ossia11


Z
e
X()
=

x
R


Z

fX,Y (x, y)
dx
+
x I{z:fY (z)=0} (y) y=Y () f0 (x)dx,
I{z:fY (z)>0} (y)

fY (y)
R
y=Y ()

dove E[X | Y ] `e una abbreviazione per E[X | (Y )].


Per la verifica `e intanto importante notare che (Y ) = {A = Y 1 (B), per B B(R)}, quindi IA () =
IB (Y ()) e
Z
E[XIA ] = E[XIB (Y )] =
xIB (y)fX,Y (x, y) dx dy.
RRd

Cominciamo con il caso in cui fX,Y (x, y) > 0 per ogni (x, y) R Rd , cos` anche fY (y) > 0 per ogni
y Rd , e quindi
e
E[X()I
A]

e
= E[X()I
B (Y )]

Z Z
fX,Y (x, y)
dx IB (y)fY (y) dy
=
x
fY (y)
Rd
R

ovvero, per il Teorema di Fubini12 ,


Z Z
e
E[X()I
A]

xIB (y)
Rd

ZR Z
=

fX,Y (x, y)
fY (y) dx dy
fY (y)

xIB (y)fX,Y (x, y) dx dy.


R

Rd

Daltra parte, nel caso generale


e
E[X()I
A]

e
= E[X()I
B (Y )]

Z Z
fX,Y (x, y)
dx IB (y)fY (y) dy
=
xI{z:fY (z)>0} (y)
fY (y)
Rd
R

Z Z
+
xI{z:fY (z)=0} (y)f0 (x) dx IB (y)fY (y) dy
Rd

ovvero, per il Teorema di Fubini,


Z Z
=

fX,Y (x, y)
xIB (y)I{z:fY (z)>0} (y)
fY (y) dx dy
fY (y)
R Rd
Z Z
+
xIB (y)I{z:fY (z)=0} (y)f0 (x)fY (y) dx dy
d
Z Z R R
fX,Y (x, y)
=
xIB (y)I{z:fY (z)>0} (y)
fY (y) dx dy
fY (y)
d
ZR ZR
=
xIB (y)I{z:fY (z)>0} (y)fX,Y (x, y) dx dy
R

Rd

R
e
In realt`
a per poter scrivere la formula esplicita per X()
`
e necessario prendere f0 (x) in modo che R |x| f0 (x)dx <


R
f
(x,y)
. Inoltre un altro rappresentante per il valore atteso condizionato `
e R x I{z:fY (z)>0} (y) X,Y
dx in quanto

fY (y)
y=Y ()




P I{z:fY (z)=0} (y) y=Y () = 0 = 1. Questultima uguaglianza dipende dal fatto che I{z:fY (z)=0} (y) y=Y () = 0 Y ()
/
R
 R
{z : fY (z) = 0 e per il suo complementare si ha P Y () {z : fY (z) = 0} = {z:f (z)=0} fy (z) dz = {z:f (z)=0} 0 dz = 0.
Y
Y
12 Una versione del Teorema di Fubini `
e la seguente: se : Rn1 Rn2 7 R; (x, y) Rn1 Rn2 7 (x, y) R `
e una funzione
boreliana, allora le seguenti condizioni sono equivalenti
Z

Z

Z
Z
Z
|(x, y)|dy dx <
|(x, y)|dx dy <
|(x, y)|dxdy < .
n
11

Rn1

Rn2

Rn2

Rn1

Rn1 R2

Inoltre se vale una delle precedenti condizioni vale, allora tutti i valori dei precedenti integrali coincidono.
Il Teorema di Fubini `
e quindi usato per scambiare lordine degli integrali.

54

MPEF 01-07-2009

Si tratta quindi solo di controllare che, qualunque sia B B(Rd )


Z Z
Z Z
xIB (y)I{z:fY (z)>0} (y)fX,Y (x, y) dx dy =
R

Rd

xIB (y)fX,Y (x, y) dx dy.

Rd

La verifica `e immediata in quanto


Z Z
R

Rd

xIB (y)I{z:fY (z)=0} (y)fX,Y (x, y) dx dy = 0,


R
infatti, se I{z:fY (z)=0} (y) = 1, ovvero se fY (y) = 0 = R fX,Y (x, y) dx , allora linsieme {x : fX,Y (x, y) > 0}
ha misura di Lebesgue nulla, e quindi, per tali y
Z
xIB (y)fX,Y (x, y) dx = 0.
Rd

Si osservi che anche in questo caso, se fX,Y (x, y) > 0 per ogni (x, y), allora
probabilit`a in x, qualunque sia y, e che
Z
fX,Y (x, y)
dx
P(X C | Y ) = E[IC (X) | (Y )] =
fY (y)
C

fX,Y (x,y)
fY (y)

`e una densit`a di

definisce una probabilit`


a sui boreliani di R.
Esempio 3.5. Caso in cui G = (Y ) e (X, Y ) `e una variabile (congiuntamente) gaussiana bidimensionale, di
media nulla. Come caso particolare dellesempio precedente si ottiene
E[X | Y ] =

X,Y
Y.
Y2

A sua volta questo risultato si ottiene dal caso pi`


u in generale: (X1 , , Xn ) `e un vettore aleatorio gaussiano
di media nulla e densit`
a congiunta
f (x1 , , xn ) = c exp{

1,n
X

i,j xi xj } = c exp{

n
n X
X

i,j xi xj }

con i,j = j,i , n,n > 0

i=1 j=1

i,j

e
E[Xn | X1 , , Xn1 ] =

n1
X
i=1

i,n
Xi .
n,n

(3.13)

soluzione13 : Si tratta del caso d = n 1 con X = Xn e Y = (X1 , , Xn1 ) e con fX,Y (x, y) > 0. Per
calcolare E[Xn | X1 , , Xn1 ] dobbiamo innanzitutto
fX1 ,...,Xn1 ,Xn (y, x)
fY,X (y, x)
fX,Y (x, y)
=
=
,
fY (y)
fY (y)
fX1 ,...,Xn1 (y)

con y = (x1 . . . , xn1 ).

Abbiamo quindi

n1
1,n1
X
X
f (x1 , , xn1 , xn ) = c exp
i,j xi xj xn
n,j xj

i,j

j=1

n1
X

!
i,n xi

i=1

xn n,n x2n

Tenendo presente che i,j = j,i , e che n,n > 0 si ha che


m(y) = m(x1 , . . . , xn1 ) :=

n1
X
j=1

n1
X i,n
n,j
xj =
xi ,
n,n

i=1 n,n

13 Pur essendo possibile utilizzare la tecnica dellesempio precedente si consiglia lo svolgimento dei calcoli dopo lintroduzione
delle distribuzioni condizionali

MPEF 01-07-2009

55

e quindi che

1,n1

X i,j
f (x1 , , xn1 , xn ) = f (y, xn ) = c exp n,n
xi xj + 2xn m(x1 , . . . , xn1 ) + x2n

n,n
i,j

1,n1

X i,j
xi xj + m2 (y) + 2xn m(y) + x2n m2 (y)
= c exp n,n

n,n
i,j
n
o



2
= c(y) exp n,n m2 (y) + 2xn m(y) + x2n = c(y) exp n,n [xn + m(y)]
Di conseguenza
)
(
2
n
o
fX,Y (x, y)
c(y)
[xn (m(y))]
2
.
=
exp n,n [xn (m(y))] = K(y) exp
fY (y)
fY (y)
2 21n,n
f

(x,y)

Come osservato nel caso generale dellesempio precedente, qualunque sia y, X,Y
deve essere una densit`
a
fY (y)
14
di probabilit`
a: `e quindi chiaro che deve coincidere con la densit`
a di una variabile aleatoria gaussiana
N (m(y), 21n,n ), di media m(y) e di varianza 21n,n . Il valore atteso si calcola quindi come
(

[xn (m(y))]
E[Xn | X1 , , Xn1 ] =
xK(y) exp
2 21n,n
R


= m(y)
,
Z




dx

y=(X1 ,...,Xn1 )

y=(X1 ,...,Xn1 )

da cui si ottiene (3.13).


` infine interessante notare che essendo lespressione del valore condizionato E[Xn | X1 , , Xn1 ],
E
una funzione lineare di X1 , , Xn1 , si ottiene che coincide con la retta di regressione15 di Xn rispetto a
X1 , , Xn1 .
Esempio 3.6. LEsempio 3.4 si generalizza facilmente al caso in cui X `e una variabile aleatoria a valori in
Rk , e si vuole calcolare il valore atteso condizionale E[h(X) | Y ], dove h() `e una funzione misurabile, a valori
reali, ripetendo tutti i passaggi con i dovuti cambiamenti:
Z
]
h(X)()
= E[h(X) | Y ]() =
Rk

14 La


h(x) fX|Y (x|y) y=Y () dx

funzione K(y) di y deve inoltre necessariamente valere:


K(y) = q

1
2 21

n,n
.

n,n

15 Ricordiamo che il problema di trovare la retta di regressione lineare di X rispetto ad Y corrisponde al problema di trovare il
e b tali
punto di minimo, tra tutte le funzioni affini a y + b del valore atteso del quadrato della differenza tra X, ovvero trovare a
che

2 

2 
E X (
a Y + b)
= min E X (a Y + b) .
a,b

Tenendo presente che le variabili aleatorie (Y )-misurabili sono le variabili aleatorie Z = g(Y ), con g boreliana, allora il valore
= g(Y ) tale che
atteso condizionato, secondo la Definizione 3.2, `
e quella variabile aleatoria E[X|Y ] = X

2 
E X g(Y )
=

min

g boreliane


2 
E X g(Y ) ,

=a
Y + b `
di conseguenza si ha che se E[X|Y ] = X
e una funzione affine, allora coincide anche con la retta di regressione.

56

3.3

MPEF 01-07-2009

Propriet`
a del valore atteso condizionale

Enunciamo ora (senza dimostrarle, per il momento), le propriet`a fondamentali della media condizionale (secondo
la Definizione 3.1).
Siano X e Y variabili aleatorie integrabili in (, F, P) e siano G e H sotto -algebre di F, allora valgono le
seguenti propriet`a:
1. Linearit`
a
E[aX + bY | G] = aE[X | G] + bE[Y | G]
2. Monotonia

P(X Y ) = 1 implica P(E[X | G] E[Y | G] ) = 1


3. Formula dei condizionamenti successivi (caso particolare G = {, })
se G H, allora E[X | G] = E[E[X | H] | G]
quindi, in particolare,
se G = {, }, allora E[X] = E[E[X | H]]
4. Fattorizzazione
Se Z `e G-misurabile e ZX `e integrabile allora
E[ZX | G] = ZE[X | G]
5. Condizionamento rispetto a -algebre indipendenti
Se X e G sono indipendenti allora
E[X | G] = E[X]
6. Condizionamento ridondante, cio`e rispetto ad allargamenti indipendenti di -algebre
Se X e G sono indipendenti da H, ***nel senso che (X) G `e indipendente da H, ***allora
E[X | G H] = E[X | G]
7. Disuguaglianza di Jensen per funzioni convesse (caso particolare (x) = x2 )
Se `e una funzione convessa, e (X) `e integrabile, allora
(E[X | G]) E[(X) | G]
Osservazione In particolare per (x) = x2 ed X in L2 (, F, P), si ottiene che
(E[X | G])2 E[X 2 | G],
e quindi, passando al valore atteso, che
E[(E[X | G])2 ] E[E[X 2 | G]] = E[X 2 ].

MPEF 01-07-2009

57

8. Convergenza sotto il segno di media condizionale, monotona e dominata


Se {Xn }n1 `e una successione di variabili aleatorie non negative ed integrabili, convergente con probabilit`a
1 ad X, monotonamente, cio`e 0 Xn Xn+1 , allora
E[Xn | G] E[X | G], con probabilit`a 1,
Se invece la successione converge ad X dominatamente, cio`e | Xn | Y , allora
E[Xn | G] E[X | G], in L1 .
A questo punto passiamo ad osservare che la Definizione 3.1 `e ben posta, in quanto esiste almeno una
variabile aleatoria che verifica la (3.4).
Dimostrazione. Si definisca infatti la misura () su G come (A) := E[XIA ], per A G. La misura ()
b = P| , in quanto se P(A)=P(A)=0,
b
risulta assolutamente continua16 rispetto a P
allora (A) = 0. Esiste quindi
G
b cio`e una funzione f () = d (), G misurabile, per la
la derivata di Radon-Nikodym di rispetto a P,
dP
quale valga, qualunque sia A G
Z
Z
Z
b
b
(A) =
f ()dP()

cio`e
X()dP() =
f ()dP()

ovvero
E[XIA ] = E[f IA ].
b
La derivata di Radon-Nikodym `e definita a meno di insiemi di P-misura
nulla. Infatti se g() `e unaltra
funzione G-misurabile per la quale valga E[XIA ] = E[gIA ] per ogni A G, allora E[f IA ] = E[gIA ] per ogni
A G, ed in particolare per A = { : f () g()} e per A = { : f () < g()}, per cui E[| f g |] = 0. Basta
e la derivata di Radon-Nikodym f o qualunque altra variabile aleatoria che differisca da
quindi prendere come X
e
X al pi`
u in un insieme (G-misurabile) di probabilit`a nulla.
Anche la Definizione 3.2 `e ben posta, per convincersene basta considerare che lo spazio L2 (, F, P), pensato
b `e un suo
come classi di equivalenza, `e uno spazio di Hilbert con la norma k X k2 = E[| X |2 ] ed L2 (, G, P)
sottospazio chiuso. Quindi la classe di equivalenza E[X | G] della Definizione 3.2 `e la proiezione di X su
b ***A questo proposito va per`
L2 (, G, P).
o ricordato quanto gi`a detto in una nota della sezione 2.6.1: per
passare agli spazi di Hilbert bisogna assicurarsi che G contenga gli insiemi F-misurabili e di probabilit`a nulla.
***
Si noti la (3.4) potrebbe essere modificata come
e ],
E[XW ] = E[XW

v.a. W

G misurabile e per cui XW `e integrabile.

(3.14)

Dimostrazione. Attenzione: la dimostrazione si basa sulle propriet`


a di linearit`
a e di monotonia dei valori
attesi condizionali, che dimostreremo pi`
u in l`
a, basandoci solo sulla Definizione 3.1 e quindi sulla (3.4)
Ovviamente (3.14) implica (3.4). Per mostrare il viceversa, basta considerare il caso in cui W 0. In
tale caso esiste una successione Wn W, con Wn funzioni elementari, cio`e combinazioni lineari di funzioni
16 Date due misure e su una -algebra G, si dice che `
e risulta assolutamente rispetto a se e solo se per ogni A G con
(A) = 0 risulta (A) = 0. Questa propriet`
a si pu`
o anche esprimere dicendo che la famiglia N = {A : (A) = 0} degli insiemi di
d
-misura nulla contiene la famiglia N = {A : (A) = 0} degli insiemi di -misura nulla. La derivata di Radon-Nikodym d
`
e
una funzione h, che sia G-misurabile, e per la quale valga
Z
Z
(A) =
h()(d) =
IA h()(d), per ogni A G.
A

58

MPEF 01-07-2009

indicatrici. Daltra parte `e facile vedere (confronta le propriet`a di linearit`a e di monotonia, dimostrate nella
sezione successiva) che, posto
X = X + X ,

con X + = X 0, e con X = (X) 0,

g
g
g
g
+X
, per la propriet`
+ e X
0, per la propriet`
e =X
si ha X
a di linearit`a, con X
a di monotonia. Inoltre si
ha che
g
g
+ W ] E[X
W ].
E[XWn ] = E[X + Wn ] E[X Wn ] = E[X
n
n
Per la propriet`
a di convergenza monotona dei valori attesi, (se Z 0 allora 0 ZWn ZWn+1 ZW ), si
ha
E[X + Wn ] E[X + W ],

E[X Wn ] E[X W ],

g
g
+ W ] E[X
+ W ],
E[X
n

g
g
W ] E[X
W ],
E[X
n

e ], in quanto
quindi E[XW ] = E[XW
g
g
+ W ] E[X
W ] = E[XW
e n ] E[X
e ]
E[XW ] E[XWn ] = E[XW

3.4

Equivalenza tra le definizioni di valore atteso condizionale per


variabili aleatorie di quadrato sommabile

e2 che soddisfa la Definizione


Mostreremo ora che, se X `e di quadrato sommabile, allora ogni variabile aleatoria X
3.2, soddisfa anche la Definizione 3.1. Per limplicazione inversa, sempre nel caso in cui X sia di quadrato
integrabile, abbiamo bisogno di alcune delle propriet`a della media condizionale secondo la Definizione 3.1,
enunciate precedentemente e che dimostreremo in seguito.
e2 `e la (o meglio un rappresentante della) media condizionale di X secondo la Definizione 3.2, allora
1) Se X
lo `e anche secondo la Definizione 3.1.
b la funzione
e2 soddisfa la condizione (3.7) allora, qualunque sia Z L2 (, G, P)
Se infatti X
e2 + tZ})2 ] = E[(X X
e2 )2 2t(X X
e2 )(Z X
e2 ) + t2 (Z X
e2 )2 ]
2 (t) := E[(X {(1 t)X
ammette un minimo in t = 0, e quindi
02 (t)|t=0 =



d
e2 + tZ})2 ]
e2 )(Z X
e2 )] = 0
E[(X {(1 t)X
= 2E[(X X

dt
t=0

b
e2 deve valere, qualunque sia W L2 (, G, P)
Quindi posto W = Z X
e2 W ].
E[XW ] = E[X
b otteniamo che se
Considerando che tutte le funzioni indicatrici del tipo IA , con A G, sono in L2 (, G, P),
vale la (3.7) allora vale la (3.4).
e `e la media condizionale di X secondo la Definizione 3.1 (o meglio ne `e un rappresentante), allora lo
2) Se X
`e anche secondo la Definizione 3.2.
e `e di quadrato sommabile (confrontare losservazione alla disuguaglianza di Jensen, propriet`a
Infatti, allora X
7.) e quindi la seguente funzione `e finita per ogni Z di quadrato sommabile
e + tZ})2 ] = E[(X X)
e 2 2t(X X)(Z
e
e + t2 (Z X)
e 2]
(t) := E[(X {(1 t)X
X)

MPEF 01-07-2009

59

Poiche si tratta di una parabola essa ammette un minimo nel punto t, in cui la derivata si annulla:
e
e + 2t E[(Z X)
e 2] = 0
0 (t) = 2E[(X X)(Z
X)]
e 2 ] = 0, da cui, per larbitrariet`a
e e tenendo conto della (3.14), si ottiene 0 (t) = 2t E[(Z X)
Posto W = Z X
e
di Z, segue che t = 0. Quindi X gode della propriet`a che per ogni Z di quadrato sommabile (1) (0), ovvero
la (3.7).
Osservazione 3.1. Si noti lanalogia17 con il problema classico di geometria euclidea del trovare la proiezione
V che gode della propriet`
di un vettore x Rn su un sottospazio vettoriale V Rn come quel vettore x
a di
minimizzare la distanza da V , ovvero
k2 = min kx zk2 ,
kx x
zV

che `e notoriamente equivalente alla condizione di ortogonalit`


a
, z >= 0 per ogni z V
<xx

, z > per ogni z V.


< x, z >=< x

Esercizio 3.1 (Formula di Pitagora). ***


e un rappresentante di E[X|G],
Si verifichi che, per ogni variabile aleatoria X di quadrato integrabile, posto X
vale la seguente uguaglianza:


e + E V arG (X) ,
V ar(X) = V ar(X)
dove

 
e 2 |G .
V arG (X) = E X X
e con E[X|G] e si riscrive la precedente formula come
Il motivo della notazione diviene evidente se si identifica X
segue:

2 
V arG (X) = E X E[X|G] |G .

3.5

Dimostrazioni delle propriet`


a del valore atteso condizionale

Daremo ora le dimostrazioni delle propriet`


a enunciate nella sezione precedente utilizzando solo la Definizione
3.1.
Si noti che ci`o permette di concludere che la dimostrazione dellequivalenza delle Definizioni 3.1 e 3.2 `e
autocontenuta: in realt`
a andrebbero prima dimostrate le propriet`a 1,2, e 7; successivamente la (3.14) e infine
lequivalenza delle Definizioni 3.1 e 3.2.

1. Linearit`
a: E[aX + bY | G] = aE[X | G] + bE[Y | G]
e Y sono rappresentanti di E[X | G] e di E[Y | G], rispettivamente,
La dimostrazione `e ovvia, infatti se X
e
ovvero se E[XIA ] = E[XIA ] e E[Y IA ] = E[Ye IA ] per ogni A G, allora basta verificare che
e + bYe )IA ], e ci`
E[(aX + bY )IA ] = E[(aX
o segue immediatamente da
e A ] + bE[Ye IA ] = E[(aX
e + bYe )IA ].
E[(aX + bY )IA ] = aE[XIA ] + bE[Y IA ] = aE[XI
2. Monotonia:

P(X Y ) = 1 implica P(E[X | G] E[Y | G] ) = 1

e A ] 0 per ogni A G e quindi in particolare per


Se P(X Y ) = 1, allora E[(Y X)IA ] = E[(Ye X)I
e
e
e Ye ) = 1, ovvero P(E[X | G] E[Y | G]) = 1.
***A = {X > Y }, si ottiene che P (A) = 0, ossia che ***P(X
17 Lanalogia

si vede meglio se si sostituisce kx zk2 con dL2 (X, Z) = E[|X Z|2 ] e < x, z > con E[XZ].

60

MPEF 01-07-2009

e > Ye ) > 0 allora avremmo la contraddizione che, da una parte, come gi`a
***Infatti se fosse P (A) = P (X
detto
e A ] = E[(Y X)IA ] 0,
E[(Ye X)I
mentre dallaltra, si avrebbe

e e

e A ] = E[(Ye X)I
e
E[(Ye X)I
X>Y ] < 0.
3. Formula dei condizionamenti successivi:

se G H, allora E[X | G] = E[E[X | H] | G]

e eX
b tali che E[XIA ] = E[XI
e A ] per ogni A G H e E[XIB ] = E[XI
b B ] per ogni
Sia G H e siano X
B H, ed in particolare per ogni A G. Allora
b A ] = E[XI
e A ](= E[XIA ]),
E[XI

per ogni A G

e = E[X
b | G]. La seconda parte deriva dal fatto che per la -algebra banale la media e la media
e quindi X
condizionale coincidono.
4. Fattorizzazione:

e Z `e G-misurabile e ZX `e integrabile allora E[ZX | G] = ZE[X | G].

e A ], per ogni A G e la funzione Z X


e `e ovviamente G-misurabile.
Infatti allora E[XZIA ] = E[XZI
5. Condizionamento rispetto a -algebre indipendenti:
E[X | G] = E[X].

se X e G sono indipendenti allora

Infatti allora, per ogni A G


E[XZIA ] = E[X]E[ZIA ] = E[ZE[X]IA ]
e la funzione ZE[X] `e ovviamente G-misurabile.

MPEF 01-07-2009

61

6. Condizionamento ridondante:

se X e G sono indipendenti da H allora, E[X | G H] = E[X | G].

La dimostrazione segue da una leggera variante del Lemma di Dynkin18 E[X | G H] = E[X | G].
***e si basa sul fatto la famiglia A di eventi del tipo C = A B, con A G e B H, formano un sistema
chiuso rispetto allintersezione e generano G H,***per il lemma di Dynkin ***baster`a quindi verificare
e C ] coincidono per C = A B, A G e B H ***
che le due misure (C) := E[XIC ] e (C) := E[XI
E[XIAB ] = E[XIA IB ]

(per lindipendenza di (X) G da H)

(3.15)

e A ]E[IB ] = E[XI
e A IB ] = E[XI
e AB ].
= E[XIA ]E[IB ] = E[XI
***e che A contiene (essendo ovviamente = ).
Nella dimostrazione abbiamo utilizzato lindipendenza della -algebra (X) G, generata da (X) e G da
H, ossia: per ogni evento F (X) G e per ogni evento H H si ha P(F H) = P(F )P(H). Attenzione,
la sola indipendenza di (X) da H e di G da H non `e sufficiente19 nel passaggio (3.15). ***
7. Disuguaglianza di Jensen20 : se `e una funzione convessa, e (X) `e integrabile, allora (E[X | G])
E[(X) | G].
Per risultati classici di analisi `e linviluppo delle sue tangenti (o sotto tangenti) ovvero esistono una
successione di rette n (x) = n x + n per cui (x) = supn {n (x)}, per ogni x in R. Per le propriet`a 1.
di linearit`a e 2. di monotonia si ha allora che
n (E[X | G]) = n E[X | G] + n = E[n (X) | G] E[(X) | G];
18 Ricordiamo lenunciato del Lemma di Dynkin, che tra laltro `
e la base per molti risultati di unicit`
a,***ed `
e noto anche come
teorema dellunicit`
a della misura.
***
***Lemma [Lemma di Dynkin, Billingsley 1984 [3]] Sia A una famiglia di eventi che genera la -algebra G e che `
e chiusa
rispetto alla intersezione finita.
Se due misure di probabilit`
a e coincidono su A, allora le due misure di probabilit`
a coincidono su G.
Di conseguenza, se e sono due misure non negative e finite che coincidono su A {} (cio`
e con () = ()) allora le due
misure coincidono su G.
(la dimostrazione della affermazione sulle misure non negative riconduce subito al caso delle misure di probabilit`
a, considerando le
misure di probabilit`
a (A) := (A)/() e (A) := (A)/().)***
19 ***Il fatto che la sola indipendenza di (X) da H e di G da H non `
e sufficiente si pu`
o mostrare con il seguente controesempio:
X = IE , G = {, G Gc , }, H = {, H H c , }, con E, G ed H tali che P(E H) = P(E)P(H), P(G H) = P(G)P(H), ma
P(E G H) 6= P(E G)P(H) (ad esempio si prenda = (0, 1) (0, 1), E = (0, 21 ) (0, 1), G = (0, 14 ) (0, 1) ( 14 , 12 ) (0, 21 ) e
H = ( 14 , 34 ) (0, 1)).***
20 Si noti che nel caso particolare in cui G `
e la -algebra banale la disuguaglianza di Jensen per i valori attesi condizionali diviene
lusuale disuguaglianza di Jensen
(E[X]) E[(X)].

Infine va notato che la precedente disuguaglianza di Jensen, nel caso particolare di una variabile aleatoria X semplice, a valori in
{x1 , . . . , xn }, con P({X = xi }) = i si scrive come
(E[X]) = (

n
X

i xi )

i=1

n
X

i (xi ) = E[(X)],

, con i 0,

i=1

n
X

i = 1

i=1

La disuguaglianza interna `
e equivalente alla definizione di funzione convessa. Lo `
e esattamente nel caso n = 2
(x1 + (1 )x2 ) (x1 ) + (1 )(x2 )
Il caso generale si ottiene per induzione su n: Se
(

n
X

i xi )

i=1

allora
(

n+1
X
i=1

n
X

i (xi ), per ogni i 0,

n+1
X
i=1

i = 1, e per ogni xi

i=1

i=1

i xi )

n
X

i (xi ), per ogni i 0,

n+1
X
i=1

i = 1, e per ogni yi

62

MPEF 01-07-2009

passando allestremo superiore su n si ottiene


sup{n (E[X | G])} = (E[X | G]) E[(X) | G].
n

Si noti che nella dimostrazione vengono utilizzate solo le propriet`a di linearit`a e di monotonia del valore
atteso condizionato.
8. Convergenza sotto il segno di media condizionale, monotona e dominata
8i) Se {Xn }n1 `e una successione di variabili aleatorie non negative ed integrabili, convergente con
probabilit`a 1 ad X, monotonamente, cio`e la successione {Xn }n1 ha la propriet`a che 0 Xn Xn+1 ,
allora E[Xn | G] % E[X | G], con probabilit`a 1.
Dalla propriet`
a di monotonia si ottiene che se {Xn }n1 `e una successione monotona allora anche la
en = E[Xn | G] `e una successione monotona, ed `e quindi convergente
successione delle medie condizionate X
e
` importante notare che per ogni n esiste un insieme
ad una variabile aleatoria Z, G-misurabile. (E
e
e
An G di probabilit`
a nulla nel cui complementare
S vale Xn Xn+1 , che queste disuguaglianze valgono
contemporaneamente nel complementare di A = n1 An , ed infine che A ha ancora misura nulla).
en IA ] =
Per mostrare che la successione converge ad un rappresentante di E[X | G], basta notare che E[X
E[Xn IA ] E[XIA ], per la convergenza monotona di {Xn } a X (e quindi di {Xn IA } a XIA ), e che
en IA ] E[ZI
e A ], per la convergenza monotona di {X
en } a Z
e (e quindi di {X
en IA } a ZI
e A ). Di conseguenza
E[X
e
E[XIA ] = E[ZIA ], A G.
8ii) Se {Xn }n1 `e una successione di variabili aleatorie integrabili, convergente con probabilit`a 1 ad
X, dominatamente, cio`e | Xn | Y , per una variabile aleatoria Y integrabile, allora si ha che
E[Xn | G] E[X | G], in L1 .
La dimostrazione ( ) relativa alla convergenza dominata si basa sulla seguente osservazione: se Xn X
q.c. e | Xn | Y allora Xn X in L1 (infatti allora | Xn X || Y | + | X | e quindi | Xn X | 0
dominatamente e perci`
o E[| Xn X |] 0). Di conseguenza per le propriet`a di linearit`a e per la
disuguaglianza di Jensen applicata alla funzione (x) =| x | e alla variabile aleatoria Xn X,
| E[Xn | G] E[X | G] |=| E[Xn X | G] | E[|Xn X| | G].
Passando ai valori medi
E[| E[Xn | G] E[X | G] |] = E[| E[Xn X | G] |] E[E[| Xn X || G]] = E[| Xn X |] 0.
Osservazione. Dalla dimostrazione `e chiaro che basta la convergenza Xn X in L1 , per ottenere la
convergenza delle rispettive medie condizionali in L1 . In realt`a, nel caso di convergenza dominata, c`e
anche la convergenza puntuale delle medie condizionali. La dimostrazione di questo fatto `e rimandata a
dopo aver mostrato lesistenza di distribuzioni condizionali regolari.

MPEF 01-07-2009

3.6

63

Probabilit`
a condizionali regolari

Il problema `e il seguente:
` possibile trovare una versione di P(A | G) in modo che lapplicazione
E
P( | G)() : F [0, 1]; A P(A | G)()
sia una probabilit`
a per ogni ?
Ad un primo sguardo superficiale sembrerebbe di s`:
Ovviamente P( | G)()=1. Dalla propriet`
a di monotonia si ha che P(C | G) P[0, 1], per ogni evento
n
C F. Dalla propriet`
a di convergenza monotona, applicata alla successione Xn = k=1 IAk , dove {An } `e
una successione di eventi di F, oppure di una -algebra A F, si ottiene che, comunque scelta una successione
di eventi di A, disgiunti a due a due, vale
[
X
P(
An | G) =
P(An | G)
n1

n1

nel senso che al pi`


u differiscono per un insieme di misura nulla N .
Sembrerebbe quindi tutto funzionare. Il problema sta nel fatto che linsieme N pu`o dipendere per`o, in
generale, dalla particolare successione {An , n 1} scelta e lunione su tutte le successioni possibili `e ununione
non numerabile, quindi non `e detto che sia un evento e, anche se lo fosse, non `e detto che sia di probabilit`a
` proprio questo che in generale impedisce di affermare che A 7 P(A | G)() `e una probabilit`a.
nulla. E
Lo stesso tipo di problema si pone nel caso in cui invece si cerchi una versione di P(A | G)() per A A F,
mentre non c`e nessun problema del tipo precedente se A `e unalgebra finita (e quindi una algebra).
Comunque, nel caso in cui sia possibile trovare un nucleo di misure di probabilit`
a, cio`e una famiglia
Q(, ) : A [0, 1]; (A, ) 7 Q(A, )
1) per ogni , Q(,) `e una misura di probabilit`a su (,A)
2) per ogni C A, Q(C, ) `e G-misurabile ed `e una versione di P(C | G)(),
allora si dice che Q(,) `e una versione regolare di P( | G)(), cio`e delle probabilit`
a condizionali.
Linteresse di tali versioni deriva dal fatto che allora, per ogni v.a. Z, A-misurabile e integrabile, vale
Z
E(Z | G)() =
Z( 0 )Q(d 0 , ).

(3)
Per convincersene basta capire che ci`
o `e vero per Z = IC , e quindi per ogni funzione elementare, cio`e
combinazione lineare di funzioni indicatrici. Quindi (3) vale per ogni v.a. non negativa integrabile, in quanto
limite monotono di funzioni elementari, e quindi per ogni v.a. integrabile in quanto differenza di due v.a. non
negative ed integrabili.
Linteresse per lesistenza di una versione regolare delle probabilit`a condizionali sta anche nel fatto che tutte
le dimostrazioni delle propriet`
a delle medie condizionali sarebbero immediate (in particolare la disuguaglianza di
Jensen e la convergenza monotona e dominata, anche nella versione dellosservazione relativa, con la convergenza
puntuale).
Non sempre, purtroppo, si hanno versioni
-algebra A, qui di seguito viene dimostrato
valori in R, cio`e se C = {X H}, H B(R).
aleatoria d-dimensionale, oppure se X `e una

regolari delle probabilit`a condizionali. In generale dipende dalla


che ci`o `e vero se A = (X), dove X `e una variabile aleatoria a
In realt`a si pu`o vedere che ci`o `e vero anche se X `e una variabile
variabile aleatoria a valori in uno spazio metrico S, completo e

64

MPEF 01-07-2009

separabile (ovvero uno spazio polacco). In questi casi si ottiene anche una probabilit`a sullo spazio S degli stati
di X e si parla di distribuzione condizionale invece che di probabilit`a condizionale, che invece `e una misura di
probabilit`a su .
Proposizione 3.1. Sia X una variabile aleatoria reale in (,
F, P), sia G una sotto -algebra di F, e sia
A = (X) = A = { , t.c. X() H}, H B(R) . Allora esiste una versione regolare Q(, ) di
P(|G)().
Dimostrazione. Lidea `e molto semplice:
1. Si costruisce una funzione F (, ) : R 7 [0, 1] che, per ogni , F (, ) : R 7 [0, 1] soddisfa tutte le
propriet`a di una funzione di ripartizione, e che `e una versione della probabilit`a condizionale P(X s | G)().
Indicheremo tale funzione con F (s | G)(), per ricordare questa propriet`a.
dimostrazione di 1. Si inizia considerando F (t | G)() := P(X t | G)() per t razionale. Per la propriet`a
della monotonia, possiamo prendere una versione per cui, per ogni t1 t2 razionali, F (t1 | G)() F (t2 | G)(),
in un evento 0 di probabilit`
a 1: in questo caso levento in cui ci`o non si verifica `e ununione numerabile di eventi
di probabilit`a nulla. Per c0 si definisce F (t | G)() = F0 (t), con F0 una fissata funzione di distribuzione,
ad esempio (sempre sui razionali). Su tale evento 0 esiste, per monotonia, il limite di F (t | G)() sia
per t + che per t , sempre per t razionale. Tali limiti sono rispettivamente uguali ai limiti di
F (n | G)() e di F (n | G)(), e, di nuovo a parte un insieme di probabilit`a nulla, coincidono rispettivamente
con 1 = P(X < + | G) e 0 = P(X < | G).(Di nuovo su tale insieme si definisca F (t | G)() = F0 (t) )
Per ogni valore s reale, ma non razionale, si definisce una successione tn s. Per la propriet`a della
convergenza monotona (applicato a 1 I{Xtn } ) si ottiene che il limite di F (tn | G)() esiste ed `e una versione
di P(X s | G)(). In questo modo si `e ottenuta, per ogni una funzione F (s | G)(), definita su tutti i reali,
e che soddisfa tutte le propriet`
a di una funzione di ripartizione, come si pu`o vedere facilmente.
2. Ad ogni `e associata una misura X ( | G)() di probabilit`a, per cui X ((, t] | G)() = F (t | G)(),
per ogni t reale.
Come conseguenza del punto 2., per ogni ***H B(R), la misura ***X (H | G)() `e una versione di P(X H),
oltre ad essere una misura.
La misura X ( | G)() `e detta appunto la distribuzione condizionale di X data G.
3. Per A A, con A = {X H}, si definisce
Q(A, ) := X (H | G)(),
e risulta la versione regolare delle probabilit`
a cercata.
Si faccia attenzione: la distribuzione condizionale X ( | G)(), definita nel punto 2. della dimostrazione
precedente, `e una probabilit`
a su (R, B(R)), mentre Q(, ) `e una misura su (, (X)). Comunque accade che
P({X H} | G)() = X (H | G)(). Inoltre poiche le v.a. (X)misurabili sono le variabili aleatorie del tipo
Z = f (X), con f boreliana, si ha che
E(f (X) | G)() = X (f | G)(),
dove, in generale,
Z
(f ) :=

f (x)d(x).

Per la verit`a esiste una generalizzazione a tutti gli spazi di Borel (S, S), cio`e quegli spazi misurabili (S, S)
per cui esiste un insieme E B(R) e una funzione biunivoca : S E che sia (S, S) (E, B(R)|E ) misurabile,
e la cui inversa sia (E, B(R)|E ) (S, S) misurabile.

MPEF 01-07-2009

65

In particolare quindi il risultato di esistenza della versione regolare `e valido per (S, S) = (Rd , B(Rd )) o
(S, S) = (RN , RN ), che sono spazi di Borel (vedere ad esempio P. Billingsley [3] Convergence of Probability
measures pag. 218 e seguenti).
Prima della dimostrazione va notato che questo fatto permette di applicare il risultato anche al caso in cui
siano coinvolte le variabili aleatorie Xn , n 1, ed X (confrontare di nuovo losservazione alla propriet`a della
convergenza dominata per i valori attesi condizionali).
La dimostrazione `e basata sullosservazione che se Y `e una variabile aleatoria a valori in S, allora X := (Y )
`e una variabile aleatoria reale,e quindi esiste una distribuzione condizionale X ( | G). La distribuzione
condizionale di Y su (S, S) si ottiene, per J S, come
Y (J | G)() = X ((J) | G)()
in quanto la seconda `e una versione di
P({X (J)} | G)() P({1 (X) J} | G)() P({Y J} | G)().
Abbiamo gi`a usato il fatto che ogni funzione (X)misurabile si pu`o esprimere come f (X). Supponiamo
ora che G = (Y ) allora, necessariamente deve accadere che X (H)() sia una funzione di Y (), ovvero che,
per ogni boreliano H, esista una funzione f (H, y), misurabile in y, per cui
1) f (H, Y ()) = X (H)()
2) f (, y) sia una misura di probabilit`
a per ogni y
(questo `e sicuramente vero se y Y (), mentre se y
/ Y () basta definire f (H, y) = (H) per una fissata
misura di probabilit`
a ).
Indicheremo f (H, y) con la notazione pi`
u evocativa di X (H | Y = y) o anche X|Y (H | y). Analogamente
indicheremo con FX (t | Y = y) o con FX|Y (t | y) la funzione di distribuzione condizionale di X data Y , valutata
in Y = y. Ovviamente tale espressione non va confusa con P(X t | {Y = y}), che tra laltro potrebbe non
avere senso nel caso in cui P({Y = y}) = 0.

3.7

Esempi

Esempio 3.7 (caso dominato). Si tratta della generalizzazione dellEsempio 3.4. Siano X ed Y due variabili
aleatorie con legge congiunta assolutamente continua rispetto ad una misura prodotto 1 (dx) 2 (dy) cio`e con
legge congiunta data da
X,Y (dx, dy) = f (x, y)1 (dx) 2 (dy).
` facile vedere che la legge di X `e assolutamente continua rispetto a 1 (dx) e la legge di Y lo `e rispetto a 2 (dy),
E
o meglio
Z

X (dx) =
f (x, y)2 (dy) 1 (dx) = fX (x)1 (dx),
Z
Y (dy) =


f (x, y)1 (dx) 2 (dy) = fY (y)2 (dy).

In questo caso anche la legge condizionale di X data Y `e assolutamente continua rispetto a 1 (dx) e risulta
X|Y (dx|y) =
per Y quasi ogni y.

f (x, y)
1 (dx),
fY (y)

66

MPEF 01-07-2009

Infatti `e facile verificare che, per ogni funzione g : R R, misurabile,


E[g(X)h(Y )] = E[(Y )h(Y )], per ogni funzione h misurabile
dove

Z
(y) =

Z
g(x)X|Y (dx|y) =

g(x)

()

f (x, y)
1 (dx);
fY (y)

(ovviamente g ed h devono soddisfare ipotesi che garantiscano lintegrabilit`


a delle v.a. g(X) ed h(Y ))
Tutte le v.a. W che siano (Y )misurabili sono del tipo W = h(Y ) per h boreliana, di conseguenza

Z
Z


f (x, y)

E[g(X) | Y ] = (Y ) = g(x) X|Y (dx|y) y=Y () = g(x)
1 (dx)
fY (y)
y=Y ()
Un risultato analogo vale ovviamente anche per la legge di Y data X.
Casi particolari sono i casi in cui 1 (dx) = dx,
Pe2 (dy) = dy, cio`e torniamo
P al caso della misura di Lebesgue
esaminato nellEsempio 3.4, oppure 1 (dx) = n=0 xn (dx), e 2 (dy) = n=0 yn (dy) e si trova allora che
X
X

E[g(X) | Y ] =
g(xn ) X|Y ({xn }|y) y=Y () =
g(xn ) P(X = xn | Y = y)|y=Y () .
n

Esempio 3.8 (caso non dominato). Siano X ed Y due variabili aleatorie con legge congiunta data da
X,Y (dx, dy) = p f1 (x) dx (x) (dy) + q f2 (x, y) dx dy,
dove p + q = 1, f1 (x) `e una densit`
a di probabilit`
a su R, f2 (x, y) `e una densit`
a di probabilit`
a su R2 , z (dx) `e la
misura concentrata in z (ovvero z (A) = 1 se z A, mentre z (A) = 0 se z
/ A), `e una funzione invertibile,
C 1 e con | 0 (x) | strettamente positiva.
Le distribuzioni marginali sono equivalenti alla misura di Lebesgue, essendo


Z
X (dx) = pf1 (x) + q f2 (x, y)dy dx,

Y (dy) = pf1 (1 (y))

1
|0 (1 (y))|

+q


f2 (x, y)dx dy.

Lultima uguaglianza deriva da


Z
E[h(Y )] = p
Z
=p

h(y)f1 (1 (y))

Z
h((x))f1 (x)dx + q

Z
h(y)dy

1
|0 (1 (y))|

dy + q

f2 (x, y)dx =

Z
h(y)dy

Z
f2 (x, y)dx =

h(y)Y (dy)

Come si procede per calcolare la media condizionata di g(X) data Y ?


Come nellesempio precedente si deve trovare una v.a. (Y )-misurabile, cio`e una funzione (Y ) per cui valga
E[g(X)h(Y )] = E[(Y )h(Y )],

per ogni funzione h misurabile

()

Se poi troviamo che


Z
(y) =

g(x)(dx; y)

per una misura di probabilit`


a (; y), allora potremo affermare che (; y) `e una versione regolare della
distribuzione condizionale di X data Y = y.
Ora, qualunque sia la funzione h

MPEF 01-07-2009

67

ZZ

E[g(X)h(Y )]

ZZ
g(x)h(y)f1 (x)dx(x) (dy) + q
g(x)h(y)f2 (x, y)dxdy
Z
Z Z

= p g(x)h((x))f1 (x)dx + q
g(x)f2 (x, y)dx h(y)dy
Z Z
Z

1
1
1
h(y)dy + q
g(x)f2 (x, y)dx h(y)dy
= p g( (y))f1 ( (y)) 0 1
| ( (y))|
Z 
Z

1
+q
g(x)f2 (x, y)dx h(y)dy,
=
pg(1 (y))f 1 (1 (y)) 0 1
| ( (y))|
= p

mentre invece
Z
E[(Y )h(Y )] = p

(y)h(y)f1 (

(y))

dy + q (y)h(y)dy f2 (x, y)dx


|0 (1 (y))|

Z
Z

1
1
= (y) pf 1 ( (y)) 0 1
+q
f2 (x, y)dx h(y)dy.
| ( (y))|

Quindi affinche valga luguaglianza (*), qualunque sia h, `e necessario e sufficiente che

Z

1
+q
g(x)f2 (x, y)dx =
pg(1 (y))f1 (1 (y)) 0 1
| ( (y))|

Z

1
= (y) pf 1 (1 (y)) 0 1
+q
f2 (x, y)dx
| ( (y))|
ovvero che
R

1
+
q
g(x)f
(x,
y)dx
pg(1 (y))f1 (1 (y)) |0 (1
2
(y))|
R

(y) =
.
1
1
pf1 ( (y)) |0 (1 (y))| + q f2 (x, y)dx
Si noti ancora che
g(1 (y)) =

Z
g(x)1 (y) (dx).

Per questo motivo, qualunque sia g, si pu`


o riscrivere il numeratore come
Z
Z

1
pf1 (1 (y)) 0 1
g(x)1 (y) (dx) + q
g(x)f2 (x, y)dx
| ( (y))|
e quindi la legge X|Y (dx|y) di X, condizionata ad Y = y, `e proporzionale a
pf1 (1 (y))

1 (dx)
|0 (1 (y))| (y)

+ qf2 (x, y)dx.

Si noti che quindi la legge di X condizionata a Y = y non `e assolutamente continua rispetto alla distribuzione
iniziale di X, che ha invece una densit`
a rispetto alla misura di Lebesgue.

Capitolo 4

Martingale
In questo capitolo introduciamo il concetto di martingala, che in un certo senso si pu`o considerare una
formalizzazione del concetto di gioco equo. Per definire una martingala abbiamo per`o prima bisogno di dare la
seguente definizione.
Definizione 4.1 (Filtrazione). In uno spazio (, F), la famiglia {Ft , t 0} si dice una filtrazione se `e una
famiglia crescente di -algebre di F, cio`e Fs Ft F, per 0 s t. (La definizione ha senso anche nel caso
in cui t = n N, e nel caso in cui t I R, ad esempio t [0, T ]).
La algebra Ft rappresenta linformazione disponibile fino al tempo t, e pi`
u in generale la filtrazione {Ft }
viene detta anche flusso di -algebre, in quanto rappresenta il flusso di informazioni disponibili, al variare
del tempo.
Definizione 4.2 (Martingala). Un processo aleatorio1 (Xt ), definito in uno spazio di probabilit`
a (, F, P), si
dice una martingala rispetto ad una filtrazione {Ft }, con Ft F, se
0) Xt `e Ft -misurabile per ogni t 0. (o pi`
u rapidamente il processo Xt `e adattato ad Ft )
1) Xt `e integrabile per ogni t 0, cio`e E[| Xt |] < + per ogni t 0.
2) E[Xt+s | Ft ] = Xt , per ogni t, s 0
Nel caso in cui t = n N la 2) pu`
o essere sostituita con la richiesta che
E[Xn+1 | Fn ] = Xn , per ogni n N.
Si noti che la propriet`
a 0) `e sovrabbondante in quanto la 2) implica che Xt sia Ft -misurabile.
Ci`o non `e vero nella seguente definizione di submartingala (supermartingala), che in un certo senso si pu`o
considerare una formalizzazione del concetto di gioco favorevole (sfavorevole).
Definizione 4.3 (Submartingala (Supermartingala)). Un processo aleatorio Xt si dice una submartingala
( supermartingala) rispetto ad una filtrazione {Ft } se
0) Xt `e Ft -misurabile per ogni t 0. ( o pi`
u rapidamente il processo Xt `e adattato ad Ft )
1) Xt `e integrabile per ogni t 0, cio`e E[| Xt |] < + per ogni t 0.
2) E[Xt+s | Ft ] Xt (E[Xt+s | Ft ] Xt ), per ogni t, s 0,
1 Il lettore per il momento pu`
o pensare di considerare solo il caso tempo discreto, e sostituire la parola processo con la parola
successione {Xn }n di variabili aleatorie. Inoltre pu`
o limitarsi a considerare il caso di una filtrazione {Fn }n generata dal processo
stesso, ovvero il caso in cui Fn `
e -algebra generata da {X1 , X2 , , Xn }. In altre parole

Fn = {A , tali che esiste un boreliano Hn B(Rn ) per il quale A = { : (X1 , X2 , , Xn ) Hn }} .


Per la definizione formale di processo aleatorio si rimanda al Capitolo 8.

68

MPEF 01-07-2009

69

Di nuovo, nel caso in cui t = n N la 2) pu`


o essere sostituita con la richiesta che
E[Xn+1 | Fn ] Xn (E[Xn+1 | Fn ] Xn ), per ogni n N.
Osservazione 4.1. Se Xt `e una martingala (o submartingala) rispetto a una filtrazione {Ft } e se {Gt } `e una
filtrazione per cui (Xt ) Gt Ft , per ogni t 0, allora Xt lo `e anche rispetto alla nuova filtrazione:
E[Xt+s | Gt ] = E[E[Xt+s | Ft ] | Gt ] = E[Xt | Gt ] = Xt .
In particolare
o prendere sempre la filtrazione minimale FtX =
 per Sogni martingala
 (o submartingala) si pu`
{Xu , u t} = 0ut (Xu ) , che per la propriet`
a 0) `e sempre contenuta in Ft . Quindi, in genere 2 , se
la filtrazione non `e specificata, si deve intendere che si tratti della filtrazione naturale.
Se invece {Ht } `e una filtrazione per cui Ht `e indipendente da Ft (e quindi da Xt ), allora Xt `e una
martingala (o submartingala) anche rispetto alla filtrazione Gt :=Ft Ht (confrontare la propriet`
a 6. delle
medie condizionali: il condizionamento ridondante).
Osservazione 4.2. Ogni martingala ha media costante e ogni submartingala ha media crescente (in senso lato):
basta passare al valore medio nella propriet`
a 3. delle medie condizionali (condizionamenti successivi) e tenere
presente che il valore medio di Y coincide con il valore medio di E[Y | G].
Osservazione 4.3. Data una submartingala Xt si ottiene una supermartingala considerando Xt , e viceversa.

4.1

Esempi di martingale e di submartingale

Esempio 4.1. Sia data una variabile aleatoria Y integrabile ed una filtrazione {Ft }. Si definisca Xt := E[Y |
Ft ]. Si dimostra facilmente che Xt `e una martingala:
E[Xt+s | Ft ] =

(per def.)

E[E[Y | Ft+s ] | Ft ] =

(condiz. successivi)

E[Y | Ft ]

Lesempio precedente aiuta a capire il nome di submartingala: sia ora Xt una submartingala, allora, fissato
v = t + s, il processo
Zt := E[Xt+s | Ft ] E[Xv | Ft ],
`e una martingala per t [0, v], quindi la propriet`a 2) per le submartingale diviene
Zt := E[Xv | Ft ] Xt ,

per t [0, v],

ovvero che Xt sia sotto la martingala Zt := E[Xv | Ft ], per t [0, v].


*** Inoltre sempre in relazione allEsempio 4.1, si pu`o osservare che se due martingale Mt1 ed Mt2 coincidono
al tempo T , ossia se MT1 = MT2 , allora esse coincidono per ogni t T , ossia Mt1 = Mt2 in [0, T ], in quanto per
tali valori di t si ha Mti = E[MTi | Ft ]. ***
Esempio 4.2. Sia data una successione di variabili aleatorie Yn indipendenti, identicamente distribuite3 ,
integrabili e a media nulla. Si definisca
S0 = 0,

Sn =

n
X

Yk ,

n 1,

k=1

o equivalentemente
Sn =

n
X

Yk ,

n 0,

k=1
2 Attenzione:

ovviamente la filtrazione potrebbe anche essere specificata anche allinizio di una sezione, o di un capitolo.

3 Non `
e necessario che le variabili aleatorie Yn abbiano la stessa distribuzione, basta che siano integrabili e abbiano valore atteso
nullo.

70

MPEF 01-07-2009

(con la convenzione che

P0

k=1

ak =

1k0

ak =

ak = 0).

Si ottiene facilmente che Sn `e una martingala, rispetto4 a


(
{, }
S
Fn =
({Y1 , , Yn })

se n = 0,
se n > 0.

Infatti
E[Sn+1 | Fn ] = E[Sn + Yn+1 | Fn ] = Sn + E[Yn+1 | Fn ] = Sn + E[Yn+1 ] = Sn .
Se le variabili aleatorie Yk non sono a media nulla, basta sostituire Yk , se = E[Y1 ], ed ottenere che
Sen =

n
X

(Yk ) =

k=1

n
X

Yk n = Sn n

k=1

`e una martingala5 .
Infine si osservi che, nel caso in cui > 0, si ottiene che Sn `e una submartingala, mentre, nel caso in cui
< 0, si ottiene che Sn `e una supermartingala.
Esempio 4.3. Se siamo nelle stesse ipotesi del precedente Esempio 4.2 ed inoltre le variabili aleatorie Yk
ammettono momento secondo finito, e quindi varianza 2 , allora Mn := Sn2 n 2 `e una martingala:
2
2
2
Mn+1 Mn = Sn+1
(n + 1) 2 (Sn2 n 2 ) = (Sn2 + 2Yn+1 Sn + Yn+1
) Sn2 2 = 2Yn+1 Sn + Yn+1
2

Passando alle medie condizionali si ottiene che


2
E[Mn+1 Mn | Fn ] = E[2Yn+1 Sn + Yn+1
2 | Fn ]
2
= 2Sn E[Yn+1 | Fn ] + E[Yn+1
| Fn ] 2 = 2Sn 0 + 2 2 = 0
2
in quanto Yn+1 `e indipendente da Fn e quindi i valori medi condizionali E[Yn+1 | Fn ] ed E[Yn+1
| Fn ] coincidono
con i rispettivi valori medi.

Se le variabili aleatorie Yk non sono a media nulla, allora


Mn := (Sn n)2 n 2
`e una martingala6 .
Il seguente esempio permette di generare submartingale a partire da martingale e da submartingale.
4 La

successione {Yk } si ottiene immediatamente dalla successione {Sk }:


Yn = Sn Sn1 ,

di conseguenza

FnS

FnY

per n 1,

, per n 1.

5 Sempre nel caso in cui le variabili aleatorie Y non abbiano la stessa legge si dovr1`
a sostituire Yk k , dove k = E[Yk ]. In
k
questo caso
n
n
n
X
X
X
en =
S
(Yk k ) =
Yk
k
k=1

k=1

k=1

6 Di

nuovo la stessa dimostrazione funziona anche nel caso in cui le variabili aleatorie Yk non hanno la stessa legge, purch
e
abbiano momento secondo finito e siano indipendenti. In tale caso
Mn := (Sn

n
X
k=1

k )2

n
X

k2

k=1

`
e una martingala. Si confronti questo risultato con il successivo Teorema di Decomposizione di Doob 4.1.

MPEF 01-07-2009

71

Esempio 4.4. Sia Xt una martingala con E[| Xt | ] < +, per un 1. Allora il processo | Xt | `e una
submartingala: basta applicare la disuguaglianza di Jensen alla funzione |x| , che `e convessa per 1
| Xt | =

(Xt `
e una MG)

| E[Xt+s | Ft ] |

(dis. Jensen per |x| )

E[| Xt+s | | Ft ].

Questo esempio si generalizza immediatamente al caso di ogni funzione convessa , purche, ovviamente,
E[(Xt )] < +.
(Xt ) =

(Xt `
e una MG)

(E[Xt+s | Ft ])

(dis. Jensen per )

E[(Xt+s ) | Ft ].

Per ottenere un risultato analogo nel caso in cui Xt sia una submartingala bisogna aggiungere lipotesi che
sia una funzione crescente, in modo che, essendo
Xt

(Xt )

(Xt `
e una subMG)

( `
e crescente)

E[Xt+s | Ft ],

(E[Xt+s | Ft ])

(dis. Jensen per )

E[(Xt+s ) | Ft ].

Esempio 4.5. Se le variabili aleatorie Wk sono indipendenti identicamente distribuite7 , con E[W1 ] = 1, allora
la successione di variabili aleatorie
Z0 = 1,

Zn :=

n
Y

Wk ,

n 1,

k=1

o equivalentemente
Zn :=

n
Y

Wk ,

n 0,

k=1

(con la convenzione che

Q0

k=1

ak = 1) definisce una martingala, rispetto 8 a


(
{, }
se n = 0,
Fn =
({W1 , , Wn }) se n > 0,

ovvero, dato che la condizione di misurabilit`


a `e ovvia, quella di integrabilit`
a deriva dallintegrabilit`
a di ciascuna
delle Wk e dalla loro indipendenza, e infine
E[Zn+1 | Fn ] = E[Zn Wn+1 | Fn ] = Zn E[Wn+1 | Fn ] = Zn E[Wn+1 ] = Zn .
Come caso particolare si consideri la situazione dellEsempio 4.2 con lulteriore ipotesi che per un R valga
E[exp{Y1 }] = exp{()} < +
(si noti che non `
e necessario supporre E[Y1 ] = 0). Allora ovviamente
E[exp{Y1 } exp{()}] = E[exp{Y1 ()}] = 1.

Come conseguenza, posto Wk = exp{Yk ()}, si ha che


Zn = exp{Sn n()}
`e una martingala strettamente positiva di media 1.
7 Lipotesi

che abbiano la stessa legge `


e superflua, basta che le variabili aleatorie Wk abbiano valore atteso 1 e siano indipendenti.
questo caso FnZ pu`
o essere strettamente contenuta in Fn = FnW , infatti mentre Zn = gn (W1 , . . . , Wn ), e quindi ogni funzione
misurabile rispetto a Z1 , . . . , Zn `
e funzione misurabile di W1 , . . . , Wn , il viceversa in genere non `
e vero: se Z1 , . . . , Zn sono tutti
positivi, allora Wk = Zk /Zk1 , ma se Zn = 0 allora Zn+m = 0 per ogni m 0 e quindi `
e impossibile ricavare i valori di Wn+m
per m > 0. Se tuttavia le variabili aleatorie Wk (), assumono valori strettamente positivi per ogni k e per ogni , allora la
corrispondenza tra {Zk } e {Wk } `
e biunivoca e FnZ = FnW , per ogni n 1.
8 In

72

MPEF 01-07-2009

Esempio 4.6 (***Integrale stocastico a tempo discreto***). Sia Sn una martingala rispetto a Fn , nello spazio
e sia n predicibile rispetto a Fn , ovvero sia n misurabile rispetto a Fn1 per ogni n 1. Allora
(, F, P),
l integrale stocastico discreto
n = In () :=
(.S)

n
X

k (Sk Sk1 )

(4.1)

k=1

definisce una Fn -martingala, sotto una delle due seguenti condizioni:

a) per ogni k esiste una costante ck tale che P({


tali che k () ck }) = 1

b) La martingala Sk e il processo k sono di quadrato integrabile, ovvero


Sk |2 ] < , per ogni k 0
E[|

k |2 ] < , per ogni k 1


E[|

Verifica. Per la misurabilit`


a basta osservare che se k n allora k e Sk1 sono Fk1 -misurabile e quindi
anche Fn -misurabile, analogamente Sk `e Fk -misurabile e quindi anche Fn -misurabile, di conseguenza
In () =

n
X

k (Sk Sk1 )

k=1

`e Fn -misurabile. Per lintegrabilit`


a si osservi che
|In ()|

n
X

|k |(|Sk | + |Sk1 |)

k=1

e che, se vale la condizione a), allora


k ||Sk |] ck E[|
Sk |] <
E[|

k ||Sk1 |] ck E[|
Sk1 |] < ,
E[|

mentre se vale la condizione b), allora per la disuguaglianza di Cauchy


k ||Sk |] E
1/2 [|k |2 ]E
1/2 [|Sk |2 ] <
E[|

k ||Sk1 |] E
1/2 [|k |2 ]E
1/2 [|Sk1 |2 ] < .
E[|

Infine basta osservare che


n+1 () In () | Fn ] = E[
n+1 (Sn+1 Sn ) | Fn ]
E[I
Sn+1 Sn ) | Fn ]
=
n+1 E[(
(n+1 `
e Fn mis.)

n `
(S
e una Fn MG)

n+1 0 = 0

Esempio 4.7. 9 Dato uno spazio (, F) e su di esso una filtrazione {Ft } e due misure di probabilit`
a P e Q, con
P assolutamente continua rispetto a Q (di conseguenza lo sono anche rispetto ad Ft per ogni t). Si definisca10
9 Questo esempio richiede la conoscenza del Teorema di Radon Nikodym, e pu`
o essere tralasciato in una prima lettura. In
alternativa il lettore pu`
o considerare solo il caso a tempo discreto con t = k {1, n}, = Rn , Fk = {A = Hk Rnk , con Hk
B(Rk )}, ed infine P(dx1 dxn ) = p(x1 , , xn )dx1 dxn e Q(dx1 dxn ) = q(x1 , , xn )dx1 dxn con p e q densit`
a di
probabilit`
a. La assoluta continuit`
a di P rispetto a Q diviene allora la condizione

{(x1 , , xn ) : q(x1 , , xn ) = 0} {(x1 , , xn ) : p(x1 , , xn ) = 0},


e

dP
p(x1 , , xn )
(x1 , , xn ) =
.
dQ
q(x1 , , xn )
10 Nel

caso a tempo discreto della nota precedente


Lk ((x1 , , xn ) :=

dove

nk

pk (x1 , , xk ) =
e

pk (x1 , , xk )
,
qk (x1 , , xk )

p(x1 , , xk , yk+1 , , yn )dyk+1 , , dyn


Z

R
nk

qk (x1 , , xk ) =

q(x1 , , xk , yk+1 , , yn )dyk+1 , , dyn


R

sono le densit`
a marginali su Rk di p e q, rispettivamente.

MPEF 01-07-2009

73

la derivata di Radon Nikodym di P rispetto a Q, entrambe ristrette a Ft , cio`e



dP
.
Lt :=
dQ Ft

Il processo Lt `e una Ft -martingala nello spazio (, F, Q), anzi pi`


u in generale risulta che se Xt `e un processo
adattato ad Ft , allora Xt `e una Ft -martingala nello spazio (, F, P) se e solo se Xt Lt `e una Ft -martingala
nello spazio (, F, Q) (quindi il caso precedente deriva prendendo banalmente Xt 1).
Infatti Xt `e una martingala in (, F, P), se e solo `e integrabile rispetto a P e se per ogni 0 s t e A Fs
EP [IA Xt ] = EP [IA Xs ],
mentre Xt Lt lo `e in (, F, Q) se e solo se `e integrabile rispetto a Q e se per ogni 0 s t e A Fs
EQ [IA Xt Lt ] = EQ [IA Xs Ls ].
Ovviamente, essendo IA Xs una v.a. Fs -misurabile, si ha EP [IA Xs ] = EQ [IA Xs Ls ] e, essendo IA Xt una v.a.
Ft -misurabile, in quanto A Fs Ft , si ha EP [IA Xt ] = EQ [IA Xt Lt ]. La verifica dellintegrabilit`
a `e banale.
Esempio 4.8. Sia Xn una catena di Markov omogenea11 con spazio degli stati finito e con matrice delle
probabilit`
a di transizione (pi,j )i,j . Sia inoltre h una funzione armonica rispetto alla matrice delle probabilit`
a
di transizione P = (pi,j )i,j , cio`e
h(i) = (P h)(i) :=

pi,j h(j),

per ogni i

(si noti che ci`


o corrisponde a chiedere che h sia la soluzione di (P I)h = 0).
Il processo
Mnh := h(Xn )
`e una martingala (rispetto a FnX = {Xk , k = 0, , n}).
Questo risultato deriva da un caso pi`
u generale: qualunque sia f
Mnf := f (Xn )

n1
X

(P I)f (Xk )

k=0

`e una martingala rispetto a FnX .


Cominciamo con il caso h armonica. Basta controllare che
h
h
E[Mn+1
| FnX ] = E[Mn+1
| Xn , Xn1 , , X0 ] = Mnh ,

ovvero che
E[h(Xn+1 ) | Xn , Xn1 , , X0 ] = h(Xn ).
Essendo (Xn , n 0) una catena di Markov si ha12
11 Si ricorda che la successione {X } `
a di transizione (pi,j )i,j
n n e una catena di Markov omogenea con matrice delle probabilit`
significa che vale la propriet`
a di Markov, ovvero: qualunque siano n, j, i, in1 , , i0

P(Xn+1 = j|Xn = i, Xn1 = in1 , , X0 = i0 ) = P(Xn+1 = j|Xn = i) = pi,j ,


purch
e P(Xn = i, Xn1 = in1 , , X0 = i0 ) > 0.
12 Nel caso di variabili aleatorie discrete possiamo applicare i risultati sulle densit`
a condizionali (vedere lEsempio 3.3): posto
X = (Xn , Xn1 , , X0 ), sappiamo che
X
E[f (Xn+1 ) | X]() =
f (j) P(Xn+1 = j | {X = x})|x=X() .
j

74

MPEF 01-07-2009

E[f (Xn+1 ) | Xn , Xn1 , , X0 ] = (P f )(Xn )


ed il caso f = h armonica `e immediato. Il caso generale deriva dallosservare che
f
Mn+1

Mnf

= f (Xn+1 )

n
X

(P I)f (Xk ) f (Xn ) +

k=0

n1
X

(P I)f (Xk )

k=0

f
Mnf = f (Xn+1 ) (P I)f (Xn ) f (Xn ) = f (Xn+1 ) (P f )(Xn ),
Mn+1

e quindi
f
E[Mn+1
Mnf | FnX ] = E[f (Xn+1 ) (P f )(Xn ) | FnX ] = E[f (Xn+1 ) | FnX ] (P f )(Xn ) = 0.

Per la propriet`
a di Markov P(Xn+1 = j | X = x) = P(Xn+1 = j | Xn = xn ) = pxn ,j , quindi
P(Xn+1 = j | X) = P(Xn+1 = j | Xn ) = pXn ,j
e

f (j)P(Xn+1 = j | X = x) = (P f )(xn ),

e perci`
o
E[f (Xn+1 ) | Xn , Xn1 , , X0 ] = (P f )(Xn ).

MPEF 01-07-2009

4.2

75

Decomposizione di Doob

Tenendo conto dellEsempio 4.4, possiamo affermare che, se sono soddisfatte delle condizioni di integrabilit`a, il
quadrato della martingala Sn dellEsempio 4.2 `e una submartingala. NellEsempio 4.3, si ottiene che Sn2 n `e
una martingala, quindi si pu`
o scrivere come la somma di due processi
Sn2 = (Sn2 n 2 ) + n = Mn + An
dove Mn `e una martingala, ed An = n 2 `e un processo deterministico crescente.
Il seguente teorema generalizza tale esempio a tutte le submartingale.
Teorema 4.1 (Decomposizione di Doob). : Sia (, F, P) uno spazio di probabilit`
a, e sia (Fn )n N una
filtrazione con Fn F. Data una Fn -submartingala Xn a tempo discreto, essa si pu`
o sempre scrivere in modo
unico (a meno di insiemi di misura nulla) come
Xn = X0 + Mn + An ,
dove Mn `e una martingala ed An `e un processo predicibile (cio`e, per ogni n N, An `e Fn1 -misurabile)
crescente in senso lato, con A0 = 0.
Dimostrazione. Se una tale decomposizione esiste necessariamente deve accadere che M0 = 0, ed inoltre, essendo
An = Xn X0 Mn , deve accadere che
An+1 An = Xn+1 X0 Mn+1 (Xn X0 Mn ) = Xn+1 Xn (Mn+1 Mn ).
Essendo An+1 An una v.a. Fn -misurabile, passando alla media condizionale rispetto ad Fn , essa non cambia,
per cui deve necessariamente accadere che
An+1 An = E[Xn+1 Xn (Mn+1 Mn ) | Fn ]
= E[Xn+1 Xn | Fn ] E[Mn+1 Mn | Fn ] =

(Mn `
e una Fn -martingala)

= E[Xn+1 Xn | Fn ] = E[Xn+1 | Fn ] Xn .
Quindi lunico modo per definire13 An+1 , con A0 = 0, `e il seguente
An+1 := An+1 A0 =

n
X

(Ak+1 Ak ) =

k=0

n
X

(E[Xk+1 | Fk ] Xk ).

(4.2)

k=0

` immediato verificare14 che con questa definizione il processo An := Pn (E[X` | F`1 ] X`1 ) `e integrabile,
E
`=1
predicibile e crescente, con A0 = 0.
Si tratta ora solo di verificare che con questa definizione di {An }n0 il processo Mn := Xn X0 An `e una
martingala, con M0 = 0. Ma ovviamente
Mn+1 Mn = Xn+1 X0 An+1 (Xn X0 An ) = Xn+1 Xn (An+1 An ),
per cui, tenendo conto che per definizione An+1 An = E[Xn+1 | Fn ] Xn , e passando alla media
condizionale, si ottiene la tesi.
13 Da cui segue lunicit`
a della decomposizione, in quanto An deve essere definito come in (4.2) e poi si dovr`
a definire
necessariamente Mn := Xn X0 An .
14 Per lintegrabilit`
a basta osservare che

|An |

n1
X
`=1

|E[X` | F`1 ]| + |X`1 |

n
X


E[|X` | | F`1 ] + |X`1 | ,

(per dis. Jensen) `=1

ed utilizzare il fatto che Xn sono tutte integrabili.


Per la predicibilit`
a, basta osservare che, per ogni ` n, E[X` | F`1 ] ed X`1 sono F`1 -misurabili e quindi Fn1 -misurabili.
Per la crescenza basta osservare che, per definizione
An+1 An = E[Xn+1 | Fn ] Xn 0,
dove la disuguaglianza vale in quanto Xn `
e una submartingala.
Infine il fatto che A0 = 0, `
e vero per definizione.

76

MPEF 01-07-2009

Osservazione 4.4. Ogni processo crescente, integrabile ed adattato `e una submartingala, quindi si pu`
o applicare
il Teorema di Doob e riscriverlo come la somma di un processo predicibile e di una martingala. Pi`
u in generale,
la somma di un processo crescente, integrabile ed adattato e di una martingala `e una submartingala, e quindi,
per il Teorema di Doob, si pu`
o riscrivere ancora come la somma di unaltra martingala e di un processo crescente
che inoltre `e predicibile.
Osservazione 4.5. Si noti che nella dimostrazione del teorema di decomposizione di Doob, il fatto che Xn sia
una submartingala `e servito solo nei seguenti punti:
(i) ha senso calcolare la media condizionata di E[Xn+1 Xn | Fn ], in quanto Xk `e integrabile per ogni k,
(ii) il valore atteso condizionato E[Xn+1 Xn | Fn ] coincide con E[Xn+1 | Fn ] Xn in quanto Xn `e adattato
alla filtrazione {Fn },
(iii) il processo An risulta crescente (in senso lato), in quanto E[Xn+1 | Fn ] Xn 0.
Si vede quindi che il procedimento si applica a qualunque processo che sia integrabile ed Fn -adattato, si
ottiene per`
o una decomposizione nella somma di una martingala e di un processo predicibile (che, in generale,
non `e crescente).
Sarebbe interessante rivedere lEsempio 4.8, sotto questa luce, in fondo applicando il procedimento della
decomposizione di Doob al processo FnX -adattato e integrabile f (Xn ), si ottiene che
f (Xn ) = f (Xn )

n1
X

X
 n1

E[f (Xk+1 ) | Fk ] f (Xk ) +
E[f (Xk+1 ) | Fk ] f (Xk )

k=0

= f (Xn )

n1
X

k=0


P f (Xk ) f (Xk ) +

k=0

= f (Xn )

n1
X

n1
X


P f (Xk ) f (Xk )

k=0


P I f (Xk ) +

k=0

n1
X

n1
X


P I f (Xk ) = Mnf +
P I f (Xk )

k=0

= f (X0 ) + [Mnf f (X0 )] +

n1
X

k=0


P I f (Xk ).

k=0

In effetti il processo
Afn :=

n1
X


P I f (Xk )

k=0

`e un processo

FnX -predicibile,

X
-misurabile.
in quanto chiaramente Afn `e Fn1

Esempio 4.9 (Variazione quadratica predicibile di una martingala). Se Mn `e una martingala di quadrato
integrabile, allora Mn2 `e una submartingala ***(come sappiamo dallEsempio 4.4).***
Se M0 = 0, allora la decomposizione di Doob in questo caso diviene:
Mn2 =

n
X

E[(M 2 )k |Fk1 ] +

k=1

n
X


(M 2 )k E[(M 2 )k |Fk1 ] ,

k=1

2
dove (M 2 )k := Mk2 Mk1
.
Cos`, detto variazione quadratica predicibile, o caratteristica quadratica, il processo predicibile
definito da

< M >n :=

n
X

E[(M 2 )k |Fk1 ] =

k=1

n
X

2
E[Mk2 Mk1
|Fk1 ],

k=1

e definita
mn :=

n
X


(M 2 )k E[(M 2 )k |Fk1 ] ,

k=1

si ha la decomposizione di Doob
Mn2 =< M >n +mn .

(4.3)

MPEF 01-07-2009

77

Va menzionato il fatto che, essendo Mn una martingala,


2

< M >k < M >k1 := E[(M 2 )k |Fk1 ] = E[(Mk ) |Fk1 ],

(4.4)

2
***ossia E[Mk2 Mk1
|Fk1 ] = E[(Mk Mk1 ) |Fk1 ], ***come si vede facilmente15 , e quindi

< M >n :=

n
X

E[(M 2 )k |Fk1 ] =

k=1

n
X

h
i
2
E (Mk Mk1 ) |Fk1 .

(4.5)

k=1

Va infine menzionato anche il fatto che il processo


[M ]n :=

n
X

(Mk ) =

k=1

n
X

(Mk Mk1 )

k=1

viene detto variazione quadratica (opzionale). ***Si noti inoltre che [M ]n , essendo un processo adattato e
crescente `e una submartingala e che [M ]n < M >n `e una martingala, ossia < M >n `e il processo crescente e
predicibile della decomposizione di Doob, relativo alla submartingala [M ]n . ***
Esempio 4.10 (Decomposizione dellintegrale stocastico a tempo discreto). ***Ci mettiamo nelle stesse ipotesi
e notazioni dellEsempio 4.9 precedente: ***Mn `e una martingala di quadrato integrabile ***. Se n `e un
processo predicibile, di quadrato integrabile, per lEsempio 4.6, lintegrale stocastico a tempo discreto
In () :=

n
X

k (Mk Mk1 )

k=1

`e una martingala, con


Ik () = k (Mk Mk1 ) .
Si consideri ora il caso in cui k `e limitato, ovvero esiste un L R+ tale che |k ()| L. Si osservi che
In2 () =

n
X

n
X

k (Mk Mk1 )

k=1

n
X

h (Mh Mh1 )

h=1
2

k2 (Mk Mk1 ) + 2

k=1

n1
X

n
X

k (Mk Mk1 )

k=1

h (Mh Mh1 ) ,

h=k+1

da cui
" n
#
n1
n
X
X
X
 2 
2
2
E In () = E
k (Mk Mk1 ) + 2
k (Mk Mk1 )
h (Mh Mh1 )
k=1

n
X

k=1

h
i
2
E k2 (Mk Mk1 ) + 2

k=1

n1
X

h=k+1
n
X

E [k (Mk Mk1 ) h (Mh Mh1 )] .

k=1 h=k+1

15 Infatti
2
2
2
2
(M 2 )k = Mk2 Mk1
= (Mk1 + Mk )2 Mk1
= Mk1
+ 2 Mk1 Mk + (Mk )2 Mk1

= 2 Mk1 Mk + (Mk )2 ,
da cui, per la Fk1 -misurabilit`
a di Mk1 ,
E[(M 2 )k |Fk1 ] = E[2 Mk1 Mk |Fk1 ] + E[(Mk )2 |Fk1 ]
= 2 Mk1 E[Mk |Fk1 ] + E[(Mk )2 |Fk1 ],
e quindi, poich
e E[Mk |Fk1 ] = 0, in quanto Mn `
e una martingala,
E[(M 2 )k |Fk1 ] = E[(Mk )2 |Fk1 ].

78

MPEF 01-07-2009



` chiaro che se |k ()| L, allora E I 2 () risulta finita16 .
E
n
Ora si pu`
o vedere direttamente17 che
n

 X


E In2 () =
E k2 (< M >k < M >k1 )
k=1

n
X

h
E

k2

(Mk Mk1 )

"
=E

k=1

n
X

#
k2

(Mk Mk1 )

k=1

tuttavia si pu`
o procedere anche in un altro modo.
Come visto, se k `e limitato, allora In () `e una martingala di quadrato integrabile. Per le formule (4.3) e
(4.5) dellEsempio precedente, applicate alla martingala In (), si ha
In2 () =< I() >n +Mn ,
con
< I() >n :=

n
X

2
E[Ik2 () Ik1
()|Fk1 ] =

k=1

n
X

h
i
2
E (Ik () Ik1 ()) |Fk1 ,

k=1

ed Mn una martingala a media nulla.


Ovviamente
2

(Ik () Ik1 ()) = k2 (Mk Mk1 )2 ,


da cui
2

E[(Ik () Ik1 ()) |Fk1 ] = E[k2 (Mk Mk1 )2 |Fk1 ]


= k2 E[(Mk Mk1 )2 |Fk1 ] = k2 (< M >k < M >k1 ),
ovvero
< I() >n =

n
X

k2 (< M >k < M >k1 ).

k=1

In altre parole
Mn := In2 () < I() >n
n
X
= In2 ()
k2 (< M >k < M >k1 )
k=1
16 Se

|k ()| L, ed Mn `
e quadrato integrabile, allora
h
i
h
i
E k2 (Mk Mk1 )2 L2 E (Mk Mk1 )2 <

e, per la disuguaglianza di Cauchy,


h
i1/2 h
i1/2
E [|k | |Mk Mk1 | |h | |Mh Mh1 |] L2 E (Mk Mk1 )2
E (Mh Mh1 )2
< .
17

Si osservi che

h
i
h h
ii
h
h
ii
E k2 (Mk Mk1 )2 = E E k2 (Mk Mk1 )2 |Fk1 = E k2 E (Mk Mk1 )2 |Fk1


=E k2 (< M >k < M >k1 ) ,

mentre, per k < h,


E [k (Mk Mk1 ) h (Mh Mh1 )] = E [E [k (Mk Mk1 ) h (Mh Mh1 ) |Fh1 ]]
= E [k (Mk Mk1 ) h E [(Mh Mh1 ) |Fh1 ]] = E [k (Mk Mk1 ) h 0] = 0.


Quindi, tenendo conto dellespressione trovata per E In2 () si ottiene
n
X




E In2 () =
E k2 (< M >k < M >k1 ) .
k=1

MPEF 01-07-2009

79

`e una martingala a media nulla. E ci`


o implica che
n

 X


E In2 () =
E k2 (< M >k < M >k1 ) .
k=1

Esercizio 4.1. ****Si supponga che, nel precedente Esempio 4.10, k goda della propriet`
a che
" n
#
X
E
k2 (< M >k < M >k1 ) < ,
k=1

senza assumere la condizione di limitatezza.


Si dimostri che allora il processo In () `e una martingala di quadrato integrabile, ossia che

In() `e una
 martingala
E In2 () <
che
Pn
< I 2 () >n = k=1 k2 (< M >k < M >k1 ).



Pn
2
Si noti che di conseguenza E In2 () = E
k=1 k (< M >k < M >k1 ) < .
(L)

soluzione: Si definisca k

= (L) k L. Si cominci col dimostrare che

E[k2 (Mk Mk1 )2 ] = lim E[( (L) )2k (Mk Mk1 )2 ]


L%




= lim E E[( (L) )2k (Mk Mk1 )2 |Fk1 ] = lim E ( (L) )2k E[(Mk Mk1 )2 |Fk1 ]
L%
L%
 (L) 2



= lim E ( )k E[< M >k < M >k1 |Fk1 ] = E k2 (< M >k < M >k1 ) < ,
L%

e di conseguenza anche E[|k |Mk Mk1 |] < . Ricordando losservazione (i) dellEsempio 4.6 sullintegrale
stocastico a tempo discreto possiamo allora affermare che In () `e una martingala.
Per la disuguaglianza di Cauchy, si deduce che anche i prodotti k (Mk Mk1 ) j (Mj Mj1 ) sono integrabili,
e quindi che la martingala In () `e di quadrato integrabile. La parte rimanente, ed in particolare leguaglianza
E [k (Mk Mk1 ) h (Mh Mh1 )] = 0, per k 6= h, si dimostra esattamente con lo stesso procedimento usato
nellEsempio 4.10, nel caso in cui k `e limitato (si veda la nota 17).

4.2.1

Applicazioni: verso lintegrale stocastico a tempo continuo ***

Questa sezione richiede la conoscenza dei processi a tempo continuo. Se il lettore non `e familiare con tali processi
pu`o tranquillamente saltare questa parte e rimandarne la lettura.
Esempio 4.11 (Primi passi verso lintegrale stocastico a tempo continuo). Sia (Xt )t[0,T ] una Gt -martingala
di quadrato integrabile.
Sia inoltre (f (s))s[0,T ] un processo elementare Gt -predicibile, di quadrato integrabile, ovvero un processo
definito da
N
X
f (s, ) :=
Hk ()I(tk1 ,tk ] (s),
k=1

per una partizione {tk , k = 0, , N } di (0, T ], con 0 = t0 < t1 < < tN = T , dove Hk sono variabili aleatorie
Gtk1 -misurabili e di quadrato integrabile.
Si definiscano
Z

f (s, )dX(s, ) :=

N
X
k=1


Hk () Xtk Xtk1 ,

(4.6)

80

MPEF 01-07-2009

e, nel caso = 0 e = t
ItX (f )() :=

f (s, )dX(s, ) =
0

n
X

N
X


Hk () Xtk t Xtk1 t ,

(4.7)

k=1



Hk () Xtk Xtk1 + Hn+1 () Xt Xtn

per tn t < tn+1

(4.8)

k=1

che `e indicato anche, pi`


u brevemente come
ItX (f ) :=

f (s)dX(s).
0

Si ha che il processo (ItX (f ))t[0,T ] `e una martingala. Si osservi che, dalla (4.8), si deduce immediatamente
che ItX (f ) ha traiettorie continue, se (Xt )t ha traiettorie continue). Se inoltre, se le variabili Hk sono limitate,
allora il processo (ItX (f ))t[0,T ] `e di quadrato integrabile. ***Inoltre, il processo definito da
Mft

:=

2
ItX (f )

n
X

!
Hk2 ()E[(Xtk

Xtk1 ) |Gtk1 ] +

2
Hn+1
()E[(Xt

Xtn ) |Gtn ] ,

per tn t < tn+1

k=1

(4.9)
`e una Gt -martingala, ed in particolare si ha
" n
#
h
X
2 i


X
2
2
2
2
E It (f )
=E
Hk ()E (Xtk Xtk1 ) |Gtk1 + Hn+1 ()E[(Xt Xtn ) |Gtn ] ,

per tn t < tn+1

k=1

(4.10)
Le precedenti propriet`
a si dimostrano utilizzando i risultati dei precedenti Esempi 4.6 e 4.10, notando che
nella partizione {tk , k = 0, , N } che definisce f (s) si pu`
o sempre supporre18 ***che ci sia un indice h tale
che t = th . In realt`
a nella
della propriet`
a di martingala servono due tempi t0 t00 e si deve
 dimostrazione
f
X
X
0
mostrare che E It00 (f )|Gt = It0 (f ) e che E[Mt00 |Gt0 ] = Mft0 . Basta pensare che entrambi facciano parte della
partizione {tk , k = 0, , N }.
A titolo di esempio si consideri la propriet`
a di martingala dellintegrale stocastico ItX (f ) (tralasciando le
propriet`
a di misurabilit`
a e di integrabilit`
a: si tratta di dimostrare che per ogni t0 t00


E ItX00 (f )|Gt0 = ItX0 (f ).
(4.11)
18 Infatti

se t
/ {tk : k = 0, , N }, allora esiste un ` tale che t (t`1 , t` ) e quindi
H` ()I(t`1 ,t] (s) = H` ()I(t`1 ,t` ] (s) + H` ()I(t,t` ] (s).

Ovviamente H` `
e Gt -misurabile, in quanto Sia {t0k , k = 0, , N + 1} la partizione ottenuta dalla partizione {tk , k = 0, , N }
inserendo il punto t al posto ` + 1 (ovvero t0k = tk per k `, t0`+1 = t, e t0k = tk1 per i rimanenti valori di k) e sia

{Hk0 , k = 0, , N + 1} la famiglia di variabili aleatorie ottenuta in modo analogo dalla famiglia {Hk , k = 0, , N }
0
inserendo la variabile aleatoria H` al posto ` + 1 (ovvero Hk0 = Hk per k `, H`+1
= t, e Hk0 = Hk1 per i rimanenti
valori di k). Allora ovviamente
f (s, ) :=

N
X
k=1

Hk ()I(tk1 ,tk ] (s) =

N
+1
X

Hk0 ()I(t0k1 ,t0k ] (s).

k=1

Si noti che, in entrambe le rappresentazioni, si ha che Hk = f (tk ), con f (tk ) che risulta Gtk1 misurabile, e Hk0 = f (t0k ),
con f (t0k ) che risulta Gt0k1 misurabile.
Si noti infine che anche lintegrale stocastico relativo non cambia cambiando rappresentazione, ovvero se f elementare
e predicibile ammette due diverse rappresentazioni, lintegrale stocastico `e sempre definito dallo stesso processo, che `e
come dire che la definizione `e ben posta.

MPEF 01-07-2009

81

Se nella partizione {tk , k = 0, , N }, si ha t0 = tm t00 = tn (con m n), posto


Mk = Xtk ,

Fk = Gtk ,

k = f (tk ) = Hk ,

si ottiene che (Mn )n `e una martingala rispetto alla filtrazione (Fn )n , e, con le notazione dellEsempio 4.10, che
ItX0 (f ) = Im (),

ItX00 (f ) = In ()

e quindi la (4.11) diviene


E [In ()|Fm ] = Im (),
che `e esattamente la propriet`
a di martingala dellintegrale stocastico a tempo discreto dellEsempio 4.6.
Infine si noti che, la (4.8), si pu`
o riscrivere, per t [tk , tk+1 ], come
ItX (f ) = ItXk (f ) + Hk+1 (Xt Xtk ) ,
e che, entrambe queste espressioni hanno come conseguenza che, se la martingala (Xt )t `e una martingala a
traiettorie continue, allora anche (ItX (f ))t `e una martingala a traiettorie continue.
Supponiamo ora che esista un processo crescente e adattato19 < X >= (< X >t )t[0,T ] , tale che
< X >t `e una martingala. In altre parole il processo < X > `e la variazione quadratica della martingala
X. Allora si pu`
o dimostrare facilmente20 che, per ogni 0 s t T ,




E (Xt Xs )2 Gs = E < X >t < X >s Gs ,
(4.12)

Xt2

che a sua volta `e la versione a tempo continuo della (4.4).


Allora le (4.9) e la (4.10) si possono riscrivere, come
Z t
2
f
X
Mt := It (f )
f 2 (s) d < X >s ,
`e una martingala, a media nulla
0
Z

t
h
2 i
E ItX (f )
=E
f 2 (s) d < X >s ,

(4.13)
(4.14)

tenendo conto del fatto che


n
X





2
Hk2 ()E (Xtk Xtk1 )2 |Gtk1 + Hn+1
()E (Xt Xtn )2 |Gtn

k=1

=
=

n
X
k=1
n
X
k=1
Z t



2
Hk2 ()E < X >tk < X >tk1 |Gtk1 + Hn+1
()E [< X >t < X >tn |Gtn ]


2
Hk2 () < X >tk < X >tk1 + Hn+1
() [< X >t < X >tn ]
f 2 (s) d < X >s

Questa identit`
a `e la base per poi definire lintegrale stocastico rispetto ad una martingala di quadrato integrabile,
che ammetta come variazione quadratica (predicibile) il processo < X >. Infine, si noti che, a sua volta,
19 Per essere la variazione quadratica deve avere anche la propriet`
a di essere predicibile, ma la definizione di predicibilit`
a viene
data dopo....????
20 La dimostrazione della (4.12), si basa sul fatto che

(Xt Xs )2 [< X >t < X >s ] = Xt2 Xs2 2 Xs (Xt Xs ) < X >t + < X >s = Xt2 < X >t [Xs2 < X >s ]2 Xs (Xt Xs ).
Infatti, passando ai valori attesi condizionali si ha che, essendo Xs una variabile aleatoria Gs misurabile,






E (Xt Xs )2 [< X >t < X >s ] Gs = E Xt2 < X >t [Xs2 < X >s ] Gs 2 Xs E (Xt Xs ) Gs = 0,
dove lultima uguaglianza dipende dal fatto che Xt2 < X >t e Xt sono martingale.

82

MPEF 01-07-2009

la relazione (4.13) si pu`


o esprimere dicendo che la variazione quadratica (predicibile) di ItX (f ) coincide con
lintegrale di f rispetto a d < X >s , ossia
Z t
< I X (f ) >t =
f 2 (s) d < X >s .
0

Esercizio 4.2. Dare la dimostrazione diretta del fatto che ItX0 (f ) e Mft sono martingale.
soluzione: La misurabilit`
a e lintegrabilit`
a di ItX0 (f ) (se le variabili Hk sono di quadrato integrabile) e di
f
Mt (se le variabili Hk sono limitate) sono banali da verificare.
Per la propriet`
a di martingala di ItX0 (f ) si osservi che, se t0 ti tj t00 , posto t00 = t0 t00 = ti
0
0
0
0
0
= f (t0k+1 ), allora Hk+1
`e Gtk -misurabile, per k = 0, , m 1, e
tm1 = tj tm = t00 , e posto Hk+1
X00 (f ) I X0 (f ) | Gt0 ] =
E[I
t
t

m
X

0
E[Hk+1
(Xt0k+1 Xt0k ) | Gt00 ] =

k=0

0
`
e Gtk mis.)
(Hk+1

m
X


0
E E[Hk+1
(Xt0k+1 Xt0k ) | Gt0k ] | Gt00
k=0

m
X
 0

E Hk+1
E[(Xt0k+1 Xt0k ) | Gt0k ] | Gt00
k=0

(Xt `
e una Gt MG)

m
X
 0

E Hk+1
0 =0
k=0

Per quanto riguarda Mft , con la stessa tecnica usata precedentemente, ci si convince subito che basta
dimostrare che E[Mft00 |Gt0 ] = Mft0 per due tempi t0 e t00 , che sono due tempi consecutivi di una partizione,
ossia, per cui
ItX00 (f ) = ItX0 (f ) + H 0 (Xt00 Xt0 ) , con H 0 = f (t00 ), che `e Gt0 -misurabile.
A questo punto basta osservare che


2

Mft00 Mft0 = ItX0 (f ) + H 0 (Xt00 Xt0 )




2

= ItX0 (f )

2

ItX0 (f )
2

+ H 0 (Xt00 Xt0 )

(H 0 )2 E (Xt00 Xt0 )2 | Gt0




2

2 ItX0 (f ) H 0 (Xt00 Xt0 ) ItX0 (f )







(H 0 )2 E (Xt00 Xt0 )2 | Gt0

= (H 0 )2 (Xt00 Xt0 )2 2 ItX0 (f ) H 0 (Xt00 Xt0 ) (H 0 )2 E (Xt00 Xt0 )2 | Gt0

da cui, passando ai valori attesi condizionali, e sfruttando il fatto che H 0 e ItX0 (f ) sono Gt0 -misurabili, si ottiene
i

E Mft00 Mft0 | Gt0 = E (H 0 )2 (Xt00 Xt0 )2 2 ItX0 (f ) H 0 (Xt00 Xt0 ) (H 0 )2 E (Xt00 Xt0 )2 | Gt0 | Gt0


i


= (H 0 )2 E (Xt00 Xt0 )2 | Gt0 2 ItX0 (f ) H 0 E [Xt00 Xt0 | Gt0 ] (H 0 )2 E (Xt00 Xt0 )2 | Gt0 = 0

.
Esercizio 4.3. Si dimostri che non `e necessario fare lulteriore ipotesi di limitatezza di f (ossia di Hk ) per
avere lintegrabilit`
a della martingala Mft , ma basta supporre che
#
"Z
#
"N
T
X


2
2
E
f (s) d < X >s = E
Hk () < X >tk < X >tk1 <
0

k=1

soluzione: Posto t0k = tk per k n e t0n+1 = t si ha


n
X

!2


Hk () Xtk Xtk1 + Hn+1 () Xt Xtn

!2
Hk () Xt0k Xt0k1

k=1

k=1
n+1
X

n+1
X

Hk () X

k=1

t0k

t0k1

 2

n+1
X n+1
X



Hk () Xt0k Xt0k1 Hj () Xt0j Xt0j1

k=1 j=1

Ciascun termine del tipo


2
2
Hk ()
Xt0k Xt0k1

MPEF 01-07-2009

83

ammette valore atteso (finito o no, a priori) che `e dato dal limite
h
h
i

2
2 i
2
2
lim E (Hk () M ) Xt0k Xt0k1
= lim E (Hk () M ) E Xt0k Xt0k1 |Gt0k1
M %
M %
h
h
i

i
2
2
< X >t0k < X >t0k1
= lim E (Hk () M ) E < X >t0k < X >t0k1 |Gt0k1 = lim E (Hk () M )
M %
M %
h
2
i
= E Hk ()
< X >t0k < X >t0k1


Per lintegrabilit`
a dei termini del tipo Hk () Xt0k Xt0k1 Hj () Xt0j Xt0j1 , basta poi usare la
disuguaglianza di Cauchy.
Lesempio che segue `e in realt`
a unanticipazione, in quanto richiede la conoscenza del processo di Wiener,
che in queste note si trova nei capitoli successivi. La lettura di questo esempio va quindi rinviata e deve essere
effettuata dopo aver introdotto tale processo.
Esempio 4.12. Se nellEsempio 4.11 si prende Xt = Wt , il processo di Wiener standard, e Gt = FtW (oppure
Gt = Ft , se si tratta di un processo di Wiener rispetto alla filtrazione (Ft )t ) si ottiene21 che
E[(Xtk Xtk1 )2 |Gtk1 ] = E[(Wtk Wtk1 )2 |FtW
] = tk tk1
k1
e quindi che
Mft := It2 (f )

Hk2 ()(tk t tk1 t) =

Z

2 Z t
f (s)dW (s)
f 2 (s)ds

(4.15)

`e una martingala, ed infine che


E[It2 (f )]

=E

 Z

Z t

2 
2
f (s)dW (s)
=E
f (s)ds .

(4.16)

Si noti che saremmo arrivati alla stessa conclusione anche nel caso di una martingala (Xt )t0 di quadrato
integrabile, con variazione quadratica (predicibile) < X >t = t. Se inoltre la martingala ha traiettorie continue,
allora anche lintegrale stocastico ItX (f ), sempre per processi elementari, ha traiettorie continue.

Conclusione In questa sezione abbiamo mostrato come si pu`o definire lintegrale stocastico di (f (s))s[0,T ]
rispetto ad una Gt -martingala Xt , con (f (s))s[0,T ] processo elementare Gt -predicibile, ovvero22
f (s, ) :=

N
X

Hk ()I(tk1 ,tk ] (s),

k=1
21 Si

ricordi che il processo di Wiener Wt `


e un processo ad incrementi indipendenti, e quindi Wtk Wtk1 `
e una variabile aleatoria
gaussiana N (0, tk tk1 ) indipendente dalla -algebra FtW
.
Di
conseguenza
k1
E[(Wtk Wtk1 )2 |FtW
] = E[(Wtk Wtk1 )2 ] = tk tk1
k1
in quanto E[(Wtk Wtk1 )2 ] = V ar(Wtk Wtk1 ).
22 Attenzione: nella parte relativa allintegrale stocastico (Sezione 9.5), al posto di H , che `
e Ftk1 -misurabile, si scrive Ck1 ,
k
che `
e Ftk1 -misurabile, ossia si considerano i processi del tipo
N
X

Ck1 ()I(tk1 ,tk ] (s),

k=1

ponendo cio`
e Ck1 = Hk . Ci`
o pu`
o ingenerare qualche confusione, ma confidiamo nellintelligenza del lettore....

84

MPEF 01-07-2009

per una partizione {tk , k = 0, , N } di (0, T ], con 0 = t0 < t1 < < tN = T , dove Hk sono variabili aleatorie
Gtk1 -misurabili:
ItX (f )() :=

f (s, )dX(s, ) =
0

N
X


Hk () Xtk t Xtk1 t ,

k=1

Se inoltre la martingala (Xt )t0 `e di quadrato integrabile, con variazione quadratica (predicibile) < X >t (ossia
con Xt2 < X >t una martingala), allora, nellipotesi che Hk siano variabili aleatorie limitate, oppure (si veda
lEsercizio 4.3) nellipotesi che
"Z
#
"N
#
T
X


2
2
f (s) d < X >s = E
E
Hk () < X >tk < X >tk1 < ,
0

k=1

si ottiene che
2
ItX (f )

f 2 (s) d < X >s ,

`e una martingala, a media nulla,

ossia
Z

< I (f ) >t =

f 2 (s) d < X >s .

Infine se (Xt )t0 `e una martingala di quadrato integrabile, con variazione quadratica (predicibile) < X >t = t,
ed `e a traiettorie continue, allora il processo ItX (f ) `e a traiettorie continue e
X

< I (f ) >t =
0

per ogni funzione elementare con E

hR

t
0

i
f 2 (s) ds < .

f 2 (s) ds,

MPEF 01-07-2009

4.3

85

Martingale, submartingale e tempi darresto

Definizione 4.4. . Sia {Ft } una filtrazione e sia : R+ {}, una variabile aleatoria (la v.a. deve
prendere valori negli indici del tempo preso in considerazione e quindi, ad esempio, in N se si tratta tempo
discreto, ma pu`
o anche prendere il valore infinito). La v.a. si dice tempo darresto (o stopping time)
rispetto ad {Ft }, se per ogni t
{ t} Ft
Si dice inoltre che `e un tempo darresto finito se
P( < +) = 1
e che `e un tempo darresto limitato se esiste un numero L< + per cui
P( < L) = 1
(Si noti che a volte la filtrazione in considerazione `e ovvia, e quindi non viene specificata.)
Nel caso in cui linsieme dei tempi sia N `e equivalente chiedere che { = n} Fn per ogni n, come si vede
facilmente23 .
Esempio 4.13. Con le stesse notazioni dellEsempio 4.3, e per ogni a R,
() = inf{n : Sn a}, (con la convenzione che inf{} = +)
`e un tempo darresto rispetto ad FnS , in quanto per decidere se levento { k} si `e verificato, basta
esaminare le prime k v.a. S1 , , Sk .
Invece () = sup{n 10 : Sn a}, se un tale n esiste e 10 altrimenti, non `e un tempo darresto, in
quanto, ad esempio, per decidere se levento { 3} si `e verificato, bisogna esaminare tutte le v.a. S1 , , S10
e non solo S1 , S2 , S3 , perci`
o { 3} non `e misurabile rispetto a F3S .
Definizione 4.5. Dato un tempo darresto , si definisce la -algebra degli eventi fino al tempo come
F = {A F , per cui A { t} Ft per ogni t}
dove F = Ft .
t

Si tratta cio`e degli eventi, per i quali stabilire il loro verificarsi insieme al verificarsi di { t} dipende solo
dallinformazione disponibile fino al tempo t.
Nel caso in cui linsieme dei tempi sia N `e equivalente chiedere che A { = n} Fn per ogni n, come si vede
facilmente24 .
23 Ovviamente

{ = n} = { n}\{ n 1},
quindi, se { n} Fn e { n 1} Fn1 Fn , allora { = n} Fn per ogni n, mentre
{ n} = n
k=0 { = k}
e quindi se { = k} Fk per ogni k, essendo Fk Fn per k n, si ha che { n} Fn per ogni n.
24 Infatti: se A { = n} F per ogni n, allora
n
A { n} = n
k=0 A { = k},

A { = k} Fk Fn , k n,

e quindi A { n} Fn .
Se invece A { n} Fn per ogni n, allora
A { = n} = A { n}\A { n 1},
e quindi A { = n} Fn .

A { n 1} Fn1 Fn ,

86

MPEF 01-07-2009

Esercizio 4.4. Controllare che F `e una -algebra.


(suggerimento: se A F allora levento Ac { t} = { t}\{A { t}} Ft )
Esempio 4.14. Se Fn = {X1 , , Xn } e = inf{n t.c. Xn I}, con I B(R), allora `e un Fn tempo
darresto, infatti levento { n} = {k n t.c. Xk I} Fn .

4.3.1

Tempo continuo

***Per i tempi di uscita, nel caso a tempo continuo, le cose non sono cos` semplici come nel caso a tempo
discreto, per`o qualcosa si pu`
o dire. ***
Definizione 4.6. Sia
A = inf{t > 0 t.c. Xt
/ A},
con la convenzione che lestremo inferiore dellinsieme vuoto `e uguale a +.
La v. a. A `e detta tempo di prima uscita da A.
Lemma 4.2. Se Xt `e un processo a traiettorie continue e A `e aperto, allora A `e un tempo darresto.
Dimostrazione. Si tratta di notare che, essendo Ac chiuso la funzione x 7 dist(x, Ac ) `e continua, e di
conseguenza, essendo Xt a traiettorie continue, si ha che la funzione s 7 dist(Xs , Ac ) `e continua. Perci`o
inf dist(Xs , Ac ) = min dist(Xs , Ac )

0st

0st

e quindi
{A > t} = { inf dist(Xs , Ac ) > 0} =

0st

[
n

{ inf dist(Xs , Ac ) >


0st

{ inf dist(Xs , Ac )
0st

1
}=
n

[ \

sQ

{ dist(Xs , Ac )

n 0st

1
}=
n

1
} Ft .
n

sQ

Si noti che se il inf dist(Xs , A ) non fosse un minimo, allora potrebbero verificarsi contemporaneamente
0st

gli eventi
{A > t} e { inf dist(Xs , Ac ) = 0},
0st

e la prima delle precedenti uguaglianze non sarebbe valida.


Nel caso in cui linsieme A non sia aperto non `e detto che A sia un tempo darresto. Se A `e un insieme
chiuso allora A `e un tempo darresto in senso debole, ovvero
{A < t} Ft per ogni t 0.
Osservazione 4.6. Affermare che `e un tempo darresto debole `e equivalente ad affermare che `e un tempo
di arresto rispetto alla filtrazione
Ft+ := Fs .
s>t

Infatti in generale, se { < t} Ft per ogni t 0, allora, qualunque sia m 1


{ t} = { < t +
nm

e quindi { t} Fs per ogni s > t, ovvero


25 Alternativamente:

25

1
} Ft+ m1 ,
n

{ t} Ft+ per ogni t.

per ogni s > t si ha { t} = { < t +


n1

st
}
n

Ft+(st) = Fs

MPEF 01-07-2009

87

Lemma 4.3. Se Xt `e un processo con traiettorie continue a destra con limiti a sinistra ( cadlag acronimo dal
francese continue `
a droite limite `
a gauche), la filtrazione `e continua a destra (cio`e Ft = Ft+ := Fs ) ed F `e
s>t

un chiuso allora F `e un tempo darresto.


Dimostrazione. Basta dimostrare che F `e un tempo darresto in senso debole, e difatti
\
{F t} =
{Xs F },
0s<t

ed essendo il processo Xt a traiettorie cadlag ed F chiuso si ha


\
\
{Xs F } Ft .
{Xs F } =
0s<t

0s<t
sQ

(infatti se Xs F per ogni s Q [0, t), allora r < t Xr = lim

4.4

sr

Xs F )

sQ(r,t)

Alcune propriet`
a dei tempi darresto

1) Se e sono tempi darresto allora e sono tempi darresto.


Infatti, per ogni t,
{ t} = { t} { t} Ft

{ t} = { t} { t} Ft

2) Se `e un tempo darresto allora la successione n = dnne `e una successione di tempi darresto per cui
n , con n per ogni n. (qui dxe denota la parte intera superiore)
Infatti, t, posto tn =

bntc
n ,

risulta

{n t} = {d ne nt} = {

bntc
} Ftn Ft ,
n

in quanto, posto k = d ne, cio`e k 1 < n k, e k nt, allora bntc k n, ovvero


ovviamente risulta tn t.
Per la convergenza di n a , basta osservare che qualunque sia x R si ha

bntc
n ,

ed

1
dnxe 1
dnxe
dnxe
=
<x
n
n
n
n
Si osservi che, se di prende en = 2n , allora en & , cio`e en `e anche una successione monotona non
crescente, e che inoltre {e
n } D, dove D `e linsieme dei diadici. Infine va notato che tale risultato `e
interessante solo nel caso di tempi darresto che assumono valori in un insieme non discreto.
3) La v.a. `e F -misurabile.
Infatti, per ogni s, { s} F in quanto, qualunque sia t,
{ s} { t} = { s t} Fst Ft
4) Se e sono tempi darresto e P{ } = 1, ed F0 contiene tutti gli eventi trascurabili (cio`e gli insiemi
contenuti in insiemi di probabilit`
a nulla), allora F F .

88

MPEF 01-07-2009

Infatti se A F e A { t} Ft per ogni t, allora


A { t} = (A { t} { t}) (A { t} { > t}) =

= ((A { t}) { t}) C Ft


in quanto C := (A { t} { > t}) F0 Ft , essendo un evento trascurabile, e { t} e A { t}
sono in Ft per ipotesi.
Si osservi che se invece certamente, allora la condizione che F0 contenga tutti gli eventi trascurabili
non `e necessaria.
***Per terminare questa sezione, osserviamo ***che, se una filtrazione soddisfa le cosiddette***condizioni
abituali, cio`e
i) F0 contiene tutti gli eventi trascurabili, ***
ii) la filtrazione `e continua a destra (cio`e Ft = Ft+ := Fs ),
s>t

***allora si possono applicare sia il Lemma 2, ed ottenere cos` dalla ii) che i tempi di uscita da un chiuso
sono tempi darresto (e non solo tempi darresto in senso debole), sia la propriet`a 4, e ottenere cos` dalla i) che
F F ogni volta che P( ) = 1.

4.5

Caso a tempo discreto

Proposizione 4.4 (Martingale arrestate). Data una Fn -martingala (o submartingala) Xn ed un tempo darresto
, il processo
Yn := Xn
`e una Fn -martingala (o submartingala).
Nota bene: si usa anche la notazione
Xn := Xn ,
e il processo (Xn )n `e detto martingala arrestata al tempo .
Dimostrazione. Cominciamo con il dimostrare che Yn `e Fn -misurabile e che `e integrabile. Si noti che
Yn = X I{ n} + Xn I{ >n} ,
e quindi

Yn = X0 I{ =0} + X1 I{ =1} + X2 I{ =2} + + Xn I{ =n} + Xn I{ >n} ,


Yn = X0 I{ =0} + X1 I{ =1} + X2 I{ =2} + + Xn I{ n}

(4.17)
(4.18)

e che { = k} Fk Fn , { > n} Fn e che Xk sono Fn -misurabili per k n, da cui la Fn -misurabilit`a


di Yn . Per ottenere lintegrabilit`
a basta notare che dalla (4.18)
| Yn || X0 | + | X1 | + | X2 | + + | Xn |
e sfruttare lintegrabilit`
a delle Xk .
Per ottenere il resto dobbiamo notare che dalla (4.18), con n + 1 al posto di n, si ha

MPEF 01-07-2009

89

Yn+1 = X0 I{ =0} + X1 I{ =1} + X2 I{ =2} + + Xn I{ =n} + Xn+1 I{ >n} ,

(4.19)

e quindi, confrontando (4.17) e (4.19)


Yn+1 Yn = (Xn+1 Xn )I{ >n}
Di conseguenza, essendo I{ >n} una v.a. Fn -misurabile, ed Xn una martingala,
E[Yn+1 Yn | Fn ] = E[Xn+1 Xn | Fn ]I{ >n} = 0.
Nel caso in cui Xn sia una submartingala risulta ovviamente E[Yn+1 Yn | Fn ] 0.

Proposizione 4.5. Data una Fn -submartingala (o martingala) Xn ed un tempo darresto , limitato quasi
certamente, ovvero per cui esiste un n N, tale che
P(1 n) = 1
allora
E[X1 ] E[X ] E[Xn ].
(Nel caso di martingale E[X1 ] = E[X ] = E[Xn ].)
Dimostrazione. Per la proposizione precedente si ha che {X k }k `e una submartingala, e quindi in particolare
il valore medio `e crescente (in senso lato). Poiche X 1 = X1 , la prima disuguaglianza segue immediatamente.
Per la seconda disuguaglianza basta mostrare che E[Xn X ] 0 e infatti
Xn X =

n
X

(Xn X )I{ =i} =

i=1

n
X

(Xn Xi )I{ =i}

i=1

e quindi
E[Xn X ] =

n
X

E[(Xn Xi )I{ =i} ] =

i=1

n
X

E[E[(Xn Xi )I{ =i} | Fi ]]

i=1

La tesi segue in quanto


E[(Xn Xi )I{ =i} | Fi ] = I{ =i} E[(Xn Xi ) | Fi ] 0,
nel caso delle submartingale (= 0 nel caso delle martingale).
Questa sezione termina con una versione del famoso teorema del campionamento opzionale.
Teorema 4.6 (Optional Sampling Theorem o Teorema del campionamento opzionale). Sia Xn una
submartingala. Siano e due tempi darresto limitati, e tali che
,
allora
E[X |F ] X .
Dimostrazione. Sia n tale che n. Allora chiaramente
X = X0 I{ =0} + X1 I{ =1} + X2 I{ =2} + + Xn I{ =n} ,
X = X0 I{=0} + X1 I{=1} + X2 I{=2} + + Xn I{=n} .
Ci`o mostra che
|X | |X0 | + |X1 | + |X2 | + + |Xn |,
|X | |X0 | + |X1 | + |X2 | + + |Xn |

90

MPEF 01-07-2009

e quindi in particolare che X `e integrabile, per cui ha senso calcolare la sua media condizionale.
Inoltre X `e F -misurabile, infatti, qualunque sia x, levento {X x} F , in quanto per ogni h
{X x} { = h} = {Xh x} { = h} Fh .
Infine per mostrare che E[X |F ] X , basta mostrare che
E[X IA ] E[X IA ],

A F ,

o equivalentemente (essendo = n e = n) che


E[X n IA ] E[Xn IA ],

A F .

Infatti
E[X n IA ] =

E[Xn IA I{=h} ] =

hn

E[Xn IA{=h} ].

hn

Essendo A un evento F -misurabile, si ha che A { = h} `e un ***evento ***di Fh ; ***inoltre, su tale insieme


h = h, in quanto h = e ; infine, il processo (Xn )n `e una submartingala. ***Di conseguenza,
E[Xn IA{=h} ] E[Xh IA{=h} ]
= E[X h IA I{=h} ] = E[Xh IA I{=h} ].
Per ottenere la tesi basta osservare che, sommando su h n, si ottiene
E[X IA ].

4.6

Applicazione: la rovina del giocatore con le martingale

1) caso simmetrico
Sia Yk una successione di v.a. indipendenti, con
P(Yk = 1) = P(Yk = 1) =
e sia
Sn =

n
X

1
,
2

Yk .

k=1

Sappiamo (vedi Esempio 4.2) che Sn `e una martingala, in quanto se p = 1/2 allora E[Yk ] = 0. Siano a e b
numeri naturali non nulli e sia
= (a, b) := inf{n t.c. Sn
/ (a, b)} = inf{n t.c. Sn = a o Sn = b}.
La variabile aleatoria `e finita 26 con probabilit`a 1, cio`e P( < +) = 1, e quindi il gioco finisce in un tempo
finito.
Per uno dei risultati precedenti sappiamo che Sn `e una martingala e che quindi
26 Si

pu`
o dimostrare direttamente, anche nel caso generale, con P(Yh = 1) = p, che
P( = +) = lim P( > n(a + b)) = 0.
n

Infatti, si ha { = +} = { > n(a + b)} e P( > n(a + b)) n per un < 1. La prima uguaglianza `
e ovvia, mentre la
n1

seconda si pu`
o vedere facilmente osservando che
{ tali che esiste k < n per cui Yk(a+b)+1 = Yk(a+b)+2 = = Yk(a+b)+a+b = 1} { n(a + b)},

MPEF 01-07-2009

91

E[Sn ] = E[S1 ] = E[S1 ] = 0


Inoltre Sn S per n +, e |Sn | max(a, b) e quindi per il teorema della convergenza dominata
E[Sn ] E[S ].
Di conseguenza
E[S ] = aP(S = a) + b (1 P(S = a)) = 0,
da cui immediatamente
P(S = a) =

b
.
a+b

2) caso generale
Come nellapplicazione 1) ma con P(Yk = 1) = p e P(Yk = 1) = q = 1 p.
Si procede27 in modo analogo al caso precedente, ma questa volta si prende come martingala
Zn = exp{Sn n()}
dove
exp{()} = E[exp{Y1 }] = exp{}p + exp{}q.
Si cerca, se esiste, in modo che () = 0 ovvero, posto exp{} = , si cerca p + 1 q = 1, ovvero
2 p + q = 0. Ci`
o `e possibile solo per
p
p

1 1 4p + 4p2
1 1 4p + 4p2
1 |1 2p|
1 (1 2p)
1 1 4pq
=
=
=
=
=
2p
2p
2p
2p
2p
ovvero per = 1 o = pq (come del resto si pu`o vedere subito, anche direttamente).
corrisponderebbe a Zn 1 e non porterebbe ad alcun risultato, mentre exp{} = =
 S n
.
Zn = pq
Di nuovo, sempre per convergenza dominata,
 q a
 q b
1 E[Zn ] E[Z ] =
P(S = a) +
[1 P(S = a)] = 1,
p
p
da cui di nuovo si pu`
o ricavare, posto =

P(

Il caso = 1
corrisponde a

q
p

P(S = a) =
e che quindi

q
p

a b+a
b+a a
1 b
=
= b+a
.
b
b+a

{Yk(a+b)+1 = Yk(a+b)+2 = = Yk(a+b)+a+b = 1}) P( n(a + b))

k<n

ovvero, passando ai complementari, e utilizzando lindipendenza delle v.a. Yh ,


\
Y
P(
{Yk(a+b)+1 = Yk(a+b)+2 = = Yk(a+b)+a+b = 1}c ) =
P({Yk(a+b)+1 = = Yk(a+b)+a+b = 1}c )
k<n

k<n

(1 pa+b ) = (1 pa+b )n = n P( > n(a + b)).

k<n

La dimostrazione `
e finita in quanto n tende a zero.
Si noti che in sostanza la precedente dimostrazione si riduce a dimostrare che T (a+b), dove T `
e la variabile aleatoria geometrica
di parametro = pa+b = 1 , definita come


T () = k + 1 Bk h<k Bhc
dove Bk = {Yk(a+b)+1 = = Yk(a+b)+a+b = 1}c . Allora la v.a. `
e finita, essendo la v.a. T finita.
27 In questo caso E[Y ] = 2p 1 6= 0. Se si prendesse la martingala a media nulla M := S (2p 1)n ci sarebbero due problemi:
n
n
k
il primo `
e che la corrispondente martingala arrestata Mn non `
e limitata, per cui pur convergendo a M = S (2p 1) , non
possiamo immediatamente dire che anche i valori attesi di Mn convergono al valore atteso di M ,
il secondo `
e che, anche se avessimo dimostrato che i valori attesi convergono, e quindi si avesse che 0 = E[M ] = E[S (2p 1) ],
non avremmo finito, in quanto dovremmo conoscere anche il valore atteso di .

92

MPEF 01-07-2009

Si noti che
P(S = a)

b
a+b

per 1, cio`e per p 21 .


x
***Per concludere questa sezione proponiamo un esercizio: mostrare che, per p 6= 12 , la funzione h(x) := pq
`e armonica rispetto alla matrice P delle probabilit`a di transizione della passeggiata aleatoria. Nel caso per p = 12 ,
mostrare che lo stesso vale per la funzione h(x) = x. ***

4.7

Disuguaglianza di Kolmogorov per submartingale non negative

Proposizione 4.7 (Disuguaglianza di Kolmogorov). Sia Xn una submartingala non negativa allora
P(max(X1 , X2 , , Xn ) > )

(i)

E[X n ]

Sia Xn una martingala con E[|Xn | ] < +, 1, allora


P(max(|X1 |, |X2 |, , |Xn |) > )

(ii)

E[|Xn | ]

Dimostrazione. Cominciamo con il primo caso. Si definisca


(
:= inf{k tali che 1 k n, Xk > }, se un tale k esiste
:= n,
altrimenti.
Ovviamente `e un tempo darresto e {X > } = {max(X1 , , Xn ) > } e quindi per la disuguaglianza di
Markov
P(max(X1 , X2 , , Xn ) > ) = P(X > )

E[X ]
E[|X |]
=

Basta quindi mostrare che E[X ] E[Xn ], ***precedente Proposizione 4.5, ***in quanto `e a valori in
1, 2, , n.
Per il caso delle martingale, la tesi segue osservando che
P(max(|X1 |, |X2 |, , |Xn |) > ) = P(max(|X1 | , |X2 | , , |Xn | ) > ),
la funzione |x| , per 1 `e convessa e quindi |Xn | `e una submartingala non negativa (confrontare propriet`a
4) e infine applicando la disuguaglianza precedente.

4.8

Convergenza di martingale

***Nellesempio della rovina del giocatore abbiamo trovato che delle martingale limitate per le quali esisteva
Sn
il limite per n che converge ad infinito: le martingale Sn nel caso simmetrico e pq
, nel caso generale.
Questo fatto `e un caso particolare di un risultato pi`
u generale. ***
Proposizione 4.8. Sia Xn una martingala uniformemente limitata in L1 , cio`e tale che
supE[|Xn |] M < +.
n

Allora
P({ t.c. finito lim Xn ()}) = 1
n

MPEF 01-07-2009

93

Dimostrazione. Daremo la dimostrazione solo nel caso in cui valga una ipotesi pi`
u forte:
supE[|Xn |2 ] M < +.
n


1/2
(si noti infatti che in tale caso E[|Xn |] E[|Xn |2 ]
M)
Basta mostrare che la successione Xn `e una successione di Cauchy con probabilit`a 1. Ci`o significa che
{ t.c.  > 0m 1 t.c.k 1|Xm+k () Xm ()| }
ovvero

{|Xm+k Xm | }

>0 m1 k1

`e un insieme misurabile di probabilit`


a 1. La misurabilit`a segue osservando che `e equivalente prendere  razionale
positivo. Per calcolare la probabilit`
a, ricordiamo che in generale se Bh sono eventi P( Bh ) = 1 se e solo se
h1

P(Bh ) = 1h 1.
Infatti se P( Bh ) = 1 allora, poiche Bh Bh , ne segue che P(Bh ) = 1, comunque fissato h 1. Se
h1

h1

viceversa P(Bh ) = 1h 1, allora


P( Bh ) = 1 P( Bhc ), eP( Bhc )
h1

h1

h1

P(Bhc ) = 0.

h1

Di conseguenza la tesi equivale a mostrare che, per ogni  > 0,


P(

{|Xm+k Xm | }) = 1,

P(

{|Xm+k Xm | > }) = 0.

m1 k1

ovvero che, per ogni  > 0,


m1 k1

Si osservi che,m 1,

{|Xm+k Xm | > } {|Xm+k Xm | > }

m1 k1

k1

e che

P( {|Xm+k Xm | > }) = lim P( {|Xm+k Xm | > }).


n

k1

k=1

Di conseguenza
n

P(

{|Xm+k Xm | > }) lim P( {|Xm+k Xm | > }),


n

m1 k1

k=1

e quindi
P(

{|Xm+k Xm | > })

m1 k1

lim

lim P( {|Xm+k Xm | > }).

m n

k=1

Non rimane che dimostrare che


lim

lim P( {|Xm+k Xm | > }) = 0.

m n

k=1

Si osservi ora che X k := Xm+k Xm , `e una martingala rispetto alla filtrazione Gk := Fm+k e che
n

{|Xm+k Xm | > } = {max(|X 1 |, |X 2 |, , |X n |) > }.

k=1

Basta quindi applicare la disuguaglianza di Kolmogorov per = 2 per ottenere che


n

P( {|Xm+k Xm | > })


k=1

E[X m+n ] E[X m ]


E[|Xm+n Xm |2 ]
=
.
2

2

94

MPEF 01-07-2009

Infatti
2
2
] + E[Xm
] 2E[Xm+n Xm ] =
E[|Xm+n Xm |2 ] = E[Xm+n
2
2
= E[Xm+n
] + E[Xm
] 2E[E[Xm+n Xm | Fm ] =
2
2
2
2
2
= E[Xm+n
] + E[Xm
] 2E[Xm E[Xm+n | Fm ] = E[Xm+n
] + E[Xm
] 2E[Xm
]
2
A questo punto si noti che E[Xm
] `e una successione convergente ad un numero M , in quanto `e una
2
successione limitata per ipotesi, e monotona non decrescente (Xm
`e una submartingala). Quindi

lim

m n

4.9

lim P( {|Xm+k Xm | > })


k=1

lim

E[X m+n ] E[X m ]


=
n
2
lim

E[X m ]
= 0.
m
2
lim

Disuguaglianza di Doob

Proposizione 4.9 (Disuguaglianza di Doob). Sia data una submartingala non negativa Xn , con E[(Xn )p ] <
+, per un p > 1. Posto Xn = max(Xk ) vale la seguente disuguaglianza:
kn

E[(Xn )p ]

 p p
E[(Xn )p ].
p1

Nel caso di una martingala Xn , con E[|Xn |p ] < +, e posto Xn = max(|Xk |) vale la seguente disuguaglianza:
kn

E[|Xn |p ]

 p p
E[|Xn |p ])
p1

Dimostrazione. Si definisca
(
:= inf{k tali che 1 k n, Xk > } se un tale k esiste,
:= n + 1
altrimenti.
n

Ovviamente `e un tempo darresto e levento {Xn > } coincide con { = k}.


k=1

Quindi per ogni > 0


(Xn )

Xn

Z
d =

Z
I{X n >} d =

n
X

I{ =k} d

k=1

Passando al valore medio, per > 0,


E[(Xn ) ] =

n Z
X

2 E[I{ =k} ]d

k=1

n Z
X
k=1

2 E[Xk I{ =k} ]d

in quanto I{ =k} Xk I{ =k} . Inoltre, essendo Xn una submartingala Xk E[Xn | Fk ], non negativa, ed
essendo { = k} Fk si ha
E[Xk I{ =k} ] E[E[Xn | Fk ]I{ =k} ] = E[E[Xn I{ =k} | Fk ]] = E[Xn I{ =k} ]
e quindi
E[(Xn ) ]

n Z
X

k=1

Z
= E[

Z
E[Xn I{ =k} ]d =
0

2 Xn I{X n >} d],

2 E[Xn

n
X
k=1

I{ =k} ]d

MPEF 01-07-2009

95

ovvero, se 1 > 0,
E[(Xn ) ]

Z
E[Xn
0

2 I{X n >} d] =

E[Xn (Xn )1 ].
1

Inoltre, prendendo = p, e usando la disuguaglianza di Holder 28 si ottiene la tesi osservando che



p/(p1) (p1)/p
p
p
p 1/p
p1
E[(Xn ) ]
E[(Xn ) ] E (Xn )
p1
p
E[(Xn )p ]1/p E[(Xn )p ](p1)/p .
=
p1
Infatti questa disuguaglianza
(ovvero non `e del tipo + +), in quanto si ha che E[(Xn )p ] =
Pnnon `e banale
p
p
E[maxk=1, ,n (Xk ) ]] E[ k=1 (Xk ) ] < + (il caso banale in cui E[(Xn )p ] = 0 si pu`o escludere, in questo
caso la tesi del teorema `e banalmente vera, ed il caso `e poco interessante), e non rimane che dividere ambo i
membri della precedente disuguaglianza per E[(Xn )p ](p1)/p .
Infine va menzionato il fatto che la disuguaglianza di Doob, cos` come quella di Kolmogorov, si estendono
al caso di submartingale Xt a tempo continuo e con traiettorie continue, considerando che
max |Xt | = lim

t[0,T ]

max

n t=(i/2n )T,i2n

|Xt |.

Per maggiori dettagli ***si veda la seguente Sezione 4.10.

4.10

Estensioni alle martingale a tempo continuo (cenni)***

Quasi tutti i risultati delle sezioni precedenti si estendono al caso di martingale (o submartingale) continue o
cadlag (cio`e continue a destra con limite a sinistra).
Ad esempio, la disuguaglianza di Doob, cos` come quella di Kolmogorov, si estendono al caso di submartingale
Xt a tempo continuo e con traiettorie continue, considerando che
max |Xt | = lim

t[0,T ]

max

n t=(i/2n )T,i2n

|Xt |.

Per quanto riguarda le submartingale cadlag basta passare dal massimo allestremo superiore:
sup |Xt | = lim
t[0,T ]

max

n t=(i/2n )T,i2n

|Xt |.

Per ottenere le disuguaglianze va anche osservato, che la successione X ,n = maxt=(i/2n )T,i2n |Xt | `e una
successione monotona, e la monotonia permette di passare al limite sotto il segno di valore atteso (o di integrale
rispetto a P).
Un poco pi`
u delicato `e il problema dellestensione dei risultati che coinvolgono X , quando `e un tempo
darresto, come ad esempio il fatto che X `e una variabile aleatoria, e addirittura una variabile aleatoria
F -misurabile. A questo problema dedichiamo una sezione alla fine di questo capitolo (Sezione 4.11).
Ad esempio, vale il seguente risultato:
Lemma 4.10. Un processo stocastico Xt , con traiettorie cadlag, e Ft -adattato `e una martingala se e solo se
E[X ] = E[X0 ],
28 Si

per ogni tempo darresto limitato .

(4.20)

ricordi che, per p > 1 si ha

1
p
1
+ =1 q=
,
p
q
p1
e che la disuguaglianza di H
older garantisce che per tutte le variabili aleatorie
1

E[|XY |] E[|X|p ] p E[|Y |q ] q ,


con la convenzione che se almeno uno dei due valori attesi E[|X|p ] o E[|Y |q ] non `
e finito, allora il secondo membro vale infinito, e
la disuguaglianza `
e banale. Si tratta di una generalizzazione della disuguaglianza di Cauchy, che corrisponde al caso p = q = 2.

96

MPEF 01-07-2009

Dimostrazione. La parte pi`


u semplice `e quella relativa alla condizione sufficiente: se vale la (4.20), allora, prima
di tutto Xt `e una variabile aleatoria integrabile, per ogni t, dato che t `e un tempo darresto rispetto a qualunque
filtrazione. Inoltre per ogni s t, e per ogni A Fs , posto
= t IA + s IAc ,
allora `e un Ft -tempo darresto e quindi
E[X ] = E[Xt IA ] + E[Xs IAc ] = E[X0 ]
Ovviamente anche
E[Xs ] = E[Xs IA ] + E[Xs IAc ] = E[X0 ],
e quindi, per ogni s t, e per ogni A Fs , si ha
E[Xt IA ] = E[Xs IA ]
ovvero Xt `e una Ft -martingala.

Per quanto riguarda laltra implicazione, spieghiamo solo lidea: se `e un tempo darresto limitato da L,
e
1
e una successione di tempi darresto limitata e a valori in {0, m
, dmLe
allora anche m = dm
m `
m }. Il processo
a tempo discreto Yk = Xk/m `e una martingala a tempo discreto rispetto alla filtrazione Gk = Fk/m . Allora
sappiamo che
E[Xm ] = E[Ydm e ] = E[Y0 ] = E[X0 ]
Inoltre, essendo Xt a traiettorie continue a destra si ha che la successione Xm converge a X . Per ottenere la
tesi basta osservare che
lim E[Xm ] = E[X ],
m

in quanto la successione Xm `e una successione uniformemente integrabile. Lultima affermazione segue


dalloptional sampling theorem, che assicura che Xm = E[XL+1 |Fm ], e dal fatto, per ogni variabile
aleatoria integrabile Z in uno spazio di probabilit`a (, F, P), la famiglia dei valori attesi condizionali
{E[Z|G], G sotto -algebre di F} `e una famiglia uniformemente integrabile.

Loptional sampling theorem si generalizza al caso di martingale a tempo continuo e cadlag. Pu`o essere
interessante per`o sapere che esiste una generalizzazione, anche al caso di martingale uniformemente integrabili
e di tempi darresto generali: per tali martingale esiste X = limt Xt e si ha che per ogni coppia di tempo
darresto , non necessariamente finiti, si ha
X = E[X |F ] = E[X |F ].

4.11

Processi misurabili e tempi darresto***

Lo scopo principale di questa sezione `e affrontare il seguente problema: sotto quali condizioni sul processo Xt
possiamo affermare che, se `e un tempo darresto, allora X `e una variabile aleatoria, e/o una variabile aleatoria
F -misurabile?
A questo scopo ricordiamo la seguente definizione

Definizione 4.7 (Processi (congiuntamente) misurabili). Sia X : [0, T ] :7 R, (t, ) 7 X(t, ) = Xt () .
Sia B([0, T ]) F la -algebra prodotto su [0, T ] , ovvero la -algebra generata da {J A [0, T ] ; J
B([0, T ]), A F}. Il processo (Xt )t si dice congiuntamente misurabile, o pi`
u semplicemente misurabile,
se la funzione X `e B([0, T ]) F-misurabile. La definizione `e analoga per i processi definiti per tutti i tempi
t 0: basta sostituire [0, T ] con [0, ).

MPEF 01-07-2009

97

Cominciamo con losservare che se `e una variabile aleatoria a valori in [0, T ] (non necessariamente un tempo
darresto) e (Xt )t[0,T ] `e un processo misurabile, allora X `e una variabile aleatoria. Infatti basta considerare
che la funzione



, F [0, T ] , B([0, T ]) F
7 (),
`e misurabile, e che 7 X () = X( (), ) `e misurabile, in quanto composizione di due funzioni misurabili.
Nel caso in cui sia un tempo darresto (rispetto alla filtrazione {Ft }), ci`o dimostra solo che X `e una
variabile aleatoria F-misurabile, ma non ci assicura che sia una variabile aleatoria F -misurabile. Per ottenere
ci`o dobbiamo assumere unulteriore propriet`
a sul processo Xt .
Definizione
4.8 (Processi {Ft }-progressivamente misurabili). Sia X : [0, T ] :7 R, (t, ) 7 X(t, ) =

Xt () . Sia B([0, t]) Ft la -algebra prodotto su [0, t] , ovvero la -algebra generata da {J A
[0, t]; J B([0, t]), A Ft }. Il processo (Xt )t si dice progressivamente misurabile se, per ogni t [0, T ],
la funzione X ristretta a [0, t] `e B([0, t]) Ft -misurabile. La definizione `e analoga per i processi definiti per
tutti i tempi t 0: basta sostituire [0, T ] con [0, ).
Lemma 4.11. Se Xt `e un processo {Ft }-progressivamente misurabile, e `e un {Ft }-tempo darresto a valori
in [0, T ], allora la variabile aleatoria X , `e una variabile aleatoria F -misurabile.
Dimostrazione. La dimostrazione `e banale, infatti basta dimostrare che, per ogni t [0, T ] la variabile aleatoria
t
X I{ t} `e Ft -misurabile. Ma ci`
o `e banalmente vero in quanto, posta X la funzione X ristretta a [0, t] ,
t

cio`e X (s, ) = X(s, ), per s [0, t] e , allora X I{ t} = X t I{ t} . La tesi segue osservando che
t

t `e una variabile Ft - misurabile e X `e un processo congiuntamente misurabile rispetto a B([0, t]) Ft .


Per finire basta osservare che ogni processo Ft -adattato e cadlag (oppure continuo a sinistra) `e
progressivamente misurabile. Infatti si ha che, per ogni s t X(s, ) = limn X (n,t) (s, ),dove, posto
(n,t)
sk
= 2kn t, si ha
n

(n,t)

(s, ) := X(0, ) 1{0} (s) +

2
X

(n,t)

X(sk

st

, ) 1(s(n,t) ,s(n,t) ] (s),


k1

k=1

che, chiaramente, sono processi B([0, t]) Ft -misurabili. Ci`o mostra che il processo X ristretto allintervallo
[0, t] `e anchesso B([0, t]) Ft -misurabile. Per larbitrariet`a di t, si ottiene la progressiva misurabilit`a.
Il caso dei processi continui a sinistra si pu`
o trattare in modo simile, prendendo per`o la successione
n

X (n,t) (s, ) := X(0, ) 1{0} (s) +

2
X

(n,t)

s t.

X(sk1 , ) 1[s(n,t) ,s(n,t) ) (s),


k1

k=1

Tuttavia in questo caso c`e un metodo pi`


u semplice: infatti X(t, ) = limn X( b22ntc , ), in quanto b22ntc t
n
b2n tc
e limn 2n = t. I processi X (n) : (t, ) 7 X( b22ntc , ) sono chiaramente progressivamente misurabili, come
si vede subito da:
X
(n)
X (n) (t, ) :=
X(tk1 , ) 1[t(n) ,t(n) ) (t),
k1
(n)

k1

dove tk = k/2n .
Per maggiori dettagli e ulteriori generalizzazioni si consiglia, ad esempio, il testo di P. Baldi [?].

Capitolo 5

Mercato (B,S): investimenti, propriet`


a
e caratteristiche
5.1

Struttura del mercato (B,S)

Si considera un mercato che opera sotto condizioni di incertezza, rappresentabili in termini probabilistici da
uno spazio di probabilit`
a dotato di filtrazione
(, F, (Fn )n0 , P).
Come al solito il flusso F = (Fn )n0 di -algebre pu`o essere interpretato come il flusso di informazioni Fn
accessibile fino allistante n, con n 0.
Si definisce mercato-(B, S) la coppia di elementi formata da d + 1 operazioni finanziarie:
un
d

conto bancario o bond


azioni

o stocks

titolo non rischioso


1

S = (S , . . . , S )

titoli rischiosi

in cui si assume che levoluzione del conto bancario sia descrivibile tramite una successione stocastica
(strettamente) positiva
B = (Bn )n0 ,
con Bn > 0 per ogni n,
dove le variabili Bn sono Fn1 -misurabili per ogni n 1, e B0 `e F1 = F0 -misurabile, ovvero il processo
B = (Bn )n0 `e predicibile 1 rispetto alla filtrazione (Fn ).
Anche la dinamica dei valori delli-esimo titolo S i pu`o essere descritta da una successione stocastica
S i = (Sni )n0
dove per`o le Sni sono variabili Fn -misurabili per ogni n 0, ovvero i processi S i = (Sni )n0 sono adattati 2
rispetto alla filtrazione (Fn ).
Dalle definizioni date si vede che esiste una differenza sostanziale tra un conto bancario e unazione; ovvero, la
Fn1 -misurabilit`a di Bn indica che lo stato del conto bancario al tempo n risulta gi`a conosciuto (si hanno tutte
le informazioni) al tempo n 1: la successione di variabili aleatorie (Bn ) `e detta predicibile appunto per questa
sua caratteristica. La situazione per i prezzi delle azioni `e differente: le variabili Sni sono Fn -misurabili, ci`o
significa che i loro valori attuali si possono determinare solo dopo che risultano disponibili tutte le informazioni
Fn arrivate fino al tempo n.
Tali considerazioni permettono di capire perche si dice che un conto bancario `e unoperazione non rischiosa
mentre le azioni sono dei titoli rischiosi.
1 Come
2 Come

al solito il lettore pu`


o pensare allesempio in cui Fn = {k , k n}, e allora ci`
o significa che Bn = bn (0 , 1 , , n1 ).
i = si ( , , , ).
al solito il lettore pu`
o pensare allesempio in cui Fn = {k , k n}, e allora ci`
o significa che Sn
n
n 0 1

98

MPEF 01-07-2009

99

Ponendo
rn

:=

Bn
Bn Bn1
=
Bn1
Bn1

tasso di interesse

in

:=

i
Sni Sn1
Sni
=
i
i
Sni
Sn1

rendimento dell0 azione i, per i = 1, 2, , d,

si pu`o scrivere
Bn = rn Bn1 ,
Sni

i
in Sn1
,

per i = 1, 2, , d,

dove le rn sono Fn1 -misurabili (ovvero predicibili) e le in sono Fn -misurabili (ovvero adattati).
Allora per n 1 si ha
n
Y
Bn = B0
(1 + rk )

(5.1)
(5.2)

(5.3)

k=1

Sni = S0i

n
Y

(1 + ik ).

(5.4)

k=1

Si noti che lipotesi (ragionevole) che Bn sia strettamente positivo si traduce nellipotesi che rk > 1 per ogni
k. Inoltre spesso per comodit`
a si assume che B0 = 1.

5.1.1

Strategia di investimento di un portfolio

Si consideri un investitore sul mercato (B, S) che pu`o:


1 depositare o prendere soldi dal conto bancario
2 vendere e comprare azioni.
Si assume che un trasferimento di denaro da unoperazione ad unaltra non richieda costi di transazione e che le
operazioni risultino infinitamente divisibili, cio`e che linvestitore possa comprare, o vendere, qualunque porzione
di azione e prelevare, o depositare, qualsiasi ammontare dal conto bancario.
Si vogliono ora introdurre alcune definizioni in merito alle operazioni, alle posizioni e alle strategie finanziarie
possibili in tale mercato.
Definizione 5.1 (Portfolio o Strategia dinvestimento). Una successione stocastica predicibile
= (, )
dove = (n ())n0 e = (n1 (), . . . , nd ())n0 sono predicibili, ovvero tali che n () e ni () risultano
Fn1 -misurabili per ogni n 0 e i = 1, . . . , d `e detta investimento di un portfolio (o pi`
u semplicemente
portfolio) sul mercato (B, S).
Per enfatizzare il dinamismo al quale risulta sottoposto linvestimento di un portfolio viene spesso usato il
termine strategia di investimento. (o pi`
u semplicemente strategia)
Si osservi che le variabili n () e ni () possono essere positive, nulle e anche negative; questultimo caso
indica che linvestitore pu`
o prendere un prestito dalla banca e vendere azioni che non possiede (vendita a
corto, o vendita allo scoperto, o short sale).
Un altro punto importante da sottolineare `e che la Fn1 -misurabilit`a indica che le variabili n () e ni (), che
descrivono la posizione finanziaria dellinvestitore al tempo n (ovvero lammontare presente sul conto bancario
e le azioni in suo possesso), sono determinabili tramite le informazioni ottenibili fino al tempo n 1 mentre
non dipendono da quelle relative al tempo n: (la posizione di domani `e completamente definita dalla situazione
presente oggi ).
Il tempo n = 0 gioca un ruolo importante; infatti la predicibilit`a in tale istante, formalmente equivalente alla
F1 -misurabilit`a, corrisponde alla F0 -misurabilit`a, si assume cio`e F1 = F0 .

100

MPEF 01-07-2009

Si `e gi`a assunto n 0 verr`


a fatta anche lipotesi aggiuntiva di tempo limitato (orizzonte finito), ovvero n N
da cui segue che si considereranno solo gli istanti di tempo 0 n N .
Nellindicare una generica successione (an )N
n=0 si useranno, equivalentemente, le espressioni: (an )n0 , (an )0nN
o addirittura (an ).

Definizione 5.2 (Valore di un portfolio). Il processo aleatorio valore associato a una strategia di
investimento `e la successione stocastica:

X = (Xn )n0

dove, allistante n

Xn = n Bn +

d
X

ni Sni .

(5.5)

i=1

La definizione (5.5) significa solo che se al tempo n possediamo n titoli bancari (o bond), il cui valore
unitario3 `e Bn e ni azioni del titolo i, che al tempo n vale4 Sni , allora il valore totale del portfolio `e la somma
dei valori investiti nei singoli titoli.

Per evitare di appesantire le notazioni si indicher`a con n Sn il prodotto scalare dei vettori n = (n1 , . . . , nd )
e Sn = (Sn1 , . . . , Snd ) per cui la (5.5) diviene

Xn = n Bn + n Sn .

(5.6)

Si assume inoltre che le uniche strategie ammissibili siano le strategie autofinanzianti, ovvero se non ci sono
consumi o costi di transazione, e neppure ulteriori investimenti esterni, ma ad ogni istante tutto (e solo) il valore

3 Allora
4 Allora

il valore globale investito in banca (o nel bond) `


e n B n
i Si .
il valore globale investito nel titolo i `
e n
n

MPEF 01-07-2009

101

viene semplicemente reinvestito nel mercato5 .


Definizione 5.3 (Strategia autofinanziante). Una strategia = (, ) si dice autofinanziante (o
self-financing), se per ogni n
n1 Bn1 + n1 Sn1 = n Bn1 + n Sn1 ,

(5.7)

(n n1 )Bn1 + (n n1 )Sn1 = 0.

(5.8)

o equivalentemente

Da questa definizione si ottiene immediatamente che

Xn Xn1
= n Bn + n Sn (n1 Bn1 + n1 Sn1 )
= n Bn + n Sn (n Bn1 + n Sn1 )
= n (Bn Bn1 ) + n (Sn Sn1 )
= n Bn + n Sn .
5 Per capire il significato della (5.7) si pu`
o ragionare cos`: ***inizialmente si ha un capitale x0 , parte in titoli non rischiosi e
parte in titoli rischiosi, cio`
e x0 = B0 + 0 S0 . Si pone X0 = x0 , e nellintervallo (0, 1) (durante il quale i valori dei titoli, B0 e
S0i non cambiano) si cambia strategia e si investe tutto questo capitale, ridistribuendolo, nel senso che si compra la quantit`
a 1 del
titolo non rischioso B0 e la quantit`
a 1i del titolo rischioso S0i , i = 1, , d. A questo punto il nostro portafoglio vale

1 B 0 + 1 S0 .
Avendo ipotizzato lassenza di costi, di consumi e introiti, il valore di tale portafoglio deve essere uguale al valore iniziale, ossia a
X0 , cio`
e deve valere
X0 = 1 B0 + 1 S0 .
Quindi deve valere luguaglianza
X0 = 0 B0 + 0 S0 = 1 B0 + 1 S0 .
Nellistante 1 il valore dei titoli cambia in B1 e S1i , i = 1, , d, e quindi il valore del portafoglio diviene
X1 = 1 B1 + 1 S1 .
Nellintervallo (1, 2) si cambia strategia, reinvestendo X1 : si compra si compra la quantit`
a 2 del titolo non rischioso B1 e la
quantit`
a 2i del titolo rischioso S1i , i = 1, , d. Poich
e nellintervallo (1, 2) il valore dei titoli rimane lo stesso, ossia B1 e S1i ,
i = 1, , d, il nostro portafoglio vale
2 B 1 + 2 S 1 .
Avendo ipotizzato lassenza di costi, di consumi e introiti, il valore di tale portafoglio deve essere uguale al valore X1 , cio`
e deve
valere
X1 = 2 B1 + 2 S1 .
Quindi deve valere luguaglianza
X1 = 1 B1 + 1 S1 = 2 B1 + 2 S1 .
***
In generale, nellistante n 1 si ha che il valore del portfolio `
e

Xn1
= n1 Bn1 + n1 Sn1 ,
i titoli
durante lintervallo (n 1, n) si cambia strategia e ci si ritrova con n titoli bancari, che per`
o valgono ancora Bn1 , e con n
i
i, che per`
o valgono ancora Sn1
. Il fatto che la strategia sia autofinanziante si riflette nel fatto che per fare questa operazione non
ho bisogno di prendere altro denaro da fuori linvestimento (ad esempio comprando azioni con il ricavato di un lavoro) e neppure di
effettuare consumi (ad esempio per comprare beni, come case, automobili, etc.) o di pagare dei costi (si ipotizza che non ci siano
costi di transazione), ma tutto il denaro necessario per avere il nuovo portfolio, ovvero

n Bn1 + n Sn1

`
e esattamente il valore Xn1
del portfolio allistante n 1.

102

MPEF 01-07-2009

Dalla precedente relazione si ottiene quindi che


Xn

X0

=
=
=

n
X
k=1
n
X
k=1
n
X

(Xk Xk1
) =

(k Bk + k Sk )
k Bk +

k=1

n
X

k Sk .

k=1

Da quanto osservato si pu`


o concludere che il capitale guadagnato (o capital gains) Xn X0 , tramite
linvestimento di un portfolio autofinanziante, pu`o essere descritto da una successione G = (Gn )n0 , dove
G0 = 0

Gn =

n
X

(k Bk + k Sk ),

(5.9)

k=1

quindi il valore del portfolio al tempo n `e dato dallespressione


Xn = X0 + Gn ,

(5.10)

si arriva cos` alla seguente definizione alternativa ed equivalente6 :


Definizione 5.4 (Strategia autofinanziante bis). Un portfolio `e autofinanziante se il suo valore X =
o essere rappresentato dalla somma:
(Xn )n0 pu`
Xn = X0 +

n
X

(k Bk + k Sk )

n 1.

(5.13)

k=1

La classe delle strategie autofinanzianti verr`a indicata con SF (da self-financing ).


Osservazione 5.1. Le ipotesi fondamentali che caratterizzano il mercato finanziario considerato, ovvero:
.

assenza di costi di transazione;

titoli infinitamente divisibili: non ci sono limiti sulle quantit`


a minime dei titoli trattati;

possibilit`
a di vendite allo scoperto (short sale): `e possibile vendere titoli che non si possiedono, ci`
o
equivale a ipotizzare che `e sempre consentito assumere la posizione di debitore;
6 Si

osservi inoltre che prese due successioni arbitrarie a = (an )n0 e b = (bn )n0 sussiste la regola di differenziazione discreta:
(an bn ) = an bn + bn1 an ,

(5.11)

dove si `
e posto an = an an1 . Applicando questo risultato alla parte destra della (5.6) si ottiene lespressione:
Xn

(n Bn ) + (n Sn )

[n Bn + n Sn ] + [Bn1 n + Sn1 n ].

(5.12)

Ci`
o mostra che il cambiamento del valore del portfolio (Xn = Xn Xn1
) dipende, in generale, da due fattori:

1 dalla variazione dovuta al conto bancario e ai prezzi delle azioni


n Bn + n Sn ;
2 dalla variazione della composizione del portfolio (cambio di strategia)
Bn1 n + Sn1 n .
Risulta, dunque, che in caso di autofinanziamento (una sorta di autarchia) il reale cambio di valore di Xn sia sempre dovuto alle
variazioni Bn e Sn e non n e n (si assume, cio`
e, che le posizioni finanziarie prese dallinvestitore non siano soggette a
cambiamenti). Si vede immediatamente che assumere autofinanziante equivale al verificarsi della seguente condizione
Bn1 n + Sn1 n = 0

n 1.

Si osservi infine che con la definizione bis di strategia autofinanziante, non `


e importante conoscere il valore esplicito di (0 , 0 ), ma
bastano i valori di (n , n ) per n = 1, , N .

MPEF 01-07-2009

103

assenza di rischio di insolvenza (default risk): si assume che i contratti di compravendita stipulati
vengano sicuramente onorati;

possono essere sintetizzate dicendo che il mercato `


e privo di frizionalit`
a (per maggiori dettagli si consulti,
ad esempio, il testo di Moriconi [12]).

5.1.2

Mercato scontato

` interessante notare che partendo da questo


Si consideri un mercato (B, S) come descritto precedentemente. E
7
e
e
`e sempre possibile costruire un nuovo mercato (B, S) detto mercato scontato o attualizzato tale che
e = (B
en )n0 ,
B

en 1
B

con

e
Se = (Sen )n0 ,

Sn
.
Sen =
Bn

con

Allora preso un portfolio = (, ) il suo valore scontato


en = (X
en )n0 ,
X

e n = Xn
X
Bn

con

risulta dato dallespressione


en = n B
en + n Sen = n + n Sen
X

(5.14)

in quanto

e = Xn = 1 (n Bn + n Sn ),
X
n
Bn
Bn

e S),
e
e nel caso in cui `e autofinanziante nel mercato (B, S) si ha che questa propriet`a si trasmette al mercato (B,
8
infatti la condizione (5.8) che caratterizza le strategie autofinanzianti `e equivalente a
en1 + (n n1 )Sen1 = 0
(n n1 )B

(5.15)

In altre parole una strategia `e autofinanziante nel mercato (B, S) se e solo se `e autofinanziante nel mercato
e S).
e
attualizzato (B,
e B,
e Se ed essendo B
ek 0
Pertanto vale la (5.13) attualizzata dove, cio`e, al posto di X, B, S si considera X,
segue, inoltre, che per SF
n
X
en = X
e0 +
X
k Sek ,
(5.16)
k=1

quindi lespressione esplicita del valore del portfolio `e


e = X
e +
X
n
0

n X
d
X

Si
Seki = k .
Bk

ki Seki ,

k=1 i=1

(5.17)

 
e = X
en
Allora si conclude considerando la (5.14) e la (5.15) che il valore scontato X

=
n0

Xn
Bn

con
n0

SF soddisfa la relazione
en = n Sen ,
X
7 Si


ovvero

Xn
Bn


= n

Sn
Bn


.

(5.18)

ricordi che per ipotesi Bn > 0 per ogni n.


la condizione (5.8), ovvero (n n1 )Bn1 + (n n1 )Sn1 = 0, rimane invariata se si divide per Bn1 ,

8 Chiaramente

ovvero
en1 + (n n1 )S
en1 =
(n n1 )B

1
[(n n1 )Bn1 + (n n1 )Sn1 ] = 0.
Bn1

104

MPEF 01-07-2009

Da quanto illustrato risulta chiaro che nel caso si sappia a priori che Bn > 0 con n 1 si pu`o semplificare la
struttura del mercato, senza ledere in generalit`a, assumendo Bn 1, invece di passare al mercato scontato.
Dopo aver dato le nozioni base di mercato (B, S) un punto fondamentale che si vuole sottolineare `e che si
considerer`a sempre e soltanto un mercato che non prevede opportunit`a di arbitraggio (non esistono free-lunch,
cio`e pasti gratis), ovvero:
Definizione 5.5. Un mercato `e detto privo di opportunit`
a di arbitraggio (o arbitrage-free), o anche
razionale (o fair), se non permette di ottenere guadagni sicuri, cio`e se non si possono ottenere dei profitti
senza sottoporsi a dei rischi
N.B. La relazione illustrata nella (5.18), nella sua semplicit`a, risulter`a assumere un ruolo chiave in molti
calcoli relativi al concetto di arbitrage-free, ci`
o spiega il perche dellintroduzione del mercato scontato.

5.2

Nozione di copertura. Prezzo superiore e inferiore.

Sia fN = fN () una funzione non negativa FN -misurabile detta obbligazione o pay-off (prezzo di
pagamento) terminale 9 , in questo paragrafo vengono illustrati alcuni concetti di copertura (o hedge) per
il pay-off terminale.
Definizione 5.6 (Copertura superiore, inferiore e perfetta). Un portfolio = (, ) con = (n ), = (n ),
per n = 0, 1, . . . , N `e detto copertura superiore per (x, fN ), con x 0, se il valore iniziale del portfolio `e x

e se XN
fN , P q.c., ovvero se
X0 = x

P(XN
fN ) = 1.

Un portfolio = (, ) `e invece detto copertura inferiore per (x, fN ),con x 0, se il valore iniziale del

fN , P q.c., ovvero
portfolio `e x e se XN
X0 = x

P(XN
fN ) = 1.

Infine un portfolio = (, ) `e invece detto copertura perfetta per (x, fN ), con x 0, se `e sia una copertura

= fN ,
inferiore che una copertura superiore, una copertura, cio`e se il valore iniziale del portfolio `e x e se XN
P q.c., ovvero

X0 = x
e
P(XN
= fN ) = 1.
Il concetto di copertura gioca un ruolo di fondamentale importanza in ambito finanziario in quanto
rappresenta uno strumento di protezione che permette di ottenere un livello di garanzia relativamente a un
certo investimento.
Tramite le successive definizioni si potranno formalizzare le azioni che si devono compiere per assicurarsi un
livello di garanzia. Si indichi con
H (x, fN ; P) = { ammissibili : X0 = x,
= { ammissibili : X0 = x,

XN
fN , P q.c.}

P(XN
fN ) = 1}

la classe delle coperture superiori per (x, fN ) e con


H (x, fN ; P) = { ammissibili : X0 = x,
= { ammissibili : X0 = x,

XN
fN , P q.c.}

P(XN
fN ) = 1}

la classe delle coperture inferiori per (x, fN ).


9 Esempio tipico, nel caso d = 1, `
e il caso della opzione call con prezzo di esercizio K, per cui fN = (SN K)+ . Altri esempi
sono dati dal prezzo massimo dellazione fN = max{Sn ; n = 1, . . . , N }, o ancora dal suo prezzo medio fN = (S1 + + SN )/N .

MPEF 01-07-2009

105

Definizione 5.7 (Prezzo superiore e prezzo inferiore). Sia fN una funzione di pay-off, allora la quantit`
a
C = C (fN ; P) = inf{x 0 : H (x, fN ; P) 6= }
= inf{x 0 : ammissibile : X0 = x,

P(XN
fN ) = 1}

`e detta prezzo superiore (di copertura per fN ) e


C = C (fN ; P) = sup{x 0 : H (x, fN ; P) 6= }
= sup{x 0 :: ammissibile : X0 = x,

P(XN
fN ) = 1}

`e detta prezzo inferiore (di copertura per fN ).


N.B. Per convenzione si pone C (fN ; P) = se H (x, fN ; P) = per tutti gli x 0 e C (fN ; P) = se
H (x, fN ; P) = per tutti gli x 0.
Osservazione 5.2. Le definizioni date precedentemente assumono, implicitamente, che le strategie
considerate seguono le costrizioni imposte sulla dinamica del valore del portfolio; ad esempio se, come si fa
in questo capitolo, ci si limita alle strategie autofinanzianti, allora pi`
u esplicitamente
H (x, fN ; P) = { SF : X0 = x,
H (x, fN ; P) = { SF : X0 = x,

XN
fN

XN fN

(P q.c.)},
(P q.c.)}.

e S),
e si ha
Inoltre va osservato che nel mercato attualizzato (B,
e (e
H (x, fN ; P) = H
x, feN ; P),

e (e
H (x, fN ; P) = H
x, feN ; P),

dove, x
e = x/B0 e
e (e
e0 = x
H
x, feN ; P) := { SF : X
e,

e
e
e
H (e
x, fN ; P) := { SF : X0 = x
e,

eN
X
feN

eN
X
feN

(P q.c.)},
(P q.c.)}.

Dopo aver visto formalmente i concetti di copertura, risulta interessante darne una visione pratica, cio`e
spiegare il loro utilizzo in ambito finanziario e il loro legame con la condizione di assenza di opportunit`a di
arbitraggio.
e S)
e e il valore scontato X
e
Va osservato che nel seguito si dovrebbe considerare un mercato scontato (B,
relativo ad una strategia . Tuttavia, per semplicit`a di notazione tale mercato viene denotato come (B, S) e
il valore con X , che `e come dire che si suppone direttamente che sia Bn = 1, ci`o permette di considerare i
guadagni ad esse relativi nellistante iniziale senza dover attualizzare i valori.
Si immagini di vendere a un prezzo x un generico contratto al quale corrisponde, allistante N , il pagamento
di un pay-off fN . Naturalmente lo scopo `e venderlo a un prezzo elevato, per`o si deve tener conto che il compratore
lo vuole acquistare a un prezzo basso, ma vuole anche essere certo che il venditore sia in grado di fornire al
tempo N lobbligazione promessa fN , cio`e che non ci sia rischio di insolvenza (o default risk). Considerando
queste posizioni opposte si pone il problema di determinare il pi`
u piccolo prezzo accettabile, ovvero quel
prezzo che permette al venditore di rispettare i termini del contratto (cio`e di pagare lammontare fN al tempo
N ) senza per`o dare al venditore unopportunit`
a di ottenere un arbitraggio altrimenti il compratore non avrebbe
ragione di accettare la vendita.
Daltra parte acquistando un contratto lo si vuole comprare a buon mercato, ma non si pu`o pretendere di
ottenere un guadagno sicuro, senza rischi (ovvero unopportunit`a di arbitraggio per il compratore), altrimenti
il venditore non avrebbe interesse a cederlo.
Da quanto richiesto si ottiene, come si spiegher`a tra poco, che i prezzi superiore e inferiore, C = C (fN ; P)
e C = C (fN ; P), definiti precedentemente, soddisfano la seguente propriet`a:

106

MPEF 01-07-2009

Gli intervalli [0, C ) e (C , ) sono insiemi dei valori dei prezzi che danno, rispettivamente,
al compratore e al venditore opportunit`
a di arbitraggio.
Verifica della propriet`
a (C , ) `e un intervallo dei prezzi con opportunit`
a di arbitraggio per il venditore:
Si assuma che il contratto venga pagato un prezzo x maggiore di C allora il venditore pu`o ottenere un
free-lunch agendo in questo modo: egli preleva dalla somma totale x una quota y in modo tale che
C < y < x e H (y, fN ; P) 6=
(un tale y esiste per la definizione di estremo inferiore) e la usa per costruire un portfolio (y) che assume i
seguenti valori
(y)
(y)
X0
= y e P(XN
fN ) = 1
(un tale portfolio esiste perche H (y, fN ; P) 6= ).
Si pu`o descrivere la stessa azione dicendo che il venditore investe la quota y nel mercato (B, S) in accordo
con la strategia (y) = (n (y), n (y))0nN .
(y)

Il valore10 di (y) al tempo N `e XN , il guadagno totale delle due transazioni (vendere il contratto e
comprare il portfolio (y)) risulta11 quindi
(y)

(y)

(x fN ) + (XN

y) = (x y) + (XN

fN ) x y > 0.

Allora, c`e un guadagno netto senza rischio (arbitraggio) del venditore di almeno x y > 0 .
Verifica della propriet`
a [0, C ) `e un intervallo dei prezzi con opportunit`
a di arbitraggio per il compratore:
Si consideri ora lopportunit`
a di arbitraggio per il compratore. Se il compratore acquista, per un prezzo
x < C , un contratto che preveda allistante N il pagamento di un ammontare fN , allora egli pu`o ottenere un
free-lunch, come segue: prima di tutto il compratore sceglie y tale che
x < y < C e H (y, fN ; P) 6=
(un tale y esiste per definizione di estremo superiore). Sia ora (y) un portfolio che appartiene a H (y, fN ; P),
(y)
ovvero il cui valore iniziale `e y e il cui valore al tempo N risulti XN fN , in formule
(y)

X0

(y)

= y e P(XN

fN ) = 1.

Il compratore agisce come segue: al tempo n = 0 investe la quota y in accordo con la strategia (y) = (y),
dove
(y) = (n (y), n (y))0nN .
Allora
(y) = (n (y), n (y))0nN ,
in modo tale che
y = 0 (y)B0 0 (y)S0
e il valore di (y) sia
(y)

XN
10 Si

(y)

= XN

(y)

= XN

ricordi che abbiamo assunto per semplicit`


a che Bn = 1 per ogni n = 0, . . . , N : altrimenti si dovrebbero cambiare le quantit`
a

e (y) = X (y) /BN , ed fN con feN = fN /BN .


con X
N
N
(y)
11 Al tempo 0 il venditore riceve x dal compratore e al tempo N gli deve restituire f , inoltre tiene per s
e il guadagno XN
y,
N

ottenuto investendo y con la strategia (y).


(y)

XN

MPEF 01-07-2009

107

si ottiene, quindi, che il guadagno totale dato dalle due transazioni (ossia comprare il contratto e investire y,
con la strategia (y))12 `e
(y)

(fN x) + (XN

(y)

(y)) = (fN XN

) + (y x) y x > 0.

Si vede, infine, che essendo questo il guadagno netto strettamente positivo del compratore relativo allacquisto
di un contratto di prezzo x < C implica un arbitraggio.
Osservazione 5.3. Nella discussione precedente `e stato considerato un investimento con un ammontare
negativo y, praticamente ci`
o significa che esiste la possibilit`
a di trovare uno speculatore che mette a disposizione
(y)
la quota y al tempo n = 0 al patto di ricevere XN al tempo n = N ; si noti che questultimo valore pu`
o essere
superiore o inferiore a y data laleatoriet`
a dei prezzi.
Dalla serie di considerazioni fatte si evince che lunica possibilit`a per non avere opportunit`a di arbitraggio `e
porsi nellipotesi che C C e prendere come prezzo del contratto un valore x [C , C ]; per questo motivo
si d`a a [C , C ] il nome di intervallo dei prezzi accettabili ( o razionali).
In altre parole: se non ci sono opportunit`
a di arbitraggio (ne per il compratore, ne per il venditore) deve
necessariamente valere
C = C (fN , P) C (fN , P) = C

(5.19)

La trattazione precedente dei prezzi razionali pu`o essere schematizzata come segue
arbitraggio compratore
0

arbitraggio venditore
C

C
arbitrage-free

Si osservi, infine, che operare con prezzi appartenenti al range di quelli accettabili esclude soltanto il caso
di profitti sicuri, ma non la possibilit`
a di profitti, e che un profitto sicuro `e una situazione logicamente e
economicamente assurda anche perche un guadagno pu`o essere visto come una compensazione per il rischio.

5.2.1

Mercato completo e incompleto

Si consideri ora il caso particolare in cui esista, per un fissato valore x e una funzione di pay-off fN , una copertura
perfetta per (x, fN ), cio`e una strategia tale che

X0 = x e P(XN
= fN ) = 1.

Assumere che XN
= fN , P q.c., significa prendere una copertura in grado di replicare la fN richiesta.
Per molte ragioni risulta auspicabile che ogni obbligazione si possa replicare per qualche valore di x = x; il motivo
principale `e che se questo accade lintersezione tra le classi H (x, fN ; P) e H (x, fN ; P) `e diversa dallinsieme
vuoto in quanto contiene la strategia che d`
a la replicabilit`a. Dalla definizione dei prezzi di copertura segue
allora
C (fN ; P) x C (fN ; P)

ovvero, in questo caso, se inoltre non ci sono opportunit`a di arbitraggio e quindi deve valere (5.19), allora
lintervallo dei prezzi accettabili si riduce a un unico prezzo
C(fN ; P) = C (fN ; P) = C (fN ; P) = x,
12 Per

il contratto, al tempo zero deve pagare x e al tempo N riceve fN , mentre per linvestimento al tempo 0 deve pagare (y)
(y)
(y)
e al tempo N riceve XN
= XN .

108

MPEF 01-07-2009

detto prezzo razionale (o fair price) per la richiesta fN (`e il prezzo che risulta accettabile sia per il venditore
che per il compratore: ogni deviazione da questo comporterebbe la possibilit`a di ottenere guadagni senza rischi).
Il caso trattato, vista la sua importanza, presenta una terminologia specifica.
Definizione 5.8 (Replicabilit`
a). Una obbligazione fN si dice replicabile, se esiste un x, per il quale esiste
una copertura perfetta di (x, fN ), ovvero esiste un portfolio tale che

X0 = x, e P(XN
= fN ) = 1.

Definizione 5.9 (Mercato N -perfetto). Un mercato (B, S) `e detto N-perfetto o perfetto rispetto il tempo N,
se ogni funzione fN FN -misurabile pu`
o essere replicata, cio`e, per un qualche x esiste una copertura perfetta
di (x, fN ), altrimenti il mercato viene detto N-imperfetto.
La condizione che un mercato (B, S) sia perfetto `e molto forte e impone delle costrizioni severe sulla struttura
del mercato. Fortunatamente, non `e necessario, in molti casi, che la copertura perfetta esista per tutte le funzioni
fN FN -misurabili a volte `e sufficiente considerare solo funzioni limitate oppure funzioni con opportune condizioni
di integrabilit`a o di misurabilit`
a: `e questo il caso di un mercato completo.
Definizione 5.10 (Mercato N -completo). Un mercato (B, S) si dice N -completo o completo rispetto il
tempo N , se ogni funzione fN di pay-off limitata e FN -misurabile `e replicabile.
Osservazione 5.4. Si noti che nel caso in cui FN `e una -algebra finita, allora tutte le variabili aleatorie FN misurabili sono variabili aleatorie discrete e che assumono un numero finito di valori, e quindi tutte le variabili
aleatorie FN -misurabili sono anche limitate. In questo caso non c`e differenza tra le due condizioni di mercato
N -perfetto e mercato N -completo.
Inoltre conviene osservare in questo caso, tutte le variabili aleatorie FN -misurabili sono anche ovviamente
integrabili, essendo limitate. Questultima propriet`
a sar`
a utile nel seguito per semplificare alcune dimostrazioni.
Determinare se e quando un mercato `e perfetto o completo `e uno dei punti di maggiore interesse per
la matematica finanziaria rispondere a queste domande risulta estremamente difficile nel caso generale, ma,
considerando delle ipotesi aggiuntive sulla struttura del mercato, si pu`o arrivare a una soluzione esaustiva del
` questo il caso di un mercato arbitrage-free dove la completezza risulta strettamente connessa
problema. E
allesistenza e allunicit`
a di una misura di probabilit`a: la misura martingala equivalente, che viene trattata
nelle sezioni successive e che `e loggetto principale dei cos` detti teoremi dellAsset Pricing APT1 e APT2
(vedere le sezioni successive).

5.3

Mercato senza opportunit`


a di arbitraggio

In poche parole, come preannunciato, dire che un mercato `e senza opportunit`


a di arbitraggio (o arbitragefree) significa che il mercato `e razionale: non si ottengono profitti senza rischiare. La Definizione 5.5 di
arbitrage-free `e piuttosto intuitiva la si vuole formalizzare illustrandone i legami con gli elementi finanziari
introdotti.

Si fissi un N 1 si `e interessati al valore XN


di una strategia SF allistante terminale.
Definizione 5.11 (Opportunit`
a di arbitraggio). Si dice che una strategia autofinanziante permette
un opportunit`
a di arbitraggio (al tempo N ) se, per un capitale iniziale
X0 = 0
si ha

P(XN
0) = 1

e XN
> 0 con probabilit`
a P positiva, cio`e

P(XN
> 0) > 0

o, equivalentemente13

E(XN
) > 0.
13 In generale una variabile aleatoria Z con P(Z 0) = 1 si ha:
se P(Z > 0) > 0 allora E[Z] > 0;
se E[Z] > 0 allora necessariamente deve essere P(Z > 0) > 0 (se fosse P(Z > 0) = 0 allora sarebbe P(Z = 0) = 1 e E[Z] = 0)

MPEF 01-07-2009

109

Si indichi con SFarb la classe delle strategie autofinanzianti con opportunit`a di arbitraggio. Se SFarb e
X0 = 0, allora

P(XN
0) = 1 = P(XN
> 0) > 0.
Definizione 5.12 (Assenza di opportunit`
a di arbitraggio). Si dice che non esiste opportunit`a di arbitraggio su
un mercato (B, S) o che il mercato `e arbitrage-free se SFarb = . In altre parole, se il capitale iniziale X0 di
una strategia `e zero e al tempo N il guadagno `e non negativo P q.c., allora il guadagno `e nullo P q.c., ovvero
in formule, per ogni strategia autofinanziante

X0 = 0 e P(XN
0) = 1

P(XN
= 0) = 1.

Si noti che nelle definizioni date sopra si considerano eventi del tipo {XN
> 0}, {XN
0}, o {XN
= 0}, che

X
14

e > 0}, {X
e 0}, o {X
e = 0} dove X
e = N . Una considerazione
sono, rispettivamente, gli stessi di {X
N
N
N
N
BN

analoga vale per gli eventi del tipo {XN


fN }, {XN
fN } e {XN
= fN }, che sono uguali agli eventi
e feN }, {X
e feN } e {X
e = feN }, come gi`a osservato in precedenza. Ci`o spiega perche la discussione
{X
N
N
N
e S)
e
relativa allassenza o, alla presenza, di arbitraggio su un mercato (B, S), pu`o essere ristretta al mercato (B,
en 1 e Sen = Sn . Nel seguito quindi si deve intendere che le ipotesi sono riferite al mercato scontato.
con B
Bn
Tuttavia, per semplificare le notazioni (sempre nellipotesi che valga Bn > 0 per ogni n = 0, . . . , N ) le ipotesi
saranno scritte per il mercato (B, S)15 .

5.4

Primo e Secondo Teorema Fondamentale

In questo paragrafo si vogliono illustrare i legami esistenti tra le propriet`a di assenza di arbitraggio e di
completezza in un mercato finanziario e la nozione di misura martingala16 equivalente17 . Si consideri ora
un mercato (B, S) strutturato come descritto nel primo paragrafo, in questambito viene data la seguente
definizione
e `e una misura martingala equivalente alla misura P se
Definizione 5.13. Una misura di probabilit`
a P
e
****P `e equivalente a P e se ****la successione d-dimensionale scontata


Sn
e
e
S = Sn :=
Bn n0
e Fn )-martingala, cio`e, esplicitamente, presa E
e come la media rispetto alla P
e si ha che per ogni
`e una (P,
i = 1, . . . , d



ei e Sni
e
E Sn = E
<
(5.20)
Bn
con n = 0, 1, . . . , N e


e Sei Fn1 = Sei
E
n
n1


e
ovvero E


i
Sn1
Sni
Fn1 =
Bn
Bn1

e q.c.)
(P

(5.21)

per n = 1, . . . , N .
X ()

14 Si

() > 0} = { :
N
ricordi che si ipotizza che BN > 0, e quindi { : XN
> 0}
BN ()
15 Scrivere le assunzioni per il mercato (B, S), invece che per il mercato (B,
e S),
e si pu`
o esprimere anche dicendo che si pu`
o assumere
senza ledere la generalit`
a che Bn 1, per ogni n = 0, . . . , N .
16 Ricordiamo la definizione di martingala a tempo discreto per comodit`
a del lettore Un processo X = (Xn )n0 definito su uno
spazio di probabilit`
a filtrato (, F , (Fn ), P) `
e una martingala rispetto (Fn ) sotto P, (P, Fn )-martingala, se:

0) Xn `
e Fn -misurabile n
1) Xn `
e integrabile
2) E(Xn |Fn1 ) = Xn1

(Xn `
e Fn -adattato);

(E|Xn | <

n);

(condizione martingala).

17 ****La nozione di equivalenza tra due misure di probabilit`


e significa che linsieme degli eventi di probabilit`
aPeP
a 0 rispetto a
e coincidono, ossia se, per A F , vale la propriet`
e
P e linsieme degli eventi di probabilit`
a 0 rispetto a P
a che P(A)
= 0 se e solo se
P(A) = 0 (si veda la Definizione 5.14).

110

MPEF 01-07-2009

Introdotti questi elementi si pu`


o enunciare il seguente teorema che data la sua importanza `e chiamato Primo
Teorema fondamentale delAsset Pricing (o First Fundamental Asset Pricing Theorem ), e verr`a
richiamato nel seguito come APT1 .
Teorema 5.1 (APT1). Un mercato finanziario (B, S) con N < e d < definito su uno spazio di probabilit`
a
e
filtrato in cui F0 = {, } e FN = F `e arbitrage-free se e solo se esiste almeno una misura martingala P
equivalente a P.
Si `e gi`a detto che lassunzione di assenza di arbitraggio ha un chiaro significato economico: questa propriet`a
rende il mercato razionale; `e interessante osservare come tale caratteristica puramente finanziaria sia in realt`a
strettamente connessa a modelli probabilistici quali risultano essere le martingale, considerando ci`o appare
chiara limportanza del teorema e il perche dellattributo fondamentale!
Pur avendo elogiato il valore del teorema APT1 bisogna sottolineare che le ipotesi su cui poggia risultano
abbastanza restrittive, infatti si sta immaginando di operare su un mercato con orizzonte finito (N < ) e
numero di azioni limitato (d < ). Queste assunzioni pur limitando notevolmente lapplicazione del teorema
risultano, purtroppo, indispensabili: si possono, infatti, fornire dei controesempi che mostrano la non validit`a
del teorema nel caso di d = o N = .
Esempio 5.1. Questo esempio, dovuto a W. Schachermayer [16], mostra che se d = (e N = 1) allora esiste
un mercato arbitrage-free senza misura martingala equivalente, cos` che la parte necessaria del teorema risulta
non verificata per un numero infinito di azioni.
Sia
= {1, 2, . . .}, sia F0 = {, }, sia F = F1 la -algebra generata dallinsieme delle parti di e sia
P
P = k=1 2k k , cio`e, P{k} = 2k .
Si definisca la successione dei prezzi S = (Sni ) per i = 1, 2, . . . e n = 0, 1 come segue:

1, = i
1, = i + 1
S0i () = 1 i,
mentre
S1i ()(= S1i S0i ) :=

0 altrimenti
e si consideri il mercato (B, S) corrispondente alla successione S = (Sni ), per n = 0, 1, e con B0 = B1 = 1.
Si inizi con il vedere che `e arbitrage-free.
Il valore al tempo 0 `e
X0 = c0 +

ci ;

i=1

ovvero c0 (= 0 ) rappresenta la quantit`


a di denaro investita nelP
conto in banca (o nel bond) e le ci (= 0i ) con
i = 1, 2, . . . sono le quantit`
a iniziali delle azioni (si assume che
|ci | < ), che inizialmente valgono S0i = 1.
Il valore X1 () del generico portfolio pu`
o essere allora rappresentato con la somma
X1 = c0 +

X
i=1

Se X0 = 0 (cio`e c0 +

i=1 ci

ci S1i = X0 + c0 +

X
i=1

ci S1i X0 = X0 +

ci S1i .

i=1

= 0) allora dalla condizione P(X1 0) = 1 si ottiene18

X1 (1) = c1 c0 0; X1 (2) = c2 c1 0; . . . ; X1 (k) = ck ck1 0; . . .


ovvero si ottiene che la {ci } `e una successione crescente in senso lato. Daltra parte la successione {ci } `e
assolutamente convergente, e quindi si devono avere tutte le ci uguali a zero. Da ci`
o segue che X1 = 0 (P q.c.)
e, quindi, ricordando la Definizione 5.12 si ottiene lassenza di opportunit`
a di arbitraggio.
18 Se = 1 allora S 1 ()S 1 (1) = 1, mentre S i (1) = 0 per ogni altro valore di i > 1, da cui X (1) = c .
1
1
1
1
1
1
1
() = Sk1
(k) = 1, mentre S1i () = S1i (k) = 0 per ogni altro valore
Se = k 2, allora Sk1 () = Sk1 (k) = 1 e Sk1
di i, da cui X1 (k) = ck ck1 .

MPEF 01-07-2009

111

e P tale che
Tuttavia non esiste nessuna misura martingala equivalente: se esistesse una misura P
e si dovrebbe avere (si veda la (5.21)) che per ogni i = 1, 2, . . .
S `e una martingala rispetto a P
i
i
e
e
E[S
1 |F0 ] = E[S1 ] = 0.

Esplicitando tale condizione si ottiene


X

e
S1i ()P()
=

e
S1i ()P()

=1

e
S1i (i)P(i)

e + 1) = P(i)
e P(i
e + 1) = 0,
+ S1i (i + 1)P(i

e = P(i
e + 1), per i = 1, 2, . . .; ci`
cio`e P(i)
o `e chiaramente impossibile per una misura di probabilit`
a -additiva (si
P e
avrebbe, infatti, =1 P()
= oppure = 0).
Esempio 5.2. Questo controesempio, che `e il classico Paradosso di S. Pietroburgo, mostra che nel caso
N = lesistenza di una misura martingala non assicura lassenza di opportunit`
a di arbitraggio, ovvero la
parte sufficiente del teorema risulta non verificata nel caso di orizzonte infinito.
Sia = (n )n0 una successione di variabili aleatorie i.i.d. su uno spazio di probabilit`
a (, F, P) tali che
P(n = 1) = P(n = 1) = 12 . Se si considera il mercato (B, S) tale che S0 = 0, Sn = 1 + . . . + n e Bn 1, si
vede subito che P `
e essa stessa una misura martingala equivalente in quanto Sen = Sn `e una martingala
(confrontare lEsempio 4.2) Tuttavia se si considera la strategia autofinanziante, con
 k1
2
se 1 = . . . = k1 = 1,
k =
0 altrimenti,
e con capitale iniziale X0 nullo, si ottiene che il guadagno `e
X
X
Xn =
k Sk =
k k .
1kn

1kn

Questa strategia permette arbitraggio, anzi per la precisione, questa strategia assicura una vincita sicura
di 1. Prima di dimostrare questa propriet`
a, che permette di affermare che il Paradosso di S. Pietroburgo fornisce
o essere visto come il guadagno
un controesempio al Teorema APT1, risulta interessante osservare che Xn pu`
associato a un giocatore dazzardo che sta giocando contro un avversario di pari livello (da qui la simmetria),
che lesito del gioco `e descritto dalle variabili aleatorie k (egli vince se k = 1 e perde se k = 1) e infine
che la strategia del giocatore consiste nel raddoppiare la puntata dopo una perdita e smettere di giocare dopo la
prima vincita.
Chiaramente se 1 = . . . = k = 1 il giocatore `e in netta perdita e il guadagno in questo caso assume il valore
Xk =

k
X

2i1 = (2k 1),

i=1

tuttavia se allistante successivo k + 1 si ha una vincita, cio`e se k+1 = 1, il guadagno diventa

Xk+1
= Xk + 2k = (2k 1) + 2k = 1;

quindi la strategia scelta ammette un tempo di arresto (aleatorio) , cui `e associato un guadagno positivo.
Si pu`
o definire come
= inf{k : Xk = 1}
k
e poiche P( = k) = 21 , risulta P( < ) = 1, e quindi essendo P(X = 1) = 1 si ha (essendo N = )
X
X

XN
= X
=
k k =
k k = X = 1
k1

1k

(e quindi anche EX = 1) sebbene il capitale iniziale X0 sia nullo.


Allora nel mercato (B, S) considerato esiste unopportunit`
a di arbitraggio: esiste un portfolio tale che X0 = 0

112

MPEF 01-07-2009

e EX = 1 > 0 per un qualche istante .


N.B. Ipotizzare una strategia che raddoppi la posta dopo ogni perdita significa considerare, implicitamente,
che egli possa prendere dei prestiti senza alcun limite (oppure che il giocatore sia immensamente ricco)19 ; la
possibilit`
a di prendere in prestito una cifra di qualunque entit`
a (cos` come leventualit`
a che il giocatore sia
immensamente ricco) risulta altamente improbabile, nel mondo reale. Per questo motivo si capisce che tra le
considerazioni da fare, in relazione a un mercato, vi `e anche quella di considerare, fra le strategie ammissibili,
solo quelle economicamente ragionevoli.

Tornando al caso generale ***si denoti con P(P) linsieme delle misure martingale equivalenti a P
e P : Se `e una (P,
e Fn ) martingala},
P(P) = {P
e
***ossia
 di tutte le misure martingala P equivalenti a P e per le quali la successione dei prezzi scontati
 linsieme
Sn
e
e
e
`e una (P, Fn )-martingala.
S = Sn = Bn
n0

***A questo proposito va ricordato che


Definizione 5.14 (misure equivalenti). Due misure e sullo spazio misurabile (, F) sono equivalenti se e
solo se
{A F : (A) = 0} = {A F : (A) = 0}.
****Inoltre si usa il simbolo , per indicare che e sono misure equivalenti.
e `e equivalente alla misura di probabilit`a P su (, F) se e solo se
Di conseguenza, una misura di probabilit`
aP
e
{A F : P(A) = 0} = {A F : P(A)
= 0}.
Trattandosi di misure di probabilit`
a la precedente condizione equivale a
e
{B F : P(B) = 1} = {B F : P(B)
= 1},
come si vede subito passando ai complementari.***

Definito linsieme P(P) si pu`


o introdurre il seguente risultato che per la sua importanza viene detto Secondo
teorema fondamentale dellAsset Pricing (o Second Fundamental Asset Pricing Theorem) e
denotato in seguito con APT2 .
Teorema 5.2 (APT2). Un mercato finanziario (B, S) arbitrage-free con N < e d < definito su uno
spazio di probabilit`
a filtrato in cui F0 = {, } e FN = F `e completo se e solo se linsieme P(P) delle misure
martingala equivalenti contiene un singolo elemento.
Allora si pu`o osservare che mentre lassenza di opportunit`a di arbitraggio implica
P(P) 6=
la completezza di un mercato arbitrage-free pu`o essere scritta come
|P(P)| = 1.
19 ***Il

prestito (o la perdita, prima della vincita) vale , in valore assoluto L =

dunque
E[L ] =

X
n=1

(2n 1) P( = n) =

X
n=1

(2n 1)

P 1
k=0

2k = 2 1. Il suo valore atteso vale

1
= .
2n

MPEF 01-07-2009

5.4.1

113

Sufficienza del Teorema APT1

e equivalente a P tale che il valore


In questa sezione si dimostra che lesistenza di una misura di probabilit`a P


Sn
e
e
S = Sn =
Bn 0nN
e Fn )-martingala implica lassenza di opportunit`a di arbitraggio per il mercato (B, S).
sia una (P,
Si ricorda che siamo nellipotesi Bn > 0 per n 0 per cui si pu`o assumere, senza ledere in generalit`a, che
Bn 1, quindi, usando la formula (5.18) relativa al mercato scontato, si ha
Xn = X0 + Gn

Gn =

n
X

k Sk

(5.22)

k=1

e Fn )-martingala.
dove S = (Sn ) `e una (P,
Per provare quanto richiesto si deve mostrare che, presa una qualunque strategia autofinanziante SF tale

e q.c., cio`e
che X0 = 0 e XN
0, P q.c. o, equivalentemente, P

P(XN
= GN =

N
X

e = G =
k Sk 0) = 1 P(X
N
N

k=1

N
X

k Sk 0) = 1

(5.23)

k=1

e q.c.. ovvero
si ha XN
= GN = 0 P q.c. o, equivalentemente, P

e = G = 0) = 1.
P(XN
= GN = 0) = 1 P(X
N
N

Dimostrazione della sufficienza del teorema APT1.


Si comincia qui la dimostrazione nel caso in cui FN = F sia una famiglia finita, ci`o evita tutti i problemi di
integrabilit`a, in quanto in uno spazio di probabilit`a con un numero finito di eventi, tutte le variabili aleatorie
sono limitate e quindi integrabili (ovvero ammettono valore atteso finito).
Dallespressione del guadagno (Gn )N
e un integrale stocastico a tempo
n=0 risulta chiaro che questa successione `
e Fn )-martingala, purche siano soddisfatte le condizioni di
discreto20 e quindi (vedere lEsempio 4.6) `e una (P,
integrabilit`a21 . Inoltre, poiche si assume X0 = 0, si ha Xn = Gn , per ogni n, e quindi si ha che (Xn )n `e una
martingala. Quindi, ricordando che dalla condizione di martingala discende che la successione considerata ha
media costante, si ottiene la seguente serie di implicazioni
X0 = 0

e ] = 0
E[X
0

e ] = 0
E[X
N

e 0) = 1 si deve avere X = 0(= G ) P


e q.c. e
ed avendo assunto per ipotesi P(XN
0) = 1 ovvero P(X
N
N
N
quindi anche P q.c., ovvero la tesi.

In ci`o che segue viene accennato a come si pu`o ottenere la dimostrazione anche nel caso generale, ovvero
senza lipotesi che F sia una famiglia finita.
Per poter arrivare a dimostrare che, sotto le ipotesi fatte, GN = 0, occorre introdurre delle definizioni e dei
teoremi su nuovi elementi probabilistici: le martingale locali.
Definizione 5.15. Una successione stocastica X = (Xn ) `e una (P, Fn )-martingala locale se esiste una
successione di tempi di Markov (k )k1 (cio`e, di variabili aleatorie che soddisfano la condizione { : k n}
Fn , n 1) tali che P(k k+1 ) = 1, P(k , per k ) = 1 e per ogni k il processo arrestato al tempo
k
X k := (Xk n )n0
`e una (P, Fn )-martingala.
20 In

e
alcuni testi viene denotato come una trasformazione di martingala rispetto a P
si `
e gi`
a chiarito si sono fatte le ipotesi che garantiscano lintegrabilit`
a di qualsiasi variabile aleatoria

21 Come

114

MPEF 01-07-2009

Teorema 5.3. Sia il processo (Mn )n0 una (P, Fn )-martingala e Yn un processo predicibile, allora la
trasformazione di martingala X = Y M , cio`e la successione stocastica definita come integrale stocastico a
tempo discreto
n
X
Xn = Y0 M0 +
Yk (Mk Mk1 )
(5.24)
k=1

`e una martingala locale.


N.B. Per approfondimenti del concetto di integrale stocastico e dei legami tra questo e le martingale si
rimanda alla lettura del libro di P. Baldi [1].
Lemma 5.4. 1) Se il processo (Xn )n0 `e una (P, Fn )-martingala locale tale che EX0 < e risulta verificata
una fra le due condizioni seguenti
EXn < ,
n0
EXn+ < ,

n0

allora X = (Xn )n0 `e una (P, Fn )-martingala.

2) Sia X = (Xn )0nN una (P, Fn )-martingala locale e si assuma che N < , EX0 < e sia EXN
<
+
oppure EXN < . Allora le ipotesi del punto 1) sono verificate per ogni n N e X = (Xn )0nN `e una
(P, Fn )-martingala.
Introdotte queste nozioni si pu`
o procedere nella dimostrazione della sufficienza del teorema APT1.
Dallespressione del guadagno (Gn )N
e una trasformazione di martingala
n=0 risulta chiaro che questa successione `
e e quindi per Teorema 5.3 `e una martingala locale. Inoltre, poiche si assume G = 0 e P(G 0) = 1,
rispetto a P
0
N
e Fn )-martingala.
risultano verificate le ipotesi di integrabilit`
a della parte 2) del Lemma 5.4 da cui (Gn ) `e una (P,
Infine ricordando che dalla condizione di martingala discende che la successione considerata ha media costante
si ottiene la seguente serie di implicazioni
G0 = 0

e =0
EG
0

e =0
EG
N

e q.c.) ovvero quanto


(P q.c. e P
ed avendo assunto per ipotesi P(GN 0) = 1 si deve avere GN = 0 = XN
desiderato.

Osservazione 5.5. Come illustrato, la sufficienza del teorema APT1 risulta banalmente dimostrata se Gn `e
e Fn )-martingala. Tale propriet`
una (P,
a `e strettamente connessa allintegrabilit`
a della successione (n Sn ); infatti,
e Fn )-martingala e data la Fn1 -misurabilit`
dallipotesi che (Sn ) `e una (P,
a delle (n ), si ottiene la condizione di
martingala (si veda il punto 2 della Definizione 4.2) per il guadagno, risulta cio`e:
e G |Fn1 ) = E(
e n (Sn Sn1 )|Fn1 ) = n E(S
e n Sn1 |Fn1 ) = 0.
E(G
n
n1
Quindi per avere verificate tutte le condizioni di martingala serve lintegrabilit`
a della successione (n Sn ) rispetto
e questo `e, ad esempio, il caso in cui le (n ) sono uniformemente limitate.
a P,
Assumere la successione (n Sn ) integrabile, pur semplificando notevolmente la dimostrazione del teorema,
lederebbe la sua generalit`
a, `e per tale motivo che si preferisce ricorrere al concetto di martingala locale che
permette di apprezzare l efficacia dell APT1.

5.4.2

Necessit`
a del Teorema APT1: trasformazione condizionale di Esscher

Si deve dimostrare che lassenza di opportunit`


a di arbitraggio significa lesistenza di una misura di probabilit`a
e P in (, F) tale che la successione scontata S = (Sn )0nN `e una (P,
e Fn )-martingala.
P
Esistono diverse dimostrazioni rigorose di questo risultato le quali sfruttano, in un modo o in un altro, dei
risultati relativi allanalisi funzionale. Nessuna di queste suggerisce, per`o, la costruzione esplicita delle misure
e equivalenti
martingala equivalenti: non compare mai lesplicita descrizione di tutte le misure martingala P
alloriginale misura P.
Per questo motivo si `e cercata una dimostrazione alternativa che potesse portare a una costruzione della
misura martingala equivalente: lidea da utilizzare, come ha illustrato per primo L.C.G. Rogers nel 1994 [13],
`e quella di sfruttare la trasformazione condizionale di Esscher, si veda il Lemma 5.6, tale trasformazione `e una

MPEF 01-07-2009

115

generalizzazione della (5.35).


Per spiegare lidea base si considera inizialmente un modello a un singolo passo (N = 1) dove, per semplicit`a,
si assume: d = 1, B0 = B1 = 1 e F0 = {, }. Si ipotizza inoltre che P(S1 6= S0 ) > 0 altrimenti si avrebbe un
mercato banale in cui si pu`
o prendere come misura martingala equivalente la misura originale P.
Considerato che ogni portfolio `e una coppia di numeri (, ), se X0 = 0 allora le sole coppie ammissibili sono
quelle per cui si ha + S0 = 0.
Assumere che il mercato sia arbitrage-free significa dire che devono verificarsi (sotto lipotesi di mercato non
banale) le condizioni :
P(S1 > 0) > 0
e
P(S1 < 0) > 0.
(5.25)
e P tale che
Si vuole dedurre dalla (5.25) che esiste una misura P
e
1) E|S
1 | < ;
e
2) ES
1 = 0;
per poter giungere a questa conclusione si applicano i risultati ottenuti dal seguente lemma.
Lemma 5.5. Sia X una variabile aleatoria reale con distribuzione di probabilit`
a su (R, B(R)) tale che
P(X > 0) > 0

P(X < 0) > 0.

(5.26)

e P tale che
Allora esiste una misura P
e eaX <
E

(5.27)

e
E|X|
< .

(5.28)

e = 0.
EX

(5.29)

per ogni a R; in particolare,


e ha la seguente propriet`
Inoltre, P
a:
Dimostrazione. Data la misura P, si costruisce a partire da questa la misura di probabilit`a equivalente
2

Q(dx) = cex P(dx),

x R,

dove c `e la costante di normalizzazione, cio`e


2

c1 = EeX .
Considerando la funzione

(a) = EQ eaX =

E(eaX eX )
,
E(eX 2 )

a R,

(5.30)

dalla costruzione di Q segue che 0 < (a) < per ogni a R (si verificher`a ci`o nelle Osservazione 5.6); quindi
ponendo
eax
Za (x) =
,
(5.31)
(a)
si ha Za (x) > 0 e EQ Za (X) = 1. Risulta possibile, dunque, definire per ogni a R la misura di probabilit`a
ea (dx) = Za (x)Q(dx)
P

(5.32)

ea Q P.
tale che P
ea segue che, per ogni scelta di a, assumendo P
e=P
ea vale la (5.27), infatti
Dalla definizione di P

aX

EPa e


= EQ

e2aX
(a)


=

(2a)
< .
(a)

(5.33)

116

MPEF 01-07-2009

Si pu`o notare, inoltre, che la funzione = (a) definita a R `e strettamente convessa poiche
2

00

(a) =

E(X 2 eaX eX )
> 0;
E(eX 2 )

per cui se si pone


= inf{(a) : a R}
vi sono solo due casi possibili
1) esiste a tale che (a ) = ;
2) non esiste a tale che (a ) = .
0

Nel primo caso risulta, come ovvio, (a ) = 0 da cui

EPa X = EQ

Xea X
(a )

(a )
=
= 0;
(a )

(5.34)

e=P
ea il lemma `e dimostrato.
allora in virt`
u della (5.33) e della (5.34) si ha che prendendo P
Il secondo caso `e irrealizzabile data lipotesi (5.26). Infatti, se un tale a non esiste, si pu`o prendere una
successione {an } per cui valgano le relazioni
< (an )

(an ) & ,

inoltre la successione {an } deve tendere a + o a poiche, altrimenti, si potrebbe scegliere una
sottosuccessione convergente in modo tale che il valore di minimo venga assunto in un punto finito e ci`o
contraddice lassunzione 2).
Sia un = |aann | e sia u = lim un , ne segue u = 1. Allora considerando lipotesi (5.26) e lequivalenza tra le
misure P e Q si ha
Q(uX > 0) > 0,
per cui esiste > 0 tale che
Q(uX > ) > 0;
definendo := Q(uX > ) e scegliendo in modo tale che risulti un punto di continuit`a per Q, cio`e
Q(uX = ) = 0
si ottiene
Q(an X > |an |) = Q(un X > )

per

n .

Quindi per n sufficientemente grande


(an )

= EQ (ean X ) EQ (ean X I(an X>|an |) )


e|an | EQ (I(an X>|an |) ) = e|an | Q(un X > )

da cui definitivamente
(an )

1 |an |
e
.
2

Si `e giunti a un assurdo poiche, come visto, (an ) & e < .


ea basata sulla
Si osservi che la dimostrazione di tale lemma porta a una costruzione della misura P
trasformazione
eax
x 7
(5.35)
(a)
detta trasformazione di Esscher.

MPEF 01-07-2009

117

Osservazione 5.6. Nella precedente dimostrazione si `e tralasciato di verificare lasserzione 0 < (a) < per
ogni a R; la prima disuguaglianza `e ovvia, la seconda `e diretta conseguenza della semplice relazione algebrica:
2

ex eax = e(x 2 ) e
a

a2
4

infatti applicandola alla definizione di (a) si ottiene


2

a2

(X 2 )
a2 Ee
E(eX eaX )
e4
4
(a) =
=
e

< +.
2
E(eX )
E(eX 2 )
E(eX 2 )
a

Dalla limitatezza delle (a) = EQ (eaX ) seguono alcune considerazioni che sono state adoperate nel corso della
dimostrazione:
<

( `e lestremo inferiore di funzioni limitate)



d
d
d
EQ (XeaX ) = EQ da
(eaX ) = da
EQ (eaX ) = da
(a).
Dimostrato il lemma `e facile vederne la generalizzazione al caso vettoriale quando, cio`e, si considera al posto
di X una successione di variabili aleatorie (X0 , X1 , . . . , XN ) tali che Xn `e Fn -misurabile per 0 n N con
F0 = {, } e FN = F.
Per procedere nella trattazione del caso generale si deve tener presente il concetto di differenza di martingala.
Definizione 5.16. Un processo X = (Xn )n1 con E|Xn | < `e una (P, Fn )-differenza di martingala se
E(Xn |Fn1 ) = 0

(P q.c.),

n 1.

Lemma 5.6. Si ipotizzi che


P(Xn > 0|Fn1 ) > 0

P(Xn < 0|Fn1 ) > 0

(5.36)

e P nello spazio (, F) tale che la successione


per 1 n N . Allora esiste una misura di probabilit`
a P
e
(X0 , X1 , . . . , XN ) `e una (P, Fn )-differenza di martingala.
Dimostrazione. La dimostrazione di questo lemma ripercorre pari passo quella del precedente. Data P si
considera la misura di probabilit`
a Q tale che
( N
)
X
2
Q(d) = c exp
Xi () P(d)
(5.37)
i=0

n P
o
N
e richiesta si considerano le funzioni
e EQ exp i=0 ai Xi `e finito. Per costruire la misura P
n (a; ) = EQ (eaXn |Fn1 )()
che fissato risultano strettamente convesse in a. Si pu`o mostrare procedendo come fatto per il Lemma 5.5 che
esiste un unico punto (finito) an () tale che il pi`
u piccolo valore inf a n (a; ) viene assunto in questo punto,
ovvero:
inf n (a; ) = n (an (); ).
a

La funzione inf a n (a; ) `e Fn1 -misurabile da ci`o segue che anche an () `e Fn1 -misurabile.
Ora si definisce ricorsivamente una successione Z0 , Z1 (), . . . , ZN () ponendo
Z0 = 1

Zn () = Zn1 ()

exp{an ()Xn ()}


EQ (exp{an Xn }|Fn1 )()

per n 1. Chiaramente, le variabili Zn () sono Fn -misurabili e formano una (Q, Fn )-martingala


EQ (Zn |Fn1 ) = Zn1

(Q q.c. e P q.c.).

118

MPEF 01-07-2009

e richiesta come:
Quanto mostrato permette di definire la P
e
P(d)
= ZN ()P(d),
e n | < , 0 n N ,
ricordando la dimostrazione del Lemma 5.5 si vede che E|X
e n |Fn1 ) = 0
E(X

1nN

e 0 =0. Quindi la successione (X0 , X1 , . . . , XN ) `e una differenza di martingala rispetto la P


e ci`o prova
e inoltre EX
il lemma.
e P (in
Si evince immediatamente che nel caso d = 1, la necessit`
a dellesistenza di una misura martingala P
un mercato arbitrage-free) `e conseguenza del Lemma 5.6: basta prendere come successione di variabili aleatorie
X0 = S0 , X1 = S1 , . . . , XN = SN .
Considerando un mercato privo di opportunit`
a di arbitraggio si pu`o assumere senza ledere la generalit`a che
P(Sn > 0|Fn1 ) > 0

P(Sn < 0|Fn1 ) > 0

(5.38)

per ogni n = 1, . . . , N ; infatti se esiste un istante n per cui P(Sn = 0) = 1 questo pu`o essere trascurato in

quanto, preso un generico portfolio autofinanziante, listante n non apporta contributi al valore XN
. Allora
la (5.38) risulta vera per tutti gli n N da cui si conclude, come annunciato, che applicando il Lemma 5.6 a
X0 = S0 e Xn = Sn per 1 n N esiste una misura martingala equivalente (si veda la Definizione 5.13).
Per il caso generale, d 1, la dimostrazione della necessit`a `e concettualmente la stessa del caso d = 1, si
deve per`o tener conto della generalizzazione del Lemma 5.6 al caso di valori vettoriali.
Lemma 5.7. Sia (X0 , X1 , . . . , XN ) una successione di d-vettori Fn -misurabili
1
Xn
.

Xn =
. , 0 n N
.
Xnd
definita su uno spazio di probabilit`
a filtrato (, F, (Fn )0nN , P) con F0 = {, } e FN = F. Si assuma inoltre
che
1
n
.

n =
.
.
nd
`e un vettore di variabili vettoriali, diverse da zero, Fn1 -misurabili avente componenti limitate ( |ni ()| c <
, ) tale che
P((n , Xn ) > 0|Fn1 ) > 0

P((n , Xn ) > 0|Fn1 ) > 0

(P q.c.)

dove (n , Xn ) `e il prodotto scalare.


e equivalente a P su (, F) tale che la successione (X0 , X1 , . . . , XN )
Allora esiste una misura di probabilit`
a P
e cio`e: E|X
e n | < , EX
e 0 = 0 e E(X
e n |Fn1 ) =
`e una differenza di martingala d-dimensionale rispetto a P,
0 1 n N.
Risulta interessante notare che la costruzione della misura martingala basata sulla trasformazione
condizionale di Esscher d`
a solo una misura particolare, sebbene la classe di misure martingala equivalente
alloriginale possa contenerne altre. A titolo informativo si osservi che esiste un procedimento rigoroso basato
e (per un
sulle trasformazioni di Girsanov che pu`
o essere usato nella costruzione di una famiglia di misure P
maggior approfondimento di questo argomento si veda il capitolo V dello Shiryaev [17]).

MPEF 01-07-2009

5.5

119

Completezza e rappresentabilit`
a***

In questo paragrafo si vuole illustrare lequivalenza tra la completezza e la propriet`a di S-rappresentabilit`


a
di martingale locali.
Definizione 5.17. Sia (, F, (Fn ), Q) uno spazio di probabilit`
a filtrato con
una (Q, Fn )-martingala

d dimensionale S = (Sn )

e
una (Q, Fn )-martingala locale

unidimensionale M = (Mn ).

Allora diciamo che la (Q, Fn )-martingala locale M ammette una S-rappresentazione rispetto a Q, o una
rappresentazione in termini della (Q, Fn )-martingala S, se esiste una successione predicibile = (n ),
dove n = (n1 , . . . , nd ), tale che

n
n
d
X
X
X
j

Mn = M0 +
k Sk = M0 +
kj [Skj Sk1
]
(Q q.c.)
(5.39)
k=1

k=1

j=1

per ogni n 1, cio`e M `e lintegrale stocastico di una successione predicibile n , ovvero M `e una trasformazione
di martingala ottenuta dalla (Q, Fn )-martingala S attraverso lintegrazione di una successione predicibile n .
Lemma 5.8. Sia (B, S) un mercato arbitrage-free con orizzonte finito N e Bn 1 per n N . Allora questo
e P(P) tale che ogni (P,
e Fn )-martingala limitata M = (Mn )
mercato `e completo se e solo se esiste una misura P
e
(con |Mn ()| C n N ) ammette una S-rappresentazione rispetto a P.
Dimostrazione. (=: la completezza implica la S-rappresentabilit`
a ) Si assuma che il mercato (arbitragee appartenente a P(P) si consideri una (P,
e Fn )-martingala
free) sia completo. Presa una misura arbitraria P
M = (Mn ) con |Mn ()| C per n N e . Si pu`o scegliere come funzione di pay-off
fN = MN ,
dallipotesi di completezza segue lesistenza di un portfolio autofinanziante e di un capitale iniziale x tale che
Xn = x +

n
X

k Sk

k=1

e q.c.), ovvero
= fN = MN (P q.c. e P
e XN

e = fN = MN ) = 1.
P(XN
= fN = MN ) = 1 P(X
N

e Fn )-martingala.
Dalla limitatezza dellobbligazione |fN | = |MN | C segue 22 che X = (Xn )nN `e una (P,

Le martingale X ed M presentano la stessa funzione terminale, il pay-off fN , e quindi la condizione di


martingala porta alle seguenti uguaglianze
e |Fn ) = E(M
e N |Fn ) = Mn
Xn = E(X
N

e q.c.
P

e da ci`o si pu`o concludere che


e = Mn ) = 1 P(X = Mn ) = 1
P(X
n
n
e Fn )-martingala M ammette, quindi, una S-rappresentazione.
per ogni 0 n N . La (P,
e P(P), tale
(=: la S-rappresentabilit`
a implica la completezza) Si ipotizzi che esista una misura P
e Fn )-martingala limitata ammette un S-rappresentazione e sia fN = fN () una funzione limitata
che ogni (P,
22 Nel caso in cui F sia una famiglia finita, non ci sono problemi di integrabilit`
a e risulta immediatamente che (Xn )nN `
e una
martingala.
e < ed essendo X = x risultano verificate le ipotesi del Lemma 5.4, quindi si ottiene ugualmente
Nel caso generale si ha che EX
0
N
che(Xn )nN `
e una martingala.

120

MPEF 01-07-2009

FN -misurabile (|fN | C < P q.c.) si vuole ottenere che esiste una strategia autofinanziante e un capitale

iniziale x tale che XN


= fN (P q.c.).
e
Si consideri la (P, Fn )-martingala
M = (Mn )nN ,

e N |Fn ],
definita da Mn := E[f

essendo |fN | C si ha che M `e una martingala limitata e per ipotesi ammette una S-rappresentazione (5.39).
Inoltre, ricordando che, nelle stesse ipotesi dei teoremi dellAsset Pricing, si ha F0 = {, }, risulta
e N |F0 ] = E[f
e N ].
M0 = E[f
Esiste dunque una successione di variabili aleatorie predicibili kj , j = 1, . . . , d, k N tale che

n
n X
d
X
X
j
Mn = M 0 +
k Sk = M0 +
kj [Skj Sk1
] ,
k=1 j=1

k=1

attraverso queste variabili si costruisce un portfolio = ( , ) dove


n = n ,

n = n1
(n n1 )Sn1 ,

(5.40)
(5.41)

in quanto si cerca una strategia autofinanziante, e basta allora ricordare la condizione (5.8)23 .
Si osserva che le n risultano predicibili data la Fn1 -misurabilit`a delle n . Inoltre `e un portfolio
autofinanziante di valore24

d
X
Xn = n + n Sn = n +
nj Snj = Mn .
j=1

e e P q.c.) da cui segue la completezza


In particolare si vede che per listante terminale N si ha XN
= MN = fN (P
del mercato (B, S).
Da questultima uguaglianza si ottiene anche la definizione alternativa

n = Mn n Sn .

(5.42)

N.B. Se non si assume che Bn 1, n N , allora tutti i risultati ottenuti risultano,


comunque,
validi se si


e Fn )-martingala S = (Sn )nN la (P,
e Fn )-martingala Se = Sen = Sn
considera al posto della (P,
,
e al posto
Bn
nN

23 Si noti che sarebbe necessario anche che + S = M , con e v.a. F 1 = F = {, }-misurabili, ovvero numeri certi.
0
0
0
0 0
0
0
Si noti inoltre che per n = 1 si ha 1 = 0 (1 0 )S0 = 0 + 0 S0 1 S0 = M0 1 S0 e che questultima espressione permette
di definire 1 anche senza conoscere (0 , 0 ).
In realt`
a, noto (n )nN si potrebbe definire n := Mn n Sn , andrebbe mostrato che n risulta una v.a. Fn1 -misurabile,
e infine si potrebbe procede cominciando dal fondo: N = MN N SN = fN N SN e poi, usando la (5.41) si ottiene

+ (
n1
= n
n
n1 )Sn1 .
24 Luguaglianza si vede subito considerando che, per la definizione di si ha
n

Mn Mn1 = n (Sn Sn1 ) = n Sn n Sn1 + n1 Sn1 n1 Sn1 + (n


n1
) (n
n1
)

= n Sn n1 Sn1 + (n
n1
),

da cui

Mn M0 = n Sn 0 S0 + (n
0 )

= n S n + n
(0 S0 + 0 ) = n Sn + n
M0 .
come
Si noti infine che questultima uguaglianza permette di dare la definizione alternativa di n

n
:= Mn n Sn ,

che `
e quella originariamente usata da Shiryaev in [17].

MPEF 01-07-2009

121

e
a,
di fN si considera il valore attualizzato feN = BfNN . In particolare si noti che allora serve la S-rappresentabilit`
***cio`e la rappresentabilit`
a nel mercato scontato, e che allora
e feN |F0 ) = E(
e fN ),
M0 = E(
BN
essendo F0 la -algebra banale.
x0
Allora M0 = B
, dove x0 si pu`
o interpretare come il capitale iniziale che permette, attraverso la strategia
0
, descritta nella dimostrazione della parte sufficiente del lemma, di ottenere una copertura perfetta per fN .
RIASSUMENDO - per ottenere quindi il prezzo si pu`o procedere nel seguente modo:
e da cui per ****lAPT1 si ottiene che non ci
1 si mostra lesistenza di una misura martingala equivalente P;
sono opportunit`
a di arbitraggio e quindi si ha
C C ;
e
en , Sen ) `e completo, da cui deve valere
2 si mostra che vale la S-rappresentabilit`
a, e quindi che il mercato (B
che, se x0 `e il capitale iniziale che permette una copertura perfetta per fN , allora
C x0 C ;
3 dai punti precedenti si ottiene che allora lunico prezzo che non permette arbitraggi `e proprio x0
4 dalla dimostrazione del ***Lemma 5.8, si ha inoltre che
e
x0 = B0 M0 = B0 E[

fN
]
BN

e la strategia di copertura si ottiene prendendo


k = k
e N |Fn ] e che
della rappresentazione della martingala E[f
0 = M0 0 S0 ,

n = n1
(n n1 )Sn1 ,

Il precedente programma verr`


a realizzato nel seguente capitolo in cui si tratta il modello binomiale
multiperiodale.
Si noti comunque che procedendo come nella dimostrazione del ***Lemma 5.8 (parte: la completezza
e
implica la S-rappresentabilit`
a) si pu`
o ottenere la dimostrazione che la completezza implica lunicit`a della misura
martingala equivalente, se si `e in presenza di un mercato senza opportunit`a di arbitraggio.
Dimostrazione della sufficienza dellAPT2: se il mercato `e completo, allora, qualunque sia A FN =

F, per feN = IA si pu`


o trovare un capitale iniziale x
eA e una strategia A
, che permettono una copertura perfetta
e
di fN . Allora necessariamente deve essere
e A ) = P(A).
e
x
eA = E(I

(5.43)

Ragionando come nei punti 1, 2 e 3, e tenendo presente che per ipotesi il mercato `e privo di opportunit`a di
arbitraggio, si ottiene che
x
eA = C (IA , P) = C (IA , P),

(5.44)

25

da cui lunicit`a della misura martingala equivalente .


25 Da (5.44) si ottiene che il capitale iniziale che permette una copertura perfetta `
e univocamente definito come C (IA , P) =
C (IA , P).
e0 , allora per (5.43), applicata a questa nuova misura, si avrebbe che
Se esistesse una seconda misura martingala equivalente P
0
e 0 (IA ) = P
e0 (A),
x
e =E
A

e contemporaneamente x
e0A = C (IA , P) = C (IA , P) = x
eA , da cui
e0 (A) = P(A),
e
P

ovvero lunicit`
a.

Capitolo 6

Il modello di Cox Ross Rubinstein


(CRR-model)
In questo capitolo si vuole illustrare lapplicazione di alcuni risultati teorici trattati, ovvero considerando un
modello del quale si conoscono le caratteristiche peculiari si vogliono trarre delle conclusioni in merito al mercato
su cui esso opera (arbitrage-free, completo, incompleto) e ai prezzi di copertura per opzioni Europee.

6.1

Caratteristiche del modello

Il modello che si andr`


a a considerare `e il Cox Ross Rubinstein (CRR-model ) detto anche modello
binomiale multiperiodale: si prende un mercato (B,S) che risulta formato da due operazioni finanziarie:
1 un conto bancario B = (Bn )
2 unazione S = (Sn )
per le quali si ha (ricordando le formule (5.1) e (5.2))
4Bn = rn Bn1 ;
4Sn = n Sn1 .
Si ipotizza che il tasso di interesse1 sia costante rn = r e che la successione di variabili aleatorie indipendenti
= (n ) possa prendere solo due valori2 a e b tali che
1 < a < r < b.

(6.1)

Inoltre si assume che la successione = (n ) definita sullo spazio di probabilit`a (, F, (Fn )n>0 , P) sia
Fn -misurabile per ogni n e abbia la propriet`
a:
P(n = b) = p

P(n = a) = q

(6.2)

con p + q = 1 e 0 < p < 1.


Si pu`o osservare che tutta laleatoriet`
a`
a del modello risulta data dalle variabili n , quindi si pu`o assumere come
spazio dei risultati elementari lo spazio = n = {a,b}N di successioni finite x = (x1 , x2 , . . . , xN ) tali che xn = a
o xn = b con n 6 N . Allora n (x) = xn e la misura di probabilit`a PN sui corrispondenti insiemi di Borel
Pn risulta
completamente definita dalle distribuzioni finito dimensionali Pn dove n 6 N : se b (x1 , . . . , xn ) = i=1 Ib (xi )
`e il numero di componenti xi = b per i 6 n allora
Pn (x1 , . . . , xn ) = p b (x1 ,...,xn ) q nb (x1 ,...,xn ) .
1 Nel

(6.3)

testo di T. Bj
ork [4] si pone R = r, mentre nel testo di S. Ross [15] si usa la stessa notazione.
testi di S. Ross [15] e di T. Bj
ork [4] si pone u = 1 + b e d = 1 + a, o equivalentemente si ha qui b = u 1 e a = d 1.
Inoltre la condizione (6.1) seguente corrisponde alla condizione 0 < d < 1 + r < u e 0 < d < 1 + R < u, rispettivamente.
2 Nei

122

MPEF 01-07-2009

123

Da tale considerazione segue che Pn `e uguale3 a un prodotto diretto di n misure di tipo Q dove con Q si indica
la misura caratterizzata da Q({b}) = p e Q({a}) = q.
Nei prossimi paragrafi si mostrer`
a che il modello
e APT2 (si vedano i Teoremi 5.1 e 5.2) ci`
o significa,
e
misura martingala Pn equivalente a Pn , si otterr`a che

CRR `e arbitrage-free e completo. Per i Teoremi APT1


rispettivamente, che per ogni n > 1 esiste ed `e unica la
en presenta la seguente struttura:
P

en (x1 , . . . , xn ) = pe b (x1 ,...,xn ) qe nb (x1 ,...,xn )


P

(6.4)

dove

ra
br
e
qe =
.
(6.5)
ba
ba
en , cos` come Pn , presenta la struttura di un prodotto diretto
Si pu`o osservare che dalla (6.4) segue che anche P
e dove Q({b})
e
e
di misure Q
= pe e Q({a})
= qe.
pe =

6.1.1

***Il modello CRR `


e arbitrage-free e completo

Definita la struttura del modello si vuole dimostrare che il mercato su cui opera `e senza opportunit`a di
arbitraggio. Per realizzare tale scopo, come ricordato sopra, basta dimostrare lesistenza di una misura di
Sn
probabilit`a equivalente alla misura di probabilit`a definita dalla (6.3) rispetto alla quale la successione Sen = B
n
`e una martingala.
martingala equivalenti (a P) devono
Si cerca quindi di individuare quali sono le condizioni che le misure P
e
e
soddisfare. Si ricorda che Sn `e una (P, Fn )-martingala se risulta Fn -adattato, integrabile e gode della propriet`a
e Sen |Fn1 ) = Sen1 .
E(
Sn
Lintegrabilit`a in questo caso non comporta alcun problema poiche Sen = B
assume un numero finito di valori
n
4
e in particolare risulta uniformemente limitata . Inoltre essendo in generale:
Sn
Sn1 1 + n
=
Bn
Bn1 1 + rn

(6.6)

e considerata la Fn1 -misurabilit`


a di Sen1 e di 1 + rn risulta chiaro5 che la propriet`a di martingala rispetto a

P diviene




Sn
Sn1
1 + n
e
e
E

E
Fn1 =
Fn1 = 1
Bn
Bn1
1 + rn
e [n |Fn1 ] = rn

E
(i)

e n ] = E[r
e n ].
E[
3 Il
4 In

5 Si

(ii)

punto importante qui `


e che Pn (x1 , . . . , xn ) > 0 per ogni (x1 , . . . , xn )
questo caso possiamo anche trovare una maggiorazione superiore esplicita: infatti


n
Sn
S0 Y 1 + k
S0 1 + b n
=
6
.
Bn
B0 k=1 1 + rk
B0 1 + r
osservi che


Sn
Sn1
Sn1  1 + n

=
1
Bn
Bn1
Bn1 1 + rn
Sn1  1 + n (1 + rn ) 
Sn1
1
=
=
[n rn ]
Bn1
1 + rn
Bn1 1 + rn

en =
S

e quindi







h
i

e S
e Sn Sn1 Fn1 = E
e Sn1 1 + n 1 Fn1
en Fn1 = E
E
Bn
Bn1
Bn1 1 + rn



i
Sn1 e 1 + n (1 + rn ) 
Sn1
1 eh

E
E n rn Fn1
=
Fn1 =
Bn1
1 + rn
Bn1 1 + rn

124

MPEF 01-07-2009

Quindi, nel caso del modello CRR considerato, in cui rn `e costante e uguale a r, e n pu`o assumere solo i due
valori a e b, si ottengono le seguenti identit`
a6
e (n |Fn1 ) = r,
E
e n)
E(
= r,

e (n = b|Fn1 ) + aP
e (n = a|Fn1 ) = r,
bP
e (n = b)
e (n = a)
bP
+ aP
= r,

(6.7)
(6.8)

ovvero,


e (n = b|Fn1 ) + a 1 P
e (n = b|Fn1 ) = r
bP


e (n = b)
e (n = b)
bP
+a 1P
= r,

(6.9)
(6.10)

Si osservi che la (6.9) e la (6.10) implicano


e n = b|Fn1 )
P(

e n = b) = pe =
= P(

ra
ba

(6.11)

e n = a|Fn1 )
P(

e n = a) = qe =
= P(

br
ba .

(6.12)

Da questa osservazione, e dal fatto che Fn1 = {1 , , n1 } si ottiene facilmente che le variabili aleatorie
e indipendenti ed identicamente distribuite7 . Segue che il modello CRR `e un
1 , , N sono, rispetto a P,
6 Si noti che la condizione (i) caratterizza le misure martingala equivalenti mentre la condizione (ii) `
e solo una condizione
sia una misura martingala equivalente. Inoltre, grazie al fatto che n assume solo due valori, la (i) permette
necessaria affinch
eP
di individuare la distribuzione condizionata di n data Fn1 , in funzione di rn = rn (). Per lo stesso motivo la (ii) permette di
Infine, il fatto che rn () sia una costante r implica che rn = r e quindi
individuare la distribuzione di n (entrambe rispetto a P).
che la distribuzione condizionata di coincida con la distribuzione stessa.
7 Un modo pi`
u elegante per pervenire a questo stesso risultato e verificare lindipendenza delle n si ottiene illustrando la
e
costruzione di P.
e P attraverso dei passi ben precisi: si prende Pn = PN |F , dove
Dalle premesse fatte si evince che si pu`
o costruire la misura P
n
e1 , P
e2 , . . . , P
eN tramite la formula
Fn = (1 , . . . , n ), si considera una (P, Fn )-martingala Zn di media 1 e si definiscono P

en (x1 , . . . , xn ) = Zn (x1 , . . . , xn )Pn (x1 , . . . , xn ),


P

quindi, dalla formula di Bayes segue che la condizione (6.7) pu`


o essere espressa come


Zn
En n
Fn1 = r.
Zn1

(6.13)

Per n = 1, tenendo conto che F0 = {, }, che Z0 = 1 e considerando la relazione (6.13) risulta


p bZ1 (b) + q aZ1 (a) = r,

(6.14)

tale equazione unita alla condizione di normalizzazione


pZ1 (b) + qZ1 (a) = 1,

(6.15)

permette di ottenere
Z1 (b) =

ra1
ba p

Z1 (a) =

ra
ba

qe =

Ponendo
pe =

br 1
.
ba q

br
ba

si arriva allidentit`
a
e1 (b) = Z1 (b)P1 (b) = pe
P
e1 (a) = Z1 (a)P1 (a) = qe.
P
e1 `
e2 si usa
Si osservi che pe + qe = 1 e che, per la (6.1), pe, qe > 0 da cui segue P
e una probabilit`
a equivalente a P1 . Per determinare P
nuovamente la (6.13) e lindipendenza tra 1 e 2 rispetto a P2 arrivando al seguente risultato

pb

Z2 (b, b)
Z2 (b, a)
+qa
= r,
Z1 (b)
Z1 (b)

(6.16)

una condizione ulteriore sui valori di Z2 (b, b) e Z2 (b, a) `


e dovuta alla propriet`
a di martingala di Zn
E2 (Z2 (1 , 2 )|1 = b) = Z1 (b),
che conduce alluguaglianza
b

Z2 (b, b)
Z2 (b, a)
+q
= 1,
Z1 (b)
Z1 (b)

(6.17)

MPEF 01-07-2009

125

e si evince
mercato privo di opportunit`
a di arbitraggio; analizzando i passi che conducono alla costruzione di P
che questultima `e lunica misura martingala equivalente da ci`o discende la completezza, per il Teorema APT2.
Tuttavia la dimostrazione che lunicit`
a della misura martingala equivalente implica la completezza non `e stata
e
data in queste note, mentre `e stata data la dimostrazione che la S-rappresentabilit`
a implica la completezza.
e
Si proceder`a quindi ora alla dimostrazione della S-rappresentabilit`
a per il modello CRR, in modo che la
dimostrazione della completezza per questo modello sia autocontenuta in queste note.

6.1.2

***Rappresentabilit`
a nel mercato scontato, per il modello CRR

Nel Lemma 5.8 viene stabilita lequivalenza tra la propriet`a di completezza del mercato (B, S) e la
S-rappresentabilit`
a, sotto lipotesi che Bn = 1, ovvero lequivalenza della propriet`a di completezza del
e S)
e e della S-rappresentabilit`
e
` interessante osservare che in questo caso `e proprio lunicit`a
mercato (B,
a. E
e
della misura martingala a permettere la S-rappresentazione delle martingale limitate e quindi la completezza.
N.B. Si giunge cos`, per il modello in questione, a una dimostrazione diretta della necessit`a del teorema APT2.
e Fn )-martingala e siano le gn = gn (x1 , . . . , xn ) funzioni tali che
Sia M = (Mn )n>0 una (P,
Mn () = gn (1 (), . . . , n ()),

(6.18)

ovvero8
Mn () = I{n ()=b} gn (1 (), . . . , n1 (), b) + I{n ()=a} gn (1 (), . . . , n1 (), a).
e n |Fn1 ) = Mn1 diviene quindi
La condizione E(M
e n = b|Fn1 ) gn (1 (), . . . , n1 (), b) + P(
e n = a|Fn1 ) gn (1 (), . . . , n1 (), a)
P(
= gn1 (1 (), . . . , n1 ()).
e Fn )-martingala diviene
Tenendo conto9 delle (6.11) e (6.12) segue che la condizione che M `e una (P,
pe gn (1 (), . . . , n1 (), b) + qe gn (1 (), . . . , n1 (), a)
= gn1 (1 (), . . . , n1 ())
= pe gn1 (1 (), . . . , n1 ()) + qe gn1 (1 (), . . . , n1 ())
o equivalentemente
gn (1 (), . . . , n1 (), b) gn1 (1 (), . . . , n1 ())
qe
gn1 (1 (), . . . , n1 ()) gn (1 (), . . . , n1 (), a)
=
.
pe
confrontando la (6.16) e la (6.17) rispettivamente con la (6.14) e la (6.15) si vede che
Z2 (b, b)
ra1
pe
=
=
Z1 (b)
ba p
p
In modo del tutto simile si pu`
o ottenere

quindi

e analogamente

pe
Z2 (a, b)
=
Z1 (a)
p

Z2 (b, a)
br 1
qe
=
= .
Z1 (b)
ba q
q

Z2 (a, a)
qe
= ;
Z1 (a)
q

e2 (a, a) = Z2 (a, a)q 2 = Z1 (a) qe q 2 = qe 2


P
q
e2 (a, b) = qe pe,
P

e2 (b, a) = pe qe,
e2 (b, b) = pe 2 .
P
P
e2 ; inoltre P
e2 (i = b) = pe e P
e2 (i = a) = qe per i = 1, 2.
Le variabili aleatorie 1 , 2 risultano, dunque, i.i.d. rispetto la misura P
e P consiste nelliterare il procedimento descritto per le misure P
e3 , . . . , P
eN
Lultimo passo per costruire una misura martingala P
en definite dalla formula (6.4) e infine ponendo P
e=P
eN .
ottenendo cos` le P
8 Si osservi che lespressione di M come
n

Mn () = I{n ()=b} gn (1 (), . . . , n1 (), b) + I{n ()=a} gn (1 (), . . . , n1 (), a).


corrisponde alla possibilit`
a di rappresentare i valori che Mn assume su di un albero.
9 Si ricordi che le condizioni (6.11) e (6.12) implicano che, rispetto a P
e le n sono indipendenti ed identicamente distribuite.

126

MPEF 01-07-2009

In virt`
u dellespressione(6.5) di pe e qe si definisce
n0 ()

:=
=

gn (1 (), . . . , n1 (), b) gn1 (1 (), . . . , n1 ())


br
gn1 (1 (), . . . , n1 ()) gn (1 (), . . . , n1 (), a)
ra

da cui segue
Mn ()

Mn () Mn1 ()
I{n ()=b} [gn (1 (), . . . , n1 (), b) gn1 (1 (), . . . , n1 ())] +
I{n ()=a} [gn (1 (), . . . , n1 (), a) gn1 (1 (), . . . , n1 ())]
I{n ()=b} (b r)n0 () + I{n ()=a} (a r)n0 ()
X
=
I{n ()=x} (x r)n0 ()

=
=
+
=

x={a,b}

(n () r)n0 ().

e Fn )-martingala M = (Mn )n>0 ammette, dunque, la rappresentazione


La (P,
Mn () = M0 () +

n
X

(k () r)k0 ().

k=1

Infine, considerando la (6.6) si ha luguaglianza10


n () r = (1 + r)

Bn1 e
Sn ,
Sn1

e
da cui deriva la S-rappresentabilit`
a della martingala considerata, cio`e
Mn () = M0 () +

n
X

ek ()Sen ,

(6.19)

k=1

dove si `e assunto
Bn1
Sn1
gn (1 (), . . . , n1 (), b) gn1 (1 (), . . . , n1 ())
Bn1
=
(1 + r)
.
br
Sn1

en () = n0 ()(1 + r)

(6.20)
(6.21)

Si osservi che poiche le n0 () risultano Fn1 -misurabili (questa propriet`a `e diretta conseguenza della loro
definizione) la successione
en () `e predicibile .

6.2

Prezzi di copertura per opzioni Europee

Si considerino le opzioni Europee di maturit`


a N < con pay-off fN dipendenti in generale da tutte le variabili
S0 , S1 , . . . , SN o, equivalentemente, da S0 e 1 , . . . , N . Tenendo conto del fatto che S0 `e una costante nota, in
realt`a il pay-off fN `e funzione solo di 1 , . . . , N .
10 La

(6.6) implica, nel caso generale



Sn
Sn1
Sn1  1 + n

=
1
Bn
Bn1
Bn1 1 + rn
Sn1  1 + n (1 + rn ) 
Sn1
1
=
=
[n rn ] ,
Bn1
1 + rn
Bn1 1 + rn

en =
S

da cui
[n rn ] = (1 + rn )

Bn1 e
Sn .
Sn1

MPEF 01-07-2009

127

Come visto nel capitolo II se il mercato considerato `e senza opportunit`a di arbitraggio e completo (come
risulta essere il mercato binomiale (B,S) del modello CRR ) il prezzo di copertura (o premio) per lacquisto
dellopzione, cio`e

C(fN , P) = inf{x > 0 : t.c. X0 = x e XN


= fN P q.c.}
(6.22)
dove con X = (Xn )06n6N si indica il valore della strategia autofinanziante = (, ), pu`o essere determinato
dalla identit`a:


fN
e
.
(6.23)
C(fN , P) = B0 E
BN
Per il modello in oggetto essendo BN = B0 (1 + r)N si ottiene:


fN
e
C(fN , P) = E
,
(1 + r)N

(6.24)

tale risultato permette di rispondere completamente al problema di determinare un prezzo razionale per il
contratto di unopzione con pay-off fN . Si ricorda che il venditore prendendo il premio C(fN , P) dal compratore
e
pu`o dotarsi di un portfolio
e = (,
e) che replica il pay-off fN allistante N , cio`e

XN
= fN .

Come menzionato nella dimostrazione del Lemma 5.8 il modo standard per determinare il portfolio
e consiste
e Fn )-martingala M = (Mn )n6N definita da
nel considerare, inizialmente, la (P,

e
Mn = E


fN
Fn .
BN

Si noti che la martingala si pu`


o costruire a ritroso partendo da N in quanto MN = fN = gN (1 , , N ) e poi
utilizzando il fatto che
e [Mn |Fn1 ] = pegn (1 , , n1 , b) + qegn (1 , , n1 , a),
Mn1 = E
come visto nel paragrafo precedente11 .
11 Si noti lanalogia con la costruzione ad albero binomiale (vedere Bj
ork [4] capitolo 2 paragrafo 2) per le opzioni europee con
fN = (SN ), ed in particolare la Proposizione 2.24: si tenga presente che se Hn (), `
e la v.a. che conta il numero delle volte in cui
il prezzo sale tra il passo 1 e il passo n, in [4] la funzione valore Vn (k) coincide con Xn () quando Hn = k, mentre Mn coincide

e
con il valore attualizzato X
n ().
Vale la pena di notare che se nella Proposizione 2.24 si mette r al posto di R, 1 + a al posto di d, 1 + b al posto di u, p al posto di
qu , q al posto di qd , n al posto di t, N al posto di T , ed infine si divide per (1 + r)n (o (1 + r)N ) si ottiene:
8
Vn+1 (k+1)
Vn+1 (k)
Vn (k)
>
>
< (1+r)n = p (1+r)n+1 + q (1+r)n+1

>
>
:

Si definisca gn (1 , , n ) =
Hn+1 = Hn , si ha

Vn (Hn )
,
(1+r)n

VN (k)
(1+r)N

= (S0 (1 + b)k (1 + a)N k ).

di modo che, notando che se n+1 = b allora Hn+1 = Hn + 1, mentre se n+1 = a allora

gn+1 (1 , , n , b) =

Vn+1 (Hn + 1)
,
(1 + r)n+1

gn (1 , , n , a) =

Vn+1 (Hn )
.
(1 + r)n+1

Di conseguenza, sostituendo a k la v.a. Hn (o HN ), si ottiene che il precedente sistema diviene


8
< gn (1 , , n ) = p gn+1 (1 , , n , b) + q gn+1 (1 , , n , a)
:

gN (1 , , N ) = (S0 (1 + b)HN (1 + a)N HN ) = (SN ),

che corrisponde, se nostro modello si considera fN = (SN ), ala rappresentazione cercata di Mn = gn (1 , , n ), o


equivalentemente corrisponde al sistema

e [Mn+1 |Fn ]
Mn = E
MN = fN .

128

MPEF 01-07-2009

e
Essendo M S-rappresentabile
esiste una successione predicibile = (
n )n6N , si vedano12 le (6.20) e (6.21),
tale che la martingala risulta data da:
Mn = M0 +

n
X


k

k=1

Sk
Bk


n 6 N.

(6.25)

Si pu`o riassumere quanto detto in questa sezione, tenendo conto anche dei risultati ottenuti nella Sezione
6.1.2, enunciando il seguente teorema:
Teorema 6.1. Dato il modello CRR
per ogni N e per ogni pay-off fN FN -misurabile il prezzo ****pu`
o essere descritto dalla formula




fN
fN
e
e
.
C(fN , P) = B0 E
=E
BN
(1 + r)N

(6.26)

e
esiste una copertura perfetta e autofinanziante
e = (,
e) dal valore X = (Xn )n6N tale che

X0 = C(fN ; P)
e

XN
= fN

e = Bn Ee

Xn


fN

Fn .
B0 (1 + r)N

le componenti e = (en )n6N e


e = (e
n )n6N della copertura
e soddisfano la relazione13

Sn
en = Mn
en
Bn

(6.27)

S
e Fn )-martingala
-rappresentazione (6.25) della (P,
dove
en con n 6 N `e determinata attraverso la B
M = (Mn )n6N definita come


fN
e
Mn = E
Fn .
BN

Lespressione di
en si ottiene attraverso la formula (6.21).
*** Per la costruzione esplicita della strategia
e per le connessioni con gli alberi binomiali si veda
lAppendice 6.3, alla fine di questo capitolo. ***

Concludiamo questa sezione dando una seconda rappresentazione per la martingala M . Prendendo (come
in (5.42))
Sn
n = Mn n
Bn
e
formula (6.21), assicura che, se la martingala Mn = E
allora il processo
n definito da
12 La

n () =

fN
BN



o scrivere attraverso una funzione gn come in (6.18),
Fn si pu`

gn (1 (), . . . , n1 (), b) gn1 (1 (), . . . , n1 ())


Bn1
(1 + r)
,
br
Sn1

`
e quello che permette di rappresentare Mn come integrale stocastico discreto come in (6.19). Sarebbe interessante controllare se
questa strategia corrisponde a quella proposta nella Proposizione 2.24 di Bj
ork, tenendo presente quanto detto nella nota precedente.
13 Se si interpreta M come il valore attualizzato del portafoglio al tempo n allora la relazione (6.27) diviene ovvia se riscritta
n
come
Sn
Mn = en +
en
.
Bn

MPEF 01-07-2009

129

) di valore
si ottiene una copertura autofinanziante
= (,
e
Xn = n Bn + n Sn = Bn E

fN
Fn
BN

tale che inizialmente


X0 = C(fN , P)
e allistante N goda della propriet`
a di copertura perfetta.
Considerando inoltre la relazione

Sn
Bn

Sn1 (n r)
Bn

e sostituendo questo risultato nella (6.25) si ottiene:


Mn = M0 +

n
X

k=1

X
Sk1
(k r) = M0 +
k (k r)
Bk

(6.28)

k=1

k
.
avendo definito k in modo che valga la condizione k = k SBk1

Prendendo, infine, la successione = (n ) delle variabili aleatorie


n =
risulta immediato che


n =

b
a

n a
ba


n =

1
0

per cui n = 1 se e solo se il prezzo sale al passo n e inoltre Fn = (1 , . . . , n ) = (1 , . . . , n ).


Dalla relazione:
n r
n pe =
ba
appare evidente che oltre alla (6.25) e alla (6.28) si ha anche una rappresentazione di M in funzione della
successione di variabili aleatorie = {n }, ovvero:
Mn = M 0 +

n
X

()

ek0 mk

(6.29)

k=1



()
dove la successione m() = mn

()

n6N

di variabili mn =

Pn

k=1 (k

e Fn )-martingala e
pe) = Hn ne
p `e una (P,

n .

en0 = (b a)e
Si osservi che la scelta di esprimere M in termini della
Pn successione risulta utile nel calcolo esplicito del valore
del premio, in quanto la variabile aleatoria Hn = k=1 k , che conta il numero delle volte in cui il prezzo sale
tra il passo 1 e il passo n, ha legge binomiale Bin(n, p) rispetto alla misura martingala equivalente.

6.2.1

Calcolo del prezzo di copertura per lopzione call

Per unopzione call standard (si veda la premessa del capitolo II) la funzione di pay-off fN risulta pari a:
fN = (SN K)+

(6.30)

dove N indica il tempo di maturit`


a e K il prezzo di esercizio. Applicando i risultati generali (descritti nel
paragrafo precedente) al caso considerato si ha che la (6.24) diviene:


(SN K)+
e
C(fN , P) = E
.
(6.31)
(1 + r)N

130

MPEF 01-07-2009

Per sottolineare la dipendenza del prezzo di copertura dellopzione call dal prezzo di strike viene introdotta la
notazione Ccall (K, P) = C(fN , P).
Prendendo H = HN pari al numero di volte in cui lazione `e aumentata del fattore (1 + b) nel periodo di
PN
tempo che va da 1 a N , cio`e, richiamando le notazioni del precedente paragrafo, H = k=1 k segue che la sua
distribuzione `e una binomiale di parametri N e pe , ovvero:
H B(N, pe)

e
sotto P.

Si pu`o assumere, dunque, che allistante N lazione presenti il seguente valore


SN = S0 (1 + a)N H (1 + b)H

(6.32)

andandolo a sostituire nella (6.31) e esplicitando il valore della media per la distribuzione in esame segue che il
prezzo di acquisto risulta
N  
X
1
N
Ccall (K, P) =
pe h (1 pe )N h
h
(1 + r)N
h=0
+

S0 (1 + a)N h (1 + b)h K ,
(6.33)
se si prende h0 come il pi`
u piccolo intero per cui `e soddisfatta la disuguaglianza S0 (1 + a)N h (1 + b)h > K si
pu`o riscrivere la (6.33) in funzione di questo
N h 
h

N  
X
1+b
1+a
N
h
N h
Ccall (K, P) = S0
pe (1 pe )
h
1+r
1+r
h=h0

N  
X
K
N
pe h (1 pe )N h
h
(1 + r)N

(6.34)

h=h0

= S0

h 
N h
N  
X
1+b
1+a
N
pe
(1 pe )
h
1+r
1+r

h=h0

N  
X
K
N
pe h (1 pe )N h .
h
(1 + r)N
h=h0

Si osserva che presa la funzione di sopravvivenza14 di una binomiale calcolata nel punto x ovvero
N  
X
N
B(N, p)(x) =
p h (1 p)N h
h

(6.35)

h>x

si ottiene
Ccall (K, P) = S0 B(N, p )(x0 )

K
B(N, pe )(x0 )
(1 + r)N

(6.36)

dove si `e posto15
p =

1+b
pe.
1+r

(6.37)

14 Si ricordi che la funzione di sopravvivenza di una variabile aleatoria X, con funzione di distribuzione F (x) = P(X x) `
e
definita da F (x) = 1 F (x) = P(X > x). Nel caso di una variabile aleatoria binomiale di parametri n e , se si indica con
bxc  
X
n
B(n, )(x) = P(X x) =
h (1 )ni
i
i=0

si ha che la funzione di sopravvivenza vale


B(n, )(x) = P(X > x) =

X
i=1+bxc

15 Si

noti che ricordando che il valore di pe =

ra
ba


=

1+rd
ud

p =

 
n
h (1 )ni
i

si ottiene che

1+b
1+b ra
pe =
.
1+r
1+r ba

MPEF 01-07-2009

131

Osservazione 6.1. Il valore x0 deve soddisfare la condizione


S0 (1 + a)N x0 (1 + b)x0 K = 0

x0 = ln

K
S0 (1 + a)N


ln

1+a

1+b

In termini di h0 `e equivalente richiedere che


h0 = min{j  N : S0 (1 + a)N j (1 + b)j K > 0}
per cui risolvendo si arriva a


ln

S0 (1+a)N

 .

h0 = 1 +
1+b
ln 1+a

(6.38)

I risultati ottenuti portano ad enunciare il seguente teorema.


Teorema 6.2. Il prezzo razionale per lopzione Europea standard di tipo call con obbligazione (pay-off ) terminale
fN = (SN K)+ `e pari a
Ccall (K, P) = S0 B(N, p )(x0 )

K
B(N, pe )(x0 )
(1 + r)N

dove B(N, p) `e definita tramite la (6.35), p attraverso la (6.37) e si `e assunto h0 come nella (6.38).
Osservazione 6.2. Si osservi che i risultati ottenuti nel caso delle opzioni call sono facilmente estendibili a
quelle put (dove fN = (K SN )+ ), infatti dallidentit`
a
(K SN )+ = (SN K)+ SN + K
segue che il prezzo razionale di unopzione put pu`
o essere definito dalla formula


(K SN )+
e
Cput (K, P) = E
(1 + r)N


K
SN
e
= Ccall (K, P) E
+
N
(1 + r)
(1 + r)N
e
ed essendo E

SN
(1+r)N

= S0 si ottiene la seguente relazione


Cput (K, P) = Ccall (K, P) S0 +

K
.
(1 + r)N

che viene detta formula di parit`


a per le opzioni call-put.
Da questa espressione `
e facile vedere che
1 p =

1+a
1+a br
(1 pe ) =
.
1+r
1+r ba

Infatti
1+b
1+b ra
pe = 1
1+r
1+r ba
(1 + r) (b a) (1 + b)(r a)
b a + br ar r + a br + ba
=
=
(1 + r) (b a)
(1 + r) (b a)
b r + ba ar
(b r) (1 + a)
=
=
.
(1 + r) (b a)
(1 + r) (b a)

1 p = 1

132

MPEF 01-07-2009

Osservazione 6.3. Sia f = f (x), con x > 0, una funzione non negativa, sia fN = f (SN ) il pay-off e sia, come
e f (SN ) il prezzo razionale corrispondente. E
` possibile determinare il valore del prezzo
al solito, C(fN , P) = B0 E
BN
di unopzione generica di questo tipo usando il prezzo razionale
di unopzione call.
R
Si assuma f derivabile con derivata f 0 (x) = f 0 (0) + (0,x] (dy), dove = (dy) `e una misura finita16 ,
non necessariamente positiva, su (R+ , B(R+ )). Si noti che se f `e derivabile due volte si ha la precedente
00
rappresentazione con (dy) = f (y)dy .
Allora `e chiaro che
Z
Z
f (x) = f (0) + xf 0 (0) +
(x y)+ (dy) = f (0) + xf 0 (0) +
(x y)+ (dy),
(6.39)
(0,x]

(0,)

quindi ponendo x = SN e cambiando notazione nellintegrale


Z
fN = f (SN ) = f (0) + SN f 0 (0) +
(SN y)+ (dy)

(P q.c.).

(0,)

Se ora si attualizzano i valori


f (0)
SN 0
f (SN )
=
+
f (0) +
feN =
BN
BN
BN

(SN y)+
(dy)
BN

Z
(0,)

(P q.c.).

e S0 = S0 , e tenendo conto che BN = B0 (1+r)N


e essendo E
e SN = E
e si considera la media rispetto alla misura P,
BN
B0
B0
`e deterministico, si ottiene


Z
fN
f (0)
S0 0
(SN y)+
e
e
E
=
+
f (0) +
E
(dy),
BN
BN
B0
BN
(0,)
da cui segue, per la (6.31), che
C(fN , P) =

f (0)
+ S0 f 0 (0) +
(1 + r)N

Z
Ccall (y, P)(dy).

(6.40)

(0,)

Si osservi che se fN = f (SN ) = (SN K )+ , K > 0, allora (dy) `e concentrata nel punto K , cio`e
(dy) = {K } (dy), e ci`
o implica, come deve essere, C(fN , P) = Ccall (K , P).

16 Se il lettore trova difficolt`


a a comprendere questa espressione pu`
o limitarsi al caso di funzioni derivabili due volte, con derivate
00
seconde continue, e sostituire a (dy) lespressione f (y)dy.
Per ottenere poi la formula (6.39) basta considerare che allora
Z z
f 0 (z) = f 0 (0) +
f 00 (y)dy,
0

e quindi

f (x) = f (0) +

f 0 (z)dz = f (0) +

f 0 (0) +


Z
f 00 (y)dy dz = f (0) + xf 0 (0) +

Z

f 00 (y)dy

dz

e scambiando lordine integrali per cui 0 < z x e 0 < y < z diviene 0 < y < x e y < z x

Z x 
Z x Z x
Z x
f 00 (y)dz dy = f (0) + xf 0 (0) +
f 00 (y)
dz dy
= f (0) + xf 0 (0) +
0

y
x

00

f (y) (x y) dy

= f (0) + xf (0) +
0

Tuttavia, ad esempio, rientrano nella categoria sopra citata anche funzioni del tipo
f (x) = (x K1 )+ (x K2 )+ ,

0 < K1 < K2 .

Ovviamente per tale funzione non c`


e bisogno di trovare quale sia la misura per ottenere il prezzo (basta usare la linearit`
a del
valore atteso per capire che basta fare la differenza tra il prezzo della call con prezzo di strike K1 e quello della call con prezzo
di strike K2 . Comunque, posto gi (x) = (x Ki )+ si ha gi0 (x) = 0 per x < K1 e gi0 (x) = 1 per x > K1 , ossia gi0 (x) coincide
con la funzione di Heaviside H(x Ki ), che a sua volta corrisponde allintegrale della misura di Dirac Ki (dx), che e una misura
concentrata in Ki con peso 1 in Ki .

MPEF 01-07-2009

6.3

133

Appendice: Alberi binomiali e modello CRR***

In questa Appendice vogliamo discutere la relazione tra i risultati ottenuti in questo capitolo, e la costruzione
degli alberi binomiali, cos` come si trova nei testi standard come il testo di Hull [8] o di Luenberger [10], ad
esempio, ma anche nel testo di Bj
ork [4]. Il metodo si applica nel caso in cui lopzione sia di tipo europeo e
plain vanilla, cio`e il caso in cui il terminal pay-off fN = f (SN ), con f funzione deterministica.
Per iniziare lalbero permette di scrivere levoluzione del prezzo dellazione in modo che lalbero rappresenta
lo spazio dei possibili eventi (si veda la Figura 6.1).
e del
La martingala Mn `e data dal valore atteso condizionato, sotto la misura martingala equivalente P,
terminal pay-off attualizzato
f (SN )
,
fN =
BN
rispetto a Fn , ossia da
MN =

f (SN )
BN

i
h
e MN Fn .
Mn = E

Quindi, nel caso delle opzioni plain vanilla, il valore di MN si ottiene semplicemente calcolando la funzione f
negli N + 1 valori possibili per SN e dividendo per BN = B0 (1 + r)N (si veda la Figura 6.3). Essendo BN un
valore deterministico, si ha che
MN = gN (SN ),
f (s)
dove ****
gN `e una funzione deterministica ****(
gN (s) = B0 (1+r)
N ). Sempre nel caso delle opzioni plain vanilla,
anche Mn gode di una propriet`
a analoga, ovvero della propriet`a che

Mn = gn (Sn ),
per unopportuna funzione deterministica gn . Questa propriet`a si dimostra facilmente per induzione: per
n = N 1 si ottiene immediatamente




h
i
e MN FN 1 = E
e f (SN ) FN 1
MN 1 = E
BN



e f (SN 1 u) 1{Z =u} + f (SN 1 d) 1{Z =d} FN 1
=E
N
N
BN
BN


i
i
h
f (SN 1 d) e h
f (SN 1 u) e


E 1{ZN =u} FN 1 +
E 1{ZN =d} FN 1
=
BN
BN
f (SN 1 u)
f (SN 1 d)
=
pe +
qe =: gN 1 (SN 1 ).
BN
BN
Analogamente se Mn = gn (Sn ), allora


h
i
h
i
e Mn Fn1 = E
e gn (Sn ) Fn1
Mn1 = E

h
i
e gn (Sn1 u) 1{Z =u} + gn (Sn1 d) 1{Z =d} Fn1
=E
n
n


h
i
h
i

e 1{Z =u} Fn1 + gn (Sn1 d) E
e 1{Z =d} Fn1
= gn (Sn1 u) E
n
n
= gn (Sn1 u) pe + gn (Sn1 d) qe =: gn1 (Sn1 ).
Riassumendo abbiamo visto che quindi, nel caso delle opzioni plain vanilla, per ottenere la martingala Mn
basta
1) calcolare MN alla fine dellalbero binomiale,
2) calcolare Mn1 = gn1 (Sn1 ) = gn (Sn1 u) pe + gn (Sn1 d) qe.

134

MPEF 01-07-2009

Ovviamente queste operazioni corrispondono alle operazioni deterministiche17 ***che corrispondono a


calcolare la funzione gn (sn ), per = 0, 1, ..., n, (con n = N, N 1, . . . , 1, 0), e dove sn sono i possibili valori
che pu`o assumere la variabile aleatoria Sn , ossia per sn {s0 uk dnk , con k = 0, 1, ..., n}, attraverso i seguenti
passi:
1) porre
gN (sN ) :=

f (sN )
,
BN

per tutti i valori che pu`


o assumere SN , ossia per sN {s0 uk dN k , con k = 0, 1, ..., N };
2) calcolare gn1 (sn1 ), attraverso la formula ricorsiva
gn1 (sn1 ) = gn (sn1 u) pe + gn (sn1 d) qe,
per tutti i valori che pu`
o assumere Sn1 , ossia per sn1 {s0 uk dn1k , con k = 0, 1, ..., n 1};
***ATTENZIONE INIZIO CAMBIAMENTO ******
Come gi`a sappiamo, linteresse della rappresentazione della martingala Mn `e dovuto ai seguenti fatti:
(I) Calcolo del prezzo dellopzione: Vedremo come si possa arrivare ad una formula ricorsiva per il calcolo
del prezzo, non attualizzato. Anche in questo caso c`e una formula ricorsiva (allindietro) per la funzione
17 Queste operazioni corrispondono anche a calcolare la funzione g
n (s0 uk dnk ) per k = 0, 1, ..., n, (con n = N, N 1, . . . , 1, 0)
attraverso i passi

(1) calcolare gN (s0 uk dN k ) = f (s0 uk dN k )/BN , per k = 0, 1, ...N ,


(2) calcolare, per n N ,
gn1 (s0 uk dn1k ) = gn (s0 uk dn1k u) pe + gn (s0 uk dn1k d) qe
= gn (s0 uk+1 dnk+1 ) pe + gn (s0 uk dnk ) qe

Si osservi che se si indica con


Vn (k) := gn (s0 uk dnk ),
allora la precedente formula ricorsiva diviene
(1) calcolare VN (k) = f (s0 uk dN k )/BN , per k = 0, 1, ...N ,
(2) calcolare Vn (k), per k = 0, 1, ...N , attraverso la formula ricorsiva
Vn1 (k) = Vn (k + 1) pe + Vn (k) qe.
Inoltre, tenendo conto del fatto che
Sn = s0 uHn dnHn
si ottiene che
Mn = gn (s0 uHn dnHn ) = Vn (Hn ).

La funzione
Vn (k) = Bn Vn (k) = Bn gn (s0 uk dnk ) = B0 (1 + r)n gn (s0 uk dnk ),
anche ammette una formula ricorsiva, che risulta
Vn1 (k) =

1
(Vn (k + 1) pe + Vn (k) qe) ,
1+r

come si vede subito tenendo conto del fatto che


1
B0 (1 + r)n Vn1 (k)
1+r


B0 (1 + r)n Vn (k + 1) pe + Vn (k) qe

Vn1 (k) = B0 (1 + r)n1 Vn1 (k) =

1
1+r
1
(Vn (k + 1) pe + Vn (k) qe) .
=
1+r
=

Abbiamo quindi ottenuto la formula ricorsiva che viene presentata nel libro di Bj
ork [4].

MPEF 01-07-2009

135

c(n, x) = Bn gn (x), che permette di calcolare il valore del portafoglio al tempo n come c(n, Sn ), ed il prezzo al
tempo zero come c(0, s0 ).
(II) Calcolo della strategia di copertura perfetta: si ottiene lespressione esplicita della strategia
autofinanziante di copertura perfetta data dal cosidetto Delta-hedging ossia
n () =

c(n, Sn1 () u) c(n, Sn1 () d)


,
Sn1 ()u Sn1 ()d

(si ricordi che n si ottiene immediatamente dalla condizione che la strategia sia autofianziante).
Il nome di Delta-hedging, viene dal fatto che la strategia (o portafoglio) si pu`o riscrivere
n () =

c(n)
S(n)

dove c(n) `e la differenza tra i due possibili valori del portafoglio al tempo n, e S(n) `e la differenza tra i due
possibili prezzi del titolo rischioso al tempo n, entrambe le differenze sono calcolate al tempo n 1, quando
sappiamo che il prezzo del titolo rischioso vale Sn1 .
***fine cambiamento***

(I) Calcolo del prezzo dellopzione



e il
Se
= n , n n `e una strategia di copertura perfetta, allora, sotto la misura martingala equivalente P,
n = Xn /Bn gode delle propriet`a che
processo valore attualizzato X
f (SN )

N
X
=
,
BN

n =
X

n
X


k Sk Sk1 ,

1 n N.

cambiamento

k=1

e Poiche entrambe MN e X
coincidono con il terminal pay-off
per cui `e una martingala (sempre sotto P).
N
attualizzato, ovvero
= f (SN ) ,
MN = X
N
BN
necessariamente deve essere (si rammentino le osservazioni allEsempio 4.1: ****se due martingale coincidono,
con probabilit`a 1, nellistante N , allora coincidono, con probabilit`a 1, in tutti i tempi precedenti n N )
n ,
Mn = X

per ogni n = 0, 1, . . . , N.

Da ci`o discende anche che ****si pu`


o ottenere una rappresentanzione per****il valore della strategia di
copertura, non attualizzato, cio`e


e fN Fn = Bn gn (1 , , n ).
= Bn Mn = Bn E
Xn = Bn X
n
BN
Nel caso delle opzioni plain vanilla, quindi, la funzione valore diviene
Xn = Bn gn (Sn ) = c(n, Sn ),

(6.41)

c(n, x) = cN (n, x) := B0 (1 + r)n gn (x).

(6.42)

dove

Nella precedente definizione abbiamo messo in evidenza la dipendenza dal tempo di esercizio N , in quanto anche
la funzione gn (x) dipende da tale valore18 .
18 Abbiamo indicato tale funzione con c(n, x), ma ovviamente il valore del portafoglio di copertura perfetta dipende anche dai
parametri r, a e b (o se si preferisce da r, u e d).

136

MPEF 01-07-2009

Ovviamente anche cN (n, x) si pu`


o ottenere con una formula ricorsiva:
1) porre

cN (N, sN ) := f (sN ) = BN

f (sN )
BN


,

per tutti i valori che pu`


o assumere SN , ossia per sN {s0 uk dN k , con k = 0, 1, ..., N };
2) calcolare cN (n 1, sn1 ), attraverso la formula ricorsiva
cN (n 1, sn1 ) =


1
cN (n, sn1 u) pe + cN (n, sn1 d) qe ,
1+r

per tutti i valori che pu`


o assumere Sn1 , ossia per sn1 {s0 uk dn1k , con k = 0, 1, ..., n 1};
Questa osservazione ha anche limportante conseguenza che il prezzo dellopzione si ottiene come19
0 = cN (0, s0 ).
x0 = B0 X
(II) Calcolo della strategia di copertura perfetta
 
e fN Fn ,

La strategia di copertura perfetta si ottiene immediatamente dalla Srappresentazione


di Mn = E
ossia nel momento in cui si abbia che
n
X

Mn =
k Sk Sk1 ,
k=1

n coincide con Mn , se appunto la strategia scelta `e data dallinvestire


in quanto, appunto il valore attualizzato X
k Sk1 ,
in k azioni nellintervallo (k 1, k) e nel mettere in banca il rimanente, ossia la differenza tra X
k1

infatti Xk1 = k1 + k1 Sk1 per definizione, ma deve essere anche Xk1 = k + k Sk1 , se la strategia

= (n , n )n `e autofinanziante.
Ricordiamo brevemente come si ottiene il numero k di azioni da comprare nel caso generale: una volta data
la funzione gn (1 , , n ), che individua20 Mn , allora la condizione che Mn sia una martingala, ossia



e Mn Fn1
Mn1 = E
diviene la condizione21
gn1 (1 (), , n1 ()) = p gn (1 (), , n1 (), b) + q gn (1 (), , n1 (), a).
Inoltre, come abbiamo visto, la condizione che Mn sia una martingala equivale ad affermare che
n0 () :=

gn (1 (), , n1 (), b) gn1 (1 (), , n1 ())


br

(6.43)

coincide con lanaloga espressione con a al posto di b, ovvero che vale anche luguaglianza
n0 () =
19 Nelle

gn (1 (), , n1 (), a) gn1 (1 (), , n1 ())


.
ar

(6.44)

notazioni del Bj
ork [4] ci`
o corrisponde a
= B0 V (H0 ) = B0 V (0) = V (0).
x0 = B 0 X
0

20 Come abbiamo gi`


a visto prima, nel caso delle opzioni plain vanilla sappiamo che la funzione gn (1 , , n ) risulta essere
funzione deterministica di Sn ossia Mn = gn (Sn ).
21 Ricordiamo che i punti chiave sono scrivere M = 1
a del
n
=a} gn (1 , , n1 , a) + 1{n =b} gn (1 , , n1 , b), la linearit`
{

 n


e {n = x} vale q per x = a e p per x = b.
e 1{ =x} Fn = P
e {n = x} Fn = P
valore atteso condizionato, ed il fatto che E
n

MPEF 01-07-2009

137

Inoltre, come abbiamo gi`


a visto, nel caso generale abbiamo


Mn () Mn1 () =1{n =a} () gn (1 (), , n1 (), a) gn1 (1 (), , n1 ())


+ 1{n =b} () gn (1 (), , n1 (), b) gn1 (1 (), , n1 ())


=1{n =a} () n0 () a r + 1{n =b} () n0 () b r

=n0 () n r
ed infine, tenendo conto che Sn Sn1 =
ha
Mn () Mn1 () =n0 ()

(1+n )Sn1
(1+r)Bn1

Sn1
Bn1

Sn1
Bn1

 1+n
1+r


1 =

Sn1 n r
Bn1 1+r

Sn1 (n r)
Bn1 (1+r) ,

si



Bn1 (1 + r)
0 ()
Sn () Sn1 () = Bn n
Sn () Sn1 () ,
Sn1 ()
Sn1 ()

da cui
n () = Bn

n0 ()
.
Sn1 ()

(6.45)

Nel caso delle opzioni plain vanilla, tenendo conto che gn (1 (), , n1 (), n ()) = gn (Sn ()), la condizione
e diviene, come abbiamo visto allinizio del paragrafo in modo diretto,
che Mn sia una martingala sotto P
gn1 (Sn1 ) = p gn (Sn1 u) + qgn (Sn1 d),

(6.46)

mentre la condizione che (6.43) coincide con (6.44) diviene


gn (Sn1 () u) gn1 (Sn1 ())
gn (Sn1 () d) gn1 (Sn1 ())
=
.
(6.47)
br
ar
Inserendo in questultima relazione (6.47) la precedente espressione (6.46) per gn1 (Sn1 ), e tenendo conto che
br
q = 1 p = ba
e che b a = 1 + b (1 + a) = u d, si ottiene
n0 () =

gn (Sn1 () u) [
p gn (Sn1 () u) + qgn (Sn1 () d)]
br
gn (Sn1 () u) p gn (Sn1 () u) qgn (Sn1 () d)
=
br
q gn (Sn1 () u) qgn (Sn1 () d)
=
br

q 
=
gn (Sn1 () u) gn (Sn1 () d)
br
br


= ba gn (Sn1 () u) gn (Sn1 () d)
br
gn (Sn1 () u) gn (Sn1 () d)
=
ba
gn (Sn1 () u) gn (Sn1 () d)
=
.
ud
Per ottenere n , non rimane che utilizzare questa uguaglianza in (6.45) e osservare che, sempre per le opzioni
plain vanilla, la strategia di copertura perfetta si ottiene da una derivata discreta, ossia
n0 () :=

g
n (Sn1 () u)
gn (Sn1 () d)
ud

gn (Sn1 () u) gn (Sn1 () d)
Sn1 ()
Sn1 ()u Sn1 ()d
Bn gn (Sn1 () u) Bn gn (Sn1 () d)
=
Sn1 ()u Sn1 ()d

n () = Bn

= Bn

Ricordando la (6.41) e la definizione (6.42) della funzione c(n, x), si ha dunque che in questo caso la strategia
di copertura perfetta diviene una sorta di derivata discreta rispetto al parametro x della funzione c(n, x), in
quanto
c(n, Sn1 () u) c(n, Sn1 () d)
.
n () =
Sn1 ()u Sn1 ()d

138

MPEF 01-07-2009

FIGURA 1:
come si trovano i valori di Sn per n = 0, 1, ..., N

s0 uN

3


3Q s0 uN 1 d

QQ

s
3Q
3

s0 u3

QQ

s
3Q
3Q
s0 u2

Q
QQ
s
Q
s

3Q

3Q s0 u2
3

s0 u 
d

QQ
QQ
s

s
3Q s0 u d
3Q
3Q
s0 

QQ
QQ
QQ

s
s
s
2
3Q
Q s0 d 
3Q s0 u d
3


QQ
QQ
QQ
s
s
s
3Q
Q s0 d2
3Q

QQ
QQ
QQ
s
s
s
3Q
Q s0 d3
3

Q
QQ
s
Q
s
Q
3Q s0 u dN 1

QQ
QQ
s
s
Q
3

QQ
s
Q s0 dN
QQ
s

Figura 6.1: Albero binomiale per il calcolo di Sn per n = 0, 1, ..., N . Lo spazio viene rappresentato come
linsieme dei cammini possibili.

3


3Q

QQ

s
Q
3

3



QQ
s

3Q
3Q
s0 u2

QQ
Q
s
s
Q

3 2
2 
Q
Q
3
3
3

s
u
d
s0 u 
s
u
d
0
0


QQ
QQ

s
s
2 2
3Q
3

Q
s0 u3 d3
s0 
s
u
d
0

3QQ
Q
Q
s
Q
s
Q

s
Q
Q
3Q

3Q

3




QQ
QQ
QQ
s
s
s
Q
3Q
3Q


QQ
QQ
QQ
s
s
s
Q
3

Q
3



QQ
QQ
s
s
Q
3Q

QQ
QQ
s
s
Q
3


QQ
s
Q
QQ
s

Figura 6.2: Albero binomiale per il calcolo di Sn per n = 0, 1, ..., N . Esempio di cammino: in grassetto si vede
il cammino relativo allevento {Z1 = u, Z2 = u, Z3 = d, Z4 = d, Z5 = u, Z6 = d}

MPEF 01-07-2009

139

FIGURA 2:
come si trovano i valori di Mn = gn (Sn ) per n = 0, 1, ..., N .

s0 uN

*


HH
s0 uN 1 d
HH
j
f (sN 1 u)f (sN 1 d)
*


N =
sN 1 usN 1 d


H
HH sN 1 u
j f (sN 1 u)/BN
H
*
g
N 1 (sN 1 ) =
sN 1 

HH
= pf
(sN 1 u)/BN + qf (sN 1 d)/BN
sN 1 d
HH
j f (sN 1 d)/BN
*




H
HH
j
H
*



HH
s0 u dN 1
HH
j
*



H
HH s0 dN
j
H

Figura 6.3: Albero binomiale per il calcolo di gN 1 e della strategia di copertura perfetta N
In particolare la strategia di copertura perfetta per n = N ed SN 1 = sN 1
N =

f (sN 1 u) f (sN 1 d)
BN f (sN 1 u)/BN BN f (sN 1 d)/BN
=
,
sN 1 u sN 1 d
sN 1 u sN 1 d

mentre per n generico ed Sn1 = sn1 , in un nodo generico sn1 = s0 uk dn1k , si ha

n =

Bn g
n (sn1 u) Bn g
n (sn1 d)
sn1 u sn1 d

g
n1 (sn1 ) =
= p
gn (sn1 u) + qg
n (sn1 d)

sn1

c(n, sn1 u) c(n, sn1 d)


sn1 u sn1 d

sn1 u
g
n (sn1 u)
*



HH
sn1 d
HH
jg
n (sn1 d)

Figura 6.4: Albero binomiale per il calcolo della strategia di copertura perfetta n .

Capitolo 7

Il modello di Black e Scholes come


limite del modello binomiale
multiperiodale
7.1

Il Modello Binomiale Multiperiodale

Ricordiamo brevemente il Modello Binomiale Multiperiodale (o Cox-Ross-Rubinstein)

7.1.1

Ipotesi e notazioni

Il tasso di interesse `e costante e vale r, mentre il prezzo dellazione `e dato da


S0 = s0 > 0,

Sn+1 = (1 + n+1 )Sn = Zn+1 Sn

o in altre parole
S0 = s0 > 0,

S1 = (1 + 1 )S0 = Z1 S0

...

Sn = (1 + n ) (1 + 2 )(1 + 1 )S0 = Zn Z2 Z1 S0

dove le variabili aleatorie i possono assumere solo il valori a e b, con la condizione


a < r < b,
o equivalentemente le variabili aleatorie Zi = 1 + i possono assumere solo i valori
u = 1 + b,

d = 1 + a,

con la condizione
d < 1 + r < u.

Si definisca
i = 1{i =b} = 1{Zi =u}
ovvero la variabile aleatoria che vale 1 se il prezzo dellazione sale e zero altrimenti, in modo che1
Zi = ui d1i .
1 Il

fatto che Zi = ui d1i si verifica per ispezione:


Zi = u i = 1 ui d1i = u1 d11 = u
Zi = d i = 0 ui d1i = u0 d10 = d

140

MPEF 01-07-2009

141

Sia Hn () la v.a. che conta il numero delle volte in cui il prezzo sale tra il passo 1 e il passo n, ossia
Hk () =

k
X

1{i =b} =

i=1

k
X

1{Zi =u} =

k
X

i=1

i=1

in modo che
 u Hk

Sk N = S0 uHk dkHk = S0

dk

= S0 (1 + b)HN (1 + a)kHk = S0

1+b
1+a

Hk

(1 + a)k

per ogni k = 0, 1, ..., N e per ogni pay-off terminale2 fN (che deve essere FN -misurabile) il prezzo di esercizio
pu`o essere descritto dalla formula




fN
fN
e
e
.
(7.1)
=E
C(fN , P) = CN (fN , P) = B0 E
BN
(1 + r)N
e `e il valore atteso rispetto alla probabilit`a P
e rispetto alla quale gli eventi {Zi = u} sono indipendenti e
dove E
tutti con probabilit`
a
1+rd
1 + r (1 + a)
ra
p =
=
=
.
ud
(1 + b) (1 + a)
ba
Allora, per lopzione call europea con prezzo di esercizio K e tempo di esercizio N ,


(SN K)+
e
= Ccall (K, P) = Ccall,N (K, P)E
BN

(7.2)

e
e quindi, tenendo conto che HN ha distribuzione binomiale Bin(N, p) rispetto a P
 

h 
N h
1+b
1+a
N
pe h (1 pe )N h
h
1+r
1+r
x0 <hN


X
K
N
pe h (1 pe )N h

N
h
(1 + r)

Ccall (K, P) = S0

(7.3)

x0 <hN

h 
N h
N  
X
1+b
1+a
N
= S0
pe
(1 pe )
h
1+r
1+r
h=h0

N  
X
K
N

pe h (1 pe )N h .
h
(1 + r)N
h=h0

(7.4)
dove
ln
x0 =

K
S0 (1+a)N

ln

1+b
1+a

o equivalentemente
h0 = min{j  N : S0 (1 + a)N j (1 + b)j K > 0}
2 Si ricorda che stiamo trattando obbligazioni derivate di tipo europeo, che possono essere esercitate solo al tempo finale N , o
tempo si esercizio, al contrario di quelle di tipo americano, che invece possono essere esercitate in un qualunque istante tra linizio
del contratto e il tempo di esercizio.

142

MPEF 01-07-2009

7.2

Approssimazione del Modello Binomiale Multiperiodale

7.2.1

Il modello approssimato, a tempo continuo


(n)

Consideriamo ora il caso in cui gli scambi avvengono sempre pi`


u vicini nel tempo ovvero ai tempi tk = k/n.
Consideriamo il tempo continuo, ma, per n fissato, i processi che ci interessano sono costanti negli intervalli
(n)
tra un tempo tk = k/n e laltro. Inoltre i parametri del modello, ossia r, u e d, dipenderanno da n, in modo
da specificare e da tenere conto del fatto che si tratta di intervalli di ampiezza 1/n.
Continuiamo ad indicare con Bk ed Sk il prezzo del titolo non rischioso (conto in banca) e del titolo
rischioso (lazione) rispettivamente, anche se, per mettere in evidenza la dipendenza dal parametro n sarebbe
[n]
[n]
pi`
u opportuno denotarli con Bk e Sk .
Supponiamo
(n)

Bt

bntc

(n)

= B bntc = Bbntc = B0 (1 + r(n))

(7.5)

(n)
St

(n)

= S bntc = Sbntc = s0
n

u(n)
d(n)

Hbntc 

d(n)

bntc

(7.6)
(n)

dove il primo segno di uguaglianza sia in (7.5) che in (7.6), garantisce il fatto che i due processi Bt
sono costanti sugli intervalli di ampiezza 1/n, mentre nellultima uguaglianza in (7.5) si sceglie
r(n) =

r
,
n

(n)

ed St

(7.7)

e dove infine nellultima uguaglianza3 in (7.6) si sceglie


u(n) = e/

d(n) = e/

(7.8)

per una costante > 0.


Infine anche il valore del tempo di esercizio dipende da n in modo che
N (n) = Nn (T ),

(7.9)

dove Nn (T ) `e il numero di intervalli di ampiezza 1/n contenuti in [0, T ], ovvero Nn (T ) = bnT c.


Il risultato principale di questa sezione `e riassunto nel seguente teorema, che corrisponde ad ottenere la
formula di Black e Scholes come limite.
(n)

Teorema 7.1. Posto Ccall (K, P) il prezzo della call europea nel modello binomiale dato da (7.5) e (7.6), con i
parametri definiti come in (7.7) e (7.8), prezzo di esercizio K e tempo di esercizio Nn (T ), si ottiene che


(n)
lim Ccall (K, P) = s0 + T KerT (),
(7.10)
n

dove `e la funzione di ripartizione della legge N (0, 1),


1
(x) =
2

ez

/2



Z +
2
1
dz =
ez /2 dz = 1 (x) ,
2 x

e dipende da K, T , r e nel seguente modo:



1
=
log
T

3 Si

K
s0

2
r
2


xR

 
T .

[n]

noti che di nuovo, per non appesantire la notazione, non abbiamo utilizzato la notazione Hbntc , che sarebbe stata pi`
u precisa.

MPEF 01-07-2009

143

Osservazione 7.1. Tenendo conto che r T = log(erT ) = log(erT ), con semplici passaggi si ottiene


 T 
 T
erT
erT
, + T = 1 T log s0K
= 1 T log s0K
2
+ 2 ,
da cui, poiche, come gi`
a ricordato (x) = 1 (x), il limite in (7.10) si riscrive come

 T 
 T
erT
erT
s0 1 T log s0K
KerT ( 1 T log s0K
+ 2
2 )
h 


 T
 T i
erT
s0 erT
1

=s0 1 T log s0K


s0 K
(
log
+ 2
2 )
rT
K
e
T

(7.11)
(7.12)

La forma (7.12), mette in evidenza come il prezzo si scriva come il prezzo iniziale s0 della opzione, moltiplicato
per un fattore che dipende solo dal rapporto4 s0K
, fra prezzo di esercizio K e prezzo forward della opzione
erT
rT
stessa, (cio`e s0 e , il valore di s0 attualizzato al tempo T ).
Prima di tutto commentiamo la scelta del riscalamento, ossia la scelta dei due processi (7.5) e (7.6).
Ovviamente la scelta di r(n) in (7.7) corrisponde alla necessit`a che il tasso di interesse sia proporzionale
(n) (n)
allampiezza degli intervalli [tk , tk+1 ) = [ nk , k+1
n ), ossia si abbia
B

(n)
(n)
tk

[n] 

= Bk = Bk
(n)


r k
= B0 1 +
n

(n)

e che rimanga costante in tutto lintervallo [tk , tk+1 ), ovvero che


(n)

Bt

=B

(n)
(n)

tk


r k
= B0 1 +
n

(n)

(n)

per t [tk , tk+1 ) = [ nk , k+1


n )

o in altre parole che, se, analogamente a Nn (T ),


Nn (t) = bntc

(7.13)

`e il numero di intervalli di ampiezza 1/n che si trovano nellintervallo [0, t], allora
(n)

Bt


r Nn (t)
= B0 1 +
n

o meglio
(n)

Bt


r bntc
(n)
.
= B bntc = B0 1 +
n
n

(7.14)

Inoltre `e ragionevole pensare che i cambiamenti del prezzo si discostino di poco in un intervallo di tempo
cos` piccolo, ed in effetti si suppone che


(n)
(n) (n)
(n)
(n)
S (n) = Zk S (n) = 1 + k
S (n)
tk

tk1

(n)

dove i valori ammissibili per Zk sono solo u(n) = e/


convergono entrambe ad 1, ovvero, pi`
u precisamente,

u(n) & 1
n

tk1

e d(n) = e/

, ed in effetti le successioni u(n) e d(n)

d(n) % 1,
n

Si noti inoltre che, tenendo conto che


ex = 1 + x +

1 2
x + o(x2 ),
2

4 Ricordiamo che lopzione si dice alla pari o at the money se K = s erT , out of the money se K < s erT , e in the money se
0
0
invece K > s0 erT .

144

MPEF 01-07-2009

la definizione (7.8) corrisponde a

1
u(n) = 1 + (/ n) + ( 2 /n) + o(1/n)
2

1
d(n) = 1 (/ n) + ( 2 /n) + o(1/n),
2

(7.15)

e quindi la condizione di completezza e di assenza di arbitraggio, ossia


d(n) < 1 + r(n) < u(n)

a(n) < r(n) < b(n)

diviene

1
1
(/ n) + ( 2 /n) + o(1/n) < r/n < (/ n) + ( 2 /n) + o(1/n),
2
2

(7.16)

che `e chiaramente soddisfatta per n sufficientemente grande.


In altri termini si suppone che
u(n) = 1 + b(n)
dove

b(n) = +
n

1
2

d(n) = 1 + a(n) .

2
+ o( n1 )
n

a(n) = +
n

1
2

2
+ o( n1 )
n

e che
(n)

St

=S

(n)
(n)

tk

(n)

(n)

per t [tk , tk+1 ) = [ nk , k+1


n )

ovvero, se come prima, Nn (t) = bntc `e il numero di intervalli di ampiezza 1/n che si trovano nellintervallo [0, t],
allora, tenendo presente che

u(n)
e/ n
2/ n
=e
=
,
d(n)
e/ n
si pu`o anche scrivere
(n)

St

[n] 
= S bntc = S bntc = S0
n


= S0

(n)

u
d(n)

Hbntc 

2 1n Hbntc

= S0 e

d(n)

u(n)
d(n)

HNn (t) 

d(n)

bNn (t)c

bntc

1n bntc

1n 2 Hbntc bntc

= S0 e

(7.17)

Passiamo ora alla dimostrazione del Teorema 7.1, ossia della formula di Black e Scholes.

7.2.2

Dimostrazione della formula di Black e Scholes

Grazie al fatto che (almeno per n sufficientemente grande) il modello di mercato considerato `e completo e privo
e(n) esiste ed `e unica, e che,
di opportunit`a di arbitraggio, sappiamo che la misura martingala equivalente P
(n)
e(n) , gli eventi {Z
rispetto alla misura martingala equivalente P
= u} sono indipendenti e con probabilit`a
i
p(n)

r
(n)
1 + r d(n)
n a
= (n)n
=
=
u d(n)
b(n) a(n)

r
1 2
1

n ( n + 2 n + o( n ))
1 2
1 2
1

2 n + o( n ) ( n + 2 n +

o meglio
p(n) =
=

+ 1 (r 1 2 ) + o( 1 )

n
2
n
n
n
=
2
2
2 n + 12 n 12 n + o( n1 )
1 r 12 2
1
1
+
+ o( 1n ) =
2 2 n

+ n1 (r

1
2

2 ) + o( n1 )

2 n + o( n1 )
1
+ n ,
2 n

o( n1 ))

MPEF 01-07-2009

145

dove n = (r 12 2 )/ + o(1) converge a (r 12 2 )/ per n che tende allinfinito.*


Equivalentemente le variabili aleatorie i sono indipendenti e di valore atteso
1 r 12 2
e (n) [i ] = p(n) = 1 +
E
+ o( 1n ).
2 2 n

Di conseguenza il prezzo di un derivato con maturit`a (tempo di esercizio) T e con pay-off terminale
(contingent claim)
(n)
f (ST )
dovr`a necessariamente avere come prezzo

(n)

#
"
(n)
(n) f (ST )
e
(f, P) = B0 E
(n)
BT

(7.18)

in particolare per lopzione call


"
(n)
Ccall (K, P)

e (n)

= B0 E

(n)

(ST K)+
(n)

BT

"

#
e (n)

=E

(SNn (T ) K)+
Nn (T )
1 + nr

#
(7.19)

Abbiamo quindi unespressione del prezzo, ma il problema a questo punto diviene complesso dal punto di vista
numerico, almeno per n grande: il denominatore non comporta problemi in quanto si pu`o approssimare con
erT , mentre lo stesso non si pu`
o dire del numeratore.
Per risolvere questo problema ci viene in aiuto il Teorema Centrale del Limite. Si noti infatti che, qualunque
sia t > 0
(n)
log St


= log S0 + HNn (t) log

u(n)
d(n)

+ Nn (t) log d

(n)

Nn (t)

= log S0 +


i log

i=1

u(n)
d(n)



+ Nn (t) log d(n) ,

e(n) , `e la somma di variabili aleatorie indipendenti


e che HNn (t) , rispetto alla misura martingala equivalente P
tutte con la stessa distribuzione, che per t > 0 il numero Nn (t) = bntc converge allinfinito. Grazie al Teorema
Centrale del Limite si ha che quindi HNn (t) ha una distribuzione approssimativamente gaussiana, di valore
atteso
e (n) [HN (t) ] = Nn (t) p(n)
E
n
e varianza
Vg
ar

(n)

(HNn (t) ) = Nn (t) p(n) (1 p(n) ).

e(n) , anche il logaritmo di S (n) `e


Per lo stesso motivo5 , sempre rispetto alla misura martingala equivalente P
t
approssimata da una variabile aleatoria gaussiana di valore atteso
 (n) 
h 
i


u
(n)
(n)
(n)
(n)
e
E
log St
= log S0 + Nn (t) p log
d
+
N
(t)
log
n
d(n)
e varianza
Vg
ar
Ricordando che

(n)

log

(n)
St



(n)

= Nn (t) p

(n)

(1 p

) log

u(n)
e/ n
2/ n
=e
,
=
(n)
/
n
d
e

si ha

log

u(n)
d(n)

=2
n

d(n) = e/

u(n)
d(n)

2
.




log d(n) = ,
n

5 Si ricordi che se Z ha distribuzione N (, 2 ), ovvero distribuzione gaussiana di valore atteso e varianza 2 , allora anche
W = a + bZ ha distribuzione gaussiana, ma di valore atteso E[W ] = E[a + bZ] = a + b, e varianza V ar(W ) = V ar(a + bZ) =
V ar(bZ) = b2 V ar(Z) = b2 2 .

146

MPEF 01-07-2009
(n)

si ottiene che il valore atteso del logaritmo di St , vale






h 
i

1 r 12 2
e (n) log S (n) = log S0 + bntc 1 +
1 )

2
+
bntc

E
+
o(
t
n
2 2 n

n
n


1 2

1
1 r 2

= log S0 + bntc
2 +
2 + o( n ) 2
2

n 2 n
n
n
n




1
= log S0 + bntc
r 12 2 + o( 1n ) 2
n
n


bntc
= log S0 +
r 12 2 log S0 + t r 21 2 .
n
Analogamente la varianza vale
Vg
ar

(n)

log

(n)
St



(n)

= Nn (t) p


(n)

(1 p

1
+
2

1
+
= bntc
2
1 4 2
bntc
4 n
= bntc

) log

u(n)
d(n)

2



 
2
1 r 12 2
1
1 r 12 2
2

+ o( 1n )
1
+
+ o( 1n )

2 2 n

2 n
n




2
2
1
1
1
1 2 4
1
4
n
n
= bntc

2 2 n
n
4
4n n
n
2 n
t 2

Di conseguenza, se Wt `e una variabile aleatoria gaussiana di valore atteso 0 e varianza t


(n)

distr

log(St ) log S0 + t r

1
2


2 + Wt .

(7.20)

Osservazione 7.2. Va notato che il precedente risultato si potrebbe ottenere anche direttamente, dimostrando
(n)
che la funzione caratteristica della variabile aleatoria log St converge alla funzione caratteristica di log(s0 ) +
1 2
r t 2 t + Wt , ossia che
h

 i
e (n) exp{i u log S (n) } = eiu(log(s0 ert ) 12 2 t) 21 2 t u2 .
lim E
t
n

In modo ancora pi`


u semplice si noti che dalla (7.17), si ottiene

(n)
St

= S0 e

bntc

nt

1
bnc

2 Hbntc bntc

bntc
Ovviamente n ****converge ad t, e per ottenere la convergenza basterebbe dimostrare direttamente che la
funzione caratteristica della variabile aleatoria


1
tp
2 Hbntc bntc
bntc

 r 1 2
converge alla funzione caratteristica di 1 r t 12 2 t + Wt = 2 t + Wt , ****ossia che
h

 i
e (n) exp{i u log S (n) } = eiu(r t 12 2 t) 21 2 t u2 .
lim E
t
n

La dimostrazione sarebbe sostanzialmente la stessa di quella del teorema centrale del limite, in quanto possiamo
scrivere
k
k


X
X
[n]
[n]
2Hk k =
(2 j 1) = 2 Hk k) =
(2 j 1)
j=1

j=1

MPEF 01-07-2009

147

come somma di variabili aleatorie indipendenti ed identicamente distribuite. Lunica differenza risiede nel fatto

[n]
[n]
che le variabili aleatorie 2 j 1 = 2 j 1 , hanno distribuzione che dipende da n: esattamente 2 j 1
assumono i valori +1 e 1 con probabilit`
a p(n) e 1 p(n) , rispettivamente6 . Il calcolo del limite della funzione
caratteristica in questo caso richiede quindi un minimo di attenzione in pi`
u.
Va infine notato che, nel caso in cui invece si avesse pi`
u semplicemente il caso di variabili aleatorie
Xj := 2 j 1, indipendenti e che assumono i valori +1 e 1 con probabilit`
a 1/2 (e quindi a valore atteso
nullo), il teorema centrale del limite ci darebbe direttamente che
bntc
X

1
1
p
2 Hbntc bntc = p
(2 j 1)
bntc
bntc j=1

converge in distribuzione ad una variabile aleatoria gaussiana standard e quindi


bntc

1
1 X
2 Hbntc bntc =
(2 j 1)
n
n j=1

converge ad una variabile aleatoria gaussiana di valore atteso nullo e varianza t.


Alternativamente, nel caso in cui invece la probabilit`
a che 2 j 1 = +1 fosse ancora p(n) (6= 1/2) si potrebbe
sottrarre ed aggiungere il valore atteso di 2 j 1, ossia 2 p(n) 1 nella somma, ottenendo
bntc
bntc
bntc

1 X
1 X
1 X

(2 j 1) =
2 j 1 (2 p(n) 1) +
(2 p(n) 1).
n j=1
n j=1
n j=1

La prima somma converge allora ad una variabile aleatoria gaussiana a valore medio nullo, mentre si potrebbe
dimostrare che la seconda somma converge a rt 21 2 t. Questa osservazione `e alla base dellidea che permette
di costruire il moto browniano standard. Ad esso e dedicata la sezione successiva.
distr

Prima di proseguire nella dimostrazione del Teorema 7.1, dobbiamo ricordare che il simbolo Xn n X
significa che la successione di variabili aleatorie Xn converge in distribuzione (o in legge) alla variabile aleatoria
X. Non `e necessario che le variabili aleatorie Xn ed X vivano sullo stesso spazio di probabilit`a, ma si pu`o
supporre che, per ogni n, la variabile aleatoria Xn sia definita nello spazio di probabilit`a (n , F n , Pn ) e X
sia definita nello spazio di probabilit`
a (, F, P). La convergenza in distribuzione significa la convergenza di
Fn (x) := Pn (Xn x) a F (x) := P(X x) per ogni x tale che F (x) = F (x ), e che ci`o `e equivalente al fatto
che7 per ogni funzione continua e limitata f
lim En [f (Xn )] = E[f (X)].

In altre parole che si pu`


o approssimare En [f (Xn )] con E[f (X)]. Dopo questo richiamo possiamo tornare alla
nostra dimostrazione.
A questo punto il prezzo di una opzione europea si pu`o calcolare come

(n)

"
#


(n)
1
1
(r 2 2 )T + WT
(n) f (ST )
e
E rT f (S0 e
)
(f, P) = E
(n)
e
BT

(7.21)

ed in particolare per lopzione call


"
(n)
Ccall (K, P)
6 Si

e (n)
=E

(n)

(ST K)+
Nn (T )
1 + nr


E

1
erT

1
(r 2 2 )T + WT

(S0 e

K)


,

(7.22)

osservi che 2 x 1 = 2 1 1 = 1 se x = +1 e che 2 x 1 = 2 0 1 = 1 se x = 0.


solito nei corsi di base di probabilit`
a si usa lequivalenza con la convergenza per f (x) = exp i t x = cos(tx) + i sin(tx), e che
corrisponde alla scelta di f (x) = cos(tx) o f (x) = sin(tx).
7 Di

148

MPEF 01-07-2009

dove lunica variabile aleatoria `e WT (che sotto P ha distribuzione gaussiana di media 0 e varianza T )****, in
quanto S0 = s0 `e il valore iniziale del prezzo dellazione.
Abbiamo quindi visto come il prezzo di una opzione call europea si possa ottenere dalla formula


1 2
Ccall = C(s0 , K, T, r, ) = E erT (s0 e(r 2 )T + WT K)+
dove si `e messo in evidenza la dipendenza dai parametri del modello: S0 prezzo iniziale della azione, K prezzo
di esercizio i di strike dellopzione, T tempo di maturit`a o di strike dellopzione, r tasso nominale di interesse
composto in modo continuo, ed infine il parametro , che `e detto volatilit`a.
` importante sottolineare che, al contrario di tutti gli altri parametri, che sono noti e direttamente osservabili,
E
il valore della volatilit`
a non `e direttamente osservabile, ma deve essere stimato. Un problema interessante
riguarda proprio la stima statistica della volatilit`a.
Si osservi che fino ad ora abbiamo addirittura trovato una formula che permette di calcolare in modo
approssimato tutti i tipi di opzioni plain vanilla di tipo europeo, con la condizione che la funzione f sia continua8

Per terminare la dimostrazione rimane solamente da calcolare esplicitamente il valore limite del prezzo della
call europea.
(n)
A questo proposito notiamo che, per ogni t, la legge della variabile aleatoria
St rispetto a P(n) `e

approssimativamente la stessa9 della variabile aleatoria s0 exp{(r 2 /2)t + tZ}, dove Z `e una variabile
aleatoria gaussiana standard N (0, 1).
Quindi, per s0 = x, si tratta di calcolare


C0 (x) = erT E (ST K)+

+ 

2
= erT E xe(r 2 )T + T Z K
.
La speranza matematica a destra vale
1
erT
2

xe(r

2
2

)T + T z

+

ez

/2

dz.

Lintegrando si annulla per z , dove


=


log

K
x

2
r
2


 
T ,

e quindi
Z

2
erT +  (r 2 )T +T z
2
C0 (x) =
xe
K ez /2 dz.
2
Ricordando che per la funzione di distribuzione di una gaussiana standard si ha ****(x) = 1 (x), si
ottiene allora
Z +
Z

2
2
x
K erT + z2 /2
C0 (x) =
erT e(r 2 )T + T z ez /2 dz
e
dz
2
2

Z +
2
1
x
=
e 2 (z T ) dz KerT ()
2
Z +
2
x
=
ez /2 dz KerT ()
2 T


= x + T KerT (),
8 In

realt`
a la condizione che f sia una funzione continua `
e superflua.
in legge si vede dallespressione approssimata del logaritmo del prezzo (7.20), e tenendo conto del fatto che

ft `
`
la legge della variabile aleatoria W
e N (0, t) e che anche la variabile aleatoria tZ ha legge N (0, t), se Z ha legge N (0, 1). E
importante sottolineare che ovviamente ci`
o vale solo come variabili aleatorie e non vale come processi (ossia il processo (Wt )t0 non

coincide affatto con il processo ( t Z)t0 : infatti le traiettorie tipiche del processo (Wt )t0 non sono molto regolari ne prevedibili,

e sono quindi molto diverse dalle traiettorie di ( t Z)t0 , che invece sono molto regolari e prevedibili.
9 Luguaglianza

MPEF 01-07-2009

149

la cos` detta formula di Black-Scholes (7.10).


Mediante la formula di Black-Scholes, possiamo quindi ricavare il prezzo equo di unopzione call europea.
*******Il modello di Black-Scholes ha il pregio di essere semplice e di dipendere da tre parametri: r, e .
Lunico parametro difficile da stimare `e 2 , cio`e la volatilit`a10 . Inoltre la formula di Black-Scholes ha il pregio
di dipendere solo dai parametri r e , per ogni K e T fissati. ***
Va inoltre notato che poiche a tempo discreto vale linterpretazione di cN (n, f ) = cN n (0, f ), analogamente
si ottiene che, se entrassimo nel mercato al tempo t, e se il prezzo della azione sottostante al tempo t fosse noto
ed uguale ad St , allora il prezzo della opzione, che indichiamo con Ct , sarebbe calcolato approssimativamente
con la formula (7.10) in cui, per`
o, al posto di s0 andrebbe messo St e al posto di T andrebbe messo T t:

h 

 T t i
r(T t) 
K
x er(T t)
1
.
+ 2T t x er(T

)
Ct = St 1T t log x e K
t) ( T t log
K
2
x=St

Grazie alla formula di parit`


a (si veda ad esempio il libro di S. Ross [15]), si ricava immediatamente anche il
prezzo equo di una put europea Pt `e dato da
Pt = Ct St + Ker(T t) ,
sempre se si vuole comprare lopzione al tempo t ed il prezzo della azione vale St .
Per ulteriori approfondimenti sai consiglia di consultare il libro di P. Baldi [1], o quello di D. Lamberton e
B. Lapeyre [9], oppure di J.M. Steele [18] .

10 La volatilit`
a`
e un parametro che gioca un ruolo importante nelle applicazioni. Per questo motivo, negli ultimi anni, `
e stato
molto studiato, in statistica, il problema di stimare il coefficiente di diffusione, a partire dallosservazione di una traiettoria.

150

MPEF 01-07-2009

7.2.3

Dimostrazione alternativa della formula di Black e Scholes

La dimostrazione della formula di Black e Scholes potrebbe tuttavia essere ottenuta direttamente dalla formula
del prezzo della call per il modello binomiale multiperiodale: Infatti sappiamo che

(n)

Ccall (K, P) = s0 F N

(n) u(n)
n (T ),p
1+ r
n

(n )

K
F
(n) (n )
(1 + nr )Nn (T ) Nn (T ),p

dove F m,p (x) `e la funzione di sopravvivenza di una variabile aleatoria binomiale di parametri m e p, e dove


 
 

ln S0 (d(n)K)Nn (T )
n
n
n
K
K
bnT c


bnT c =
=
n =
ln
+
ln
+
.
(n)
2
S0
2 n
2
S0
2
ln ud(n)
Tenendo conto che il teorema centrale del limite assicura che, per m grande (e p non troppo piccolo) si ha
 x mp 
,
F m,p (x) ' p
m p(1 p)
si ottiene che il prezzo della call pu`
o essere approssimato con
(n)
Ccall (K, P)

n bnT c pe(n)

' s0 q
bnT ce
p(n)

u(n)
r
1+ n

u(n)
r
1+ n


(n)

u
(1 pe(n) ) 1+
r



n bnT c pe(n)
K

p
.
(1 + nr )bnT c
bnT ce
p(n) (1 pe(n) )

Per ottenere la formula di Black e Scholes basta poi osservare che (1+ nr )bnT c converge a erT , che pe(n) = 12 + 2nn ,
2

con limn n =

r 2

, e quindi che

 

c
n
1
ln SK0 + bnT
2 bnT c 2 + 2 n
p
= q


bnT ce
p(n) (1 pe(n) )
bnT c 12 + 2nn 1 12 + 2nn

 
n
bnT c 2nn
K
2
q
q
= ln

S0
2 
2 
bnT c 14 4 nn
bnT c 14 4 nn
 
 

r 1 2
K
K
1
1
2
T lim n = ln
T
' ln
n
S0 T
S0 T




 
ln S0KerT
K
rT
T
T
1
+

+
= ln
=
,
S0 T
2
2
T
T
n
2

n bnT c pe(n)

e infine che
n bnT c pe(n)
q

bnT ce
p(n)

u(n)
r
1+ n

u(n)
r
1+ n

n bnT c pe(n) u(n)

(n)

u
(1 pe(n) ) 1+
r

quindi definendo en in modo che

'p
bnT ce
p(n) u(n) (1 pe(n) ) u(n)
n
1
2+2 n
2

r
n + , in modo che limn en = 2 + =
del tutto analoghi ai precedenti che



n bnT c 12 + 2nn 1 + n + o( 1n )
p
=
bnT ce
p(n) (1 pe(n) ) u(n)

1+ n +o( 1n ) = 21 + 2nn si ha che en := n +2 n(u(n) 1)+o(1) '


2

r+ 2

, e tenendo conto che u(n) converge ad uno, si ottiene, con conti





K
ln
n bnT c 21 + 2nn
rT
S0 e
1
T
p

=
'

.
2
T
bnT ce
p(n) (1 pe(n) ) u(n)

MPEF 01-07-2009

7.3
7.3.1

151

Il moto Browniano
Approssimazione del moto browniano per t fissato

Nella derivazione precedente del prezzo abbiamo incontrato il processo del logaritmo dei prezzi, che a parte il
contributo dovuto al prezzo iniziale, si esprime come
Nn (t)


i log

i=1

u(n)
d(n)

+ Nn (t) log d

(n)

Nn (t)
1 X
1
= 2
i Nn (t)
n i=1
n

e che si pu`o ulteriormente riscrivere come

1

n

Nn (t)

X
i=1

X
1
(2i 1) =
(2i 1) .
n i=1
bntc

Si definisca
(n)
Wt

bntc

1 X
e (n) [2i 1]
:=
(2i 1) E
n i=1

(7.23)

di modo che
(n) 

log St

bntc

1 X e (n)
(n)
E [2i 1]
= log S0 + Wt +
n i=1

(7.24)

Con calcoli analoghi a quelli della sezione precedente, si pu`o vedere che il valore atteso

bntc
1 X e (n)
1
1
1 r 21 2

+o
E [2i 1] = bntc (2
p(n) 1) = bntc 1 +

n i=1
n
n
n
(n)

Ovviamente il processo Wt

1
n


1

r 12 2
t.

, vale zero allistante iniziale, ovvero


(n)

W0

= 0,

ed inoltre


e (n) W (n) = 0.
E
t
(n)

Per t > 0, con gli stessi calcoli della sezione precedente, si pu`o vedere che il processo Wt
tende allinfinito) alla legge gaussiana di valore atteso nullo e varianza che tende a t.

converge (per n che

Osservazione 7.3. * Se si vuole ottenere una dimostrazione pi`


u precisa della convergenza in distribuzione di
(n)
Wt a Wt , si pu`
o ripetere lo stesso tipo di dimostrazione che si usa per il Teorema Centrale del Limite: tenendo
conto del fatto che, definite le variabili aleatorie
Xj := 2j 1

ed



e (n) [Xj ] ,
e (n) := 1 Xj E
X
j
n

si pu`
o riscrivere (7.23) come
(n)

Wt

bntc

1 X
e (n) [Xj ]
=
Xj E
n j=1
bntc
X 1 
 X (n)
e (n) [Xj ] =
e
Xj E
X
j
n
j=1
j=1

bntc

152

MPEF 01-07-2009

e quindi, dato che


bntc
(n)

exp{i u Wt

}=

e (n) }
exp{i u X
j

j=1

e che le variabili aleatorie

e (n) ,
X
j

j 1 sono indipendenti, si ottiene che

bntc
Y



(n) 
(n)
e
e (n) exp{i u X
e (n) } .
E
exp{i u Wt } =
E
j

(7.25)

j=1

e (n) hanno media nulla e varianza


Le variabili aleatorie X
j
Vg
ar

dove n = (r

1
2


2


(n)  1
1
e (n) = Vg

p(n) (1 p(n) )
X
ar
2

=
2
j
j
n
n



4 1
1
1
1
=
+ n
n
n 2 2 n
2 2 n

(n) 

2 )/ + o(1), di modo che


Vg
ar



e (n) = 1 + o 1 .
X
j
n
n

(n) 

Per ottenere la convergenza in distribuzione non rimane che utilizzare tale fatto per ottenere lespressione
e (n) , sostituire tale espressione in (7.25), e procedere esattamente
approssimata della funzione caratteristica di X
j
come nella dimostrazione del teorema centrale del limite.
*
AGGIUNTA DIMOSTRAZIONE della convergenza alla legge Gaussiana

Dimostrazione della convergenza


e (n) , ossia
Iniziamo con il calcolare la funzione caratteristica di X
j
h




 i
e (n) [Xj ]
e (n) exp{i u X
e (n) exp i u Xj E
e (n) } = E

e(n) (u) := E
j
n
Tenendo presente che Xj assume solo i valori +1 e 1 con probabilit`a p(n) =
n
e (n) [Xj ] =
rispettivamente, e quindi E
si ottiene

1
2

+ 2nn e 1 p(n) =

1
2

2nn ,

 u 
 u 
1
n 
n 
1
n 
n 
+ exp i 1
+
exp i
1
2 2 n
2 2 n
n
n
n
n
 u


 u


u
u
exp i n + exp i n




n exp i n exp i n
u n
=
exp i n +
exp i unn
2
2
n

2
2





2
2 
1
iu
u
iu
u
= exp i unn
1+
+ o un + 1
+ o un
2
2n
2n
n
n

2


2
2 
n 1
iu
u
iu  u2
+
1+
+ o un 1 + +
+ o un
2n
2n
n 2
n
n


2




2
2
u
n iu
= exp i unn
1
+ o un + + o un
2n
n
n




2
u2
iun
= exp i unn
1
+
+ o un .
2n
n

e(n) (u) =

MPEF 01-07-2009

153
(n)

Di conseguenza, da (7.25), la funzione caratteristica di Wt




e (n) exp{i u W (n) } =
E
t

exp i

u n
n

, vale


u2
iun
1
+
+o
2n
n

u2
n

bntc

e converge, per n che tende ad infinito





iun
u2
exp i unn
+
+o
1
n
2n
n



 u2 t
+ iut
= exp i u t exp
2
 u2 t
= exp
,
2



e (n) exp{i u W (n) } = lim
lim E
t

u2
n

bntc

che `e appunto la funzione caratteristica di una variabile gaussiana di media nulla e varianza t.
FINE DIMOSTRAZIONE

7.3.2

Indipendenza ed omogeneit`
a degli incrementi
(n)

(n)

(n)

Ancora, se si considerano i tempi 0 t1 < t2 , allora lincremento Wt2 Wt1 ha la stessa legge di Wt2 t1 , in
(n)
(n)
(n)
quanto Wt2 Wt1 `e funzione deterministica delle variabili aleatorie j , per j tale che tj = j/k (t1 , t2 ],
(n)

e la stessa funzione determina nello stesso modo Wt2 t1 a partire dalle variabili aleatorie i , per i tale che
(n)
(n)
(n)
ti = i/n (0, t2 t1 ], e di conseguenza la distribuzione dellincremento Wt2 Wt1 converge ad una
11
distribuzione gaussiana di valore atteso 0 e varianza t2 t1 , * come si vede facilmente .*
Se invece si considerano i tempi 0 t1 < t2 < . . . < tm1 < tm allora gli incrementi
(n)

(n)

(n)

Wt1 W0 ,

(n)

Wt2 Wt1 ,

(n)

(n)

...

Wtm Wtm1

...

{jm :

sono funzioni deterministiche delle variabili aleatorie


{j1 :

j1
n

(0, t1 ]},

{j2 :

j2
n

(t1 , t2 ]}

jm
n

(tm1 , tm ]}

che sono indipendenti, e di conseguenza anche gli incrementi di W (n) sono indipendenti. Come ulteriore
conseguenza questa propriet`
a si mantiene al tendere di n allinfinito.

7.3.3

Definizione del moto browniano e del modello di Black e Scholes

Le osservazioni precedenti portano naturalmente alla seguente definizione del processo di Wiener standard o
moto browniano.
11 *

Infatti, utilizzando le stesse notazioni dellOsservazione 7.3, si ha


bnt2 c
(n)

(n)

Wt2 Wt1

e (n) ,
X
j

j=bnt1 c+1

come si vede subito osservando


bnt2 c
(n)

Wt2

e (n) =
X
j

j=1

Questa scomposizione, insieme al fatto che

bnt1 c

j=1
(n)
W0

e (n) +
X
j

bnt2 c


e (n) = W (n) + W (n) W (n) .
X
t1
t2
t1
j

j=bnt1 c+1
(n)

= 0 permette anche di vedere che Wt1

(n)

(n)

= Wt1 W0

(n)

(n)

(n)

= Wt1 0) e Wt2 Wt1

(n)

sono indipendenti. Lindipendenza di questi incrementi permette di affermare che, oltre alla convergenza in distribuzione di Wt1

(n)
(n)
ad una variabile aleatoria gaussiana di valore medio nullo e varianza t1 e la convergenza di Wt2 Wt1 ad una variabile aleatoria
(n)
(n)
(n) 
gaussiana di valore medio nullo e varianza t2 t1 , si ha anche la convergenza congiunta di Wt1 , Wt2 Wt1
ad una variabile
aleatoria bidimensionale gaussiana di valori medi nulli, indipendenti e di varianza rispettivamente t1 e t2 t1 . Questo fatto implica
(n)
(n) 
anche la convergenza della distribuzione congiunta di Wt1 , Wt2 . Questa osservazione si estende facilmente al caso in cui si

(n)
(n)
(n)
considerino le variabili aleatorie Wt1 , Wt2 , Wtm , con 0 t1 < t2 < . . . < tm1 < tm . *

154

MPEF 01-07-2009

Definizione 7.1 (moto browniano). Si chiama moto browniano un processo Wt per t R+ un processo tale
che
1 W0 = 0,
2 se 0 t1 < t2 < . . . < tm1 < tm allora gli incrementi
Wt1 W0 ,

Wt2 Wt1 ,

...

Wtm Wtm1

sono indipendenti,
3 se 0 t1 < t2 ed s > 0 allora gli incrementi
Wt2 Wt1

Wt2 +s Wt1 +s N (0, t2 t1 ),

ovvero hanno la stessa distribuzione gaussiana di valore atteso 0 e varianza t2 t1 . In altre parole si dice
anche che gli incrementi sono omogenei.
Di solito oltre alle tre precedenti propriet`
a si aggiunge anche la propriet`
a che le traiettorie sono continue, ossia
che per ogni la funzione t 7 Wt () `e una funzione continua.
Inoltre quanto abbiamo visto nella sezione precedente permette di dare una definizione di un processo St ,
che, alla luce di (7.24), si pu`
o interpretare come il limite, rispetto alle misure martingala equivalenti, dei processi

bntc

X


1
(n)
(n)
(n)
e (n) [2i 1] ,
E
St = exp log St
= S0 exp Wt +

n
i=1

da cui si definisce





r 21 2
St = S0 exp Wt +
t = S0 exp Wt + (r 12 2 ) t ,

e rispetto al quale il processo attualizzato dei prezzi, ossia


in un opportuno spazio di probabilit`
a (, F, P),


St
S0
St
=
=
exp Wt + 12 2 t ,
Set =
rt
Bt
B0 e
B0
risulta una martingala. *
Osservazione 7.4 (Il modello di Black e Scholes). In realt`
a il modello di Black e Scholes viene di solito
presentato nel seguente modo. Si assume che nel mercato ci siano due titoli, uno non rischioso
Bt := B0 ert ,
ed uno rischioso


St = S0 exp t + Wt 12 2 t ,
dove il processo stocastico Wt `e un moto browniano standard in uno spazio di probabilit`
a (, F, P). Si dimostra
e
che esiste una misura P, equivalente a P, e sotto la quale il processo attualizzato si scrive come


St
St
S0
=
exp Wt 12 2 t ,
Set =
=
rt
Bt
B0 e
B0

(7.26)

e Non dimostriamo questo fatto,


e dove il processo Wt `e un moto browniano nello spazio di probabilit`
a (, F, P).
ma osserviamo solo che, essendo


St
St
S0
Set =
=
=
exp ( r) t + Wt 21 2 t ,
rt
Bt
B0 e
B0
il processo Wt deve necessariamente soddisfare
Wt = ( r) t + Wt ,

(7.27)

MPEF 01-07-2009

155

ovvero il processo Wt deve essere necessariamente definito come


Wt := Wt

r
t,

e deve essere necessariamente definita come la misura che rende il processo


e quindi la misura di probabilit`
a P
r
Wt t un moto browniano.
*

Capitolo 8

Processi aleatori a tempo continuo


8.1

Processi aleatori, definizioni ed esempi

Esistono diversi modi di definire un processo stocastico. Il primo consiste nel considerare semplicemente una
famiglia di variabili aleatorie.
Definizione 8.1 (Processo stocastico come famiglia di v.a.). Dato uno spazio (, F, P) ed un insieme I di
indici1 , allora una famiglia di variabili aleatorie {Xt : 7 R(o Rd ), per t I} `e detta processo stocastico,
e R (o Rd ) `e detto lo spazio degli stati del processo.
In alcuni casi si vuole mettere in evidenza levoluzione rispetto al tempo e si preferisce dare una definizione
di processo stocastico come funzione aleatoria.
Definizione 8.2 (Processo stocastico come funzione aleatoria). Dato uno spazio (, F, P) ed un insieme I di
indici, si definisce processo stocastico (come funzione aleatoria) la funzione (misurabile)2

X : 7 RI ; 7 t 7 X(t, ) .
Una definizione analoga vale nel caso di processi con spazio degli stati Rd .
Altre volte si `e interessati anche ad alcune propriet`a delle traiettorie t 7 X(t, ), quali ad esempio la
continuit`a. Viene allora naturale dare la definizione di processo a traiettorie continue.
Definizione 8.3 (Processo stocastico come funzione aleatoria continua). Dato uno spazio (, F, P) ed un
insieme I di indici, si definisce processo stocastico (come funzione aleatoria continua) la funzione
1 Tipicamente linsieme degli indici `
e I = [0, ), o I = [0, T ], o ancora I = N (e in questo caso si parla pi`
u propriamente di
successioni aleatorie), ma `
e possibile anche che linsieme degli indici sia multidimensionale, ad esempio I = R2 (e in questo caso si
parla pi`
u propriamente di campi aleatori).
2 Per rendere la definizione completa andrebbe precisata la -algebra che si mette sullo spazio di tutte le funzioni RI . Di solito
si tratta in realt`
a di richiedere almeno che tutte le funzioni

7 R; 7 X(t, )
siano variabili aleatorie F -misurabili. La -algebra considerata su RI `
e di solito RI , la -algebra del Teorema di Kolmogorov 8.1
e la nota 8.1 corrispondente, per maggiori dettagli si veda lAppendice 8.8 .

156

MPEF 01-07-2009

157

(misurabile)3

X : 7 C(I; R); 7 t 7 X(t, ) ,
dove C(I; R) `e lo spazio metrico delle traiettorie continue. Una definizione analoga vale nel caso di processi con
spazio degli stati Rd .
Dato un processo si definiscono le funzioni di distribuzione finito-dimensionali.
Definizione 8.4 (Famiglia delle funzioni di distribuzione finito-dimensionali). Dato un processo stocastico
(secondo una delle precedenti definizioni) la famiglia delle funzioni di distribuzione Ft1 , ,tn , definite per n 1,
e t1 , tn , con ti I, come le funzioni di distribuzione congiunte delle variabili (Xt1 , , Xtn ), ovvero
Ft1 , ,tn (x1 , , xn ) = P(Xt1 x1 , , Xtn xn ),
`e detta famiglia delle funzioni di distribuzione finito-dimensionali del processo X = (Xt )tI .
Va detto che, cos` come una variabile aleatoria viene spesso individuata attraverso la sua distribuzione,
senza specificare quale sia lo spazio di probabilit`a (, F, P) sul quale `e definita, spesso anche un processo
viene individuato attraverso le sue distribuzioni finito-dimensionali. Si pone quindi il problema di individuare
quali sono le famiglie di distribuzioni che sono effettivamente famiglie di distribuzioni finito-dimensionali di un
processo.
Si individuano facilmente due condizioni necessarie ((C1) e (C2)), dette condizioni di consistenza:
(C1) Sia k > 1, sia una permutazione di {1, , k}, si ponga
: Rk Rk , (x1 , , xk ) (x1 , , xk ) := (x1 , , xk ).
Si richiede che per ogni k > 1, , t1 , , tk e (x1 , , xk ) valga
Ft1 , ,tk (x1 , , xk ) = Ft1 , ,tk ( (x1 , , xk )) = Ft1 , ,tk (x1 , , xk ).

(8.1)

La precedente condizione (C1) `e chiaramente necessaria, infatti


Ft1 , ,tk (x1 , , xk ) = P{(Xt1 x1 , , Xtk xk )}
= P{Xt1 x1 , , Xtk xk } = Ft1 , ,tk (x1 , , xk ).
(C2) Si richiede che per ogni k 1, t1 , , tk , tk+1 e (x1 , , xk ) valga
lim

xk+1

Ft1 , ,tk ,tk+1 (x1 , , xk , xk+1 ) = Ft1 , ,tk (x1 , , xk ).

(8.2)

La precedente condizione (C1) `e chiaramente necessaria, infatti


lim

xk+1

Ft1 , ,tk ,tk+1 (x1 , , xk , xk+1 )

lim

xk+1

P(Xt1 x1 , , Xtk xk , Xtk+1 xk+1 )

= P(Xt1 x1 , , Xtk xk ) = Ft1 , ,tk (x1 , , xk ).


` interessante notare che la prima condizione potrebbe essere automaticamente soddisfatta dando le funzioni
E
di distribuzione solo per t1 < t2 < , < tk (e definendole negli altri casi in modo che la condizione (C1) sia
soddisfatta). Allora, per`
o, la condizione (C2), va modificata:
3 Nel

caso I = [0, T ] lo spazio C(I; R) `


e uno spazio metrico con la metrica uniforme:
d(x(), y()) := sup |x(t) y(t)|,
t[0,T ]

e la -algebra su C(I; R) `
e quella generata dagli aperti. Se invece I = [0, ) si pu`
o, ad esempio, usare la metrica
d(x(), y()) =

X
N =1

1
2N

sup |x(t) y(t)| 1,


t[0,N ]

e di nuovo la -algebra su C([0, ); R) `


e quella generata dagli aperti.

158

MPEF 01-07-2009

(C20 ) Sia k 1, siano t1 < t2 < < tk < tk+1 , allora


lim Ft1 , ,tk ,tk+1 (x1 , , xk , x) = Ft1 , ,tk (x1 , , xk ),

(8.3)

lim Ft1 , ,ti1 ,ti ,ti+1 , ,tk+1 (x1 , , xi1 , x, xi+1 , , xk+1 )

= Ft1 , ,ti1 ,ti+1 , ,tk+1 (x1 , , xi1 , xi+1 , , xk+1 ),

per i = 1, , k.

(8.4)

Il seguente teorema garantisce che le precedenti condizioni necessarie, sono anche sufficienti.
Teorema 8.1 (di Kolmogorov). Sia data una famiglia Ft1 , ,tk di funzioni di distribuzione finito-dimensionali
consistente, cio`e che verifica le condizioni di consistenza (C1) e (C2) (ovvero (8.1) e (8.2) ), allora esiste
uno spazio di probabilit`
a ed un processo aleatorio che ammette Ft1 , ,tk come funzioni di distribuzione finitodimensionali.4
La tesi rimane valida se valgono le condizioni equivalenti (C1) e (C20 )(ovvero (8.1), (8.3) e (8.3).
Vediamo subito delle applicazioni del precedente teorema, mentre per la dimostrazione rimandiamo
allAppendice 8.8.
Esempio 8.1 (Processi a coordinate indipendenti). Data una famiglia di funzioni di distribuzione {Ft , t I}
ad un tempo, si consideri la famiglia delle funzioni di distribuzione finito-dimensionali Ft1 , ,tk (x1 , , xk ) :=
Ft1 (x1 ) Ftk (xk ). Tale famiglia `e chiaramente una famiglia consistente e quindi esiste un processo con
tali funzioni di distribuzione finito-dimensionali.
Si noti che non si richiede che I sia numerabile, e che questo esempio, nel caso numerabile, garantisce lesistenza
di successioni di v.a. indipendenti5 .
Esempio 8.2 (Processi gaussiani). Siano date una funzione m : I R, t m(t) e una funzione, detta
funzione di correlazione, K : I I R, (t, s) K(t, s) definita non negativa, cio`e tale che comunque
scelti n 1, t1 , , tn I, 1 , , n C valga
1,n
X

h k K(th , tk ) 0.

h,k

Si noti che quindi necessariamente K(t, s) = K(s, t) e K(t, t) 0 e che la condizione che la funzione di
correlazione sia definita non negativa corrisponde alla richiesta che la matrice = (i,j := K(ti , tj ))i,j=1, ,n
sia definita non negativa (ovvero positiva in senso lato) qualunque siano tj , per j = 1, , n.
Sia Ft1 , ,tk la funzione di distribuzione congiunta gaussiana di media (m(t1 ), , m(tk )) e matrice di
covarianza definita da i,j = K(ti , tj ) per i, j = 1, , k, e sia ft1 , ,tk la sua densit`
a.
Per convincersi dellesistenza di un processo con tali distribuzioni finito-dimensionali si consideri il caso in
cui K(t, s) sia strettamente definita positiva e si noti che se (Y1 , , Yk ) `e un vettore aleatorio con componenti
indipendenti e ciascuna con distribuzione normale N (0, 1), allora il vettore definito da Z = (Z1 , , Zk ) =
A(Y1 , , Yk ) + (m(t1 ), , m(tk )) = AY + m, dove A = 1/2 (cio`e = At A = AAt ), `e un vettore con la
distribuzione cercata6 .
4 Inoltre `
e sempre possibile prendere come spazio di probabilit`
a lo spazio canonico RI , come -algebra la -algebra generata dai
cilindri, ovvero dagli insiemi del tipo

C = {x() RI | (x(t1 ), x(t2 ), , x(tk )) H}, dove H B(Rk )


ed infine come processo Xt il processo canonico Xt (x()) = x(t).
5 Lesistenza di successioni indipendenti `
e di solito sottintesa nei teoremi fondamentali del Calcolo delle Probabilit`
a, come ad
esempio la Legge dei grandi numeri, o il Teorema centrale del limite.
6 Si veda lAppendice 2.5

MPEF 01-07-2009

159

Per la consistenza della famiglia Ft1 , ,tk cos` definita, si noti che loperatore di (8.1) `e una
trasformazione lineare e che trasformazioni lineari di vettori gaussiani sono ancora gaussiani. Inoltre, indicando
ancora con la matrice associata alloperatore di (8.1), allora Z = AY + m, segue una legge gaussiana
di media m = (m(t1 ), , m(tk )) e con matrice di covarianza ( A)( A)t = AAt t = t =
(i ,j )i,j=1, ,k .
Da queste osservazioni si deduce immediatamente che per la densit`
a vale
ft1 , ,tk (x1 , , xk ) = ft1 , ,tk ( (x1 , , xk )) = ft1 , ,tk (x1 , , xk ),
ovvero la (8.1). Per quanto riguarda la (8.2), basta ricordare che ogni sottovettore di un vettore gaussiano `e
ancora un vettore gaussiano.
Esempio 8.3 (Processo di Wiener standard). Come caso particolare dellEsempio precedente possiamo stabilire
lesistenza del processo di Wiener standard, detto anche moto browniano, cio`e del processo gaussiano
con m(t) = 0 e K(t, s) = t s.
Bisogna ovviamente controllare che la funzione K(, ) sia definita non negativa. Ci`
o pu`
o essere fatto
direttamente, ma con una certa fatica7 .
Un metodo decisamente pi`
u probabilistico8 `e il seguente: consiste nellosservare che la funzione di
correlazione
K(t, s) := Cov(Nt , Ns )
di un processo Nt di Poisson standard (cio`e con = 1) `e proprio t s, ci`
o `e sufficiente9 a garantire la sua non
negativit`
a. Infatti
Cov(Nt , Ns ) = Cov(Nts , Nts )
= E[Nts (Nts + Nts Nts )] E[Nts ]E[Nts + Nts Nts ]
= E[Nts Nts ] + E[Nts (Nts Nts )] E[Nts ](E[Nts ] + E[Nts Nts ])
= V ar(Nts ) + E[Nts (Nts Nts )] E[Nts ]E[Nts Nts ] = V ar(Nts )
=ts
7 Dati

t1 < t2 < < tk la matrice (ti tj )i,j si pu`


o scrivere come
0
t1 t1
t1
Bt1 t2
t2
B
B.
..
B ..
.
B
@t
t2

tk1
1
t1 t2

tk1

t1
t2
..
.
tk1
tk

C
C
C
C
C
A

Si pu`
o dimostrare che il determinante di questa matrice `
e t1 (t2 t1 )(t3 t2 ) (tk tk1 ) > 0, e ci`
o dimostra subito il fatto che
K(t, s) = t s `
e definita positiva. Il primo passo per dimostrare tale identit`
a`
e osservare che
0
1
0
1
t1 t1
t1
t1
t1
0

0
0
Bt1 t2
Bt1 t2 t1
t2
t2 C
t2 t1
t2 t1 C
B
C
B
C
B
C
.. C = det B .
..
..
..
det B ..
.
C
B
C
.
.
. C
.
B.
B.
C
@t
A
@
t2

tk1 tk1
t1 t2 t1

tk1 t1 tk1 t1 A
1
t1 t2

tk1
tk
t1 t2 t1

tk1 t1
tk t1
da cui

t1
Bt1
B
B
det B ..
B.
@t
1
t1

t1
t2
t2
t2

..
.

t1
t2
tk1
tk1

0
t2
C
C
B
C
B
C = t1 det B
C
@t
2
A
tk1
t2
tk

t1
t2
..
.

t1
..
.
t1
t1

..
.

t2 t1
tk1 t1
tk1 t1

1
t2 t1
C
..
C
.
C,
tk1 t1 A
tk t1

poi basta procedere per induzione, notando che ti t1 (t2 t1 ) = ti t2 .


8 Tuttavia questo metodo presuppone la conoscenza del processo di Poisson, che in queste note viene definito come processo ad
incrementi indipendenti in Sezione 8.5.
9 La

matrice di covarianza di un vettore aleatorio `


e sempre definita non negativa, e di conseguenza la funzione di correlazione

160

MPEF 01-07-2009

Si noti che la propriet`


a del processo di Wiener di avere la stessa funzione di correlazione del processo di
Poisson standard, implica che gli incrementi sono non correlati. Poiche gli incrementi del processo di Wiener
(Wt )t0 hanno distribuzione gaussiana, sono quindi anche indipendenti. Inoltre per ogni s < t, lincremento
Wt Ws deve essere una variabile aleatoria gaussiana (in quanto differenza di due v.a. congiuntamente
gaussiane), deve avere media nulla e varianza10 uguale alla varianza di Nt Ns , ovvero uguale a t s. Infine
deve essere P(W0 = 0) = 1, in quanto la media deve essere nulla e la varianza deve essere uguale a K(0, 0) = 0.
Questa propriet`
a di indipendenza degli incrementi `e fondamentale per ottenere la densit`
a congiunta di
(Wt1 , , Wtn ). Infatti si pu`
o pensare che il vettore (Wt1 , , Wtn ) si ottiene dal vettore degli incrementi
(Wt1 , Wt2 , , Wtn ) = (Wt1 W0 , Wt2 Wt1 , Wtn Wtn1 )
con la seguente trasformazione lineare
Wth = Wth W0 =

h
X

(Wti Wti1 ) =

i=1

h
X

Wti ,

i=1

(dove si `e posto t0 = 0) che corrisponde ad una matrice B la cui inversa B 1 `e la matrice la cui diagonale ha
tutti gli elementi uguali ad 1, la cui sottodiagonale ha gli elementi tutti uguali a 1 e tutti i rimanenti elementi
uguali a 0, in quanto banalmente
Wth = Wth Wth1 .
Da questa osservazione, dalla formula di trasformazione della densit`
a e dallosservazione che gli incrementi
sono indipendenti, ovvero che
fWt1 , ,Wtn (y1 , , yn ) = fWt1 (y1 ) fWtn (yn ) =

n
Y

gth th1 (yh ),

h=1

dove
gs (y) =

y2
1
exp{ }
2s
2s

si ottiene la densit`
a congiunta di (Wt1 , , Wtn )
fWt1 , ,Wtn (x1 , x2 , , xn ) = fWt1 , ,Wtn (x1 , x2 x1 , xn xn1 )
=

n
Y

gth th1 (xh xh1 )

(8.5)
(8.6)

h=1
2

(xn xn1 )
x2
(x x )2
1
1
1
1

2 1
e 2t1 p
e 2(t2 t1 ) p
e 2(tn tn1 )
2t1
2(t2 t1 )
2(tn tn1 )

(8.7)

K(s, t) = Cov(Xs , Xt ) di un processo Xt qualsiasi `


e sempre definita non negativa:
1,n
X

h k K(th , tk ) =

h,k

1,n
X

i
h
h k E (X th E[X th ])(X tk E[X tk ])

h,k

2
3
1,n
X
= E4
h k (X t E[X t ])(X t E[X t ])5
h

"

=E

h,k
n
X

h (X th E[X th ])

h=1

n
X

k (X tk E[X tk ])

k=1

2
2 3
n
X



= E 4
h (X th E[X th ]) 5 0.


h=1

10 Il

lettore che non conosce il processo di Poisson, pu`


o procedere anche nel seguente semplicissimo modo
V ar(Wt Ws ) = Cov(Wt Ws , Wt Ws ) = Cov(Wt , Wt ) Cov(Wt , Ws ) Cov(Ws , Wt ) + Cov(Ws , Ws )
= K(t, t) 2K(s, t) + K(s, s) = t 2s t + s = t s.

Si noti che il procedimento permette di calcolare la varianza degli incrementi per un qualunque processo, purch
e sia nota la funzione
di covarianza K(s, t).

MPEF 01-07-2009

8.2

161

Osservazione sulla definizione di un processo solo attraverso le


sue distribuzioni finito dimensionali

La descrizione di un processo attraverso la famiglia delle distribuzioni finito dimensionali non `e sufficiente
a stabilire le propriet`
a delle sue traiettorie. In questa sezione e nella successiva ci si pone il problema di
spiegare meglio questa affermazione, senza alcuna pretesa di essere esaurienti. Il primo concetto che ci serve
`e lequivalenza stocastica per due processi aleatori, che, come si vedr`a immediatamente dopo la definizione,
implica che i due processi hanno le stesse distribuzioni finito dimensionali.
Definizione 8.5 (Equivalenza stocastica). Due processi aleatori (Xt , t I) e (Yt , t I) sullo stesso spazio di
probabilit`
a (, F, P) si dicono stocasticamente equivalenti se
P(Xt (w) = Yt ()) = 1 per ogni t I.
(Si dice anche che (Yt , t I) `e una versione di (Xt , t I))
Lemma 8.2. Due processi stocasticamente equivalenti hanno le stesse distribuzioni finito-dimensionali.
Dimostrazione. Basta osservare che

P {(Xt1 , ..., Xtk ) H}
k
k



c 
\
\
= P {(Xt1 , ..., Xtk ) H}
{Xti = Yti } + P {(Xt1 , ..., Xtk ) H}
{Xti = Yti }
i=1

= P {(Yt1 , ..., Ytk ) H}

k
\

i=1




{Xti = Yti } = P {(Yt1 , ..., Ytk ) H}

i=1

in quanto
P

k
 \
i=1

k
k
c 
[
 X

{Xti = Yti }
=P
{Xti = Yti }c
P {Xti = Yti }c = 0.
i=1

i=1

Esempio 8.4. Come primo esempio di processo si definisca, in uno spazio di probabilit`
a (, F, P),
(
= 0 se T () > t,
Nt () := I{T t} () = I[T (),) (t)
, t 0,
= 1 se T () t
dove T `e una variabile aleatoria a valori in (0, ).
Si noti che, qualunque sia le traiettorie di questo processo, cio`e le funzioni
t 7 I{T t} ()
sono funzioni crescenti (in senso lato) rispetto a t.
Se T ammette densit`
a di probabilit`
a, ad esempio se `e una variabile aleatoria esponenziale, allora il processo
definito da
Mt () := Nt () + f (t + T ()),
dove
(
f (s) = 1
f (s) = 0

per s Q
per s R\Q,

`e stocasticamente equivalente ad Nt , e quindi ha le stesse distribuzioni finito-dimensionali di Nt , ma


evidentemente non ha traiettorie crescenti (in senso lato).

162

MPEF 01-07-2009

Per controllare che Mt () ed Nt () sono stocasticamente equivalenti, si osservi che, Mt () 6= Nt () se e


solo se f (t + T ()) = 1 ovvero se e solo se t + T () Q ed inoltre
P(t + T () Q) =

P(T () = r t) = 0

rQ

per ogni t, in quanto T `e una variabile aleatoria continua e si ha quindi che


P(Mt () = Nt ()) = 1 per ogni t 0.

8.3

Esistenza di una versione continua:


Kolmogorov.

criterio di Chensov-

Il seguente criterio sufficiente fornisce condizioni che assicurano lesistenza di una versione holderiana, non solo
continua. Ricordiamo che una funzione f (x) `e h
olderiana di esponente se per ogni x esistono un (x) > 0 e
un L (x) tali che, per ogni y per il quale |y x| (x), si abbia
|f (x) f (y)| L (x)|x y| .
Nel caso in cui (x) e L (x) possano essere presi in modo indipendente da x, per x I, si dice che f `e
uniformemente h
olderiana nellinsieme I.
Proposizione 8.3 (Criterio di Chensov-Kolmogorov). Sia Xt un processo per cui esistono , e C strettamente
positivi, per cui
E[|Xt Xs | ] C|t s|1+ .
et di Xt , a traiettorie continue. Inoltre le traiettorie sono uniformemente h
Allora esiste una versione X
olderiane
,
in
ogni
intervallo
limitato.
di esponente , per ogni <

Esempio 8.5 (Applicazione al processo di Wiener).


Il processo Wt di Wiener standard, o moto Browniano, ammette sempre una versione continua, anzi
holderiana per ogni < 12 . Infatti, per s t,
E[|Wt Ws |k ] = E[|Wts |k ] = C(k)|t s|k/2 .
Il criterio di Chensov-Kolmogorov si pu`
o quindi applicare per k 3 (cos` = (k/2) 1 > 0) e ci garantisce
che esiste una versione di Wt le cui traiettorie sono holderiane di esponente per < (k/2)1
= 12 k1 , e quindi
k
` possibile dimostrare che, a parte un eventuale insieme di misura nulla, le traiettorie non sono
per ogni < 12 . E
holderiane di esponente 12 , e tantomeno di esponente maggiore di 21 .

8.4

Le traiettorie del processo di Wiener non sono a variazione


limitata

In questa sezione si dimostra una propriet`


a che non permette di definire nel modo usuale (Lebesgue-Stieltjes)
lintegrale rispetto al processo di Wiener. Nonostante si abbia che le traiettorie della versione continua del
processo di Wiener siano h
olderiane, tuttavia esse non possono essere molto regolari, in quanto ad esempio sono
anche a variazione non limitata con probabilit`
a 1 su ogni intervallo [s, t]. Infatti, per ogni versione continua11
11 Se il processo W ha le traiettorie continue, allora su ogni intervallo chiuso e limitato [s, t], esse sono uniformemente continue,
u
e quindi, per ogni
sup
|Wu () Wv ()| 0
per 0.
u,v[s,t],|uv|

MPEF 01-07-2009

163

di Wu , se esistesse un intervallo [s, t] ed un insieme A con P(A) > 0, su cui la variazione12 di Wu , cio`e se
V () = V (s, t, W ; )
n n1
o
X
:= sup
|Wtk+1 () Wtk ()|, al variare delle partizioni : t0 = s t1 tn = t
k=0

fosse finita per ogni A, allora si avrebbe che, se || := max|tk+1 tk | 0,


k

S :=

n1
X

|Wtk+1 Wtk |

k=0

k=0


sup|Wth+1

n1
X

sup|Wth+1


Wth | |Wtk+1 Wtk |

 n1
X
Wth |
|Wtk+1 Wtk |

|Wu Wv | V () 0.

sup
u,v[s,t],|uv|||

k=0

Questo fatto `e in contraddizione con la seguente propriet`a del moto browniano (valida anche per versioni non
continue):

Lemma 8.4. Si definisca


S :=

n1
X

|Wtk+1 Wtk |2 ,

k=0
L2

allora S converge in media quadratica a t s, ovvero S (t s), al tendere a zero di || := max|tk+1 tk |.


k

Dimostrazione. Si tratta di mostrare che E[(S (t s))2 ] 0 al tendere a zero di || := max|tk+1 tk |, e


k

infatti

E[(S (t s))2 ] = E[S2 + (t s))2 2S (t s)]


" n1
#
X
 n1
2

X
2
2
2
=E
|Wtk+1 Wtk |
|Wtk+1 Wtk | (t s)
+ (t s) 2
k=0

=E

"n1
X

k=0
2

|Wtk+1 Wtk |

k=0

n1
X

n1
X

|Wth+1 Wth | + (t s) 2

h=0

 n1
X

|Wtk+1 Wtk |

#
(t s)

k=0

X n1
X 

 n1

4
E |Wtk+1 Wtk | +
E |Wtk+1 Wtk |2 |Wth+1 Wth |2 +

k=0

k=0 h=0
h6=k

+ (t s)2 2(t s)

n1
X



E |Wtk+1 Wtk |2

k=0

n1
X
k=0

12 Ricordiamo

3|tk+1 tk |2 +

n1
X n1
X

|tk+1 tk ||th+1 th | + (t s)2 2(t s)

k=0 h=0

n1
X

|tk+1 tk |

k=0

h6=k

che se f `
e una funzione definita su un intervallo [a, b] la variazione di f su [a, b] `
e appunto definita come
sup{

n
X

|f (xk+1 ) f (xk )|},

k=0

dove lestremo superiore `


e preso su tutte le partizioni {x0 , x1 , , xn } di [a, b] tali che x0 = a x1 xn = b.

164

MPEF 01-07-2009

Di conseguenza si ottiene che




E (S (t s))2
=

n1
X

2|tk+1 tk |2 +

k=0

n1
X n1
X

|tk+1 tk ||th+1 th | + (t s)2 2(t s)(t s)

k=0 h=0

n1
X

|tk+1 tk |(max|th+1 th |) + (t s)2 + (t s)2 2(t s)(t s)


h

k=0

= 2(max|th+1 th |)
h

n1
X

|tk+1 tk | = 2(||(t s) 0.

k=0

La conseguenza di questo risultato `e che le traiettorie di un processo di Wiener non sono a variazione
limitata13 , o meglio,
!
n1
X
P V (s, t, W ; ) := sup
|Wtk+1 Wtk | = = 1.

k=0

Rt
Questo fatto in particolare pone dei problemi nel tentare di definire 0 f (s, )dWs (), in quanto non si pu`o
adottare la classica definizione di integrale di Lebesgue-Stieltjes, che avrebbe senso solo se Ws avesse traiettorie
a variazione finita. La definizione che si d`
a `e quindi diversa e si parla in questo caso di integrale stocastico,
inoltre per ottenerla si ha bisogno del concetto di martingala (vedere la Sezione 9.5).

13 In realt`
a con la stessa tecnica del lemma si dimostra anche che il processo di Wiener non ha traiettorie di H
older con esponente
> 1/2: se cos` fosse allora necessariamente si avrebbe

S ()

n1
X
k=0

L2 ()|tk+1 tk |2

n1
X
k=0

L2 ()|tk+1 tk | 21 = L2 () 21 (t s) 0, q.c.

MPEF 01-07-2009

8.5

165

Processi ad incrementi indipendenti ed omogenei

Il procedimento usato per ottenere le distribuzioni finito dimensionali del processo di Wiener, si pu`o estendere
ad una classe pi`
u generale:
Definizione 8.6 (Processi ad incrementi indipendenti ed omogenei). Un processo (Xt )t0 si dice ad
incrementi indipendenti ed omogenei se
(0) X0 = 0;
(1) per 0 = t0 < t1 < tn gli incrementi Xti = Xti Xti1 sono variabili aleatorie indipendenti;
(2) gli incrementi Xti = Xti Xti1 sono variabili aleatorie la cui distribuzione dipende solo dallampiezza
dellintervallo (ti ti1 );
Per fissare le idee e capire meglio la condizione (2), si consideri la famiglia (Fu )u0 di funzioni di distribuzione
dipendente da un parametro, per cui Xt+u Xt Fu , qualunque siano t ed u in [0, ).
La famiglia (Fu )u0 non pu`
o essere presa a piacere, ma deve soddisfare la seguente condizione necessaria14 :
Fu Fv = Fu+v ,

per ogni u, v 0,

(8.8)

dove corrisponde alla convoluzione.


Infatti ci`o corrisponde alla condizione che
Xu = Xu X0 Fu ,

Xu+v Xu Fv ,

Xu+v Fu+v ,

e daltra parte
Xu+v = (Xu+v Xu ) + (Xu X0 ) Fv Fu .
In realt`a questa condizione risulta anche sufficiente, come si pu`o verificare facilmente. Infatti le funzioni
Ft1 , ,tk (x1 , , xk ) di distribuzione finito dimensionale risultano definite15 , per 0 < t1 < < tk , come, la
funzione di distribuzione ottenuta da quella degli incrementi, cio`e

P Xt1 X0 z1 , Xt2 Xt1 z2 , Xtk Xtk1 zk = Ft1 (z1 )Ft2 t1 (z2 ) Ftk tk1 (zk ),
attraverso la trasformazione16 x1 = z1 , x2 = z1 + z2 , , xk = z1 + + zk . La condizione (8.8) implica
immediatamente che la condizione di consistenza di Kolmogorov (C20 ) sia soddisfatta.
Per rendere pi
u concreta la verifica, si consideri, ad esempio, il caso con densit`a, ovvero il caso in cui
Z

Fu (x) =

qu (y)dy.

Procedendo come per il processo di Wiener, si ottiene che, per 0 < t1 < < tk
Z

x1

Ft1 , ,tk (x1 , , xk ) =

xk

qt1 (y1 ) qtk tk1 (yk yk1 )dy1 dyk .

14 Inoltre
15 Nel

`
e necessario che F0 (x) = 0 per x < 0 ed F0 (x) = 1 per x 0, ovvero che lincremento Xt Xt sia concentrato nello 0.
caso 0 = t0 < t1 < < tk si ottiene immediatamente che
Ft0 ,t1 , ,tk (x0 , x1 , , xk ) = 0,

per x0 < 0,

Ft0 ,t1 , ,tk (x0 , x1 , , xk ) = Ft1 , ,tk (x1 , , xk ),


16 Si

per x0 0.

tratta solo di notare che se Zi := Xti Xti1 allora (Xt1 , Xt2 , , Xtk ) = (Z1 , Z1 + Z2 , , Z1 + + Zk )

166

MPEF 01-07-2009

Per controllare la condizione di consistenza (C20 ), si prendano k 1 e t1 < t2 < < tk < tk+1 , allora la 8.3)
`e verificata:
lim Ft1 , ,tk ,tk+1 (x1 , , xk , x)
Z x1
Z xk Z x

qt1 (y1 ) qtk tk1 (yk yk1 )qtk+1 tk (y yk )dy1 dyk dy


= lim
x

Z x1
Z xk
Z x
qt1 (y1 ) dy1
qtk tk1 (yk yk1 ) dyk
qtk+1 tk (y yk ) dy
= lim

x1

xk

xyk

qt1 (y1 ) dy1


qtk tk1 (yk yk1 ) dyk
qtk+1 tk (y 0 ) dy 0
= lim
x

Z xk
Z x1
qt1 (y1 ) dy1
qtk tk1 (yk yk1 ) dyk = Ft1 , ,tk (x1 , , xk ),
=

e la (8.4) anche:
lim Ft1 , ,ti1 ,ti ,ti+1 , ,tk+1 (x1 , , xi1 , x, xi+1 , , xk+1 )
Z xk+1
Z x1
Z xi1 Z x Z xi+1

qt1 (y1 ) qti1 ti2 (yi1 yi2 )


= lim

qti ti1 (yi yi1 )qti+1 ti (yi+1 yi ) qtk+1 tk (yk+1 yk )dy1 dyi1 dyi dyi+1 dyk+1
Z
= lim

x1

xi1

qt1 (y1 ) dy1


qti1 ti2 (yi1 yi2 ) dyi1

Z

Z xi+1
x
qti ti1 (yi yi1 ) qti+1 ti (yi+1 yi ) dyi dyi+1

Z xk+1

qtk+1 tk (yk+1 yk ) dyk+1

x1

xi1

qt1 (y1 ) dy1

qti1 ti2 (yi1 yi2 ) dyi1


Z xi+1
Z
qti+1 ti (yi+1 yi ) dyi+1

= Ft1 , ,ti1 ,ti+1 , ,tk+1 (x1 , , xi1 , xi+1 , , xk+1 ),

xk+1

qtk+1 tk (yk+1 yk ) dyk+1

per i = 1, , k.

Nella penultima uguaglianza si `e tenuto conto del fatto che la condizione Fu Fv = Fu+v implica che, posto
y = yi yi1 , in modo che yi+1 yi = (yi+1 yi1 ) y, si abbia
Z x
lim
qti ti1 (yi yi1 ) qti+1 ti (yi+1 yi ) dyi
x

xyi1

= lim
qti ti1 (y)qti+1 ti (yi+1 yi y) dy
x
Z
=
qti ti1 (y)qti+1 ti (yi+1 yi y) dy

= qti+1 ti qti ti1 (yi+1 yi1 ) = qti+1 ti1 (yi+1 yi1 ).


Nel caso in cui Fv sia discreta il discorso si ripete identico, mettendo le densit`a discrete al posto delle densit`a
di probabilit`a e le somme al posto degli integrali.
Come esempi di famiglie ad un parametro di funzioni di distribuzione, oltre al caso della famiglia gaussiana
Fu N (0, u), che d`
a luogo al processo di Wiener standard, si possono considerare

MPEF 01-07-2009

167

1 il processo di Wiener con drift (o deriva) e coefficiente di diffusione 2 , ovvero


Fu N (u, 2 u);
2 il processo di Cauchy , ovvero il caso in cui
Fu Cauchy(u), ovvero qu (x) =

1
u
;
u2 + x2

3 il processo di Poisson di parametro , ovvero il caso in cui


Fu P oisson(u), ovvero pu (k) = Fu (k) Fu (k 1) =

(u)k
exp(u),
k!

k N;

4 i processi di Poisson composti , ovvero i processi (Xt )t0 ottenuti per mezzo di un processo di Poisson
(Nt )t0 ed una successione di variabili aleatorie indipendenti ed identicamente distribuite {n }nN , (tutte
indipendenti dal processo di Poisson) tramite la seguente regola
Xt = 0, se Nt = 0;

Xt =

n
X

k , se Nt = n.

k=1

Terminiamo questa sezione ricordando anche la definizione di processi ad incrementi indipendenti rispetto
ad una filtrazione (Ft )t0 .
Definizione 8.7 (Processi ad incrementi indipendenti ed omogenei rispetto ad una filtrazione). Un processo
(Xt )t0 si dice ad incrementi indipendenti ed omogenei rispetto alla filtrazione (Ft )t0 , con
(Ft )t0 FtX = {Xu ; u [0, t]} se
(0) X0 = 0;
(1) per s, t 0 gli incrementi Xt+s Xt sono variabili aleatorie indipendenti da Ft ;
(2) gli incrementi Xt+s Xt sono variabili aleatorie la cui distribuzione dipende solo da s.
Si vede facilmente che questa definizione implica laltra considerando che Xtn Xtn1 `e indipendente da
Ftn1 {Xti Xti1 ; i = 1, , n 1}. Si pu`o anche vedere che la prima definizione implica la seconda con
Ft = FtX = {Xu ; u [0, t]} = {Xu Xv ; u, v [0, t]}.

8.6

Esempi di martingale a tempo continuo

In modo molto simile a quanto fatto a tempo discreto per le somme di v.a. indipendenti, si pu`o mostrare17 che
se Xt `e un processo ad incrementi indipendenti e omogenei, rispetto ad una filtrazione (Ft )t0 , con X0 = 0, e
con media nulla allora Xt `e una martingala, purche sia integrabile.
Inoltre `e facile mostrare che se Xt `e un processo ad incrementi indipendenti (e omogenei), integrabile e con
X0 = 0, allora E[Xt ] = t per t nei razionali:
E[X1 ] =

n
X

E[Xk/n X(k1)/n ] = nE[X1/n ]

k=1

Pm
da cui E[X1/n ] = n1 E[X1 ] e analogamente E[Xm/n ] = k=1 E[Xk/n X(k1)/n ] = m
n E[X1 ].
Per ottenere che ci`
o valga anche per ogni t reale, si deve notare che comunque E[Xt+s ] = E[Xt ] + E[Xs ] e
17 La

a`
e verificata per ipotesi. Infine
condizione di misurabilit`
a dipende dal fatto che Ft FtX . La condizione di integrabilit`
E[Xt+s Xt |Ft ] = E[Xt+s Xt ] = E[Xt+s ] E[Xt ] = 0 0 = 0,

dove nella prima uguaglianza si usa lindipendenza di Xt+s Xt da Ft , e nellultima si usa il fatto che la media di Xu `
e nulla. Si
noti che lomogeneit`
a degli incrementi qui non `
e necessaria.

168

MPEF 01-07-2009

aggiungere una piccola ulteriore ipotesi di regolarit`


a: la E[Xt ] `e una funzione continua in t (o continua a
destra). Con questa ipotesi si ottiene immediatamente la tesi per continuit`a.
Il processo Xt E[Xt ] = Xt t `e allora un processo ad incrementi indipendenti (ed omogenei), a media
nulla e quindi `e una martingala.
Se ancora Xt ammette momento secondo finito, allora, con una dimostrazione simile18 si ha che V ar(Xt ) =
t, purche si possa affermare a priori che V ar(Xt ) `e una funzione continua. Di nuovo similmente al caso a
tempo discreto, accade che (Xt E[Xt ])2 V ar(Xt ) = (Xt t)2 2 t `e una martingala (a media nulla) .
Infine `e possibile mostrare19 che, sotto opportune ipotesi di regolarit`a (continuit`a in probabilit`a), se
E[exp{ Xt }] < + ****, allora
2

E[exp{ Xt }] = exp{K()t},

dove E[exp{ X1 }] = exp{K()}

e che quindi
Zt := exp{ Xt K()t}

(8.9)

`e una martingala20 a media 1.


Tutte le propriet`a precedenti valgono anche per i processi Yt = Y0 + Xt , con dato iniziale Y0 indipendente
da {Xt } (tranne per i valori medi). Bisogna per`o che Y0 sia F0 -misurabile21 , e soddisfi alcuni requisiti di
18 Si tratta di osservare che la varianza della somma degli incrementi `
e la somma delle varianze degli incrementi e quindi si procede
come nel caso del valore atteso, sostituendo V ar a E.
19 In

questo caso si sfrutta il fatto che


exp{X1 } =

n
Y


exp{ Xk/n X(k1)/n },

k=1

da cui, passando al valore atteso, per lindipendenza degli incrementi e per lomogeneit`
a
E[exp{X1 }] =

n
Y


 n
E[exp{ Xk/n X(k1)/n }] = E[exp{ X1/n X0 }] .

k=1

Posto exp{K()} := E[exp{X1 }] si ottiene dunque che



E[exp{ Xk/n X(k1)/n }] = E[exp{ X1/n }] = exp{K()(1/n)},

da cui ancora la tesi per ogni t razionale.


20 Di

nuovo misurabilit`
a e integrabilit`
a sono banali. Osservando che
Zt+s = exp{ Xt+s K()(t + s)}
= exp{ Xt K()t} exp{(Xt+s Xt ) K()s}
= Zt exp{(Xt+s Xt ) K()s}

si ottiene subito
E[Zt+s Zt |Ft ] = E [Zt (exp{(Xt+s Xt ) K()s} 1) |Ft ]
(per la misurabilit`
a di Zt )
= Zt E [(exp{(Xt+s Xt ) K()s} 1) |Ft ]
(per lindipendenza degli incrementi da Ft )
= Zt E [(exp{(Xt+s Xt ) K()s} 1)]
(per lomogeneit`
a degli incrementi)
= Zt E [(exp{ Xs K()s} 1)] = Zt (1 1) = 0
21

In realt`
a la richiesta che Y0 sia F0 -misurabile non `
e strettamente necessaria, se vale la condizione di indipendenza di tra il
processo (Xt ) e la variabile aleatoria Y0 : nel caso in cui Ft = FtX si potrebbe, in alternativa, cambiare la filtrazione e prendere
la filtrazione definita da Ft {Y0 }. In questo caso infatti il processo Y0 + Xt viene automaticamente adattato alla nuova
filtrazione. Inoltre {Xt } `
e ancora una martingala rispetto alla nuova filtrazione, come si pu`
o vedere facilmente usando la propriet`
a
dei condizionamenti ridondanti: infatti la -algebra H = {Y0 } `
e indipendente da X = Xt+s e da G = Ft .
E[X|G H] = E[X|G]

E[Xt+s |Ft {Y0 }] = E[Xt+s |Ft ] = Xt ;

lo stesso discorso vale nel caso in cui si assuma Y0 indipendente da Ft FtX per ogni t (e quindi anche dal processo {Xt }.

MPEF 01-07-2009

169

integrabilit`a. Ad esempio
et := E[exp{(Yt t) K()t}]
Z

(8.10)

e0 ] = E[exp{Y0 }], purche ovviamente il valore medio di


`e ancora una martingala a media costante uguale a E[Z
exp{Y0 } sia finito.
Esempio 8.6 (Decomposizione di Doob e martingala esponenziale per il processo di Wiener). Come applicazione
si consideri che il processo di Wiener standard o moto browniano Wt `e una martingala, anche Mt = Wt2 t e
infine, per ogni reale
1
Zt := exp{Wt 2 t}
2

(8.11)

`e una martingala22 a media 1, che viene detta martingala esponenziale.


Si noti che Wt2 `e una submartingala (in quanto quadrato di una martingala) e che quindi si pu`
o decomporre
nella somma di una martingala (la martingala Mt ) e di un processo crescente (il processo deterministico t),
cio`e Wt2 = Mt + t. Si tratta di un caso particolare della decomposizione di Doob a tempo continuo.
Esempio 8.7 (Decomposizione di Doob e martingala esponenziale per il processo di Poisson). Anche il processo
di Poisson Nt di parametro , essendo un processo crescente `e una submartingala, e si pu`
o decomporre nella
somma di una martingala Mt := Nt t e di un processo crescente At = t. Si tratta anche qui di un caso
particolare della decomposizione di Doob a tempo continuo.
Si osservi che in generale data una v.a. Z non negativa e a media 1 in uno spazio (, F, P),
Q(C) := EP [IC Z],

C F,

(8.12)

definisce una nuova misura di probabilit`


a.23 Q su (, F).
Esercizio 8.1 (Un caso particolare del Teorema di Girsanov). Posto
Z = ZT


1
= exp{WT 2 T }
2

dove Zt `e la martingala esponenziale (8.11) relativa al processo di Wiener, e F = FT nellespressione precedente


(8.12), si trovi
1) la derivata di Radon-Nikodym

dQ
ht =
,
dP Ft
ovvero24 quella variabile aleatoria ht (), Ft -misurabile, tale che
Z
Q(A) =
ht ()P(d), per ogni A Ft ;
A

suggerimento: si veda lesempio riguardante le martingale e le derivate di Radon-Nikodym.


22 Basta ricordare che K() `
e definito dal fatto che exp{K()} = E[exp{(X1 1)}]. In questo caso quindi exp{K()} =
E[exp{W1 }] = exp{ 12 2 }, da cui K() = 21 2 .
23 E
` ovvio che Q(C) 0, essendo Z non negativa, e che Q() = 1, in quanto Q() = EP [I Z] = EP Z] = 1. La -additivit`
a segue
dalle propriet`
a di -additivit`
a di P e dal fatto che
X
I{n An } =
IAn ,
se gli insiemi An sono disgiunti a due a due.
n
24 Si

ricordi la nota 3.3.

170

MPEF 01-07-2009

soluzione:

dQ
dP Ft

= Zt

2) la legge di Wt rispetto a Q,
suggerimento: basta capire che EQ [g(Wt )] si calcola equivalentemente come
1
EQ [g(Wt )] = EP [g(Wt )Zt ] = EP [g(Wt ) exp{Wt 2 t}]
Z 2
Z
1 2
1
1 2
g(w) exp{ (w2 2wt + 2 t2 )}dw
=
g(w) exp{w t} exp{ w }dw =
2
2t
2t
R
ZR
1
2
=
g(w) exp{ (w t) }dw
2t
R
soluzione: la legge di Wt `e N (t, t)
3) le distribuzioni finito dimensionali di (Wt , t 0) rispetto a Q.
suggerimento: si tratta di capire che EQ [g1 (Wt1 )g2 (Wt2 Wt1 ) gn (Wtn Wtn 1 )] si calcola come
EP [g1 (Wt1 )g2 (Wt2 Wt1 ) gn (Wtn Wtn 1 )Ztn ]
n
Y
Ztk
]
= EP [g1 (Wt1 )g2 (Wt2 Wt1 ) gn (Wtn Wtn 1 )
Z
k=1 tk1
= EP [g1 (Wt1 )g2 (Wt2 Wt1 ) gn (Wtn Wtn1 )

n
Y
k=1

= EP [

n
Y

k=1

1
exp{(Wtk Wtk1 ) 2 (tk tk1 )}]
2

1
gk (Wtk Wtk1 ) exp{(Wtk Wtk1 ) 2 (tk tk1 )}]
2

n
Y

1
EP [gk (Wtk Wtk1 ) exp{(Wtk Wtk1 ) 2 (tk tk1 )}]
2
k=1
n Z
Y
(wi wi1 (ti ti1 ))2
g(wi wi1 ) exp{
=
}dwi .
2(ti ti1 )
i=1 R
=

dove per convenzione si `e posto t0 = 0 e w0 = 0.


soluzione: il processo {Wt } diviene sotto Q un processo di Wiener con drift e coefficiente di diffusione 1.

8.7

Processi di Markov regolari

I processi di Markov regolari sono processi costruiti attraverso una famiglia di probabilit`
a di transizione
regolari P (s, t, x, A), e attraverso una misura di probabilit`a 0 , detta (misura delle) probabilit`
a iniziali .
Definizione 8.8 (Probabilit`
a di transizione regolari). Una famiglia P (s, t, x, A)
P : (R+ R+ )+ R B(R) [0, 1], (s, t, x, A) P (s, t, x, A),
dove
(R+ R+ )+ = {(s, t) R+ R+ , tali che s t},
che soddisfa le seguenti propriet`
a:

MPEF 01-07-2009

171

(i) per ogni 0 s t ed x R,


P (s, t, x, ) : B(R) [0, 1], A P (s, t, x, A)
`e una misura di probabilit`
a,
(ii) per ogni 0 s t ed A B(R),
P (s, t, , A) : R [0, 1], x P (s, t, x, A)
`e una funzione misurabile,
(iii) la famiglia P (, , , ) soddisfa l equazione di Chapman-Kolmogorov, cio`e per ogni 0 r s t, per
ogni x R e per ogni A B(R) vale
Z
P (r, t, x, A) =
P (r, s, x, dy)P (s, t, y, A),
R

viene detta famiglia di probabilit`


a di transizione regolari.
Si noti che quindi necessariamente P (t, t, x, A) = x (A), cio`e vale 1 se x A e vale 0 altrimenti e che le
propriet`
a (i) e (ii) permettono di dare senso allintegrale in (iii).
Osservazione 8.1. E interessante notare che lequazione di Chapman-Kolmogorov, nel caso in cui P (s, t, x, )
ammette densit`
a, ovvero
Z
P (s, t, x, A) =
p(s, t, x, y) dy,
A

diviene
Z

Z
p(r, t, x, z) dz =

Z Z

Z
p(r, s, x, y) dy

p(s, t, y, z) dz =
A

ovvero


p(r, s, x, y)p(s, t, y, z) dy

dz,

Z
p(r, t, x, z) =

p(r, s, x, y)p(s, t, y, z) dy.


R

Attraverso le probabilit`
a di transizioni regolari e la probabilit`a iniziale, si pu`o definire una famiglia di
funzioni di distribuzione finito dimensionale nel seguente modo: si definiscano, per 0 t1 tk , e per
(z0 , z1 , , zk ) Rk+1 ,
Z z0 Z z1
Z zk
F0,t1 , ,tk (z0 , z1 , , zk ) :=

0 (dx0 )P (0, t1 , x0 , dy1 )P (t1 , t2 , y1 , dy2 )

P (tk2 , tk1 , yk2 , dyk1 )P (tk1 , tk , yk1 , dyk ),


ed
Ft1 , ,tk (z1 , , zk ) := lim F0,t1 , ,tk (z, z1 , , zk ),
z

Se invece non vale 0 t1 tk , si definiscono attraverso unopportuna permutazione per la quale


0 t1 tk ed in modo che valga la condizione di consistenza (C1).
La propriet`a (iii), ovvero lequazione di Chapman-Kolmogorov, permette di verificare immediatamente la
condizione di consistenza (C20 )25 . La famiglia di distribuzioni finito-dimensionali cos` ottenute soddisfa quindi
le propriet`a di consistenza del teorema di Kolmogorov, e pertanto esiste un processo con queste distribuzioni
finito-dimensionali. Un processo le cui distribuzioni finito-dimensionali si possono ottenere attraverso una
famiglia di probabilit`
a di transizione regolare e una probabilit`a iniziale come sopra, viene detto processo di
Markov (o processo markoviano) regolare.
25 Nel

caso con densit`


a la verifica `
e simile a quella del caso dei processi ad incrementi indipendenti ed omogenei: si prendano

172

MPEF 01-07-2009

Esempio 8.8. Il processo di Wiener ed il processo di Poisson sono processi markoviani regolari in questo senso
con 0 ={0} per entrambi i processi e
1

P (s, t, x, dy) = p

2(t s)

exp{

(y x)2
}dy
2(t s)

per il processo di Wiener, mentre


P (s, t, n, {m}) =

((t s))nm
exp{(t s)}, 0 m n
(n m)!

per il processo di Poisson.


Esempio 8.9 (Processi di Markov regolari omogenei e processi a incrementi indipendenti e omogenei). In
entrambi i casi dellesempio precedente P (s, t, x, A) dipende solo dalla differenza t s. Pi`
u in generale ogni
volta che P (s, t, x, A) = P (s + h, t + h, x, A) = P (0, t s, x, A) per ogni s, t, h, x, A, si parla di processo di
Markov omogeneo (nel tempo). Inoltre se per ogni s, t, h, x, z, y,
P (s, t, x, (, z]) = P (s + h, t + h, x + y, (, z + y]),

(8.13)

allora in realt`
a si tratta di esempi di processi a incrementi indipendenti ed omogenei (nello spazio) (con
X0 = 0, se 0 `e la misura concentrata in 0). Nel caso generale la famiglia delle distribuzioni finito-dimensionali
cos` ottenuta coincide con la famiglia delle distribuzioni finito-dimensionali di un processo (Xt0 )t0 , con
Xt0 = Y0 + Xt ,
k 1 e 0 < t1 < t2 < , < tk < tk+1 , allora
lim F0,t1 , ,ti1 ,ti ,ti+1 , ,tk+1 (x0 , x1 , , xi1 , x, xi+1 , , xk+1 )
Z x0 Z x1
Z xi1 Z x Z xi+1
Z xk+1
= lim

0 (dy0 )p(0, t1 , y0 , y1 ) p(ti2 , ti1 , yi2 , yi1 )

p(ti1 , ti , yi1 , yi )p(ti , ti+1 , yi , yi+1 ) p(tk , tk+1 , yk , yk+1 )dy1 dyi1 dyi dyi+1 dyk+1
Z x0
Z x1
Z xi1
= lim
0 (dy0 )
p(0, t1 , y0 , y1 ) dy1
p(ti2 , ti1 , yi2 , yi1 ) dyi1
x

xi+1

Z

p(ti1 , ti , yi1 , yi ) p(ti , ti+1 , yi , yi+1 ) dyi

x0

xi+1

p(ti2 , ti1 , yi2 , yi1 ) dyi1

Z

x0

x1

xk+1

dyi+1

p(tk , tk+1 , yk , yk+1 ) dyk+1

xi1

p(0, t1 , y0 , y1 ) dy1

0 (dy0 )

p(tk , tk+1 , yk , yk+1 ) dyk+1 =

xi1

p(0, t1 , y0 , y1 ) dy1

p(ti1 , ti , yi1 , yi ) p(ti , ti+1 , yi , yi+1 ) dyi


Z

xk+1

x1

0 (dy0 )

dyi+1

p(ti2 , ti1 , yi2 , yi1 ) dyi1

xi+1

xk+1

p(ti1 , ti+1 , yi1 , yi+1 ) dyi+1

p(tk , tk+1 , yk , yk+1 ) dyk+1

= F0,t1 , ,ti1 ,ti+1 , ,tk+1 (x0 , x1 , , xi1 , xi+1 , , xk+1 ),

per i = 1, , k.

Nella penultima uguaglianza si `


e tenuto conto dellequazione di Chapman-Kolmogorov. Il caso i = 0 `
e verificato per definizione.
Infine
lim F0,t1 , ,tk ,tk+1 (x0 , x1 , , xk , x)
Z x0 Z x1
Z xk Z x
= lim

0 (dy0 )p(0, t1 , y0 , y1 ) p(tk1 , tk , yk1 , yk )p(tk , tk+1 , yk , y) dy0 dy1 dyk dy

x0

= lim

x1

p(tk , tk+1 , yk , y) dy

p(tk1 , tk , yk1 , yk ) dyk

Z xk

p(0, t1 , y0 , y1 ) dy1

0 (dy0 )

xk

p(0, t1 , y0 , y1 ) dy1

Z x1

p(tk , tk+1 , yk , y) dy

x1

0 (dy0 )

Z x0

xk

p(tk1 , tk , yk1 , yk ) dyk

x0

p(0, t1 , y0 , y1 ) dy1

0 (dy0 )

p(tk1 , tk , yk1 , yk ) dyk = F0,t1 , ,tk (x0 , x1 , , xk ),

MPEF 01-07-2009

173

dove (Xt )t0 `e un processo ad incrementi indipendenti ed omogenei con X0 = 0, ed Y0 `e una variabile aleatoria
con funzione di distribuzione F0 (y) = 0 ((, y]), indipendente dal processo (Xt )t0 .
Per verificare le precedenti affermazioni si osservi che, prendendo h = s ed y = x nella formula (8.13)
si ottiene
P (s, t, x, (, z]) = P (0, t s, 0, (, z x]),
allora basta porre
Fu (z) = P (0, u, 0, (, z]).
Rz
Sempre nel caso con densit`
a, ovvero nel caso in cui Fu (z) = qu (y)dy, lequazione di Chapman-Kolmogorov
diviene
Z
qtr (z x) =
qsr (y x)qts (z y) dy
R

ovvero, ponendo s r = u, t s = v, = z x ed = y x,
Z
qu+v () =
qu ()qv ( ) d, ovvero

qu+v = qu qv ,

che `e esattamente la condizione di compatibilit`


a gi`
a incontrata per i processi ad incrementi indipendenti ed
omogenei, e ci`
o dimostra che la famiglia markoviana di distribuzioni finito-dimensionali definita con 0 = 0 ,
e quella definita per i processi ad incrementi indipendenti ed omogenei, sono le stesse, ovvero che (Xt )t0 `e un
processo di questultimo tipo.
Infine per mostrare che le distribuzioni finito-dimensionali del processo (Xt0 )t0 sono quelle della famiglia
markoviana, osserviamo che, nel caso in cui 0 (dy) = p0 (y)dy, si ottiene
P(X00 z0 , Xt01 z1 , , Xt0k zk )
= P(Y0 z0 , Y0 + Xt1 z1 , , Y0 + Xtk zk )
Z z0
=
P(Y0 dx0 )P(Y0 + Xt1 z1 , , Y0 + Xtk zk |Y0 = x0 )

Z z0
P(Y0 dx0 )P(Xt1 z1 x0 , , Xtk zk x0 |Y0 = x0 )
=

(per lindipendenza di (Xt )t0 ed Y0 )


Z

z0

P(Y0 dx0 )P(Xt1 z1 x0 , , Xtk zk x0 )

Z z0

z1 x0

zk x0

pXt1 , ,Xtk (y10 , , yk0 ) dy10 , dyk0

pY0 (x0 )dx0

(posto yi = yi0 + x0 )
Z

z0

z1

zk

pY0 (x0 )dx0

pXt1 , ,Xtk (y1 x0 , , yk x0 ) dy1 , dyk

Z z0 Z z1
Z zk

p0 (x0 ) dx0 qt1 (y1 x0 ) dy1 qt2 t1 (y2 y1 ) dy2


=
=

qtk1 ,tk2 (yk1 yk2 ) dyk1 qtk tk1 (yk yk1 ) dyk ,
=: F0,t1 , ,tk (z0 , z1 , , zk ).

8.7.1

Processo di Orstein-Ulhenbeck

Si consideri la famiglia delle probabilit`


a di transizione con densit`a, definita da
1

P (s, t, x, dy) = q

exp{
2(ts)

2 2 1e

1 (y e(ts) x)2
}dy.
2 2 1e2(ts)
2

Si pu`o dimostrare che P (s, t, x, dy) definisce una famiglia di probabilit`a di transizione regolare (gaussiana).
Inoltre si potrebbe dimostrare che, se Y0 `e una variabile aleatoria con distribuzione 0 , indipendente da un

174

MPEF 01-07-2009

processo di Wiener standard (Wt )t0 , allora la famiglia di distribuzioni finito dimensionali ottenute tramite
P (s, t, x, dy) e la distribuzione iniziale 0 , ha le stesse distribuzioni finito dimensionali del processo
Xt := e

e(ts) Ws ds.

Y0 + Wt
0

Si noti che lintegrale ha senso purche si prenda la versione a traiettorie continue del processo di Wiener
standard26 .
` inoltre interessante notare che, se Y0 = x, cio`e se Y0 `e una variabile aleatoria degenere, allora
E
Rt
Xt := et x + Wt 0 e(ts) Ws ds `e un processo gaussiano27 , di valore atteso m(t) = et x e funzione di
covarianza



Z s
Z t
(su)
(tu)
e
Wu du .
e
Wu du
Ws
K(s, t) = E Wt
0

0
28

Con un po di calcoli

si pu`
o controllare che
K(s, t) =

2 |ts|
(e
e(t+s) ),
2

ed in particolare quindi
2
(1 e2 t )
2

V ar(Xt ) = K(t, t) =

26 Vale la pena ricordare che di solito questo processo viene introdotto dopo aver parlato dellintegrale stocastico rispetto al
processo di Wiener. Riscrivendo


Z t
Z t
Wt
e(ts) Ws ds = et et Wt
es Ws ds ,
0

e interpretando la formula tra parentesi come unintegrazione per parti


Z t
Z
et Wt
Ws des =:
0

si pu`
o riscrivere

es dWs ,

Xt := et

Y0 +

es dWs

o in forma differenziale (stocastica)


dXt = Xt dt + dWt .
Per poter dare un senso pi`
u preciso a questa espressione, tuttavia andrebbe prima visto il significato dellintegrale stocastico.
In effetti la prima definizione di integrale stocastico data da Wiener `
e stata la seguente: per ogni funzione deterministica
h(t) C 1 , ovvero con derivata prima continua, Wiener definiva
Z
Z
h(s)dWs := W h() W h()
Ws h0 (s)ds.

Questa variabile aleatoria risulta gaussiana (vedere la nota successiva) di valore medio nullo e di varianza
R
ma `
e misurabile e con h2 (s)ds finito, allora Wiener definiva
Z

h2 (s)ds. Se h(t)
/ C1,

h(s)dWs := lim

hn (s)dWs ,

dove il limite `
e inteso in media quadratica, e dove {hn }n `
e una successione di funzioni C 1 con la propriet`
a che
Z
2
hn (s) h(s) ds 0.

R
R
o ottenere come limite delle
fatto che sia gaussiano dipende dal fatto che lintegrale 0t e(ts) Ws ds = et 0t es Ws ds si pu`
somme di Riemann
n
X
et
esk Wsk (sk sk1 ),
27 Il

k=1

che sono variabili aleatorie gaussiane, e tenendo conto del fatto che il limite (in distribuzione) di variabili aleatorie gaussiane `
e
ancora una variabile aleatoria gaussiana, purch
e valore atteso e varianza convergano.
28 Questo conto risulta pi`
u agevole dopo aver introdotto lintegrale stocastico di Ito (vedere la Sezione 9.5.

MPEF 01-07-2009

175

Nel caso in cui > 0, quando t va allinfinito, allora chiaramente E[Xt ] = m(t) = e2t x converge a zero e
2
la varianza V ar(Xt ) = K(t, t) converge a 2 . Di conseguenza la legge unidimensionale del processo (Xt )t0
2
converge in distribuzione ad una legge gaussiana N (0, 2 ).
Questa legge gode di una interessante propriet`
q a: se la legge iniziale 0 `e appunto una legge gaussiana
2

N (0, 2 ), cio`e 0 (dx) =

q1

2
2

exp{

x2
2
2
2

} =

exp{ 2 x2 }, allora la legge di Xt `e ancora una legge

gaussiana N (0, 2 ), ovvero:


Z
Z
P(Xt A) =
0 (dx)
p(0, t, x, y)dy
R
A
r
Z
Z
2
1
1 (y et x)2

q
exp{
x
}dx
exp{
}dy
=
2t
2
2
2t

2 2 1e2
A
R
2 2 1e2
s
!
Z
Z r
2

(y et x)2
exp{ 2 x }
=
exp{ 2
}dx dy
2

2 (1 e2t )
(1 e2t )
A
R
Z r

exp{ 2 y 2 } dy, .
=
2

A
per ogni A boreliano29 .
Questo esempio porta a dare la definizione di distribuzione stazionaria.
Definizione 8.9 (Distribuzione stazionaria). Sia una distribuzione tale che
Z
(dx)P (s, t, x, A) = (A)
R

allora viene detta distribuzione stazionaria o invariante del processo di Markov regolare determinato
dalle probabilit`
a di transizione P (s, t, x, A).
Si pu`o dimostrare che se 0 = `e una distribuzione stazionaria, allora le distribuzioni finito-dimensionali
godono della propriet`
a di stazionariet`
a
Definizione 8.10 (Processi stazionari). Se per ogni h > 0, k, (t1 , , tk ) e (z1 , , zk ) la famiglia di
distribuzioni finito-dimensionali Ft1 , ,tk (z1 , , zk ) gode della propriet`
a che
Ft1 , ,tk (z0 , z1 , , zk ) = Ft1 +h, ,tk +h (z0 , z1 , , zk )
allora F0,t1 , ,tk `e detta una famiglia di distribuzioni finito-dimensionali stazionarie, e il processo con tale
famiglia di distribuzioni finito-dimensionali `e detto un processo stazionario.
29 Lultima

uguaglianza deriva dal fatto che, la densit`


a di Xt `
e data dallespressione tra parentesi, ovvero da
r

(y et x)2
x2 (1 e2t ) 
p
exp{ 2
+ 2
}dx
2 R 2 (1 e2t )
(1 e2t )
(1 e2t )
r

Z


p
=
exp{ 2
(y et x)2 + x2 (1 e2t ) }dx
2
R 2 (1 e2t )
(1 e2t )
r


Z
y 2 2yet x + e2t x2 + x2 x2 e2t

p
=
exp{
}dx
2 R 2 (1 e2t )
2 (1 e2t )
r


Z
x2 2xyet + y 2

p
=
exp{
}dx
2
R 2 (1 e2t )
2 (1 e2t )
r


Z
x2 2xyet + y 2 e2t
(y 2 e2t + y 2 )

p
exp{
} exp{
}dx
=
2
2
2t
2
2t
R (1 e
(1 e
)
2 (1 e2t )
)
r
r
2

Z
x yet

p
=
exp{
y
}
exp{
}dx
=
exp{ 2 y 2 }.
2
2
2 (1 e2t )
2

2 (1 e2t )
R

176

MPEF 01-07-2009

8.7.2

Moto browniano geometrico e modello di Black-Scholes

Il prossimo esempio `e di fondamentale importanza nellambito dei modelli finanziari. Il modello proposto da
Black e Scholes `e un modello a tempo continuo con una azione rischiosa (una azione di prezzo St allistante t) e
una azione non rischiosa (di prezzo Bt allistante t). Si suppone che levoluzione di Bt sia descritta dallequazione
differenziale seguente
dBt = rBt dt,
dove r `e una costante positiva. Questo significa che il tasso di interesse `e costante e uguale a r. Se B0 = 1,
allora ovviamente Bt = ert , per t 0.
Si suppone che il prezzo dellazione sia descritto30 dal processo


2
t + Wt .
St = S0 exp t
2
dove e sono due costanti e (Wt )t `e un moto browniano standard, ed S0 `e una variabile aleatoria indipendente
da (Wt )t .
Tale processo `e detto moto browniano geometrico.31
Il modello `e studiato sullintervallo [0, T ], dove T `e la data di scadenza dellopzione da studiare. In particolare,
risulta che la legge di St `e una legge log-normale, vale a dire che il suo logaritmo segue una legge normale.
Il processo (St )t `e una trasformazione biunivoca di un processo di Markov, infatti
Yt = log(St ) = log(S0 ) + Wt + (

2
)t
2

`e un processo ad incrementi indipendenti ed omogenei, con


Y0 = log(S0 ),
e con
Xt := Wt + (

2
)t
2
2

un processo di Wiener, non standard, con coefficiente di drift 0 = 2 e coefficiente di diffusione 2 . Tenendo
conto di questo fatto si pu`
o affermare immediatamente che il processo (St )t verifica le seguenti propriet`a:
- continuit`a delle traiettorie;
- se u t, St /Su `e indipendente da FuS = (Sv , v u);
- se u t, la legge di (St Su )/Su `e identica a quella di (Stu S0 )/S0 .
La prima propriet`
a `e banale. Per verificare le altre due propriet`a basta osservare che
St /Su = exp{Yt Yu } = exp{(Wt Wu ) + (
30 Di

2
)(t u)},
2

solito si introduce il processo del prezzo St come la soluzione dellequazione differenziale stocastica
dXt = Xt (dt + dWt ),

X0 = S0 ,

che si risolve esplicitamente:



2
Xt = S0 exp t
t + Wt .
2
Di nuovo per capire bene il senso dellequazione differenziale stocastica precedente andrebbe prima chiarito il significato dellintegrale
stocastico di Ito e del differenziale stocastico (vedere la Sezione 9.5.
31 Questo processo si pu`
o ottenere anche come limite del processo dei prezzi per il modello di Cox, Ross e Rubistein. Per un
approccio elementare si veda il testo di S. Ross [15].

MPEF 01-07-2009

177

che Fu = FuS = FuW (S0 ) e che (Wt Wu ) `e indipendente da FuW e da (S0 ) ed ha la stessa legge di
(Wtu W0 ) = Wtu .
Inoltre il processo (St )t risulta esso stesso un processo di Markov regolare: per xi > 0, i = 0, 1, , k
FS0 ,S1 , ,Sk (x0 , x1 , , xk ) = P(S0 x0 , St1 x1 , , Stk xk )
= P(Y0 log(x0 ), Yt1 log(x1 ), , Ytk log(xk ))
Z

log(x0 )

log(x1 )

log(xk )

pY0 ,Yt1 , ,Ytk (y0 , y1 , , yk ) dy0 dy1 dyk

log(x0 )

log(x1 )

log(xk )

pY0 (y0 )

k
Y

(ti ti1 ))
(y y
i i1
1
2(ti ti1 ) 2
p
e
dy0 dy1 dyk
2(ti ti1 ) 2
i=1

di conseguenza la densit`
a congiunta di (S0 , St1 , , Stk ) si ottiene derivando rispetto a x0 , x1 , , xk la
precedente espressione:
pS0 ,St1 , ,Stk (x0 , x1 , , xk ) =

n
FS ,S , ,Sk (x0 , x1 , , xk )
x0 x1 xk 0 1

= pY0 ,Yt1 , ,Ytk (log(x0 ), log(x1 ), , log(xk ))

1 1
1

x0 x1
xk
0

(log(xi )log(xi1 ) (ti ti1 ))

1
pY0 (log(x0 )) Y
2(ti ti1 ) 2
p
e
.
2
x0
x
2(t

t
)
i
i1
i=1 i

La densit`a risulta evidentemente nulla se una delle xi non `e strettamente positiva.


Da ci`o risulta evidente che le probabilit`
a di transizione ammettono la seguente densit`a
2
n
log(y) log(x) 0 (t s) o
1
exp
.
p(s, t, x, y) = p
2(t s) 2
y 2(t s) 2
E infine facile vedere che queste densit`
a di probabilit`a di transizione verificano lequazione di ChapmanKolmogorov in quanto ci si riporta immediatamente attraverso un cambio di variable al caso delle densit`a
di probabilit`a di transizione del processo Yt .
La formula di Black-Scholes permette di calcolare in modo esplicito il prezzo di unopzione call europea. Si
indichi con C0 (x) il prezzo dellopzione emessa al tempo 0 con la condizione S0 = x. Si ponga


1 2

Zt = exp t + Wt
2
che `e la martingala esponenziale (gi`
a definita in (8.11))con E[Zt ] = 1.
r
Se si prende = per il Teorema di Girsanov (vedere lEsercizio 8.1) il processo scontato dei prezzi
St
(St = B
= ert St )t `e una martingala32 rispetto alla misura
t
Q(A) = Q (A) = EP [IA ZT ],
32 Posto

A FT ,

ft = r t + Wt ,
W

il processo
2
St = x exp{( r
)t + Wt }
2
si pu`
o riscrivere anche come
2

ft }
St = x exp{ t + W
2
Rispetto alla misura di probabilit`
a Q il processo Wt risulta un processo di Wiener con coefficiente di drift , cio`
e equivalentemente
Wt = (Wt t) + t = Bt + t,

178

MPEF 01-07-2009

ovvero con dQ = ZT dP. Estendendo la definizione data nel caso a tempo discreto, si ha quindi che la misura Q
`e una misura martingala equivalente a P.
Inoltre si ha che, per ogni t, la legge della variabile aleatoria St = ert Set rispetto a Q `e la stessa33 della
variabile aleatoria x exp{(r 2 /2)t + tZ}, dove Z `e una variabile aleatoria gaussiana standard N (0, 1).
Quindi


C0 (x) = erT EQ (ST K)+

+ 

2
rT Q
(r 2 )T + T Z
=e
E
xe
K
.
La speranza matematica a destra vale
rT

xe(r

2
2

)T + T z

+

ez

/2

dz.

Lintegrando si annulla per z , dove


=


 
K
2
log
r
T ,
x
2

e quindi
erT
C0 (x) =
2

xe(r

2
2

)T + T z


2
K ez /2 dz.

Se si indica con la funzione di ripartizione della legge N (0, 1),


Z x
Z +
2
1
1
z 2 /2
(x) =
e
dz =
ez /2 dz,
2
2 x
allora
x
C0 (x) =
2

e 2 (z

T )2

dz KerT ()

Z +
x
z 2 /2
=
dz KerT ()
e
2 T


= x + T KerT ().
In conclusione si ottiene la formula di Black-Scholes


C0 (x) = x + T KerT ().
con Bt un processo di Wiener standard rispetto a Q = Q . Di conseguenza
ft = r t + Wt = r t + t + Bt .
W

Prendendo quindi
r
r
=
=
,

ft = Bt `
si ottiene che W
e un processo di Wiener standard rispetto a Q = Q .
A questo punto si osserva che, proprio per questo motivo,
2

ft }
St = x exp{ t + W
2
`
e rispetto alla misura Q una martingala esponenziale ovvero
2

e = x exp{ t + W
ft },
St = xZ
(8.14)
t
2
ft al posto di Wt ed infine al posto di .
si tratta di applicare il risultato dellEsercizio 8.1 con Q al posto di P, W
33 Luguaglianza in legge si vede dallespressione del prezzo scontato (8.14), e tenendo conto del fatto che la legge della variabile

ft rispetto a Q `
` importante sottolineare
aleatoria W
e N (0, t) e che anche la legge di tZ ha legge N (0, t), se Z ha legge N (0, 1). E
che ovviamente ci`
o vale solo come variabili aleatorie e non vale come processi.

MPEF 01-07-2009

179

Per ulteriori approfondimenti consultare il libro di P. Baldi [1], quello di D. Lamberton e B. Lapeyre [9], oppure
di J.M. Steele [18] .
Mediante la formula di Black-Scholes, possiamo ricavare il prezzo equo di unopzione call europea. Tuttavia,
grazie alla formula di parit`
a (si veda ad esempio il libro di S. Ross [15]), si ricava immediatamente anche il
prezzo equo di una put europea Pt , dato da
Pt = Ct St + Ker(T t) .
La formula di Black-Scholes ha il pregio di essere semplice e di dipendere da tre parametri: r, e . Lunico
parametro difficile da stimare `e la volatilit`
a 234
Infine va notata lanalogia della formula di Black e Scholes con il corrispondente risultato per il modello di
Cox, Ross e Rubistein (CRR). A tale proposito si veda, sempre nel testo di S. Ross35 [15], come sia possibile
ottenere tale formula in modo elementare come limite del prezzo del modello CRR, mandando il numero di passi
allinfinito, con opportuni riscalamenti nel modello stesso.

8.8

Appendice:
dimostrazione
Kolmogorov

del

Teorema

di

esistenza

di

Un problema noto nel caso unidimensionale `e il seguente: data una distribuzione di probabilit`a su R, esiste
uno spazio di probabilit`
a (,F,P) ed una variabile aleatoria X che ammette come distribuzione ?
Ci sono due possibili risposte classiche a tale quesito: la prima consiste nel prendere lo spazio canonico
= R, F = B(R), X uguale allidentit`
a, cio`e X(x) = x, e infine P = ; la seconda (Teorema di rappresentazione
di Skorohod) consiste nel prendere = (0, 1), F = B(0, 1), P la misura di Lebesgue ristretta a (0,1) ed
X(u) = F 1 (u) := inf{x tali che u F (x)}, dove F (x) := (, x] `e la funzione di distribuzione ed F 1 `e
la funzione inversa generalizzata 36 della funzione di distribuzione F .
Anche nel caso dei processi c`e qualcosa di simile. Il problema si esprime nel seguente modo: data una
famiglia di distribuzioni finito-dimensionali t1 , ,tk , al variare di k 1 e di t1 , , tk in I, esiste uno spazio di
probabilit`a (, F, P) ed un processo aleatorio (Xt , t 0) che ammette tali distribuzioni finito-dimensionali?
Lo spazio canonico, analogo ad R, `e RI = {x() : I R}, ed il processo canonico `e il processo coordinata per
il quale Xt (x()) := x(t). La scelta della -algebra viene fatta in modo che il processo canonico sia misurabile.
Quindi necessariamente deve contenere gli insiemi del tipo
{x() RI | x(t) A}, per A B(R),
e delle intersezioni finite di insiemi di questo tipo, i rettangoli di base finita
{x() RI | x(t1 ) A1 , , x(tk ) Ak , }, per Ah B(R) e h = 1, , k.
Necessariamente, quindi, deve contenere anche i cilindri (o insiemi finito-dimensionali), ovvero degli insiemi del
tipo
C = {x() RI | (x(t1 ), x(t2 ), , x(tk )) H}, dove H B(Rk )
(8.15)
Si sceglie quindi la -algebra RI generata dallalgebra RI0 dei cilindri, al variare di k 1, degli indici t1 , , tk
in I e di H in B(Rk )37 .
Infine come misura di probabilit`
a P, chiaramente, si vuole prendere una misura di probabilit`a su RI per la
quale valga
34 La volatilit`
a`
e un parametro che gioca un ruolo importante nelle applicazioni. Per questo motivo, negli ultimi anni, `
e stato
molto studiato, in statistica, il problema di stimare il coefficiente di diffusione, a partire dallosservazione di una traiettoria.
35 Il

Ross del modello CRR e lautore di [15] sono due persone diverse.
non si `
e familiari con il teorema di Skorohod basta considerare solo il caso in cui la funzione di distribuzione F () sia
strettamente crescente e continua e quindi invertibile.
37 Per la dimostrazione del fatto che RI sia unalgebra vedere la dimostrazione del seguente teorema.
0
36 Se

180

MPEF 01-07-2009

P(C) = t1 , ,tk (H),


per ogni cilindro C di RI0 , definito come in (8.15).
A questo punto si pone il problema: esiste una tale probabilit`a P ? e pi`
u precisamente
(i) la definizione di P `e ben posta su RI0 ?

(ii) P si pu`o estendere a tutto RI ?

La risposta `e affermativa sotto alcune semplici condizioni di consistenza ed `e il contenuto del Teorema di
esistenza di Kolmogorov. Come si intuisce dal discorso precedente lingrediente essenziale della dimostrazione di
tale teorema `e il procedimento di estensione di una misura definita su unalgebra alla -algebra da essa generata
(Teorema di Caratheodory).
Le condizioni di consistenza sono le seguenti:
Sia k > 1 e sia una permutazione di {1, , k} e sia
: Rk Rk , (x1 , , xk ) (x1 , , xk ) := (x1 , , xk ).
Chiaramente, essendo biunivoca, (x1 , , xk ) H se e solo se (x1 , , xk ) (H), per H B(Rk ), e
quindi
t1 , ,tk (H) = t1 , ,tk ( (H)),
(8.16)
infatti
t1 , ,tk (H) = P{(Xt1 , , Xtk ) H} = P{ (Xt1 , , Xtk ) (H)} =
= P{(Xt1 , , Xtk ) (H)} = t1 , ,tk ( (H)),
inoltre
t1 , ,tk ,tk+1 (H R) = t1 , ,tk (H).

(8.17)

` immediato constatare che le condizioni di consistenza (8.16) e (8.17) si possono riscrivere nel seguente modo:
E
Siano k h 1, sia una permutazione di {1, , k} e sia ,h : Rk Rh , (x1 , , xk )
,h (x1 , , xk ) := (x1 , , xh ), allora, per ogni (t1 , , tk ) I k e H B(Rh )
t1 , ,tk (1
,h (H)) = t1 , ,th (H),

(8.18)

infatti, nel caso in cui H sia un rettangolo cio`e H = A1 Ah , posto 1 la permutazione inversa di ,
pensata quindi come funzione biunivoca di {1, , k} in se, e posto Am = R per m = h + 1, , k, la relazione
(8.18) diviene
P((Xt1 , , Xth ) H) = P(Xt1 A1 , , Xth Ah ) =
= P(Xt1 A1 , , Xth Ah , Xth+1 Ah+1 , , Xtk Ak ) =
= P(Xt1 A1 (1 ) , , Xth A1 (h ) , Xth+1 A1 (h+1 ) , , Xtk A1 (k ) ) =
(riordinando opportunamente le condizioni richieste)
= P(Xt1 A1 (1) , , Xth A1 (h) , Xth+1 A1 (h+1) , , Xtk A1 (k) ) =
= P((Xt1 , , Xtk ) 1
,h (H)),
e se vale per i rettangoli, poi vale per ogni cilindro.
Prima di enunciare e dimostrare il teorema di Kolmogorov, menzioniamo il fatto che esiste unaltra possibilit`a,
pi`
u simile a quanto fatto nel teorema di rappresentazione di Skorohod, nel caso in cui I `e numerabile, cio`e
I = N, ed illustreremo questo caso in seguito. In tale caso lo spazio canonico `e di nuovo (0,1) con la algebra
dei boreliani B(0, 1) e la misura di Lebesgue ristretta a (0, 1), e quindi, a partire dalle distribuzioni finitodimensionali non deve essere definita la misura di probabilit`a, bens` il processo stesso. Ingrediente essenziale
per la dimostrazione `e il teorema di esistenza delle versioni regolari delle distribuzioni condizionali di una

MPEF 01-07-2009

181

variabile aleatoria, dato una variabile aleatoria multidimensionale.


Cominciamo con lenunciare il Teorema di Kolmogorov38
Teorema 8.5 (di Kolmogorov). Sia data una famiglia t1 , ,tk di distribuzioni finito-dimensionali consistente,
cio`e che verifica le condizioni di consistenza (8.16) e (8.17), allora esiste uno spazio di probabilit`
a ed un processo
aleatorio che ammette t1 , ,tk come distribuzioni finito-dimensionali. Inoltre `e sempre possibile prendere come
spazio di probabilit`
a lo spazio canonico RI e come processo il processo canonico Xt (x()) = x(t).
Dimostrazione: Cominciamo con lultima parte del teorema. Sia (, F, Q) uno spazio di probabilit`a ed
(Yt , t I) un processo su tale spazio che ammette come distribuzioni finito-dimensionali t1 , ,tk . Si definisca
la funzione : RI , ()() = Y (, ), cio`e () `e la funzione t ()(t) = Yt ().
Risulta che `e una funzione F/RI misurabile: infatti per ogni cilindro C come in (8.15), linsieme
1 (C) = { tali che (Yt1 , , Ytk ) H} F,
e ci`o `e sufficiente a dimostrare la misurabilit`a di .
A questo punto ponendo
P(A) = Q( 1 (A)), per A RI ,
si ottiene la rappresentazione canonica.
Continuiamo dando lo schema della dimostrazione
punto 1) RI0 `e unalgebra.
punto 2) La definizione P su RI0 come P(C) := t1 , ,tk (H), dove C `e il cilindro definito in (8.15), `e ben posta
e risulta P una misura di probabilit`
a finitamente additiva su RI0 .
punto 3) La misura P `e numerabilmente additiva su RI0 , e quindi si pu`o estendere in modo univoco ad una
misura alla -algebra RI generata da RI0 .
Sia il punto 1) che il punto 2) sono basati sulla osservazione che un cilindro C pu`o avere pi`
u di una
rappresentazione:

C = {x() RI | (x(t1 ), x(t2 ), , x(tk )) H}, con H B(Rk ),


oppure
C = {x() RI | (x(s1 ), x(s2 ), , x(sm )) J}, con J B(Rm ).
Notazione: per k e t1 , , tk prefissati, indicheremo con R{t1 , ,tk } la famiglia dei cilindri del tipo
precedente al variare di H B(Rk ).
Supponiamo che k m, e che {t1 , , tk } {s1 , sm }, allora esiste una permutazione di {1, , m} per
mk
cui ti = si , i = 1, , k, per cui ,k (J) = H e per cui J = 1
.
,h (H) o, equivalentemente (J) = H R
Si noti allora che dalla (8.18) si ottiene che
s1 , ,sm (J) = s1 , ,sm (1
,k (H)) = s1 , ,sk (H) = t1 , ,tk (H).

(8.19)

38 Le condizioni di questa formulazione del Teorema di Kolmogorov leggermente pi`


u forti di quelle richieste nellenunciato del
Teorema 8.1, ma sono equivalenti.

182

MPEF 01-07-2009

Inoltre, due cilindri C e C 0 , con indici di tempo {t1 , , tk } e {t01 , , t0k0 } rispettivamente, si possono sempre
rappresentare come cilindri con indici comuni {s1 , sm } = {t1 , , tk } {t01 , , t0k0 }.
Pi`
u precisamente se
C = {x() RI | (x(t1 ), x(t2 ), , x(tk )) H} R{t1 , ,tk }
e

C 0 = {x() RI | (x(t01 ), x(t02 ), , x(t0k0 )) H 0 } R{t1 , ,tk0 } ,


allora, posto
{s1 , , sm } = {t1 , , tk } {t01 , , t0k0 },
si pu`o supporre, senza ledere in generalit`
a (si tratta eventualmente di ricorrere a permutazioni opportune), che
{s1 , , sh , sh+1 , , sk } = {t1 , , tk }, {sh+1 , , sk } = {t1 , , tk } {t01 , , t0k0 }
ed infine che
{sh+1 , , sm } = {t01 , , t0k0 }.
Infatti, per due opportune permutazioni di {1, , k} e 0 di {1, , k 0 }, si pu`o riscrivere (t1 , , tk ) =
(s1 , , sk ) e (t01 , , t0k0 ) = (sh+1 , , sm ) e quindi
C

= {x() RI | (x(s1 ), x(s2 ), , x(sk )) (H)}


= {x() RI | (x(s1 ), , x(sm )) (H) Rmk } R{s1 , ,sm }

(8.20)

= {x() RI | (x(sh+1 ), x(sh+2 ), , x(sm )) 0 (H 0 )}


= {x() RI | (x(s1 ), , x(sm )) Rh 0 (H 0 )} R{s1 , ,sm }

(8.21)

e
C0

Dimostrazione in dettaglio dei punti 1), 2) e 3).


punto 1)
` immediato capire che, fissato k 1 e {t1 , , tk }, la famiglia R{t1 , ,tk } dei cilindri del tipo
E
C = {x() RI | (x(t1 ), x(t2 ), , x(tk )) H},
con H B(Rk ), forma unalgebra (anche se in realt`a si tratta di una algebra):
Per ottenere RI , basta prendere H = Rk .
Per ottenere C c , basta prendere H c .
Per ottenere C C 0 , con C 0 = {x() RI | (x(t1 ), x(t2 ), , x(tk )) H 0 }, basta prendere H H 0 .
Dalle osservazioni precedenti sappiamo che comunque presi due cilindri essi si possono esprimere come
cilindri con indici comuni. Si ottiene che quindi RI0 `e unalgebra.
punto 2)
Le osservazioni iniziali e le propriet`
a di consistenza permettono di ottenere immediatamente che la
definizione `e ben posta. Infatti se i cilindri C e C 0 di (8.20) e (8.21) sono uguali allora necessariamente
(H) Rmk = Rh 0 (H 0 ) = J, e allora per la (8.19) 5
s1 , ,sm (J) = t1 , ,tk (H) = t01 , ,t0k0 (H 0 ).
La finita additivit`
a dipende dal fatto che ciascuna t1 , ,tk `e una misura di probabilit`a su R{t1 , ,tk } e
che, dato un numero finito di cilindri di RI0 , si pu`o sempre pensare che tutti i cilindri siano appartenenti
ad unalgebra del tipo R{t1 , ,tk } .

MPEF 01-07-2009

183

punto 3)
Per provare la -additivit`
a `e sufficiente mostrare la continuit`a, e per questo, a sua volta, `e sufficiente
mostrare che se An RI0 ed An allora P(An ) 0. La prova procede
per assurdo. Esista, per assurdo,
T
un  > 0 tale che P(An )  per ogni n. Se mostriamo che allora n An non pu`o essere linsieme vuoto la
dimostrazione `e completa.
Poiche per rappresentare un cilindro si pu`o sempre aumentare il numero degli indici, cio`e degli istanti
di tempo coinvolti nella sua definizione, possiamo supporre che esista una successione {tn , n 1} e una
successione di boreliani Hn B(Rn ) per cui
An = {x RI , (x(t1 ), , x(tn )) Hn }
(eventualmente ripetendo qualche An 39 )
Ovviamente P(An ) = t1 , ,tn (Hn ), ed essendo t1 , ,tn una misura internamente regolare
possibile trovare un compatto Kn Hn per cui
t1 , ,tn (Hn \Kn )

40

`e


,
2n+1

di modo che se Bn = {x RI , (x(t1 ), , x(tn )) Kn } allora


P(An \Bn )
Posto Cn =

Tn

m=1


2n+1

Bm , di modo che

Cn = {x RI , (x(t1 ), , x(tn )) n }, con n =

n
\

(Km Rnm ) Kn compatto,

m=1

allora
Cn Bn An e P(An \Cn ) <
Infatti
P(An \Cn ) = P(An

n
\

Bm

m=1

n
X
m=1

Di conseguenza P(Cn )
vale per n Kn .


2

c
P(Am Bm
)=

n
X
m=1

c

) = P(


.
2

n
[

c
An Bm
)

m=1

P(Am \Bm )

n
X
m=1


2m+1

<


.
2

> 0 (essendo P(An )  e P(An \Cn ) < 2 ). Quindi Cn non `e vuoto e lo stesso

Si scelga per ogni n un punto appartenente al cilindro Cn , ovvero una funzione, x(n) () Cn . Sen k allora
x(n) () Cn Ck Bk e quindi il punto (x(n) (t1 ), , x(n) (tk )) Kk Jk Jk Jk (k volte, con Jk
39 In

generale ciascun An coinvolger`


a gli istanti t1 , , tmn ; in tale caso si dovr`
a ripetere RI per m1 1 volte, con Hn = Rn per
n = 1, , m1 1, A1 per m2 m1 volte e cos` via.
40 Ricordiamo che, se S `
e uno spazio metrico, si dice che una misura sui boreliani di S `
e internamente regolare se per ogni
insieme misurabile B si ha che (B) = sup{(J), J B, J compatto}, e quindi esiste una successione di compatti Jh contenuti in
B per cui la misura di B `
e il limite delle misure di Jh .
Comunque in Rn ci`
o significa che per ogni boreliano H `
e possibile trovare una successione monotona di iper-rettangoli chiusi e
limitati {Km }m1 e convergente ad H. Per la propriet`
a di continuit`
a delle probabilit`
a vale allora (Km ) (H).
Questo `
e un punto cruciale nella dimostrazione e che vale per tutte le misure di probabilit`
a su uno spazio metrico localmente
compatto. Anzi ci`
o vale addirittura per spazi di Hausdorff sempre localmente compatto (confrontare, ad esempio, il Teorema di
rappresentazione di Riesz). Questa osservazione permette di estendere il teorema di Kolmogorov non solo al caso di processi a
valori reali, ma anche al caso di processi a valori in spazi metrici localmente compatti, ed in particolare a Rd .

184

MPEF 01-07-2009
un intervallo limitato). Di conseguenza, ciascuna successione del tipo {x(1) (tk ), x(2) (tk ), , x(n) (tk ), }
`e contenuta in Jk , e quindi `e limitata.
In realt`a la successione {x(1) (tk ), x(2) (tk ), , x(n) (tk ), } `e contenuta in Jk solo definitivamente, anzi
x(n) (tk ) Jk per n k, comunque `e una successione che ammette almeno una sottosuccessione
convergente. Anche questo `e un punto da tenere presente nel caso in cui si voglia fare una generalizzazione
a processi a valori in spazi pi`
u generali di R o Rd .
Con il metodo diagonale si pu`
o scegliere una successione nh crescente in modo che, qualunque sia k 1,
la successione {x(nh ) (tk )}h1 sia convergente ad un punto yk . Si noti che per ogni k 1 il punto
(y1 , , yk ) Kk , in quanto definitivamente (x(n) (t1 ), , x(n) (tk )) Kk .

Richiamo sul metodo diagonale:


Sia data una successione a due indici
x1,1 ,
x2,1 ,

xn,1 ,

x1,2 ,
x2,2 ,

xn,2 ,

per cui, qualunque sia n, la successione {xn,h }h1 `e limitata (o relativamente compatta). Allora
esiste una successione {hm }m1 di interi per cui, qualunque sia n, la successione {xn,hm }m1 `e
convergente.
Si considera la sottosuccessione convergente {x1,h1,m }m1 ad y1 . Poi si considera la successione
{x2,h1,m }m1 , che essendo limitata ammette una sottosuccessione convergente {x2,h2,m }m1
ad y2 . Si noti che quindi anche {x1,h2,m }m1 `e ancora una successione convergente ad y1 e che
anche ogni sua sottosuccessione `e convergente ad y1 . Si continua in questo modo fino ad ottenere
che {xn,hn,m }m1 `e una successione convergente ad yn e {hn,m }m1 `e una sottosuccessione di
{hn1,m }m1 , ed anche ogni sottosuccessione di {xn,hn,m }m1 converge ad yn . A questo punto
abbiamo una nuova configurazione
x1,h1,1 ,
x2,h2,1 ,

xn,hn,1 ,

x1,h1,2 ,
x2,h2,2 ,

xn,hn,n ,

y1
y2

yn

Basta prendere hm = hm,m , infatti, qualunque sia n, la successione {xn,hm,m }m1 `e


(definitivamente) una sottosuccessione di {xn,hn,m }m1 e quindi converge ad yn , per m che
tende ad infinito.
Perci`o, ogni funzione x() di RI tale
T che x(th ) = yh , per ogni h 1, appartiene ad ogni Bk , k 1, e
quindi ad ogni Ak , k 1, e quindi n An risulta un insieme non vuoto.

Si noti che largomento della dimostrazione `e lo stesso della dimostrazione del teorema di Tikhonov: il
prodotto infinito di compatti `e un compatto. Una dimostrazione simile appare anche nella dimostrazione che
lintersezione di una successione di compatti non vuoti `e non vuota.

MPEF 01-07-2009

8.8.1

185

Caso a tempo discreto: metodo diretto

Passiamo ora ad illustrare il preannunciato metodo costruttivo di dimostrazione del teorema di Kolmogorov,
ma prima di tutto, proviamo ad ottenere una variabile aleatoria bidimensionale con funzione di distribuzione
F (x, y) data. Notiamo che si pu`
o riscrivere
Z x
FY |X (y | z)dFX (z),
F (x, y) =

dove FY |X (y | x)|x=X() `e una versione regolare delle probabilit`a P(Y y|(X)).


Daremo per il momento per scontato che tale scomposizione (o meglio disintegrazione) sia sempre possibile.
Si possono inoltre definire le inverse generalizzate X () di FX () e Y |X ( | x) di FY |X ( | x), qualunque sia
x.
Siano ora U e V due v.a. uniformi in (0, 1) ed indipendenti, si definiscano
e
X()
= X (U ())
ed
e
Ye () = Y |X (V () | X())
= Y |X (V () | X (U ())).
` facile verificare che
E
e
P(X()
x, Ye () y) = F (x, y).
Infatti
e
P(X()
x, Ye () y) = P(X (U ()) x, Y |X (V () | X (U ()) y) =
= P{U () FX (x), V () FY |X (y | X (U ())} =
Z
=
FY |X (y | X (u))du =
(0,FX (x)]

(applicando il cambio di variabile z = X (u))


(e considerando che u FX (x) X (u) = z x)
Z

FY |X (y | z)dFX (z) = F (x, y).

` facile generalizzare al caso in dimensione n e costruire una variabile aleatoria n-dimensionale (X1 , , Xn )
E
con funzione di distribuzione data, a partire da n variabili aleatorie uniformi in (0, 1) ed indipendenti.
A questo punto `e chiaro come estendere il procedimento al caso di una successione di v.a. {Xn }n1 con
distribuzioni finito-dimensionali 1, ,n assegnate (e relativa funzione di ripartizione F (x1 , x2 , , xn )) in modo
che
1, ,n+1 (H R) = 1, ,n (H),
pur di avere a disposizione una successione di v.a. uniformi in (0, 1) ed indipendenti.
***Infine, va notato che sostanzialmente le condizioni di compatibilit`a servono solo a garantire che le
distribuzioni finito-dimensionali della successione aleatoria cos` ottenuta, e relative a tempi non consecutivi
siano quelle volute.
Laffermazione che una successione di variabili aleatorie {Xn , n N} `e una successione di v.a. indipendenti
con Xn = n , `e unaffermazione che riguarda le distribuzioni finito dimensionali del processo {Xn , n N}.
Lesistenza di una tale successione si potrebbe quindi dedurre dal teorema di rappresentazione di Kolmogorov,
o magari da un risultato ad hoc la cui prova fosse la semplificazione del procedimento usato nel dimostrare
tale teorema. Tuttavia lesistenza di una tale successione tuttavia si pu`o dedurre direttamente, pur di dare per
scontato che esiste la misura di Lebesgue su (0, 1). Infatti su (0, 1) si possono definire delle variabili aleatorie
indipendenti ed identicamente distribuite, a valori nellinsieme {0, 1}, e che assumono il valore 0 con probabilit`a
1/2 (lo stesso vale per il valore 1). A partire da questa successione di variabili aleatorie si pu`o costruire una
successione di variabili aleatorie {U
 j , j N} indipendenti ed uniformi in (0, 1), come descritto qui di seguito.
Infine, posto Fn (x) = n (, x] , la successione cercata `e data dalla successione delle v.a. Fn1 (Un ).

186

MPEF 01-07-2009

Lemma 8.6 (Successioni di v.a. indipendenti uniformi in (0, 1): esistenza). Nello spazio = (0, 1) con la
misura di Lebesgue sui boreliani, `e possibile avere una successione di v.a. uniformi in (0, 1) ed indipendenti.
***
P
Per costruire tale successione si ricordi che scrivendo (0, 1) in forma diadica = 1 Wi () 21i , le v.a.
Wi risultano indipendenti e P(Wi = 0) = P(Wi = 1) = 12 . La successione Un di v.a. uniformi ed indipendenti
si pu`o costruire, a partire dalle v.a. {Wi }, riordinandole in modo che formino una sequenza a doppio indice
fi,n } cos` da poter definire
{W

X
fi,n () 1 .
Un () =
W
2i
i=0
fi,n = W2i1 (2n+1) , che corrisponde a riordinare la successione {Wi }
***Ad esempio si pu`
o prendere ***W
in questo modo:
W1 W3 W5 W7 W9
W2 W6 W10 W14
W4 W12 W20 W28
W8 W24 W40
..
..
..
.
.
.
ottenendo da {Wi } infinite sottosuccessioni (corrispondenti alle colonne di questa matrice) in modo tale che
nessuna Wi venga tralasciata ne ripetuta.
***
***Ribadiamo che questa costruzione `e riportata affinche ***sia chiaro che laffermazione che esiste una
successione di v.a. indipendenti ed uniformi in (0, 1), non dipende dal Teorema di Kolmogorov dimostrato
precedentemente.

8.8.2

Osservazione su RI

La -algebra RI coincide con la famiglia degli insiemi del tipo


A = {x() | {x(tk )}k N },

(8.22)

al variare delle successioni S = {tk }k I ed N RN .


Anzi, pi`
u in generale, dato un processo, cio`e una famiglia di variabili aleatorie (Yt , t I) in uno spazio
(, F, P), e posto FS = {Ys , per s S}, valgono le seguenti affermazioni:
(i) Se A FI , A e Yt () = Yt ( 0 ) per ogni t I, allora 0 A.
(ii) Se A FI , allora esiste un S I e numerabile per cui A FS , ovvero FI =
su tutti i sottoinsiemi S numerabili di I.

FS , dove lunione `e fatta

Entrambe le due propriet`


a si basano sul fatto che, posto : RI , ()(), dove ()(t) = Yt () per
ogni t I, allora
FI = { 1 (M ), M RI }.
Infatti allora Yt () = Yt ( 0 ) per ogni t I equivale a () = ( 0 ) e quindi A = 1 (M ), cio`e () M
implica ( 0 ) M e quindi 0 A. Infatti ogni algebra rispetto alla quale `e misurabile deve contenere le
1
S
controimmagini
S dei cilindri e quindi deve contenere anche { (M ), M R } per ogni S numerabile, ed inoltre
la famiglia S FS `e una -algebra, come `e facile verificare.

MPEF 01-07-2009

187

S
Lunico punto in cui `e necessaria un po di attenzione `e il caso di unioni numerabiliS
di eventi En S F
SS . Sia
Sn tale che En FSn . Poiche FSn Fm Sm ed Fm Sm `e una algebra, ovviamente n En Fm Sm S FS .
S
In particolare RI = S RS , dove lunione `e fatta su tutti i sottoinsiemi S numerabili di I.

8.8.3

Problemi con lo spazio canonico

S
Come visto nella precedente sezione RI = S RS , dove lunione `e fatta su tutti i sottoinsiemi S numerabili di I.
Consideriamo il caso in cui I `e un insieme continuo e per fissare le idee I = [0, T ] oppure [0, ). Allora non ha
senso considerare la probabilit`
a che le traiettorie abbiano particolari propriet`a tipo siano crescenti, o continue,
in quanto tali insiemi non sono misurabili nello spazio canonico non essendo esprimibili come in (8.22): non `e
possibile trovare una successione di tempi (ovvero un sottoinsieme numerabile di tempi) e condizioni relative
solo a tali istanti per determinare se una funzione `e continua oppure no. In altre parole: comunque sia data una
successione di tempi esistono funzioni crescenti (o continue) su tale successione di tempi, ma non su tutto I.
Tipicamente, al massimo si pu`
o sperare di ottenere un processo (Xt0 , t I), che abbia le propriet`a richieste,
e che sia stocasticamente equivalente a (Xt , t I), ovvero una versione del processo (Xt , t I)41 ed ha
quindi le stesse distribuzioni finito-dimensionali di (Xt , t I)
Per propriet`a tipo la continuit`
a si pu`
o al massimo sperare di procedere nel seguente modo: si dimostra
che, se ristretto ad un opportuno insieme numerabile di tempi S, il processo Xt risulta a traiettorie continue,
tranne a parte un eventuale insieme di probabilit`a nulla. Si definisce poi un nuovo processo Xt0 definito come
limite delle traiettorie ristrette ad S. Si spera poi di dimostrare che il processo cos` ottenuto abbia le stesse
distribuzioni finito-dimensionali del processo Xt .
Problemi di questo tipo sono connessi al problema della separabilit`a.Gli interessati possono consultare il
libro di Billingsley, Probability and measures [3].
A titolo di esempio vediamo come si pu`
o procedere con il processo di Poisson, con I = [0, 1]. Il Teorema di
Kolmogorov assicura che esiste una misura di probabilit`a P su (RI ,RI ), in modo che il processo Xt (x()) = x(t)
abbia le distribuzioni finito-dimensionali uguali a quelle del processo di Poisson. Ovviamente non possiamo
dire nulla sulle traiettorie, ad esempio non possiamo affermare che siano non decrescenti, costanti a tratti e con
salti unitari. Proviamo a mostrare come procedere per ottenere una versione Xt0 con traiettorie non decrescenti.
Consideriamo linsieme D dei diadici. La condizione che Xt |D sia a traiettorie non decrescenti e a valori in N
diviene Xt |D I, dove
I=

0i<2n

{x() tali che x(

i
i+1
i
) N e x( n ) x( n )}.
2n
2
2

Inoltre
P(

{x() tali che x(

0i<2n

i
i
i+1
) N e x( n ) x( n )}) = 1
2n
2
2

per ogni n,

e quindi vale anche che (Xt , t D) `e a traiettorie non decrescenti con probabilit`a 1.
Si noti inoltre che
lim x(s)
st,sD

esiste per ogni x() appartenente a I.


41 Si

ricordi che , dato un processo (Xt , t I). Un processo (Xt0 , t I) si dice stocasticamente equivalente a (Xt , t I) se
P(Xt0 6= Xt ) = 0 per ogni t 0.

In tale caso si dice anche Xt0 `


e una versione di Xt .

188

MPEF 01-07-2009

Si definisca ora

se x() I e t D

Xt (x()) := Xt (x())
0
Xt (x()) := lim Xs (x()) = lim x(s), se x() I e t
/D
st,sD
st,sD

X 0 (x()) := 0
se x()
/ I e per ogni t (0, 1)
t
Inoltre ovviamente {Xt0 = Xt } `e tutto RI , per t D, ed `e, se t
/ D,
\ [
\
{x() tali che | x(s) x(t) |< }
Q+ Q+

e, se intersecato con I, coincide con


[
Q+

Infine

tst+

sD

{x() tali che | x(s) x(t) |= 0}.

tst+

sD

42

P(

{x() tali che | x(s) x(t) |= 0}) exp{} 1

tst+

sD

P(Xt0

Di conseguenza
6= Xt ) = 0 per ogni t 0, ovvero il processo Xt0 `e una versione del processo Xt , ed ha
quindi le stesse distribuzioni finito-dimensionali di Xt e gode della propriet`a di monotonia, continuit`a a destra
delle traiettorie e di essere a valori in N.

8.9

Appendice: dimostrazione del criterio di Chensov-Kolmogorov

Per comodit`a del lettore riportiamo in appendice sia la definizione di funzione holderiana che lenunciato del
criterio (Proposizione 8.3).
Una funzione f (x) `e h
olderiana di esponente se per ogni x esistono un (x) > 0 e un L (x) tali che, per
ogni y per il quale |y x| (x), si abbia
|f (x) f (y)| L (x)|x y| .
Nel caso in cui (x) e L (x) possano essere presi in modo indipendente da x, per x I, si dice che f `e
uniformemente h
olderiana nellinsieme I.
Proposizione 8.3 (Criterio di Chensov-Kolmogorov) Sia Xt un processo per cui esistono , e C
strettamente positivi, per cui
E[|Xt Xs | ] C|t s|1+ .
et di Xt , a traiettorie continue. Inoltre le traiettorie sono uniformemente h
Allora esiste una versione X
olderiane
,
in
ogni
intervallo
limitato.
di esponente , per ogni <

42 Si

osservi che

P(
sD

P(

\
tst+
sDn

tst+

e che

{x() tali che | x(s) x(t) |= 0}) = lim P(

{x() tali che | x(s) x(t) |= 0})

tst+
sDn

{x() tali che | x(s)x(t) |= 0}) P(x(t) = x(i/2n ) = x(t+), per ogni i tale che t i/2n t+) = exp{}.

MPEF 01-07-2009

189

Dimostrazione. Per semplicit`


a consideriamo il caso dellintervallo [0, 1]. Sia come al solito D linsieme dei diadici
e Dn = {s = 2kn , per 0 k 2n }. Si definisca n
n = { t.c.



Xk/2n X(k+1)/2n > 2n }
max
n

k2 1

Se mostriamo che

P(n ) < +,

n=1

allora, per il Lemma di Borel-Cantelli,


P(m1 nm n ) = 0
ovvero
P(m1 nm cn ) = 1.
Ci`o significa che esiste un evento N , con P(N ) = 0, e che per ogni N c esiste un m = m() tale che per
ogni n m = m()


Xk/2n X(k+1)/2n 2n .
Mostreremo ora che per N c le traiettorie sono uniformemente holderiane su D con

 2
+ 1 2 ,
= () = 1/2m() ed L =
2 1
e quindi sono holderiane su D per quasi ogni .
Sia quindi N c .
Cominciamo con losservare che se
r [j/2m , (j + 1)/2m ), con m m(), edr D,
allora
r = j/2m +

m+i
X

h=m+1

1
,
2h

per un i 0, con h {0, 1}. Posto


r0 = j/2m ed rs = j/2m +

m+s
X

h=m+1

1
,
2h

si ha che r = ri e che
i
m+i
i
X
X


X

Xj/2m Xr
Xrs Xrs1
2h 2m
2l 2m
s=1

Se invece |r u| 1/2
(i)

h=m+1

l=1

1
.
1

con r, u D, allora sono possibili due casi:

esiste j per cui r, u [j/2m , (j + 1)/2m ) , e allora





|Xu Xr | Xj/2m Xu + Xj/2m Xr

(ii)

2
2m
2 1

esiste j per cui r [j/2m , (j + 1)/2m ) ed u [(j + 1)/2m , (j + 2)/2m ) , e allora






|Xu Xr | X(j+1)/2m Xu + Xj/2m X(j+1)/2m + Xj/2m Xr


2
+
1
2m
2 1

190

MPEF 01-07-2009

Quindi, per quasi ogni , si ha definitivamente, per ogni r, u D, con |r u| 1/2m ,


|Xu Xr | M 2m ,
con M =
allora

2
2 1

+ 1. In particolare se |r u| 1/2m (),ed m m() `e tale che 1/2m+1 |r u| 1/2m ,


|Xu Xr | L 2(m+1) L |r u| .

Avremo quindi,
che le traiettorie sono uniformemente holderiane su D con = () =

 come preannunciato,
2

m()
1/2
ed L = 2 1 + 1 2 , per quasi ogni . 1
et () come il limite di Xr () per una successione rn di diadici convergente
Si definisce, sempre per N c , X
n
et 0. E
` facile vedere che la propriet`a di holderianit`a si conserva.
a t, e per N si pu`
o definire, ad esempio, X
Il fatto che si tratta di una versione di Xt , deriva dal fatto che per lipotesi fatta Xt `e continuo in L e quindi
`e continuo in probabilit`
a e quindi contemporaneamente si ha
q.c.
Pr
et ,
X rn X t e X r n X

et ) = 1.
da cui subito P(Xt = X
A questo punto rimane solo da controllare che

X
n=1

P(n )

n=1

P(n ) < +, e infatti:


n

1
2X
X

1
2X
X




E[ Xk/2n X(k+1)/2n ]/2n
P( Xk/2n X(k+1)/2n > 2n )

n=1 k=0

n=1 k=0

1
2X
X
n=1 k=0

(1/2n )1+ 2n ) =

X
n=1

2n (1/2n )1+ 2n ) =

2n() < +

n=1

purche > 0, e ci`


o `e vero per come abbiamo preso . (Si noti che `e fondamentale nella prova che
1 + > 1, in quanto altrimenti non ci sarebbe speranza di ottenere nessun tipo di convergenza ovvero la
maggiorazione di P(n ) non avrebbe nessun significato in quanto risulterebbe un numero maggiore di 1)

1 Si noti che questa parte della dimostrazione `


e puramente deterministica: nel senso che se una funzione x() definita sui diadici
di [0, 1], gode della propriet`
a che esiste un m tale che per ogni n m e per k < 2n si ha |x(k/2n ) x((k + 1)/2n )| 2n , allora
x() `
e h
olderiana sui diadici di [0, 1]

Capitolo 9

Propriet`
a del moto browniano
Abbiamo visto che il moto browniano `e un particolare processo gaussiano a incrementi indipendenti e omogenei
con media nulla e varianza t. Abbiamo anche visto che per la propriet`a delle v.a. gaussiane per cui non
correlazione ed indipendenza sono equivalenti, un modo alternativo di definire `e attraverso la funzione di
correlazione Cov(Wt , Ws ) = t s. Inoltre sappiamo che Wt `e una martingala rispetto alla filtrazione naturale
FtW .

9.1

Trasformazioni del moto browniano

Nei seguenti casi, dato un moto browniano Wt , si costruisce un altro processo che risulta ancora un moto
browniano:
ft := Ws+t Ws `e un moto browniano ed `e una martingala rispetto alla filtrazione
1) Per ogni s 0, W
W
Gt := Fs+t
.
(c)

2) Per ogni c R, Wt := cWc2 t `e un moto browniano ed `e una martingala rispetto alla filtrazione
(c)
Gt := FcW2 t (in particolare per c = 1 si ha che Wt `e ancora un moto browniano rispetto a FtW ).
ct := tW1/t , per t > 0, e Z0 := 0, `e ancora un moto browniano, rispetto alla sua
3) Il processo definito da W
filtrazione naturale.
Si supponga ora di prendere una versione continua di Wt .
( )

ft
4) Per ogni tempo darresto limitato il processo W
alla filtrazione FW+t .

:= W +t W `e ancora un moto Browniano rispetto

Le propriet`a 1), 2) e 3) sono di immediata verifica. La propriet`a 4), invece, non `e immediata, e corrisponde
a quella propriet`a che, nei processi di Markov, viene detta Propriet`a di Markov Forte.

9.2

Propriet`
a di Markov forte per il processo di Wiener

In questa sezione si suppone di prendere una versione continua di Wt .


Proposizione 9.1. Sia un tempo darresto finito con probabilit`
a 1. Allora il processo Yt := Wt+ W `e un
processo di Wiener standard ed `e indipendente da F .
Come conseguenza, per ogni funzionale , che sia R[0,) -misurabile delle traiettorie
191

192

MPEF 01-07-2009

E[(Ws , s ) | F ] = E[(Ws , s ) | W ] = E[(w + Yu , u 0)] |w=W .


In questo senso la propriet`
a 4), ovvero la Proposizione 9.1, `e una generalizzazione della propriet`a di Markov,
che invece di valere solo per tempi deterministici t vale anche per tempi darresto .
Pi`
u precisamente
Definizione 9.1 (Propriet`
a di Markov). La propriet`
a di Markov ( rispetto ad una filtrazione Ft FtX )
per un generico processo Xt `e la seguente:
P(Xt+s A | Ft ) = P(Xt+s A | Xt )

per ogni s, t 0.

Si osservi che, nel caso dei processi di Markov regolari


P(Xt+s A | Xt ) = p(t, t + s, x, A) |x=Xt ,
dove P (u, v, x, ) sono le probabilit`
a di transizione regolari.
Definizione 9.2 (Propriet`
a di Markov forte). La propriet`
a di Markov forte1 rispetto ad una filtrazione
X
Ft Ft ) `e invece
P(X +s A | F ) = P(X +s A | X )

per ogni tempo darresto finito ed s 0.

Si noti che `e necessario che sia finito affinche abbia senso X ed `e necessario che X sia una variabile
aleatoria, e che sia F -misurabile.
Questa propriet`
a di misurabilit`
a `e sempre verificata per processi Xt cadlag, in realt`a potrebbe bastare un
poco meno e precisamente la progressiva misurabilit`a)

Dimostrazione. (della Proposizione 9.1, ovvero della propriet`a di Markov forte per il processo di Wiener
standard)
La tesi equivale a richiedere che per ogni k 1, 0 t1 tk , A1 , , Ak boreliani di R, e per ogni
C F
P(Yt1 A1 , , Ytk Ak , C) = P(Wt1 A1 , , Wtk Ak )P(C)
I CASO: assume al pi`
u uninfinit`
a di valori {sh }h1 .

P(Yt1 A1 , , Ytk Ak , C) =

P(Yt1 A1 , , Ytk Ak , C, = sh )

h=1

P(Wt1 +sh Wsh A1 , , Wtk +sh Wsh Ak , C, = sh )

h=1

(C { = sh } Fsh , poiche C F e Wt ha incrementi indipendenti)

P(Wt1 +sh Wsh A1 , , Wtk +sh Wsh Ak )P(C, = sh )

h=1

(W ha incrementi omogenei)

P(Wt1 A1 , , Wtk Ak )P(C, = sh ) = P(Wt1 A1 , , Wtk Ak )P(C)

h=1
1 Si

faccia attenzione che la propriet`


a di Markov forte non `
e sempre verificata per un generico processo di Markov.

MPEF 01-07-2009

193

II CASO: generico.
Per individuare la distribuzione congiunta in realt`a basta verificare che per ogni k 1, per ogni funzione
continua e limitata (y1 , , yk ) e per ogni C F
E[(Yt1 , , Ytk )IC ] = E[(Wt1 , , Wtk )]P(C)
in quanto le funzioni continue determinano univocamente la legge di una variabile aleatoria. Per il Caso
I, presa {m } una successione2 di tempi darresto, tale che m e m
E[(Wt1 +m Wm , , Wtk +m Wm )IC ] = E[(Wt1 , , Wtk )]P(C)
Essendo le traiettorie di Wt continue (ma basterebbe che fossero continue a destra), possiamo affermare
che (Wth+m Wm ) (Wth+ W ) = Yth e quindi
(Wt1 +m Wm , , Wtk +m Wm ) (Yt1 , , Ytk ).
Essendo limitata si pu`
o passare al limite sotto il segno di media.
` evidente che questa dimostrazione (e quindi la propriet`
Osservazione 9.1. E
a di Markov forte) rimane valida
se al posto del moto browniano si mette un qualsiasi processo ad incrementi indipendenti ed omogenei, con
traiettorie cadlag.

9.3

Principio di riflessione

Sotto questo nome vanno diverse propriet`


a ma la pi`
u nota `e la seguente. Per a 0, sia
a = inf{t > 0 t.c. Wt a},
cio`e il tempo di prima uscita da (, a), che `e un tempo darresto se come al solito prendiamo la versione
continua di Wt . Allora
P(a t) = 2P(Wt a).

(9.1)

Dalla precedente eguaglianza si pu`


o ricavare che allora
2
P(a t) = 2P(Wt a) =
2t

Z
a

x2
exp{ }dx =
2t

a/ t

exp{y 2 /2}dy.

Per a < 0 si definisce a = inf{t > 0 t.c. Wt a}.


Notando che a = inf{t > 0 t.c. Wt a} e che Wt `e ancora un moto browniano si ottiene che per
ogni a R
r Z
Z
x2
2
2
exp{ }dx =
P(a t) = 2P(Wt |a|) =
exp{y 2 /2}dy.
2t
|a|/t
2t |a|
e quindi la sua densit`
a `e
r
ga (t) =
2 Per

1 |a|
exp{a2 /2t}.
2 t3/2

la propriet`
a 2) dei tempi di arresto (Sezione 4.4), per ogni tempo darresto esiste sempre una successione con tali propriet`
a.

194

MPEF 01-07-2009

e il suo valore atteso `e infinito:


Z r
Z r
1 |a|
1 |a|
2
exp{a /2t} dt =
exp{a2 /2t} dt =
E[a ] =
t
3/2
2 t
2 t1/2
0
0

1 |a|
exp{a2 /2t} dt
2 t1/2

1 |a|
exp{a2 /2t} dt
2 t1/2

1 |a|
exp{a2 /2} dt =
2 t1/2

Inoltre questa propriet`


a permette di calcolare la distribuzione del massimo di un moto browniano (per
a 0):
P(sup(Ws ) a) = P(a t) = 2P(Wt a).
st

Dimostrazione intuitiva del principio di riflessione (9.1)


P(Wt a) = P(Wt a | a t)P(a t) + P(Wt a | a > t)P(a > t)
1
= P(Wt a | a t)P(a t) = P(a t),
2
in quanto ovviamente
1
P(Wt a | a > t) = 0 e P(Wt a | a t) = P(Wt a | a t) = .
2
Nellultima uguaglianza `e implicito luso del fatto che linformazione contenuta nellevento {a t} `e
riassumibile nel fatto che {Wa = a} e che Wa +s Wa `e ancora un moto browniano. In realt`a formalmente
c`e qualche problema in quanto pur essendo {a t} F , e quindi
P(Wt a | a t) = P(Wt Wa | a t) = P(Wt Wa 0 | a t) =
= P(Yta 0 | a t) = P(Yta 0)
essendoci di mezzo a non `e chiarissimo, anche se intuitivo che P(Yta 0) = 21 .
Dimostrazione formale del principio di riflessione (9.1) Faremo vedere che le trasformate di Laplace rispetto
a t, di P(Wt a) e di 21 P(a t) sono uguali, utilizzando il fatto che Wa = a, per la continuit`a delle traiettorie
di Wt , e che W +s W `e indipendente da F , e quindi da : qualunque sia 0,
Z

et P(Wt a)dt

(`e necessario usare la congiunta misurabilit`


a

in (t, ) di Wt , per scambiare gli integrali)

Z
= E[

et I[a,+) (Wt )dt]

(tenendo conto che Wt < a per t < a )

Z
= E[

Z
et I[a,+) (Wt )dt] = E[

ea e(ta ) I[0,+) (Wt Wa )dt]

(Wt Wa = Yta e cambio di variabile)

= E[ea

es I[0,+) (Ys )ds]

({Yt , t 0} e a sono indipendenti)

Z
a
= E[e
]E[
0

1
E[ea ].
2

I[0,+) (Ys )ds] = E[e

Z
]
0

es P(Ys 0)ds]

MPEF 01-07-2009

195

In modo analogo
Z

Z
et P(a t)dt = E[

Z
et I{a t} dt] = E[

et dt] =

1
E[ea ].

In alcuni testi viene dato come principio di riflessione la seguente propriet`a (la cui dimostrazione `e simile
alla dimostrazione della propriet`
a di Markov forte):
Principio di riflessione: seconda formulazione
Per ogni tempo darresto finito, il processo riflesso
(
Yt = Wt
Yt Y = (Wt W )

per t ,
per t > ,

`e ancora un moto browniano.

9.4

Tempi di uscita da una striscia

Anche nel caso del moto Browniano si possono ottenere delle applicazioni simili a quelle della rovina del giocatore.
Pi`
u in generale si pu`
o considerare il processo di Wiener con coefficiente di drift e coefficiente di diffusione
2 , cio`e
Xt := Wt + t,
e il tempo di prima uscita da una striscia
(a, b) := inf{t > 0 : Xt
/ (a, b)}, a, b > 0,
e cercare di calcolare la probabilit`
a p p(x, a, b) := Px (X = a), e la trasformata di Laplace Ex [exp{ }],
per x (a, b).
Sappiamo che, essendo Wt = (Xt t)/, il processo
Zt := exp{(Xt t)/ 2 t/2}
`e una martingala con

Ex [Zt ] = exp{ x}.

Anche Zt , `e una martingala che inoltre converge a Z . La convergenza `e limitata:


Zt exp{|| max(a, b)/}, se

2
+
0

e quindi anche
Ex [exp






X exp (2 + ) ] = exp
x .

Scegliendo in modo che 2 + = 0, ovvero =2 , la precedente uguaglianza diviene

Ex [exp{ X }] = Px [X = a] exp{ a} + Px [X = b] exp{ b} = exp{ x},

da cui subito, tenendo conto del valore di ,


p exp{2

a} + (1 p) exp{2 2 b} = exp{2 2 x},


2

196

MPEF 01-07-2009

e quindi
p=

exp{2 2 x} exp{2 2 b}
.
exp{2 2 a{ exp{2 2 b}

Per ogni > 0, si pongano ora + e i due valori per cui :=


+ 2 2 = 0, ovvero
r 
2

+
+2.
, :=

Come prima si ottiene che


2

Ex [exp{

2 (2

+ ), cio`e le due soluzioni di

+
+

X } exp{ }] = exp{ x}, Ex [exp{ X } exp{ }] = exp{ x}.

Considerando che per = + ,

Ex [exp{ X } exp{ }] = exp{ a}Ex [I{X =a} exp{ }] + exp{ b}Ex [I{X =b} exp{ }]

si ottiene immediatamente il seguente sistema lineare nelle incognite

ya := Ex [I{X =a} exp{ }]

yb

:= Ex [I{X =b} exp{ }]

+
+

exp{ a}ya + exp{ b}yb

exp{

di cui si ricava la soluzione, ovvero

ya

yb

a}ya

+ exp{

b}yb

exp{

x}

exp{

x}

exp{
x} exp{
b}exp{
b} exp{
x}
+

exp{
a} exp{
b}exp{
b} exp{
a}

exp{
a} exp{
x}exp{
x} exp{
a}
,

+
exp{ a} exp{ b}exp{ b} exp{ a}

avendo posto

:= = 2

r 
2

+2 2 .
2

Basta poi considerare la somma


Ex [exp{ }] = ya + yb =
=

exp{+ x} exp{ b}

exp{+ b} exp{ x} + exp{+ a} exp{ x}


exp{+ a} exp{ b} exp{+ b} exp{ a}

exp{+ x} exp{ a}

Esercizio 9.1. Nel caso x = 0, > 0 mandare a ad infinito in modo da ottenere la trasformata di Laplace di
:= (, b)
soluzione:
Si noti che, essendo , > 0, si ha + > 0 e < 0. Di conseguenza exp{ a} , mentre exp{+ a} 0,
e dalla precedente espressione per E0 [exp{ (a, b)}] si ricava, per a
"
! #
r 

2
+2 2 b .
E0 [exp{ (a, b)}] E0 [exp{ (, b)}] =
= exp

2
2

exp{+ b}
Esercizio 9.2. Si consideri il caso del moto browniano o Wiener standard, cio`e con =0 e =1, e con x = 0
ed a = b.

MPEF 01-07-2009

soluzione:

exp{ a} exp{+ a} + exp{+ a} exp{ a}


,
exp{+ a} exp{ a} exp{+ a} exp{ a}

e quindi, poiche in questo caso = + = 2,

exp{ 2a} exp{ 2a} + exp{ 2a} exp{ 2a}

E0 [exp{ (a, a)}] =


exp{ 2a} exp{ 2a} exp{ 2a} exp{ 2a}

exp{ 2a} exp{ 2a}

= 2
exp{2 2a} exp{2 2a}

sinh( 2a)
sinh( 2a)

= 2
=2
sinh(2 2a)
2 sinh( 2a) cosh( 2a)
1

=
cosh( 2a)
E0 [exp{ (a, a)}] =

197

198

9.5

MPEF 01-07-2009

Integrale stocastico: cenni

Sia W = (Wt )t un moto browniano continuo standard. Lobiettivo `e di dare un significato ad espressioni del
tipo
Z T
Xs ()dWs ()
(9.2)
0

dove lintegrando (Xs )0sT `e un processo che gode di propriet`a da precisare. Ricordiamo che se una funzione
g `e a variazione finita, allora `e possibile definire lintegrale
Z

h(t)dg(t)
0

per ogni funzione h misurabile e limitata3 .


Come abbiamo visto precedentemente nella sezione 8.4 le traiettorie del moto browniano non sono a
variazione finita, quindi loperazione (9.2) non si pu`o definire traiettoria per traiettoria.
La (9.2) si chiamer`
a integrale stocastico. Questo tipo di calcolo `e fondamentale per la costruzione e lo studio di
nuovi processi.
In questa sezione (Ft ) denota una filtrazione rispetto alla quale il processo di Wiener `e una martingala. In
particolare si pu`o considerare Ft = FtW .

9.5.1

Processi elementari

Consideriamo le due seguenti classi di processi


Definizione 9.3 (Processi elementari predicibili). I processi del tipo
Xt () =

n1
X

Ci ()I(ti ,ti+1 ] (t),

(9.3)

i=0

dove = t0 < t1 < ... < tn = , e le Ci sono variabili aleatorie reali Fti -misurabili vengono detti processi
elementari predicibili.
Nel seguito la famiglia dei processi elementari predicibili viene denotata con E([, ]).
Definizione 9.4. I processi del tipo
Xt () =

n1
X

Ci ()I[ti ,ti+1 ) (t),

(9.4)

i=0

dove = t0 < t1 < ... < tn = , e le Ci sono variabili aleatorie reali Fti -misurabili vengono chiamati processi
elementari opzionali.
3 Se g `
e a variazione finita continua a destra, allora si pu`
o scrivere g = g + g con g + ed g funzioni crescenti in senso lato,
non negative continue a destra e limitate. Allora lintegrale di Lebesgue-Stieltjes `
e definito da
Z T
Z T
h(t)dg(t) :=
h(t)g (dt),
0

dove
g = g + g ,
e g sono le misure su [0, T ] univocamente definite da
g ((a, b]) = g (b) g (a).
Nel caso in cui g sia continua, e anche h lo sia allora, lintegrale di Lebesgue-Stieltjes coincide con lintegrale di Riemann-Stieltjes,
ovvero con
X
lim
h(tk )[g(tk ) g(tk1 )],
n

dove {tk }k `
e una partizione di [0, T ] e

tk

[tk1 , tk ].

MPEF 01-07-2009

199

Nel seguito la famiglia dei processi elementari opzionali viene denotata con Eop ([, ]).
Si noti che i processi considerati negli Esempi 4.11 e 4.12, per = 0 e = T , nel definire lintegrale
stocastico, sono esempi di processi elementari predicibili. Ricordiamo che lintegrale stocastico rispetto al
processo di Wiener per tali processi viene definito come
!
n
n1
X
X


W
It (X) ==
Ci1 () Wti Wti1 =
.
Ci () Wti+1 Wti
i=1

i=0

Inoltre i processi elementari predicibili (e anche quelli opzionali) sono esempi di processi (congiuntamente)
misurabili:
Definizione
9.5 (Processi (congiuntamente) misurabili). Sia X : [, ] :7 R, (t, ) 7 X(t, ) =

Xt () . Sia B([, ]) F la -algebra prodotto su [, ] , ovvero la -algebra generata da {J A
[, ] ; J B([, ]), A F}. Il processo (Xt )t si dice (congiuntamente) misurabile se la funzione X
`e B([, ]) F-misurabile.
Negli Esempi 4.11 e 4.12 veniva anche richiesto che le variabili aleatorie coinvolte nella definizione del processo
predicibile elementare fossero di quadrato sommabile (o addirittura limitati). Con questa richiesta (ovvero se
Ci sono anche di quadrato integrabile) il processo elementare predicibile (o opzionale) X `e un elemento del
seguente spazio di processi, che `e anche uno spazio vettoriale, metrico e completo.4


Definizione 9.6. Lo spazio L2 [, ] = L2 [, ] , B([, ]) F, P `e lo spazio delle classi di
equivalenza dei processi (congiuntamente) misurabili per i quali
"Z
#

|Xs |2 ds < .

(9.5)

Parlando di classi di equivalenza si intende che identifichiamo due processi X e X 0 se


"Z
#

|Xs Xs0 |2 ds = 0.

Si pu`o definire quindi la chiusura di


E 2 ([, ]) = {X E, con Ci di quadrato sommabile}
in tale spazio metrico, rispetto alla metrica
0

d(X, X ) :=

"Z

#! 21

|Xs

Xs0 |2 ds

Denoteremo tale chiusura come


E 2 ([, ]).
` importante identificare lo spazio E 2 ([, ]), perche `e quello su cui (come vedremo) sappiamo definire lintegrale
E

` possibile mostrare che se X ha traiettorie continue, ed `e un processo in L2 [, ] , ovvero se vale
stocastico. E

Il fatto che L2 [, ] sia uno spazio vettoriale `
e ovvio, in quanto se (9.5) vale per due processi X1 e X2 , allora vale anche
per la sua combinazione
lineare Y = a1 X1 + a2 X2 .

Inoltre L2 [, ] `
e uno spazio metrico completo con la metrica
4

d(X, X 0 ) :=

 Z
E

In realt`
a si tratta di uno spazio di Hilbert.

|Xs Xs0 |2 ds

 12

200

MPEF 01-07-2009

(9.5), allora X appartiene a E 2 ([, ]): infatti se {tni }i=0, ,mn `e una partizione di [, ] con maxi |tni tni1 | 0,
allora la successione di processi {X n } definiti da
Xtn ()

mn
X

Xtni1 ()I(tni1 ,tni ] (t),

i=1


`e una successione di processi in L2 [, ] che converge ad X nella metrica d, ovvero che
"Z
#

|Xt Xtn |2 dt = 0.

lim E

Se X E 2 ([, ]) allora esiste una successione di processi che soddisfa


la precedente relazione.

conseguenza la successione Xn `e una successione di Cauchy in L2 [, ] , ovvero
#
"Z

Di

|Xtm Xtn |2 dt = 0.

lim E

n,m

Sappiamo inoltre che, per ogni per = 0 e = T , e t [0, T ], il processo I W (X n ) = (ItW (X n ))t[0,T ]
definisce una martingala. Ovviamente anche la differenza ItW (X n ) ItW (X m ) `e una martingala. Inoltre,
chiaramente, per lintegrale stocastico dei processi elementari valgono le propriet`a di linearit`a,e quindi
ItW (X n ) ItW (X m ) = ItW (X n X m ).
DallEsempio 4.12 sappiamo che, per ogni t [0, T ],
h
2 i
E ItW (X n X m ) = E

Z


|Xtm Xtn |2 dt .

(9.6)

Inoltre applicando la disuguaglianza di Doob per p = 2, estesa alle martingale continue, alla martingala continua
I W (X n X m ), sappiamo che


h
2 i
W n

m 2

E max It (X X )
4E ITW (X n X m ) .
(9.7)
t[0,T ]

Daltra parte, ovviamente, si ha anche che



W n


IT (X X m ) 2 max ItW (X n X m ) 2 .
t[0,T ]

Passando ai valori attesi, nella precedente disuguaglianza, e tenendo conto della (9.7), si ha


h
h
2 i

2
2 i
E ITW (X n X m ) E max ItW (X n X m ) 4E ITW (X n X m ) .
t[0,T ]

Utilizzato la relazione (9.6) per t = T , si ottiene che


"Z
#
"Z


T
W n
2
m
n 2
m
E
|Xt Xt | dt E max It (X X ) 4E
t[0,T ]

|Xtm

Xtn |2 dt

(9.8)


In altre parole, se i processi elementari X n sono una successione di Cauchy in L2 [0, T ] , allora la successione
di martingale a traiettorie continue I W (X n ) = (ItW (X n ))t[0,T ] , risulta una successione di Cauchy rispetto alla
metrica
 
 1

d(M,
M 0 ) :=

max |Mt Mt0 |

t[0,T ]

in quanto la (9.8) si pu`


o riscrivere come
d2 (X n , X m ) d2 (I W (X n ), I W (X m )) 4d2 (X n , X m )

MPEF 01-07-2009

201


Viceversa se i processi elementari X n in L2 [0, T ] sono tali che la successione I W (X n ) = (ItW (X n ))t[0,T ]
`e una successione
di Cauchy rispetto alla metrica d allora la successione di processi X n risulta di Cauchy in

2
L [0, T ] rispetto alla metrica d.
della successione
Da questa relazione si pu`
o dedurre lesistenza di un processo limite, in questa metrica d,
di processi I W (Xn ). Il processo limite5 viene chiamato integrale stocastico di X e denotato anche esso con
ItW (X) =

Xs dWs .
0

Ribadiamo che la definizione viene (in queste note) data quindi solo per i processi X E 2 ([, ]).
R
R
` chiaro che lintegrale stocastico t Xs dWs `e lineare in X. Inoltre t Xs dWs `e una martingala a traiettorie
E
0
0
continue. Nel caso dei processi elementari ci`
o discende dal risultato esaminato nellEsempio 4.12:
Lemma 9.2. Se X `e un processo elementare predicibile, come nella (9.4), con Ci di quadrato integrabile, allora
Z



Xt dWt F

!
=0

!2

Xt dWt

"Z


F = E

#

Xt F .
2

In particolare, lintegrale stocastico di un processo elementare di E 2 `e una variabile aleatoria centrata di quadrato
integrabile e

!2
"Z
#
Z

E
Xt dWt = E
Xt 2 dt .

Le propriet`a di linearit`
a, di martingala, di continuit`a e le propriet`a precedenti sui valori medi si ottengono
per i processi pi`
u generali, con un passaggio al limite.
Procediamo con qualche esempio di calcolo di integrale stocastico Se f L2 ([0, T ], ) `e una funzione
deterministica, allora f E 2 ([0, T ]). e quindi ha senso lintegrale stocastico di Ito, che in questo caso coincide
con lintegrale stocastico di Wiener, e gode allora di una importante propriet`a.
Proposizione 9.3. Se f `e una funzione deterministica, con f L2 ([0, T ]), allora il processo
Z

f (s)dWs
0

`e gaussiano, di media zero e varianza

Rt
0

f 2 (s)ds.

Osservazione 9.2. La proposizione precedente implica in particolare che



Z t

 Z t

1
f 2 (s)ds .
E exp
f (s)dWs
= exp
2 0
0
Infatti si riconosce a sinistra la media dellesponenziale di una variabile aleatoria gaussiana centrata Z, cio`e
la sua trasformata di Laplace L() := E[exp(Z)] calcolata in = 1, che `e uguale allesponenziale della sua
varianza divisa per 2 (ovvero L() = exp{2 2 (Z)/2}.
Diamo ora un esempio di calcolo di un integrale stocastico.
5 Si pu`
o mostrare che il limite non dipende dalla particolare successione {X n } di processi elementari, scelta per approssimare il
processo X.

202

MPEF 01-07-2009

Esempio 9.1 (integrale stocastico di Xt = Wt ). In questo esempio proviamo a calcolare


Z
2Ws dWs .

Essendo Xt = 2Wt un processo a traiettorie continue, con


"Z
# Z
Z



2
|2Ws | ds =
E
E |2Ws |2 ds =

4sds <

possiamo utilizzare come processo approssimante


Xtn

mn
X

Wtni1 ()I(tni1 ,tni ] (t),

i=1

cos`
Z

2Ws dWs = lim


n

mn
X

Wtni1 (Wtni Wtni1 ).

i=1

Considerando che
X
X
X
2
bk (bk+1 bk ) =
[2bk+1 bk 2b2k ] =
[2bk+1 bk 2b2k b2k+1 + b2k+1 ]
k

b2k+1 )

[bk+1 bk ] +

[b2kmax

[(2bk+1 bk

b2k

+ b2k+1 b2k ] =

[bk+1 bk ]2 +

[b2k+1 b2k ]

b2kmin ]

ponendo bk = Wtni1 si ottiene


Z

2Ws dWs = lim

mn
X

(Wtni Wtni1 )2 + W2 W2 .

i=1

da cui, ricordando il Lemma 8.4, si ottiene che


Z
2Ws dWs = ( ) + W2 W2 .

(9.9)

Introduciamo ora il sottospazio M 2 ([, ]) di L2 [, ]

Definizione 9.7. Sia M 2 ([, ]) lo spazio delle classi dequivalenza dei processi FtW -progressivamente
misurabili6 tali che
"Z
#

2
E
|Xs | ds < .

Osservazione 9.3. Si pu`


o definire lintegrale stocastico anche per il processi elementari opzionali
e si pu`
o

dimostrare che lintegrale stocastico `e una isometria tra M 2 ([0, T ]) (il sottospazio di L2 [0, T ] dei processi
progressivamente misurabili) e lo spazio delle v.a. L2 (, FT , P), ci si pu`
o chiedere se tutte le variabili aleatorie
di L2 (, F, P) si possono ottenere come integrale stocastico di un processo di M 2 ([0, T ]). Ci`
o non pu`
o essere dal
momento che ogni integrale stocastico in M 2 ([0, T ]) ha media nulla. Tuttavia si pu`
o vedere che, se la filtrazione
F = (Ft )t0 `e quella naturale completata del moto browniano W , allora ogni variabile aleatoria Z L2 (, F, P),
con F = FT , si pu`
o rappresentare nella forma
Z T
Z =c+
Xs dWs ,
0
6

Pi`
u in generale, data una filtrazione (Ft ), i processi Ft -progressivamente misurabili sono i processi X : [0, ) 7 R tali
che qualunque sia t la restrizione di X a funzione [0, t] `
e misurabile rispetto alla -algebra prodotto Ft B([0, t]).

MPEF 01-07-2009

203

con X M 2 ([0, T ]) e c R. Naturalmente E(Z) = c.


Prendendo Z = MT , questa propriet`
a `e equivalente alla propriet`
a che ogni martingala7 (Mt )t[0,T ] di
quadrato integrabile si possa rappresentare tramite unintegrale stocastico, come
Z t
Mt = E[MT |Ft ] = c +
Xs dWs
0

La seguente proposizione afferma che lintegrale stocastico pu`o essere definito anche per una classe pi`
u ampia
di processi, ed in particolare, se lintegrando `e continuo, allora lintegrale `e il limite di particolari8 somme di
Riemann, in analogia con lintegrale di Lebesgue.
Proposizione 9.4. Se X `e un processo dello spazio 2 [, ], ovvero `e progressivamente misurabile per il quale
!
Z

Xt2 dt <

=1

R
allora si pu`
o dare un senso allintegrale stocastico Xt dWt , come limite in probabilit`
a di integrali di processi
elementari opzionali. Se inoltre X `e un processo continuo, allora per ogni successione (n )n di partizioni
= tn0 < tn1 < ... < tnmn = con |n | 0 si ha
mn
X

X(tnk1 )(Wtnk Wtnk1 ) n+

k=1

X(t)dWt in probabilit`
a.

Osservazione 9.4. Sappiamo che, per ogni a e b R


Z

[aXt + bYt ]dWt = a

Xt dWt + b

Yt dWt ,

se X e Y sono processi per cui ha senso lintegrale stocastico, ad esempio se X, Y E 2 ([, ]), o se
X, Y 2 ([, ]). Ma se A = A() `e una variabile aleatoria (per semplicit`
a prendiamo b = 0), non possiamo
R
dire altrettanto, o meglio dipende dalle propriet`
a di misurabilit`
a di A. Infatti, mentre A Xt dWt si pu`
o scrivere
R
2
2
sempre, sappiamo dare un significato a A()Xt dWt solo se AX E ([, ]) (o se AX ([, ])). In
particolare AXt deve essere progressivamente misurabile, di conseguenza `e necessario che AXt sia F -misurabile.
Affinche ci`
o si verifichi `e sufficiente che A sia F -misurabile. Per le condizioni di integrabilit`
a `e sufficiente che
A sia una v.a. limitata.
Dunque possiamo enunciare il seguente teorema.
2

Teorema 9.5. Sia A una variabile aleatoria F -misurabile limitata; allora per X E ([, ]) (o per
X 2 ([, ]))
Z
Z
AX(t)dWt = A
X(t)dWt .

9.6

Calcolo stocastico e formula di It


o

Sia X un processo tale che per ogni 0 t1 < t2 T


Z
Xt2 Xt1 =

t2

t1
7 Si

t2

Ft dt +

Gt dWt ,
t1

tratta sempre del caso in cui la filtrazione e la filtrazione generata da W , completata e resa continua a destra.
somma di Riemann `
e una somma del tipo

8 Una

mn
X

X(tn
k1 )(Wtn Wtn
k

k1

k=1
n
n
n
n
con tn
k1 [tk1 , tk ] La differenza nel caso dellintegrale stocastico di Ito, sta nel fatto che va sempre scelto tk1 = tk1 .

204

MPEF 01-07-2009

dove Ft e Gt soddisfano opportune condizioni.9


Diremo allora che X ammette il differenziale stocastico
dXt = Ft dt + Gt dWt .
Un processo che ammette differenziale stocastico si chiama anche un processo di It
o.
Come primo esempio banale, prendiamo Xt = Wt allora ovviamente dWt = dWt e quindi Ft = FtW = 0
W
= 1. Lo stesso vale anche per Xt = x + Wt , con x costante reale, visto che nella definizione del
e G=
t Gt
differenziale, la costante x scompare.
Come secondo esempio consideriamo Xt = Wt2 (o anche Xt = x + Wt2 ). Ricordiamo che per la (9.9) si ha
che qualunque siano 0 t1 < t2 T , si ha
Z t2
2Ws dWs + (t2 t1 ),
Xt2 Xt1 = Wt22 Wt21 =
t1

ovvero in forma differenziale


dXt = dWt2 = 2Wt dWt + dt,
2

W
che `e come dire che Ft = FtW = 1 e G=
= 2Wt . Si noti la differenza con il calcolo del differenziale usuale.10
t Gt

Osservazione 9.5. Il differenziale stocastico, se esiste, `e unico, nel senso che se X ammette una
rappresentazione del tipo precedente, allora F e G sono determinati univocamente11 .
Definiamo

Gs 2 ds.

< X >t =
0

Rt
Il processo < X > non `e altro che il processo crescente associato alla martingala 0 Gs dWs che compare nella
sua definizione. In maniera simile, se Y `e un altro processo di Ito, avente differenziale stocastico
dYt = Ht dt + Kt dWt ,
porremo
Z

< X, Y >t =

Gs Ks ds.
0

Proposizione 9.6 (Differenziale del prodotto). Se Xi , i = 1, 2, sono due processi aventi differenziale stocastico
dXi (t) = Fi (t)dt + Gi (t)dWt ,
allora
d(X1 (t)X2 (t)) = X1 (t)dX2 (t) + X2 (t)dX1 (t) + G1 (t)G2 (t)dt
= X1 (t)dX2 (t) + X2 (t)dX1 (t) + d < X1 , X2 >t .
Ovvero, se t1 < t2 ,
Z

t2

X1 (t2 )X2 (t2 ) X1 (t1 )X2 (t1 ) =

[X1 (t)F2 (t) + X2 (t)F1 (t)]dt


t1
Z t2

[X1 (t)G2 (t) + X2 (t)G1 (t)]dWt


t1
Z t2

G1 (t)G2 (t)dt.
t1

9 Per quanto riguarda le propriet`


a di misurabilit`
a, si richiede che sia FT che Gt siano FtW -progressivamente misurabili. Inoltre
si richiede che abbiano le opportune propriet`
a di integrabilit`
a per cui abbia senso fare gli integrali.
10 Il motivo sta nel fatto che il processo di Wiener non ha traiettorie a variazione limitata o meglio possiamo interpretare il Lemma
8.4 come (Wt+ Wt )2 = O().
11 A

meno di identificazione di processi. (DA CHIARIRE MEGLIO)

MPEF 01-07-2009

205

Siano f una funzione regolare di (t, x) e X un processo di Ito, con differenziale stocastico (9.6). Ci chiediamo
quale sia il differenziale stocastico del processo (Yt = f (t, Xt ))t . La risposta `e fornita dalla formula di Ito.
Teorema 9.7 (Formula di It
o). Sia
dXt = Ft dt + Gt dWt ,
e sia f (t, x) una funzione continua, con derivate parziali prime ft ed fx continue, e con la derivata parziale
seconda fxx continua, allora
1
dYt = df (t, Xt ) = ft (t, Xt )dt + fx (t, Xt )dXt + fxx (t, Xt )G2t dt
2
1
= ft (t, Xt )dt + fx (t, Xt )Ft dt + fx (t, Xt )Gt dWt + fxx (t, Xt )G2t dt.
2
In particolare per Xt = Wt (ovvero per Ft = 0 e Gt = 1 si ha
1
df (t, Wt ) = ft (t, Wt )dt + fx (t, Wt )dWt + fxx (t, Wt )dt.
2
In realt`a il teorema sopra enunciato non `e completo in quanto mancano le ipotesi che permettono di assicurare
che abbia senso, ad esempio, lintegrale stocastico di fx (t, Xt )Gt rispetto a dWt . Unipotesi sufficiente `e che le
derivate siano limitate, tuttavia non `e unipotesi necessaria. Lo schema della dimostrazione si ottiene scrivendo
per ogni partizione di [t0 , t00 ]
X

f (t00 , Xt00 ) f (t0 , Xt0 ) =
f (tk , Xtk ) f (tk1 , Xtk1 )
k
12

e utilizzando la formula di Taylor


1
f (t, x) = f (t0 , x0 ) + ft (t0 , x0 )(t t0 ) + fx (t0 , x0 )(x x0 ) + fxx (t0 , x0 )(x x0 )2 + o(t t0 ) + o (x x0 )2
2
e tenendo conto del fatto che
2
(Xtk Xtk1 )2 ' Ftk1 (tk tk1 ) + Gtk1 (Wtk Wtk1 )
= Ft2k1 (tk tk1 )2 + 2Ftk1 Gtk1 (tk tk1 )(Wtk Wtk1 ) + G2tk1 (Wtk Wtk1 )2


= O (tk tk1 )2 + o (tk tk1 ) + G2tk1 (Wtk Wtk1 )2
con (Wtk Wtk1 )2 che si comporta come (tk tk1 ) (si riveda la sezione in cui si dimostra che il processo di
Wiener non ha traiettorie a variazione limitata)
Il precedente teorema ammette diverse generalizzazioni, come ad esempio la seguente.
Teorema 9.8 (Formula di It
o multidimensionale). Siano Xi , i = 1, ..., m, processi che ammettono differenziale
stocastico
dXi (t) = Fi (t)dt + Gi (t)dWt
i = 1, ..., m
e sia f : R+ Rm R una funzione continua in (t, x), derivabile con continuit`
a una volta in t e due volte in
x. Allora posto Xt = (X1 (t), ..., Xm (t)), il processo (f (t, Xt ))t ammette differenziale stocastico

m
m
X
X
1
fxi xj (t, Xt )Gi (t)Gj (t) dt
df (t, Xt ) = ft (t, Xt ) +
fxi (t, Xt )Fi (t) +
2
i,j=1
i=1
+

m
X

fxi (t, Xt )Gi (t)dWt

i=1

m
X
1
=
fxi (t, Xt )dXi (t) + ft (t, Xt ) +
fxi xj (t, Xt )Gi (t)Gj (t) dt.
2
i=1
i,j=1
m
X


mancano i termini di ordine O (t t0 )(x x0 ) . Tuttavia successivamente, se si prende t = tk , t0 = tk1 , x = Wtk
e x0 = Wtk1 , si ha che |(t t0 )(x x0 )| = |tk tk1 | |Wtk Wtk1 |, che un infinitesimo di ordine superiore a |tk tk1 |.
12 Veramente

206

MPEF 01-07-2009

****In presenza di un processo di Wiener a dimensione d, ossia in presenza di d processi di Wiener indipendenti
(1)
(d)
Wt , ... ,Wt si pu`
o considerare anche il caso in cui i processi Xi , i = 1, ..., m ammettono differenziale
stocastico definito come segue
dXi (t) = Fi (t)dt +

d
X

(k)

(k)

Gi (t)dWt

i = 1, ..., m

k=1

Allora il processo (f (t, Xt ))t ammette differenziale stocastico

m
d
m
X
X
X
1
(k)
(k)
fxi xj (t, Xt )
Gi (t)Gj (t) dt
df (t, Xt ) = ft (t, Xt ) +
fxi (t, Xt )Fi (t) +
2
i,j=1
i=1
k=1

m
X

(k)

(k)

fxi (t, Xt )Gi (t)dWt

(9.10)

i=1

m
d
X
X
1
(k)
(k)
fxi xj (t, Xt )
Gi (t)Gj (t) dt
=
fxi (t, Xt )dXi (t) + ft (t, Xt ) +
2
i,j=1
i=1
k=1

m
m
X
X
1
fxi xj (t, Xt ) (G(t)0 G(t))i,j dt.
fxi (t, Xt )dXi (t) + ft (t, Xt ) +
=
2
i,j=1
i=1

m
X

(9.11)

(9.12)

dove abbiamo indicato con G(t)0 la matrice trasposta della matrice che al posto di indice (k, i) ha il valore
(k)
Gi (t).
0

Osservazione 9.6. Se indichiamo con f il gradiente di f rispetto a x. La formula di It


o (9.10) si pu`
o scrivere
in maniera pi`
u compatta:
0

df (t, Xt ) = ft (t, Xt )dt + f (t, Xt )dX(t) +

m
1 X
fx x (t, Xt )d < Xi , Xj >t .
2 i,j=1 i j

Il differenziale stocastico si comporta, dunque, in maniera diversa da quello ordinario per la presenza dellultimo
termine a destra.

9.6.1

Moto browniano geometrico e il suo differenziale stocastico

Ricordiamo che un moto browniano geometrico `e un processo (St )t definito da


 


1 2
St = s0 exp Wt + t
2
dove e sono costanti, con 6= 0.
Definiamo

 


1
f (t, x) = s0 exp x + 2 t
2

cos`
St = f (t, Wt ).
Allora

ft (t, x) =


1
2 f (t, x),
2

fx (t, x) = f (t, x),


fxx (t, x) = 2 f (t, x).

MPEF 01-07-2009

207

W
Per la formula di It
o, applicata a Xt = Wt (cos` Ft = FtW = 0 e G=
t Gt = 1)

1
dSt = df (t, Wt ) = ft (t, Wt )dt + fx (t, Wt )dWt + fxx (t, Wt )dt
2


1 2
1
= f (t, Wt )dt + f (t, Wt )dWt + 2 f (t, Wt )dt
2
2
= St dt + St dWt .
Cos` il moto browniano geometrico in forma differenziale `e dato da
dSt = St dt + St dWt
e nella sua forma integrale
Z

St = s0 +

Su du +
0

Su dWu .
0

In particolare quindi
Z t
Z t
E[St ] = s0 + E[
Su du] + E[
Su dWu ]
0
0
Z t
= s0 +
E[Su ]du,
0

da cui
E[St ] = s0 exp{t}.
S
2
Riutilizzando ancora la formula di Ito per Xt = St (cos` Ft = FtS = St e G=
t Gt = St ) per f (t, x) = x (per
13
cui ft = 0, fx = 2x ed fxx = 2) si ottiene

1
dSt2 = 2St dSt + 2 2 St2 dt
2
= 2St2 dt + 2St2 dWt + 2 St2 dt
= (2 + 2 )St2 dt + 2St2 dWt .
Integrando questultima espressione, e prendendo i valori attesi (tralasciando il problema di mostrare che
lintegrale stocastico `e effettivamente una martingala a media nulla) si ottiene che
Z t
Z t
E[St2 ] = s20 + E[ (2 + 2 )Su2 du] + 2E[
Su2 dWu ]
0
0
Z t
= s20 +
(2 + 2 )E[Su2 ]du,
0

da cui
E[St2 ] = s20 exp{(2 + 2 )t}
e quindi si pu`o ricavare facilmente la varianza.14 Il moto browniano geometrico `e un processo da prendere
in considerazione per modellizzare levoluzione di quantit`a che devono sempre rimanere positive. Anche per
questo motivo, `e un modello usato per descrivere levoluzione dei prezzi nei mercati finanziari. Nel modello di
Black-Scholes, come gi`
a visto, il titolo rischioso segue un moto browniano geometrico.
13 Per

ottenere il differenziale di St2 si pu`


o considerare che
1
fxx (t, St )(GS )2t dt
2
= 2St (St dt + St dWt ) + 2 St2 dt

df (t, St ) = ft (t, St )dt + fx (t, St )dSt +

oppure si pu`
o considerare che St2 = f(t, Wt ) con


f(t, x) = s20 exp 2x + 2 2 t
e applicare la formula di Ito al processo Xt = Wt . Si consiglia il lettore di controllare che si ottiene lo stesso risultato con questo
metodo.
14 Ovviamente la V ar(S ) si pu`
o ricavare anche a direttamente, si consiglia il lettore di eseguire questo calcolo e controllare che i
t
due metodi portano allo stesso risultato, come deve essere.

208

9.7

MPEF 01-07-2009

Equazioni differenziali stocastiche

Introduciamo in questa sezione la nozione di equazione differenziale stocastica.


Siano b(x, t) = (bi (x, t))1im e (x, t) = (ij (x, t))1im,1jd funzioni misurabili definite su Rm [0, T ] a
valori in Rm e in M (m, d) rispettivamente, dove M (m, d) indica linsieme delle matrici m d.
Definizione 9.8. Diremo che il processo (t )t[u,T ] `e soluzione dellequazione differenziale stocastica

dt = b(t , t)dt + (t , t)dWt
u = x
x Rm

(9.13)

se (Wt )t `e un moto browniano d-dimensionale standard; per ogni t [u, T ] si ha


Z t
Z t
(s , s)dWs .
b(s , s)ds +
t = x +
u

Osservazione 9.7. Nella definizione precedente, si richiede implicitamente che s b(s , s) e s (s , s)


siano processi per cui abbia senso fare i rispettivi integrali, deterministico e stocastico, insieme alle condizioni
di misurabilit`
a progressiva.
Infine, ricordiamo che 2 viene chiamato coefficiente di diffusione e b viene chiamato drift (o deriva).
Definizione 9.9. Si dice che il sistema (9.13) ha soluzione forte se per ogni (, F, Ft , P) e per ogni moto
browniano standard W = (Wt )t , esiste un processo tale che (t )t sia soluzione di (9.13).
Con questa definizione possiamo dire che il moto browniano geometrico `e soluzione dellequazione differenziale
dt = t dt + t dWt ,

0 = s0 .

****Per le equazioni differenziali stocastiche vale il seguente teorema di esistenza e unicit`a:


Teorema 9.9. Supponiamo che i coefficienti b(t, x) e (t, x), oltre alla condizione di congiunta misurabilit`
a,
soddisfino la seguente condizione di Lipschitz globale:
|b(x, t) b(
x, t)|2 + |(x, t) (
x, t)|2 K|x x
|2 ,

(9.14)

e la seguente condizione di crescita



|b(x, t)|2 + |(x, t)|2 K 1 + |x|2 ,

(9.15)

per una costante K > 0.


Allora lequazione differenziale stocastica
dXt = b(Xt , t)dt + (Xt , t)dWt ,

t s,

Xs = x

(9.16)

RT

ammette una soluzione che `e un processo progressivamente misurabile, con E s |Xu |2 du < , per ogni

T s. Inoltre esiste una sola


 soluzione con queste caratteristiche, nel senso che, se Xt `e unaltra soluzione,
t , per ogni t = 1.
allora P Xt = X
****
Non diamo la dimostrazione generale di questo risultato, ma, a titolo di esempio vediamo come si pu`o
dimostrare che il processo di Orstein-Ulhenbeck `e soluzione dellequazione differenziale
dt = t dt + dWt ,

0 = x.

Lidea `e quella di ripetere il metodo della variazione delle costanti per le equazioni differenziali ordinarie15
15 Ricordiamo

che per risolvere lequazione differenziale ordinaria


y t = yt + vt

MPEF 01-07-2009

209

Si cerca quindi la soluzione del tipo Xt = t exp{t}, dove t `e un processo da determinare che ammetta
differenziale stocastico
Z t
Z t
Gs dWs .
Fs ds +
dt = Ft dt + Gt dWt , ovvero t = x +
0

Il processo exp{t} `e deterministico, di conseguenza,


d(exp{t}) = exp{t}dt
per la formula del prodotto dei differenziali stocastici16 si ottiene che
dXt = d(exp{t}t ) = exp{t}dt + t d(exp{t})
= exp{t}(Ft dt + Gt dWt ) exp{t}t dt
= exp{t}Ft dt + exp{t}Gt dWt Xt dt.
Da ci`o si ricava immediatamente che deve essere Ft = 0 ed exp{t}Gt = , ovvero
Gt = exp{t}.
Da questultima espressione si ricava immediatamente che
t

Z
t = x +

exp{s}dWs ,
0

e quindi


Z t
Xt = exp{t}t = exp{t} x +
exp{s}dWs ,
0

ovvero il processo di Orstein-Ulhenbeck.


Una volta ottenuta la soluzione `e facile verificare che `e effettivamente una soluzione, riapplicando la formula
del differenziale stocastico del prodotto.17
si pu`
o considerare prima lequazione
y t = yt ,
la cui soluzione `
e data da
yt0 = C exp{t}.
Poi si cerca la soluzione yt del tipo yt = Ct exp{t}, da cui, essendo

d
d
yt =
Ct exp{t} = exp{t}Ct + C t exp{t} = yt + C t exp{t},
dt
dt
si ottiene che deve essere necessariamente
C t exp{t} = vt .
ovvero

Ct = C0 +

exp{s}vs ds.
0

In conclusione la soluzione `
e data da


Z
yt = exp{t} C0 +

exp{s}vs ds

0
16 Il

motivo per cui la tecnica della variazone delle costanti funziona anche nel caso stocastico sta nel fatto che, essendo la funzione
e t deterministica, che ha come differenziale de t = e t dt + 0 dWt , la formula del differenziale stocastico del prodotto `
e
la stessa che nel caso dei differenziali usuali
d(t e t ) = t de t + e t dt + Gt 0 dt.
17 Ovvero

si tratta di ripercorrere i passi precedenti al contrario:




d x+
0

d(exp{t}) = exp{t}dt,

exp{s}dWs = 0 dt + exp{t}dWt .

210

MPEF 01-07-2009

Come applicazione delle propriet`


a dellintegrale stocastico si vede quindi subito come si possono calcolare
valore medio e varianza del processo Xt di Orstein-Ulhenbeck. Infatti

Z t
exp{s}dWs = exp{t}x,
E[Xt ] = exp{t}x + exp{t}E
0

dove lultima uguaglianza vale in quanto lintegrale stocastico ha valore atteso nullo.
Da ci`o si pu`o ricavare anche la varianza, in quanto
2

2

Z

(Xt E[Xt ]) = (Xt exp{t}x) = exp{2t}

exp{s}dWs

e quindi, passando ai valori attesi,


"Z
V ar(Xt ) = exp{2t}E

2 #

exp{s}dWs
0



Z t
2
2 exp{2s}ds =
= E exp{2t}
(1 exp{2t}) .
2
0
Anche la covarianza si pu`
o ricavare facilmente osservando che
(Xt E[Xt ]) (Xt0 E[Xt0 ])
Z t

Z
0
= exp{t}
exp{s}dWs exp{t }
0

t0

!
exp{s}dWs

= exp{(t + t0 )}Mt Mt0 ,


dove Mt =

Rt
0

exp{s}dWs . Poiche, per ogni Gt -martingala di quadrato integrabile, se t t0 , si ha


E[Mt Mt0 ] = E[Mt E[Mt0 |Gt ]] = E[Mt Mt ] = E[Mt2 ].

si ottiene che, per t t0 ,


Cov(Xt , Xt0 ) = exp{(t + t0 )}E

Z


2 exp{2s}ds .

quindi se


Z
Xt = exp{t} x +

exp{s}dWs

allora

dXt =

x+

exp{s}dWs
0

( exp{t}dt) + exp{t} exp{t}dWt = Xt + dWt .

Bibliografia
[1] Baldi, P. Equazione differenziali stocastiche e applicazioni. Quaderni dellUnione Matematica Italiana,
28. Bologna: Pitagora Editrice. VIII, 309 p. (seconda edizione), 2000.
[2] Baldi, P., and Caramellino, L. Appunti del corso: Probabilit`a e Finanza. Dip. Mat. - Univ. di Roma
Tor Vergata - http://www.mat.uniroma2.it/processi/did 0304/pf.htm, 2004.
[3] Billingsley, P. Probability and measure, third ed. Wiley Series in Probability and Mathematical
Statistics. John Wiley & Sons Inc., New York, 1995. A Wiley-Interscience Publication.
rk, T. Arbitrage theory in continuous time. Oxford University Press, Oxford, 1998.
[4] Bjo
[5] Black, F., and Scholes, M. The pricing of options and corporates liabilities. Journal of Political
Economy 81 (1973), 637659.
[6] Breiman, L. Probability, vol. 7 of Classics in Applied Mathematics. Society for Industrial and Applied
Mathematics (SIAM), Philadelphia, PA, 1992. Corrected reprint of the 1968 original.
[7] DallAglio, G. Calcolo delle Probabilit`
a. Zanichelli, Bologna, 2000. II edizione.
[8] Hull, C. J. Opzioni, futures e altri derivati. Il Sole 24 Ore, Milano, 2003. III edizione.
[9] Lamberton, D., and Lapeyre, B. Introduction to stochastic calculus applied to finance. Chapman &
Hall, London, 1996. Translated from the 1991 French original by Nicolas Rabeau and Francois Mantion.
[10] Luenberger, D. C. Investment Science. Oxford University Press, Oxford, 1998.
[11] Merton, R. C. Theory of rational option pricing. Bell J. Econom. and Management Sci. 4 (1973),
141183.
[12] Moriconi, F. Matematica finanziaria. Edizioni il Mulino, Bologna, 1995.
[13] Rogers, L. C. G. Equivalent martingale measures and no-arbitrage. Stochastics Stochastics Rep. 51, 1-2
(1994), 4149.
[14] Ross, S. M. Stochastic processes, second ed. Wiley Series in Probability and Statistics: Probability and
Statistics. John Wiley & Sons Inc., New York, 1996.
[15] Ross, S. M. An introduction to mathematical finance. Cambridge University Press, Cambridge, 1999.
Options and other topics.
[16] Schachermayer, W. A Hilbert space proof of the fundamental theorem of asset pricing in finite discrete
time. Insurance Math. Econom. 11, 4 (1992), 249257.
[17] Shiryaev, A. N. Essentials of stochastic finance. Facts, models, theory,, vol. 3 of Advanced Series on
Statistical Science & Applied Probability. World Scientific Publishing Co. Inc., River Edge, NJ, 1999.
Translated from the Russian manuscript by N. Kruzhilin.
[18] Steele, J. M. Stochastic calculus and financial applications, vol. 45 of Applications of Mathematics (New
York). Springer-Verlag, New York, 2001.
[19] Williams, D. Probability with martingales. Cambridge Mathematical Textbooks. Cambridge University
Press, Cambridge, 1991.

211