Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
27 aprile 2020
1 Catene di Markov
Tale proprietà afferma che, dato un istante di osservazione n − 1, lo stato della catena
negli istanti successivi dipende unicamente dallo stato occupato dalla catena nell’istante
di osservazione e non dagli stati occupati precedentemente. Questo si traduce, in maniera
informale, affermando che lo stato futuro della catena dipende da quello presente ma
non dal passato del processo.
Esse rappresentano la probabilità che la catena passi dallo stato i occupato al tempo
n − 1 allo stato j occupato al tempo n. È bene osservare che le probabilità di transizione
non dipendono soltanto da i e da j, bensì anche da n.
1
D’ora in avanti si tratteranno solo catene di Markov a parametro discreto omogenee. Ne
consegue che, per indicare le probabilità di transizione, sarà possibile omettere il pedice
n utilizzando la seguente notazione
A seconda di quanti siano gli stati che la catena può assumere, è possibile avere un
numero finito o un’infinità numerabile di probabilità di transizione a un passo.
È conveniente, dunque, anche da un punto di vista visivo, raggruppare tali probabilità
in una matrice, che si indicherà con P.
• se, invece, lo spazio degli stati S è finito, ad esempio S = {0, 1, ..m}, allora la
matrice P è del tipo:
P00 P01 ··· P0j ··· P0m
P10 P11
P1j ··· P1m
.. ..
.
. ···
P=
P
i0 Pi1 ··· Pij ··· Pim
. ..
.. .
Pm0 Pm1 ··· Pmj · · · Pmm
2
Per la matrice P valgono le seguenti proprietà:
1. Pij ≥ 0 ∀i, j ∈ S,
P
2. j∈S Pij = 1 ∀i ∈ S.
Definizione 1.5 Una matrice P per la quale valgano le proprietà sopra riportate si dice
matrice stocastica.
Esempio 1.1 Sia {Xn , n ∈ N} una catena di Markov. Sia nota la matrice di transi-
zione ad un passo, (Pij )i,j∈S , e la legge iniziale della catena, P (X0 = k), ∀ k ∈ N.
Si determini P (X2 = i2 , X1 = i1 , X0 = i0 ) , i0 , i1 , i2 ∈ S.
In virtù della proprietà di Markov risulta
3
Nel seguito saranno illustrati alcuni esempi di Catene di Markov.
4
giorni precedenti.
Per come è stata definita, (Xn )n≥1 risulta essere una catena di Markov e le probabilità
di transizione ad un passo sono date da
P (Xn = 1 | Xn−1 = 0) = α,
P (Xn = 0 | Xn−1 = 1) = β.
5
La matrice di transizione risulta pertanto
0 1 0 ··· ··· 0 0
1 d−1
···
d 0 d
0 0 0
0 2 0 d−2
0 ··· 0 0
d d
. ..
..
. ···
. ..
.
P=
. . ··· .
. ...
..
···
.. ..
.
. ···
d−1 1
0 0 0 ··· 0
d d
0 0 0 ··· 0 1 0
Xn = Xn−1 + Zn , n = 1, 2, . . . . (2)
Il processo stocastico (Xn )n≥1 è una catena di Markov con spazio degli stati
6
diagonale superiore uguali a p e quelli della diagonale inferiore uguali a q. Risulta
quindi
Indichiamo con Xn il guadagno del giocatore A alla partita n-esima. Il processo stocastico
(Xn )n≥1 è una catena di Markov con spazio degli stati
S = {−a, · · · , 0, · · · , +b} .
Xn = Z1 + · · · + Zn , (3)
7
oppure Xn = b allora o A ha perso tutto il suo capitale oppure A ha vinto tutto il
capitale di B. In questo caso è possibile immaginare che il processo resti in −a oppure
in b indefinitamente. Gli stati −a e b sono dunque stati assorbenti, ossia tali da aversi
P−a,−a = Pb,b = 1.
PA + PB = 1.
Dunque il gioco terminerà certamente con la vittoria di uno dei due giocatori.
8
A seconda di quanti siano gli stati che la catena può assumere, è possibile avere un nume-
ro finito o un’infinità numerabile di probabilità di transizione a n passi. È conveniente,
dunque, anche in questo caso, raggruppare tali probabilità in una matrice.
Se, ad esempio, lo spazio degli stati S è finito, con S = {0, 1, 2, . . . , m}, la matrice di
transizione a n passi è la seguente:
(n) (n) (n) (n)
P00 P01 ··· P0j · · · P0m
(n) (n) (n) (n)
P10 P11
P1j · · · P1m
.. ...
(n)
. ···
P = P (n) P (n) (n) (n)
i0 i1 ··· Pij · · · Pim
. ..
.. .
(n) (n) (n) (n)
Pm0 Pm1 ··· Pmj · · · Pmm
Esiste un’interessante relazione che lega le matrici P e P(n) . Tale relazione è nota come
equazione di Chapman-Kolmogorov ed è espressa nella seguente proposizione.
9
La relazione di Chapman-Kolmogorov appena dimostrata si può scrivere nella seguente
forma compatta
P(n) = P(n−1) P, (6)
dove le matrici P e P(n) sono state definite nelle equazioni (1) e (4), rispettivamente.
Vale inoltre la seguente proposizione.
P(n) = Pn . (7)
L’Eq. (7) indica che la matrice di transizione a n passi può essere ottenuta moltiplicando
la matrice di transizione ad un passo n volte per se stessa, secondo il prodotto righe per
colonne.
Dalla (7) segue che P(4) = P4 . Resta pertanto da calcolare P4 . Usando le proprietà della
2
potenza, si ha che P4 = (P2 ) e dunque è sufficiente calcolare la matrice di transizione
a due passi " #" # " #
0,3 0,7 0,3 0,7 0,37 0,63
P2 = = .
0,4 0,6 0,4 0,6 0,36 0,64
10
Moltiplicando P2 per se stessa si ha
" #" # " #
0,37 0,63 0,37 0,63 0,3637 0,6363
P4 = = ,
0,36 0,64 0,36 0,64 0,3636 0,6364
(4)
da cui segue P0,0 = 0,3637.
La seguente proposizione mostra come, nota la distribuzione iniziale della catena di Mar-
kov e la matrice di transizione ad n passi, è possibile calcolare il vettore delle probabilità
di stato.
11
La proposizione appena enunciata può essere espressa equivalentemente nella seguente
forma compatta.
Proposizione 1.5 Data una catena di Markov {Xn , n ≥ 0} con matrice di transizione
ad n passi P(n) e distribuzione iniziale p(0) , risulta
Supponiamo che la catena nell’istante iniziale occupi lo stato 1 con probabilità 1, ossia
P (X0 = 1) = 1, e calcoliamo la distribuzione di Xn al tempo n = 3. Risulta:
Essendo
1 1 1 1 1 1 1 3 1
2 4 4 2 4 4 2 8 8
P2 =
1 0 0 1 0 0 =
1
2
1
4
1 ,
4
0 1 0 0 1 0 1 0 0
si ha quindi che
1 3 1 1 1 1 5 2 1
2 8 8 2 4 4 8 8 8
P3 = P2 · P = 1
2
1
4
1
4
1 0 0=
2
4
3
8
1 .
8
1 1 1
1 0 0 0 1 0 2 4 4
Pertanto,
5 2 1
8 8 8
(3) 2 3 1
5 2 1
p = (1, 0, 0) · 4 8 8
= , , .
8 8 8
1 1 1
2 4 4
Esempio 1.10 Si consideri la catena di Markov con spazio degli stati S = {1, 2},
caratterizzata dalla seguente matrice di transizione ad un passo
" #
p 1−p
P= ,
0 1
12
con 0 < p < 1. Calcoliamo la matrice di transizione ad n passi ed il vettore delle
probabilità di stato al tempo n. Posto q = 1 − p si ha che
" # " # " #
2
p q p q p pq + q
P2 = · = .
0 1 0 1 0 1
Pertanto, assegnata la legge iniziale della catena di Markov p(0) = (1, 0), allora il
vettore delle probabilità di stato al tempo n è dato da
" #
n n
p 1 − p
p(n) = (1, 0) · = (pn , 1 − pn ),
0 1
con 0 < p < 1.
13
Pertanto, ogni stato comunica con se stesso e quindi la relazione di comunicabilità veri-
fica la proprietà riflessiva. La relazione di comunicabilità soddisfa inoltre la proprietà di
simmetria, come segue immediatamente dalla definizione di comunicabilità. Dimostria-
mo infine che vale anche la proprietà transitiva. Supponiamo quindi che i comunichi con
j (i ↔ j) e che j comunichi con k (j ↔ k) e dimostriamo che i comunica con k (i ↔ k).
In virtù della definizione di comunicabilità si ha che
(n)
i↔j ⇔ ∃ n t.c. Pij > 0
(m)
j ↔ k ⇔ ∃ m t.c. Pjk > 0,
(n+m)
X (n) (m) (n) (m)
Pi,k = Pi,r · Pr,k > Pij · Pjk > 0,
r∈S
Definizione 1.12 Una catena di Markov si dice irriducibile se la sola classe di stati
non vuota è l’insieme S.
Dalla precedente definizione segue che in una catena irriducibile tutti gli stati comuni-
cano, ovvero esiste una sola classe di equivalenza.
(n)
Osservazione 1.7 Se esiste un n tale che Pij > 0, ∀i, j ∈ S, allora tutti gli stati
comunicano e pertanto la catena di Markov è irriducibile.
Osservazione 1.8 Una catena che non sia irriducibile si definisce riducibile.
Una classe chiusa è pertanto una classe da cui non c’è alcuna possibilità di uscita.
Definizione 1.14 Uno stato i ∈ S si dice assorbente se {i} è una classe chiusa.
14
Una catena di Markov con spazio degli stati S finito può essere rappresentata me-
diante un grafo i cui nodi rappresentano gli stati della catena di Markov. Inoltre, le
frecce tra i nodi rappresentano le transizioni da uno stato all’altro. Su ogni freccia è
possibile mettere un’etichetta che rappresenta la probabilità di transizione da uno stato
all’altro. Ovviamente la somma delle etichette delle frecce uscenti da ciascun nodo deve
valere 1.
Esempio 1.11 Consideriamo la catena di Markov con spazio degli S = {1, 2, 3, 4, 5, 6},
caratterizzata dalla seguente matrice di transizione ad un passo
1 1
0 0 0 0
2 2
0 0 1 0 0 0
1
3 0 0 13 13 0
P= 0 0 0 1 1 0 .
2 2
0 0 0 0 0 1
0 0 0 0 1 0
Il grafo associato è dato da
1/2 1/2
1 4
1/3
1/3
1/2
3 1/2
2 1
1/3 1
5 6
1
• {5, 6}. Questa è una classe chiusa poiché dal nodo 5 si può andare solo nel nodo
6 con probabilità 1 e viceversa.
• {1, 2, 3}. I nodi di questa classe comunicano poiché dal nodo 1 è possibile raggiun-
gere gli altri nodi di questa classe e viceversa.
15
• {4}. Dal nodo 4 è possibile raggiungere solo il nodo 5 ma da questo si può andare
solo nel nodo 6.
Esempio 1.12 Consideriamo una catena di Markov {Xn , n ≥ 0} con spazio degli stati
S = {0, 1, 2}, caratterizzata dalla seguente matrice di transizione ad un passo
1 1
0
2 2
P= 1 1 1
2 4 4 .
0 13 23
1/2 2/3
0 2
1/2 1/4
1/2 1/3
1
1/4
Esempio 1.13 Consideriamo una catena di Markov {Xn , n ≥ 0} con spazio degli stati
S = {0, 1, 2, 3}, e matrice di transizione ad un passo
1 1
2 2
0 0
1 1
20 0 2
P=
11 1
1
44 4 4
0 0 0 1
16
1/2 1/4
0 1/4 2
1/2
1/4 1/4
1/2
1 3
1/2 1
Lo spazio degli stati di Xn è riducibile in tre classi: {0, 1}, {2} e {3}. Gli stati 0 ed 1
sono infatti accessibili dallo stato 2 ma non vale il viceversa. La classe {3} è una classe
chiusa poiché 3 è uno stato assorbente.
Esempio 1.14 Consideriamo una catena di Markov {Xn , n ≥ 0} con spazio degli stati
S = {0, 1, 2, 3}, e matrice di transizione ad un passo
0 14 0 43
1
2 0 13 61
P= 0 0 0 1
0 12 14 41
0 2
1/2 1/3
1/4 1
1/4 1/2 1/4
1 1/6 3
3/4
La catena Xn è irriducibile.
Esempio 1.15 La rovina del giocatore Riprendiamo il problema della rovina del
giocatore. Sia fissato m ≥ 2 e siano 0 < p, q < 1 tali che p + q=1. Due giocatori A e B
17
con capitali iniziali di a euro e b euro rispettivamente, con m = a + b, giocano un certo
numero di partite in ognuna delle quali A vince 1 euro (pagato da B) con probabilità p
e perde 1 euro (pagato a B) con probabilità q = 1 − p.
Per n ≥ 1, sia Yn = {il capitale del giocatore A alla partita n-esima}, si ha
Yn = a + Z1 + · · · + Zn
• {0} e {m} sono classi chiuse, dato che 0 ed m sono stati assorbenti. Infatti
(n)
P0,j = 0, ∀n ≥ 1, ∀j ∈ {1, . . . , m}
e
(n)
Pm,i = 0, ∀n ≥ 1, ∀i ∈ {0, . . . , m − 1};
(j−i)
Pij = pj−i > 0, i < j,
e
(i−j)
Pij = q i−j > 0, i > j.
18
an = P (Xk = n) , k ∈ N. La catena di Markov (Xn )n≥0 ha spazio degli stati N e
matrice di transizione
a0 a1 a2 ··· ··· ···
a0
a1 a2 · · · · · · · · ·
.. ...
. ···
P= .
a
0 a1 a2 · · · · · · · · ·
. ..
.. .
a0 a1 a2 ··· ··· ···
Osserviamo che
a a1 a2 ... a a1 a2 ...
0 0
a a1 a2 ... a0 a1 a2 ...
0
a0 a1 a2 ... · a0 a1 a2 ...
P2 = P · P =
...
...
... ... ... ... ... ...
... ... ... ...
... ... ... ...
... ... ... ... ... ... ... ...
P P P
a( a ) a1 ( k ak ) a2 ( k ak ) ...
0 Pk k P P
a (
0 k ak ) a1 ( k ak ) a2 ( k ak ) ...
P P P
a0 ( k ak ) a1 ( k ak ) a2 ( k ak ) ...
= .
... ... ... ...
... ... ... ...
... ... ... ...
+∞
X +∞
X
Essendo ak = P (Xj = k) = 1, risulta
k=0 k=0
a a1 a2 ...
0
a a1 a2 ...
0
2
a0 a1 a2 ...
P =
..
= P.
... ... ...
... ... ... ...
... ... ... ...
(n)
Procedendo analogamente si dimostra che P(n) = P e quindi che, ∀n ≥ 1, Pij = Pij =
aj , ∀i, j ∈ S. In conclusione ak > 0 ∀k ≥ 0 è una condizione necessaria e sufficiente
affinché la catena (Xn )n≥0 sia irriducibile.
19
(n)
Definizione 1.15 Dato uno stato i ∈ S tale che l’insieme Ei = {n ≥ 1 | Pi,i > 0}
sia diverso dall’insieme vuoto, si definisce periodo dello stato i il massimo comune
divisore dei numeri n appartenenti ad Ei .
Dalla definizione segue che uno stato i è periodico di periodo d > 1, se, partendo dallo
stato i al tempo 0, la catena non può ritornare nello stato i ad istanti m che non siano un
(m) m
multiplo intero di d. In altre parole, Pi,i = 0 se d
∈
/ N. Invece uno stato i è aperiodico
se è possibile individuare due numeri consecutivi m e m + 1 tali che la catena si può
trovare nello stato i in questi istanti.
Vale inoltre la seguente proposizione
Proposizione 1.6 Consideriamo una catena di Markov Xn con spazio degli stati S e
siano i, j ∈ S. Se i ↔ j allora il periodo dello stato i coincide con il periodo dello stato
j. In altre parole la periodicità è una proprietà di classe.
Esempio 1.17 Consideriamo una catena di Markov con spazio degli stati S = {0, 1, 2},
caratterizzata da matrice di transizione ad un passo
0 1 0
P= 0 0 1.
1 0 0
Il grafo associato alla matrice di transizione è il seguente:
1
0 1 2
1 1
La catena è irriducibile poiché tutti gli stati comunicano. Inoltre, Il periodo di ciascuno
stato è tre.
Esempio 1.18 Consideriamo la catena di Markov Xn con spazio degli stati S = {0, 1, 2},
caratterizzata da matrice di transizione ad un passo
1 2
0
3 3
P= 1 1
2 0 2 .
0 41 34
20
Il grafo associato che rappresenta la matrice di transizione è il seguente:
0 1 2
1/2 1/4
Esempio 1.19 Sia data la catena di Markov Xn con spazio degli stati S = {0, 1, 2, 3},
e matrice di transizione ad un passo
1 1
0 0
21 2
1
20 0 2
P=
2 1
.
0 0 3 3
0 0 41 43
0 1 2 3
1/2 1/4
Lo spazio degli stati è suddiviso nelle due classi {0, 1} e {2, 3}, che sono entrambe
aperiodiche.
Uno stato i è ricorrente se, partendo dallo stato i al tempo 0, la catena di Markov
ritorna nello stato i in un tempo finito, quasi certamente. Ovviamente, poichè uno stato
ricorrente dopo ciascuna visita sarà nuovamente occupato con probabilità uno, allora
esso sarà visitato infinitamente spesso.
Osservazione 1.9 Ogni stato assorbente è uno stato ricorrente, in quanto, una volta
occupato tale stato, la catena non lo lascerà più.
21
Osservazione 1.10 Se uno stato i appartiene ad una classe chiusa, allora esso è ricor-
rente.
Uno stato i è transiente se, una volta entrato nello stato i, c’è una probabilità stretta-
mente positiva che il processo non ritorni più nuovamente nello stato i.
Osservazione 1.11 Uno stato i è transiente se e solo se esiste uno stato j, diverso da
i, tale che j è accessibile dallo stato i mentre i non è accessibile dallo stato j.
Esempio 1.20 La rovina del giocatore Abbiamo visto che lo spazio degli stati di
questa catena di Markov risulta suddiviso nelle tre classi di equivalenza
Le classi {0} ed {m} sono entrambe ricorrenti. Ogni stato i ∈ {1, 2, . . . , m − 1} è invece
transiente. Infatti, partendo dallo stato i, la catena arriverà in 0 con probabilità
P ∪+∞ i
n=1 (Xn = 0) | X0 = i ≥ P (Xi = 0 | X0 = i) = q .
Analogamente, partendo dallo stato i, la catena arriverà nello stato m con probabilità
P ∪+∞ m−i
n=1 (Xn = m) | X0 = i ≥ P (Xm−i = m | X0 = i) = p .
Pertanto
P ∪+∞ +∞
n=1 (X n = i) | X 0 = i ≤ 1 − P ∪ n=1 (X n = 0) | X 0 = i
−P ∪n=1 (Xn = m) | X0 = i ≤ 1 − q i − pm−i < 1.
+∞
Esempio 1.21 Consideriamo la catena di Markov con spazio degli stati S = {0, 1, 2, 3}
e matrice di transizione ad un passo
0 31 32 0
1 1
0 2 2 0
P=
1 0 0 0 .
2 1
0 3 3 0
22
1/3 1/2
0 1
2/3 2/3
1/2
1
2 3
1/3
Lo spazio degli stati di questa catena è suddiviso nelle classi {0, 1, 2} e {3}. Gli stati
della classe {0, 1, 2} sono ricorrenti, mentre 3 è uno stato transiente.
Esempio 1.22 Consideriamo la catena di Markov con spazio degli stati S = {0, 1, 2, 3}
e caratterizzata dal seguente grafo
1 3/5 1
0 3/5 1 2 2/5 3
2/5
Lo spazio S risulta suddiviso nelle classi {0}, {1, 2} e {3}. Le classi {0} e {3} sono
stati assorbenti e quindi ricorrenti. La classe {1, 2} è invece transiente.
Esempio 1.23 Consideriamo una catena di Markov con spazio degli stati S = {1, 2, 3, 4, 5}
e matrice di transizione ad un passo
1 1
2
0 0 0 2
1 1
0 0 0
2 2
P = 0 0 1 0 0 .
0 1 1 1 1
4 4 4 4
1
2
0 0 0 12
23
1/2 1/4
1 4
1/4 1/2
5 2
1/2
Lo spazio S risulta suddiviso nelle classi {3}, {1, 5} e {2, 4}. La classe {3} è uno stato
assorbente e la classe {1, 5} è chiusa. Gli stati {3} e {1, 5} sono ricorrenti. Gli stati
{2, 4} sono transienti.
Esempio 1.24 Consideriamo una catena di Markov con spazio degli stati S = {0, 1} e
grafo associato alla matrice di transizione ad un passo
0 1
3/10
Esempio 1.25 Consideriamo la catena di Markov con spazio degli stati S = {0, 1, 2, 3},
e grafo associato alla matrice di transizione ad un passo
24
5/10 5/10 1
0 1 2 3
1
5/10
5/10
Lo spazio S risulta suddiviso nelle classi {0, 1} e {2, 3}. La classe {2, 3} è chiusa. Gli
stati {2, 3} sono ricorrenti. Gli stati {0, 1} sono transienti.
Denotiamo nel seguito con Pi (·) = P (·|X0 = i), ossia la probabilià di un certo evento con-
dizionata dallo stato iniziale della catena. Vale il seguente teorema di caratterizzazione
degli stati ricorrenti e transienti.
Per n ≥ 1, sia (
1 se Xn = i
In =
0 altrimenti.
Si definisce numero di visite allo stato i successivamente all’istante iniziale, la
variabile aleatoria
+∞
X
Vi := In .
n=1
Si ha pertanto il seguente risultato.
Proposizione 1.8 Sia Xn una catena di Markov con spazio degli stati S e sia i ∈ S. Il
numero medio di visite della catena allo stato i, partendo da i, è dato da
+∞
X ∞
X (n)
Ei (Vi ) = Pi (Xn = i) = Pii .
n=1 n=1
25
Definizione 1.18 Dato uno stato j ∈ S, si definisce tempo di prima entrata nello
stato j la variabile aleatoria a valori in N ∪ {+∞} definita come
(
min n ≥ 1 : Xn (ω) = j se n ≥ 1 : Xn (ω) = j 6= ∅
Tj (ω) =
+∞, altrimenti.
− {Tj = 1} = {X1 = j}
Definizione 1.19 Sia Xn una catena di Markov con spazio degli stati S e stato inziale
X0 = i. Per ogni i, j ∈ S e n > 0, definiamo
(n)
fij = Pi (Tj = n) = P (Tj = n|X0 = i),
e
+∞
X (n)
fij? = fij = Pi (Tj < +∞) = P (Tj < +∞|X0 = i) = P (∪n≥1 (Xn = j) | X0 = i).
n=1
Si pone inoltre
(0)
fij = 0.
(n)
Dalla precedente definizione segue che, per ogni n ≥ 1, fij? ≥ fij e quindi, in particolare,
(1)
fij? ≥ fij = Pij .
Sulla base delle definizioni ora introdotte, vale inoltre la seguente proposizione.
26
Teorema 1.3 Per ogni i, j ∈ S e per ogni n ≥ 1, risulta
n
X
(n) (m) (n−m)
Pij = fij · Pjj .
m=1
Dimostrazione Iniziamo con l’osservare che l’evento (Xn = j) può essere rappresentato
come unione di eventi disgiunti
in quanto, se al tempo n la catena si trova nello stato j, questo significa che è entrata
per la prima volta in j o proprio al tempo n oppure vi era già entrata in un istante
precedente ad n. Pertanto, per la proprietà di Markov,
n
X
(n)
Pij = Pi (Xn = j) = Pi (Xn = j, Tj = m) = Pi (Xn = j, Xn−1 6= j, . . . , X1 6= j)
m=1
n−1
X
+ Pi (Xn = j, Xm = j, Xm−1 6= j, . . . , X1 6= j)
m=1
n−1
X
(n)
= fij + P (Xn = j | Xm = j, Xm−1 6= j, . . . , X1 6= j, X0 = i)
m=1
×Pi (Xm = j, Xm−1 6= j, . . . , X1 6= j)
n−1
X
(n)
= fij + P (Xn = j|Xm = j)Pi (Tj = m)
m=1
n−1
X
(n) (n−m) (m)
= fij + Pjj · fij .
m=1
fij? > 0 ⇐⇒ i → j
(n)
Dimostrazione Se fij? > 0, allora esiste un certo n ≥ 1 tale che fij > 0. Essendo poi
(n) (n) (n)
fij ≤ Pij , si ricava Pij > 0, ossia i → j.
(n)
Viceversa, se i → j, esiste un certo n ≥ 1 tale che Pij > 0. Pertanto dall’equazione dei
(r)
rinnovi segue che esiste un r, 1 ≤ r ≤ n, tale che fij > 0 e quindi fij? > 0.
27
Il seguente Teorema fornisce un criterio fondamentale in termini di numero medio di
visite della catena allo stato i per stabilire se uno stato è transiente o ricorrente.
Teorema 1.4 Sia Xn una catena di Markov con spazio degli stati S e sia i ∈ S. Allora
P∞ (n)
(i) lo stato i è transiente ⇐⇒ n=0 Pii < ∞ ;
P∞ (n)
(ii) lo stato i è ricorrente ⇐⇒ n=0 Pii = ∞.
e ∞
X (n)
Fii (s) = sn fii . (9)
n=1
Notiamo che Pii (s) e Fii (s) sono serie di potenze con raggio di convergenza ρ ≥ 1.
Partendo dall’equazione dei rinnovi, per j = i, si ottiene
n
X
(n) (m) (n−m)
Pii = fii · Pii ,
m=1
28
Quindi, essendo
∞
X ∞
X
(n) (n)
lim− Pii (s) = Pii , lim− Fii (s) = fii = fii∗ ,
s→1 s→1
n=0 n=1
Definizione 1.20 Dato uno stato ricorrente i, si definisce tempo medio di ricorren-
za ∞
X (n)
Mi = n · fii .
n=1
In particolare
Mi = Fii0 (1).
Proposizione 1.11 Sia J una classe di stati e sia i ∈ J. Se i è uno stato ricorrente
(transiente), allora ogni elemento di J è ricorrente (transiente).
e quindi k è ricorrente.
29
Osservazione 1.15 Risulta
∞
hX i X∞ ∞
X (n)
Ei 1(Xn =j) = Pi (Xn = j) = Pij .
n=0 n=0 n=0
P∞ (n)
Quindi la serie n=0 Pij rappresenta il numero medio di visite della catena nello stato
j partendo dallo stato i.
P∞ (n)
Corollario 1.1 Se j ∈ S è uno stato transiente, allora ∀i ∈ S risulta n=0 Pij < ∞.
In particolare, partendo da qualunque stato i ∈ S, la catena di Markov passa per j quasi
certamente solo un numero finito di volte.
P∞ (n) P∞
Notiamo che essendo n=0 Pij < +∞, la variabile aleatoria n=0 1(Xn =j) ha valore
medio finito e pertanto è finita con probabilità 1. Pertanto, quasi certamente si verifica
un numero finito di eventi {(Xn = j)}.
Corollario 1.2 Una catena di Markov con spazio degli stati S finito ha almeno uno
stato ricorrente.
Dimostrazione Procediamo per assurdo supponendo che tutti gli stati siano transienti.
Allora, ∀i, j ∈ S, ∞
P (n) (n)
n=0 Pij < ∞ e quindi in particolare limn→∞ Pij = 0.
Ricordando poi che P(n) è una matrice stocastica si ha anche che
X (n)
Pij = 1.
j∈S
che è un assurdo.
Corollario 1.3 Se la catena è irriducibile e lo spazio degli stati S è finito, allora tutti
gli stati sono ricorrenti.
30
Esempio 1.26 Sia Xn una catena di Markov con spazio degli stati S = {1, 2, 3} e
matrice di transizione
1 − 2ρ 2ρ 0
P=
ρ 1 − 2ρ ρ ,
0 2ρ 1 − 2ρ
con 0 ≤ ρ ≤ 1/2.
Se ρ = 0, tutti gli stati sono assorbenti e quindi ricorrenti.
Supponiamo ora ρ 6= 0. Osserviamo che la matrice di transizione P è diagonalizza-
bile, essendo P = BΛB −1 , dove
1 1 1
4 2 4
1 1 1 1 0 0
1 1
B −1
B=1 0 −1, = 0 − , Λ=0 1 − 2ρ 0 .
2 2
1 −1 1
0 0 1 − 4ρ
1 1 1
−
4 2 4
Pertanto
1 (1 − 4ρ)n (1 − 2ρ)n [1 − (1 − 4ρ)n ] 1 (1 − 4ρ)n (1 − 2ρ)n
4 + + + −
4 2 2 4 4 2
1 (1 − 4ρ)n [1 + (1 − 4ρ)n ] 1
Pn = BΛn B −1
= n .
− [1 − (1 − 4ρ) ]
4 4 2 4
1 (1 − 4ρ)n (1 − 2ρ)n [1 − (1 − 4ρ)n ] 1 (1 − 4ρ) n
(1 − 2ρ)n
+ − + −
4 4 2 2 4 4 2
Dall’espressione di Pn si ricava che, per |s| < 1 e 0 < ρ ≤ 1/2,
∞
X (n) 1 1 1 1 1 1
P11 (s) = sn P11 = + + .
n=0
4 1 − s 4 1 − s(1 − 4ρ) 2 1 − s(1 − 2ρ)
Quindi,
lim P11 (s) = +∞,
s→1−
ossia lo stato 1 è ricorrente. Poiché tutti gli stati comunicano, anche gli altri stati
P11 (s) − 1
sono tutti ricorrenti. Infine, ricordando che F11 (s) = , si ottiene che M1 =
P11 (s)
0
lims→1− F11 (s) = 4 , e quindi lo stato 1 è ricorrente positivo.
31
di una particella che parte dall’origine e che ad ogni istante può compiere un passo
verso sinistra con probabilità q o verso destra con probabilità p. Abbiamo già visto che la
matrice di transizione ad un passo è una matrice tridiagonale costituita da infinite righe
e colonne
2n 1
P0,0 ≥ √ ,
2A n
e quindi
+∞ +∞
X (2n) 1 X 1
P0,0 > √ = +∞.
n=m
2A n=m n
Questo prova che lo stato 0 è ricorrente e di conseguenza tutti gli stati sono ricorrenti.
Inoltre si può dimostrare che M0 = +∞, cioè 0 è ricorrente nullo.
Se invece p 6= q, allora 4pq = r ∈ (0, 1),e quindi ∃ m tale che, per n ≥ m,
(2n) rn
P0,0 ≤ ,
A
32
e quindi
+∞ +∞
X (2n) 1 X n
P0,0 < r < +∞.
n=m
A n=m
Quindi lo stato 0 è transiente e di conseguenza tutti gli stati sono transienti.
Supponiamo s = 1 e S = 3, pertanto
La successione {Xn , n ≥ 1} è una catena di Markov con spazio degli stati S = {0, 1, 2, 3}
e matrice di transizione ad un passo
33
P (D ≥ 3) P (D = 2) P (D = 1) P (D = 0)
P (D ≥ 1) P (D = 0) 0 0
P= .
P (D
≥ 2) P (D = 1) P (D = 0) 0
P (D ≥ 3) P (D = 2) P (D = 1) P (D = 0)
Il grafo associato alla matrice di transizione è il seguente:
0 1 2 3
34
mentre per la matrice di transizione a tre passi si ottiene
0,249 0,286 0,300 0,165 0,08 0,184 0,368 0,368
0,283 0,252 0,233 0,233 · 0,632 0,368 0 0
P3 = 0,351 0,319 0,233
0,097
0,264 0,368 0,368 0
0,249 0,286 0,300 0,165 0,08 0,184 0,368 0,368
0,293 0,292 0,263 0,152
0,262 0,273 0,275 0,190
=
0,299 0,286 0,250
.
0,165
0,293 0,292 0,263 0,152
35
dove 0 < α, β < 1.
La matrice di transizione a n passi è data da
!
1 β + α(1 − α − β)n α − α(1 − α − β)n
Pn = .
α+β β − β(1 − α − β)n α + β(1 − α − β)n
Per 0 < α, β < 1, la catena è irriducibile e tutti gli stati sono ricorrenti.
Consideriamo ora il caso generale 0 ≤ α, β ≤ 1, ponendo λ = 1 − α − β. Risulta
allora
+∞ +∞
(
X (n)
X β + αλn +∞, se β>0
P00 = = P+∞
n=1 n=1
α+β n
n=1 (1 − α) < +∞, se β=0 e α > 0.
+∞ +∞
(
X (n)
X α + βλn +∞, se α>0
P11 = = P+∞
n=1 n=1
α+β n
n=1 (1 − β) < +∞, se α=0 e β > 0.
Al limite risulta !
1
n β α
lim P = . (10)
n→+∞ α+β β α
essendo −1 < 1 − α − β < 1.
36
Quindi, in particolare
(n)β (n)
lim P00 = = lim P10
n→+∞ α+β n→+∞
(11)
(n) α (n)
lim P01 = = lim P11 .
n→+∞ α + β n→+∞
In questo esempio esiste pertanto la distribuzione limite della catena di Markov che
è data dal vettore
β α
π = (π0 , π1 ) = , . (12)
α+β α+β
Notiamo che il vettore π soddisfa la seguente relazione
!
1−α
β α α
πP = , ·
α+β α+β β 1−β
1
= (β(1 − α) + αβ, αβ + α(1 − β))
α+β
1
= (β, α) = π,
α+β
ossia πP = π. Questa condizione si esprime dicendo che la distribuzione π è invariante
per la catena di Markov con matrice di transizione P.
Definizione 1.21 Una legge µ su S è invariante per la catena di Markov (Xn )n∈N se
la v.a. Xn ha legge µ per ogni n ≥ 0 .
37
Quindi vale la relazione (13).
Dimostriamo ora l’implicazione da destra verso sinistra. Supponiamo per ipotesi che
valga la relazione (13) e dimostriamo, ragionando per induzione, che le variabili aleatorie
Xn hanno legge µ per ogni n ≥ 0.
Sia µ la legge di X0 e supponiamo che valga l’eq. (13). Risulta allora
X X
P (X1 = i) = P (X1 = i|X0 = j)P (X0 = j) = Pji · µj = µi ,
j∈S j∈S
e quindi X1 ha legge µ.
Supponiamo ora che la variabile aleatoria Xn−1 abbia legge µ e dimostriamo che
anche Xn ha legge µ.
X
P (Xn = i) = P (Xn = i|Xn−1 = j)P (Xn−1 = j)
j∈S
X
= Pji µj = µi .
j∈S
Teorema 1.5 Una catena di Markov (Xn )n∈N con spazio degli stati S finito ammette
almeno una legge invariante.
Osservazione 1.17 Una catena di Markov può avere più di una legge invariante.
38
In questo caso è facile verificare che le distribuzioni π := (1, 0, . . . , 0), π̃ := (0, 0, . . . , 1),
ed ogni loro combinazione lineare convessa λ · π + (1 − λ) · π̃ = (λ, 0, . . . , 0, 1 − λ),
0 ≤ λ ≤ 1, sono tutte legge invarianti.
Osservazione 1.18 Una catena di Markov con spazio degli stati S infinito può non
avere alcuna legge invariante.
πi = q · πi+1 + p · πi−1 , i ∈ Z,
Quindi risulta
p
πi+1 − πi = (πi − πi−1 ), i ∈ Z,
q
e, iterando, i
p
πi+1 − πi = (π1 − π0 ). (16)
q
In conclusione, per p 6= q, si ottiene
k−1 k−1 i
X X p
π k = π0 + (πi+1 − πi ) = π0 + (π1 − π0 )
i=0 i=0
q
k
p
1− q
= π0 + (π1 − π0 ) · , k ∈ Z.
p
1− q
P
Sia nel caso p > q che p < q non vale la condizione k∈Z πk = 1, e pertanto la catena
non ammette una distribuzione invariante quando p 6= q.
Consideriamo ora il caso p = q. Dalla (16), si ottiene, per una certa costante c,
πi = c + i · (π1 − π0 ),
39
Teorema 1.6 Supponiamo che la catena di Markov (Xn )n∈N abbia spazio degli stati
S = {0, 1, . . . , N } finito e che la distribuzione limite
(n)
πj = lim Pij con i, j ∈ S, (17)
n→+∞
Dimostrazione
(n+1)
X
πj = lim Pij = lim P (Xn+1 = j, Xn = l|X0 = i)
n→+∞ n→+∞
l∈S
X
= lim P (Xn+1 = j|Xn = l)P (Xn = l|X0 = i)
n→+∞
l∈S
X (n)
X
= lim Plj Pil = Plj πl ,
n→+∞
l∈S l∈S
P
cioè πj = l∈S πl Plj ovvero π = π · P e quindi π è invariante.
Osservazione 1.19 In virtù di tale teorema, ed in accordo con quanto mostrato nel-
l’Esempio 1.29, la distribuzione limite della catena di Markov a due stati è una legge
invariante.
Esempio 1.33 Consideriamo una catena di Markov con spazio degli stati S = {1, 2, 3}
e matrice di transizione
1 0 0
P=
1/4 1/2 1/4,
0 0 1
il cui grafo associato è dato da
1 2 3
40
Per trovare la legge invariante π = (π1 , π2 , π3 ) dobbiamo risolvere il sistema
π + π 2 + π3 = 1
1
π1 + π2 /4 = π1
π /2 = π .
2 2
che ammette come soluzione (π1 , 0, 1 − π1 ). La catena pertanto ammette infinite distri-
buzioni invarianti π = (p, 0, 1 − p), dove p ∈ [0, 1].
Osserviamo che la matrice di transizione P è diagonalizzabile, essendo P = BΛB −1 ,
dove
0 0 1
−1 2 0
1 0 0
1 1
B −1 =
B= 0 1 1, 0 , Λ = 0 1 0 .
2 2 1
1 0 0 0 0
1 1
2
− 1 −
2 2
Pertanto
1 0 0
1
− 1 1 1
−
1
Pn = BΛn B −1 = 2 2n+1 2n 2 2n+1 .
0 0 1
Segue quindi che la distribuzione limite della catena di Markov è data da
1 0 0
1 1
n
0
lim P = 2 2 .
n→+∞
0 0 1
(n)
Osserviamo che non siamo nelle ipotesi del Teorema 1.6, poiché il limn→+∞ Pij esiste
ma non è indipendente da i ∈ {1, 2, 3} essendo diverse le righe della matrice Pn . In
questo esempio la distribuzione limite esiste ma non coincide con la legge invariante.
Definizione 1.22 Una catena di Markov si definisce ergodica se tutti gli stati sono
ricorrenti positivi e aperiodici.
Teorema 1.7 Sia k uno stato ricorrente e indichiamo con Mk il tempo medio di ricor-
1
renza. Poniamo, inoltre, Mk
= 0 se Mk = +∞. Risulta allora
41
(n) 1
(i) se k è aperiodico allora lim Pkk = .
n→+∞ Mk
(nt) t
(ii) se k è periodico di periodo t allora lim Pkk = .
n→+∞ Mk
(n)
Alla luce di tale Teorema, se per un certo stato k aperiodico risulta lim Pkk = 0, allora
n→+∞
+∞
X (n)
lo stato k è transiente oppure ricorrente nullo a seconda che Pkk < +∞ oppure
n=1
+∞
X +∞
X
(n) (n)
Pkk = +∞, rispettivamente. D’altro canto se Pkk = +∞, allora lo stato k è
n=1 n=1
(n) (n)
ricorrente nullo oppure ergodico a seconda che lim Pkk = 0 oppure lim Pkk 6= 0,
n→+∞ n→+∞
rispettivamente.
Il Teorema 1.7 consente di enunciare una condizione necessaria e sufficiente affinchè
una catena di Markov con spazio degli stati infinito abbia una legge invariante.
Teorema 1.8 Sia (Xn )n∈N una catena di Markov irriducibile e aperiodica. Allora le
seguenti condizioni sono equivalenti
2. esiste una legge invariante (πi )i∈S tale che ∀i, j ∈ S risulta
(n) (n)
lim Pjj = lim Pij = πj . (18)
n→+∞ n→+∞
Se valgono tali condizioni allora (πi )i∈S è l’unica legge invariante per la catena di Markov
(Xn )n∈N .
(n)
Quindi, se indichiamo con πj := limn→+∞ Pjj , j ∈ S, si ha che
+∞
X +∞
X
(n) (m) (m)
lim Pij = fij πj = πj fij = πj · Pi (Tj < +∞) = πj ,
n→+∞
m=1 m=1
essendo Pi (Tj < +∞) = 1, perché, per ipotesi, ogni stato i è ricorrente. Dunque risulta
(n) (n)
πj = limn→+∞ Pjj = limn→+∞ Pij .
42
Per ogni sottoinsieme finito F ⊆ S, si ha
X X (n)
X (n)
X (n)
πj = lim Pij = lim Pij ≤ lim Pij = 1,
n→+∞ n→+∞ n→+∞
j∈F j∈F j∈F j∈S
ossia
X
πj ≤ 1.
j∈F
Dimostriamo ora che (πj )j∈S è una legge invariante per la catena di Markov (Xn )n∈N .
Sia F ⊆ S, con F finito. Dalla relazione di Chapman-Kolmogorov si ha
(n+1)
X (n)
X (n)
Pij = Pik Pkj ≥ Pik Pkj .
k∈S k∈F
e pertanto
XX X X X (2)
πj = ( πr Prk )Pkj = πr Prk Pkj = πr Prj ,
k∈S r∈S r∈S k∈S r∈S
43
P (n)
Iterando il procedimento si ottiene πj = r∈S πr Prj .
Quindi
X (n)
X
πj = lim πj = πr lim Prj = πr πj ,
n→+∞ n→+∞
r∈S r∈S
e pertanto
X
πr = 1. (20)
r∈S
Le relazioni (19) e (20) assicurano che (πj )j∈S è una legge invariante per la catena di
Markov (Xn )n∈N .
Supponiamo che valga la condizione (2). Allora per il teorema ergodico, ogni stato i
è ricorrente positivo.
Dimostriamo ora l’unicità della legge invariante. Supponiamo per assurdo che esista
un’altra legge invariante su S, (µi )i∈S . Allora per ogni j ∈ S,
X
µj = µk Pkj ,
k∈S
Esempio 1.34 Consideriamo una catena di Markov con spazio degli stati S = {1, 2, 3}
e matrice di transizione
1/6 1/6 2/3
P=
1/4 1/4 1/2,
0 3/4 1/4
il cui grafo associato è dato da
1 2 3
44
La catena è irriducibile, aperiodica e tutti gli stati sono ricorrenti.
Per il Teorema 1.8 esiste la legge invariante π tale che π = π · P con π = (π1 , π2 , π3 ).
Risolvendo il sistema
π + π 2 + π3 = 1
1
π1 = 1/6π1 + 1/4π2
π = 1/6π + 1/4π + 3/4π ,
2 1 2 3
si ottiene
π = 9/67
1
π2 = 30/67
π = 28/67.
3
Quindi, in particolare
0,184π0 + 0,368π1 + 0,368π2 + 0,184π3 = π1
0,368π0 + 0,368π2 + 0,368π3 = π2 .
45
Si ottiene quindi
π0 = 0,286
π 1
= 0,285
π2 = 0,263
π3 = 0,166,
Esempio 1.36 Consideriamo una catena di Markov con spazio degli stati S= {1, 2, 3}
e matrice di transizione
1/2 1/3 1/6
P = 3/4 0 1/4
.
0 1 0
La catena è irriducibile ed aperiodica.
Supponiamo che la catena all’istante iniziale si trovi nello stato 1, ossia p(0) =
(1, 0, 0). Allora la probabilità di trovarsi nello stato 3 dopo due passi è data da
3
(2)
X (0) (2) (2) 1
p3 = P (X2 = 3) = pk Pk3 = P13 = ,
k=1
6
essendo
1/2 1/3 1/6 1/2 1/3 1/6 1/2 1/3 1/6
P2 =
3/4 0 1/4 · 3/4 0 1/4 = 3/8 1/2 1/8 .
0 1 0 0 1 0 3/4 0 1/4
In virtù del Teorema 1.8 la distribuzione limite della catena coincide con la legge
invariante π = (π1 , π2 , π3 ) che è unica. Risolvendo il sistema
π + π 2 + π3 = 1
1
1
π + π3 = π2
3 1
1π + 1π = π .
6 1 4 2 3
46