A.Calzolari
1
Indice
1 Catene di Markov a tempo discreto 4
1.1 Richiami sull’indipendenza stocastica
per eventi e variabili aleatorie . . . . . . . . . . . . . . . . . . 4
1.2 Definizione di catena di Markov . . . . . . . . . . . . . . . . . 6
1.3 Esempio di due successioni di variabili aleatorie
relative ad un unico esperimento di cui una Markov e l’altra no 6
1.4 Passeggiata aleatoria sugli interi . . . . . . . . . . . . . . . . 8
1.5 Catene di Markov per ricorrenza . . . . . . . . . . . . . . . . 8
1.6 Legge al tempo 0 e legge al tempo 1 . . . . . . . . . . . . . . 10
1.7 Matrice di transizione in più passi . . . . . . . . . . . . . . . 11
1.8 Leggi ad un tempo e leggi congiunte . . . . . . . . . . . . . . 13
1.9 Matrice di transizione in due passi
per la catena della rovina del giocatore . . . . . . . . . . . . . 14
1.10 La catena di nascita e morte e l’urna di Ehrenfest . . . . . . . 15
1.11 Un modello per una fila d’attesa . . . . . . . . . . . . . . . . 16
1.12 Costruzione di una catena
data la matrice di transizione e la legge iniziale . . . . . . . . 18
1.13 Rappresentazione grafica di una catena di Markov . . . . . . 20
1.14 Stati comunicanti . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.15 Classi chiuse e classi irriducibili . . . . . . . . . . . . . . . . . 23
1.16 Definizione di transienza e persistenza
in termini del tempo di primo ritorno . . . . . . . . . . . . . 24
1.17 Transienza e persistenza in termini del numero dei ritorni . . 25
1.18 Legge e valor medio del numero dei ritorni in uno stato . . . 27
1.19 Transienza e persistenza di uno stato
in termini del numero dei passaggi per esso
partendo da uno stato qualsiasi . . . . . . . . . . . . . . . . . 29
1.20 Una condizione sufficiente per la transienza . . . . . . . . . . 32
1.21 Una condizione sufficiente per la persistenza . . . . . . . . . . 33
1.22 Persistenza e transienza in classi finite . . . . . . . . . . . . . 34
1.23 Teorema di decomposizione dello spazio degli stati . . . . . . 35
1.24 Sistema di equazioni per le probabilità di assorbimento . . . . 36
1.25 Unicità della soluzione del sistema di equazioni
per le probabilità di assorbimento nel caso stati finiti . . . . . 38
1.26 Probabilità di estinzione
per la catena di nascita e morte con estremi assorbenti . . . . 40
1.27 Persistenza o transienza per la catena di nascita e morte
irriducibile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.28 Tempi medi di assorbimento nella classe degli stati persistenti 43
1.29 La catena a due stati:
comportamento asintotico delle leggi al tempo n . . . . . . . 50
1.30 Definizione di misura invariante . . . . . . . . . . . . . . . . . 51
2
1.31 Esempi nel caso finito . . . . . . . . . . . . . . . . . . . . . . 52
1.32 Esistenza e unicità della misura invariante . . . . . . . . . . . 54
1.33 Catene ergodiche . . . . . . . . . . . . . . . . . . . . . . . . . 55
1.34 Catene regolari . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.35 La misura invariante per l’urna di Ehrenfest . . . . . . . . . . 62
1.36 Non esistenza della misura invariante
per la passeggiata aleatoria simmetrica in Z . . . . . . . . . . 64
1.37 Misura invariante per le catene di nascita e morte . . . . . . . 64
1.38 Esempi di catene periodiche . . . . . . . . . . . . . . . . . . . 69
1.39 Periodo di una catena irriducibile . . . . . . . . . . . . . . . . 71
1.40 Reversibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
1.41 Algoritmo di Metropolis . . . . . . . . . . . . . . . . . . . . . 74
1.42 Schema di dimostrazione
del teorema di esistenza della misura invariante
per catene irriducibili persistenti positive . . . . . . . . . . . . 77
1.43 Approssimazione della misura invariante
con la distribuzione empirica . . . . . . . . . . . . . . . . . . 78
1.44 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . 80
2 Processo di Poisson 90
2.1 Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.2 Perdita di memoria . . . . . . . . . . . . . . . . . . . . . . . . 92
2.3 Merging e splitting . . . . . . . . . . . . . . . . . . . . . . . . 97
2.4 Processo di Poisson non stazionario . . . . . . . . . . . . . . . 102
2.5 Distribuzione dei tempi di salto in [0, T ] condizionata a N(T)=n103
3
1 Catene di Markov a tempo discreto
P(A ∩ B) = P(A)P(B).
Allora una condizione sufficiente per l’indipendenza è che almeno uno dei
due eventi abbia probabilità nulla; la condizione diventa anche necessaria se
gli eventi sono incompatibili, ovvero A ∩ B = ∅.
(∩
k
) ∏k
P Aij = P(Aij ).
j=1 j=1
P(A1 ∩ A2 ∩ . . . ∩ An ) =
P(A ∩ B) = P(A, B)
cosı̀ p.es.
4
Si dimostra la formula del prodotto per induzione: per n = 2 è immediata
dalla definizione di probabilità condizionata; assunta vera per n, vale per
n+1, infatti applicando la formula del prodotto ai due eventi A1 ∩A2 ∩. . .∩An
e An+1
∏
m
P(X1 = x1 , . . . , Xm = xm ) = P(Xj = xj );
j=1
∏
m
P(X1 ≤ x1 , . . . , Xm ≤ xm ) = P(Xj ≤ xj ).
j=1
Si può facilmente dimostrare che questo equivale a dire che sono indipendenti
nel caso discreto gli eventi della forma {Xi = xi } e nel caso continuo gli
eventi della forma {Xi ≤ xi }, al variare comunque di i e xi . Cosı̀, p.es., nel
caso discreto l’indipendenza implica, per ogni k ≤ m e per ogni scelta di
indici {i1 , . . . , ik } e di valori {xi1 , . . . , xik },
5
1.2 Definizione di catena di Markov
Sia S un insieme finito o numerabile. Una famiglia (Xn )n di variabili aleato-
rie a valori in S definite tutte sullo stesso spazio di probabilità è una catena
di Markov se qualsiasi sia n (quando le probabilità condizionate hanno senso)
6
P(X3 = B | X2 = R) ̸= P(X3 = B | X2 = R, X1 = R).
Si ha
NB + 2d
P(X3 = B | X2 = R, X1 = R) = ,
N + 2(c + d)
e
P(X3 = B | X2 = R)
P(X3 = B, X2 = R, X1 = R) + P(X3 = B, X2 = R, X1 = B)
=
P(X2 = R)
1 ( NB + 2d NR + c NR NB + (c + d) NR + d NB )
= + ,
P(X2 = R) N + 2(c + d) N + c + d N N + 2(c + d) N + c + d N
dove per calcolare ciascuno dei due addendi del numeratore si è utilizzata la
formula del prodotto, p.es.
P(X3 = B, X2 = R, X1 = R) =
P(X3 = B | X2 = R, X1 = R) P(X2 = R | X1 = R) P(X1 = R).
Poiché P(X2 = R) coincide con
P(X2 = R | X1 = R)P(X1 = R) + P(X2 = R | X1 = B)P(X1 = B)
NR + c NR NR + d NB
= + ,
N +c+d N N +c+d N
semplificando si ottiene
P(X3 = B | X2 = R)
( )
(NB + 2d)(NR + c)NR + NB + (c + d) (NR + d)NB
= ( )( ) .
N + 2(c + d) (NR + c)NR + (NR + d)NB
Dall’uguaglianza P(X3 = B | X2 = R, X1 = R) = P(X3 = B | X2 = R) con
semplici passaggi si ottiene
( (NR + c)NR ) (N + (c + d))(N + d)N
B R B
(NB +2d) 1− = .
(NR + c)NR + (NR + d)NB (NR + c)NR + (NR + d)NB
Risolvendo si trova che l’uguaglianza sussiste solo se c = d. Se fosse per
esempio c > d, allora si troverebbe, coerentemente con l’intuizione, P(X3 =
B | X2 = R, X1 = R) < P(X3 = B | X2 = R).
7
1.4 Passeggiata aleatoria sugli interi
Siano ξ1 , ξ2 , . . . , ξn , . . . variabili aleatorie a valori interi sullo stesso spazio di
probabilità e i.i.d. di densità f (·) (e quindi f (·) una densità discreta su Z).
Sia X0 una variabile aleatoria sullo stesso spazio di probabilità e a valori in
Z indipendente dalle altre (p.es. X0 una costante in Z). Se si definisce
Xn+1 = X0 + ξ1 + ξ2 + . . . + ξn+1 , n ≥ 0
allora (Xn )n≥0 è una catena di Markov omogenea detta passeggiata aleatoria
in Z.
Questo è il modello per la posizione di una particella che si muove su Z
secondo la regola: inizialmente è in Z distribuita secondo la legge di X0 e
poi se è in i salta in j con probabilità f (j − i).
Infatti poiché Xn+1 = Xn + ξn+1
P(Xn + ξn+1 = j, Xn = i)
P(Xn+1 = j | Xn = i) =
P(Xn = i)
= P(ξn+1 = j − i | Xn = i)
= P(ξn+1 = j − i | X0 + ξ1 + ξ2 + . . . + ξn = i)
= P(ξn+1 = j − i)
= f (j − i),
dimostrando cosı̀ che (Xn )n≥0 è una catena di Markov con probabilità di
transizione pij = f (j − i). Un caso semplice è il seguente: f (1) = p, f (−1) =
q, f (0) = r con r, p, q ≥ 0 e r + p + q = 1 e quindi pij = p, r, q o 0 a seconda
che sia j = i + 1, i, i − 1 o altro.
8
Dimostrazione Per ricorrenza esiste gn+1 : S × U × . . . × U → S tale che
dove {
g1 (x, y1 ) = h(x, y1 ) ( )
gn+1 (x, y1 , . . . , yn+1 ) = h gn (x, y1 , . . . , yn ), yn+1 .
Segue che
P(h(Xn , ξn+1 ) = j, Xn = i)
P(Xn+1 = j | Xn = i) =
P(Xn = i)
( )
= P h(i, ξn+1 ) = j | gn (X0 , ξ1 , . . . , ξn ) = i
( ) ( )
= P h(i, ξn+1 ) = j = P h(i, ξ1 ) = j ,
Esercizio 1
Soluzione
Indicata con Sn la v.a. numero dei successi su n prove bernoulliane, n ≥ 1,
9
vale Sn = ξ1 + ξ2 + . . . + ξn con ξ1 , ξ2 , . . . , ξn , . . . variabili aleatorie i.i.d.
definite sullo spazio di Bernoulli cosı̀ ξi (ω) = ωi = 1 o 0 con probabilità
p o 1 − p.
Dunque, posto S0 ≡ 0, la successione di variabili aleatorie (Sn )n≥0 è una
catena di Markov per ricorrenza con S = N, U = {0, 1} e h(x, y) = x + y.
Le probabilità di transizione sono dunque pij = p, 1 − p o 0 rispettivamente
per j = i + 1, i o altro e quindi la matrice di transizione con infinite righe e
infinite colonne è
1−p p 0 0 0 ... 0 0 0 0...
0 1−p 0 0 . . .
p 0 0 ... 0 0
0 1 − p p 0 ... 0 0 0 . . .
0 0
· · · · · ... · · · · . . .
· · · · · · · · ·
. . . . . .
· · · · · ... · · · · . . .
P=
· · · · · ... · · · · . . .
· · · · · ... · · · · . . .
· · · · · ... · · · · . . .
· · · · · ... · · · · . . .
0 · · · · . . . 0 1 − p p 0 . . .
· · · · · ... · · · ·...
10
Infatti per la formula delle probabilità totali
∑
π1 (j) = P(X1 = j) = P(X1 = j | X0 = i)P(X0 = i).
i∈S
π1 = π0 P
Nel caso r = 2:
P(Xn+2 = j | Xn = i, . . . , X0 = i0 ) coincide con
∑ P(Xn+2 = j, Xn+1 = k, Xn = i, . . . , X0 = i0 )
P(Xn = i, . . . , X0 = i0 )
k∈S
P(Xn+1 = k, Xn = i, . . . , X0 = i0 ),
si ottiene
∑
P(Xn+2 = j | Xn+1 = k,Xn = i, . . . , X0 = i0 )
k∈S
· P(Xn+1 = k | Xn = i, . . . , X0 = i0 )
11
In modo analogo si calcola
P(Xn+2 = j | Xn = i),
(2)
ottenendo lo stesso risultato. Si indica con pij l’elemento generico di P 2 ,
cioè (P 2 )ij : dunque esso rappresenta la probabilità di passare dallo stato i
allo stato j in 2 passi.
P(Xn+r−1 = k, Xn = i, . . . , X0 = i0 ),
coincide con
∑
P(Xn+r = j | Xn+r−1 = k,Xn = i, . . . , X0 = i0 )
k∈S
· P(Xn+r−1 = k | Xn = i, . . . , X0 = i0 )
cioè con ∑
pkj P(Xn+r−1 = k | Xn = i, . . . , X0 = i0 ).
k∈S
12
La seconda proprietà segue osservando che
∑ (r) ∑
pij = P(Xr = j | X0 = i) =
j∈S j∈S
(∪ )
P {Xr = j} | X0 = i = P(Xr ∈ S | X0 = i) = 1.
j∈S
∑
πn (i) = P(Xn = i | X0 = i0 )P(X0 = i0 )
i0 ∈S
∑ (n)
= pi0 i π0 (i0 ),
i0 ∈S
13
1.9 Matrice di transizione in due passi
per la catena della rovina del giocatore
Due giocatori A e B di capitali a e b rispettivamente, scommettono ogni
volta 1 euro e ogni volta A vince con probabilità p e quindi B vince con
probabilità q = 1 − p. Il gioco termina se uno dei due esaurisce il capitale.
Se Xn è il capitale di A dopo la n-ma scommessa, posto d = a + b, si può
scrivere
( )
Xn+1 = Xn + ξn+1 I{1,...,d−1} (Xn ) + Xn I{0,d} (Xn ), n ≥ 0
14
Si osservi che per ogni i
∑
4
(2)
pij = 1
j=0
pi (i+1) = pi pi i = ri pi (i−1) = qi
r0 = 1 = rd pi = p ri = 0 qi = q, i = 1, . . . , d − 1.
15
Un’altra catena di nascita e morte è quella di Ehrenfest, la cui matrice
di transizione è
0 1 0 ... 0 ... 0
1 0 d−1 0 0 ... 0
d 2 d
0 0 d−2
0 ... 0
P= · ·
d d
· · · · ·
0 0 . . . 0 d−1
0 d1
d
0 0 ... 0 0 1 0.
È modello per lo scambio di molecole tra due corpi isolati ovvero è modello
per la seguente situazione: d palline numerate sono contenute in due urne,
un intero tra 1 e d è estratto ripetutamente a caso e la pallina corrispondente
è spostata di urna. Fissata un’urna, X0 è il numero di palline inizialmente
nell’urna e Xn , n ≥ 1 è il numero di palline nella stessa urna dopo la n-ma
estrazione.
Chiaramente S = N e
p0j = f (j)
mentre per ogni i ≥ 1, usando la definizione di probabilità condizionata e
l’indipendenza di ξn+1 da Xn , si ottiene
Questo è un modello per una fila d’attesa ad uno sportello che in ogni unità
di tempo serve un cliente e riceve un numero aleatorio di clienti ogni volta di
stessa legge indipendentemente dal passato. Per n ≥ 1 la variabile aleato-
ria Xn rappresenta il numero dei clienti in fila alla fine della n-ma unità
temporale.
16
Esercizio 2
b) Calcolare π1 (2) = P(X1 = 2), nel caso f (0) = 0.5, f (1) = 0.1, f (2) =
0.4 e π0 (0) = 0.5, π0 (1) = 0.5, π0 (2) = 0.
Soluzione
a) La matrice di transizione è di ordine 3 e ha la forma seguente
f (0) f (1) f (2)
P = f (2) f (0) f (1) .
f (1) f (2) f (0)
∑ ∑
2
pij = f (l) = 1,
j∈S l=0
∑ ∑
2
pij = f (l) = 1.
i∈S l=0
Una matrice stocastica tale che gli elementi di ciascuna colonna hanno
somma pari a 1 si dice doppiamente stocastica.
b) Con i dati assegnati la matrice di transizione è
0.5 0.1 0.4
P = 0.4 0.5 0.1
0.1 0.4 0.5
e
∑
2
π1 (2) = P(X1 = 2) = pi2 π0 (i) = 0.5 · p02 + 0.5 · p12 = 0.25
i=0
17
1.12 Costruzione di una catena
data la matrice di transizione e la legge iniziale
È immediato verificare che una v.a. X a valori in N \ {0} con densità
assegnata (p1 , p2 , . . . , pN ) si costruisce cosı̀: se ξ è una v.a. uniforme in
[0, 1], posto
∑
j−1
a(1) = 0, a(j) = pk , j > 1
k=1
∑j
b(1) = p1 , b(j) = pk , j > 1
k=1
si definisce ∑
X := j I[a(j),b(j)) (ξ).
j≥1
∑
j−1
a(i, 1) = 0, a(i, j) = pi k , j > 1
k=1
∑j
b(i, 1) = pi 1 , b(i, j) = pi k , j > 1
k=1
∑
h(i, y) = j I[a(i,j),b(i,j)) (y),
j≥1
si definisca
Xn+1 := h(Xn , ξn+1 ), n ≥ 0.
Allora (Xn )n≥0 è una catena di Markov per ricorrenza a valori in N \ {0} con
legge iniziale π0 e matrice di transizione quella assegnata. Infatti ricordando
che per le catene per ricorrenza
18
dove l’ultima uguaglianza segue dal fatto che ξ1 ha legge uniforme nell’in-
tervallo [0, 1] e l’ampiezza dell’intervallo [a(i, j), b(i, j)) è pi j .
Questa costruzione suggerisce come simulare una catena di Markov con
spazio degli stati finito {1, 2, . . . , N } e con legge iniziale e matrice di tran-
sizione assegnata. Per simulazione di una catena di Markov (Xn )n≥0 fi-
no al tempo n si intende la determinazione di una sequenza di n valori
(i1 , i2 , . . . , in ) ⊂ {1, 2, . . . , N } che costituiscano una realizzazione del vettore
aleatorio (X1 , X2 , . . . , Xn ), ovvero tali che si abbia per un qualche ω ∈ Ω
Si assuma inizialmente per semplicità che la legge iniziale sia una delta
di Dirac e quindi che sia X0 = i0 , dove i0 è un numero in {1, 2, . . . , N }. I più
noti linguaggi di programmazione hanno in libreria una procedura che genera
una variabile aleatoria uniforme in [0, 1] e richiamando n volte la stessa
procedura si realizza un vettore n-dimensionale le cui componenti sono i.i.d.
uniformi in [0, 1], ovvero un vettore come (ξ1 , ξ2 , . . . , ξn ): in altre parole si
genera una sequenza di n numeri che coincidono con (ξ1 (ω), ξ2 (ω), . . . , ξn (ω))
per un qualche ω ∈ Ω. Al primo passo della simulazione si genera X1 come
variabile aleatoria di densità assegnata pari a (pi0 1 , pi0 2 , . . . , pi0 N ), cioè il
numero i1 :
∑N
i1 = X1 (ω) = j I[a(i0 ,j),b(i0 ,j)) (ξ1 (ω));
j=1
∑
N
i2 = X2 (ω) = j I[a(i1 ,j),b(i1 ,j)) (ξ2 (ω));
j=1
∑
N
in = Xn (ω) = j I[a(in−1 ,j),b(in−1 ,j)) (ξn (ω)).
j=1
Nel caso in cui X0 non sia deterministico, c’è in più il passo iniziale della
generazione di X0 . In tal caso occorre richiamare una volta di più la pro-
cedura di simulazione di un’uniforme in [0, 1] per generare ξ0 indipendente
da (ξ1 , ξ2 , . . . , ξn ) e con ξ0 generare X0 come variabile aleatoria di densità
(π0 (1), π0 (2), . . . , π0 (N )), cioè il numero i0 .
19
Esercizio 3
Soluzione
a) Ricordando che
0.5 0.1 0.4
P = 0.4 0.5 0.1
0.1 0.4 0.5
e π0 (0) = π0 (1) = 0.5 e che nell’Esercizio 2 si è ottenuto π1 (2) = 0.25, si ha
per la formula del prodotto
Invece
∑
2
(2) (2) (2)
π2 (2) = P(X2 = 2) = pi2 π0 (i) = p02 (0.5) + p12 (0.5).
i=0
Si devono calcolare dunque gli elementi di posto prima riga, terza colonna
e seconda riga, terza colonna del quadrato di P.
Si trova
· · 0.41
P 2 = · · 0.26
· · ·
e quindi
π2 (2) = (0.5)(0.41 + 0.26) = 0.335.
20
Figura 1: rovina del giocatore
e quindi il grafico è
(2) ∑
per calcolare p12 = P(X3 = 2|X1 = 1) = 3k=1 p1k pk2 basta calcolare i cam-
mini lunghi 2 passi che dal punto 1 portano al punto 2; ciascun cammino ha
probabilità pari al prodotto dei valori scritti sulle frecce e occorre sommare
tutte queste probabilità. Dunque
(2)
p12 = (0.5)(0.1) + (0.5)(0.8) = 0.45,
mentre
(2)
p23 = (0.1)(0.5) + (0.4)(0.5) = 0.25.
In modo analogo si procede per esempio nel calcolo di
(3)
∑
3
(2)
∑
3 ∑
3 ∑
3
p11 = p1l pl1 = p1l plk pk1 = p1l plk pk1 ,
l=1 l=1 k=1 l,k=1
21
Figura 3: coda con f (i) > 0, i = 0, 1, 2, f (0) + f (1) + f (2) = 1
(1)
(ricorda che pij = pij ).
(n)
Due stati i e j si dicono comunicanti se esiste n ≥ 1 tale che pij > 0
(m)
e esiste m ≥ 1 tale che pij > 0, ovvero se i → j e j → i, ovvero se esiste
un cammino finito che porta dall’uno all’altro e viceversa (i due cammini
potrebbero avere lunghezze diverse). Si scrive i ←→ j.
Per esempio nella catena di nascita e morte con qi > 0 e pi > 0 tutti
gli stati sono comunicanti. Mentre nella catena della rovina del giocatore
tutti gli stati in {1, . . . , d − 1} sono comunicanti, inoltre qualsiasi sia i ∈
{1, . . . , d − 1} si ha che i → 0 e i → d, mentre 0 e d comunicano solo con sé
stessi.
22
1.15 Classi chiuse e classi irriducibili
Un sottoinsieme C di S si dice una classe chiusa di stati se qualsiasi sia i ∈ C
si ha ∑
pij = 1.
j∈C
poiché per la seconda uguaglianza si usa il fatto che per definizione di classe
chiusa se i ∈ C si ha pih = 0 qualsiasi sia h ∈ C c e per la terza il fatto che,
se j ∈ C c , ancora per definizione di classe chiusa phj = 0 qualsiasi sia h ∈ C;
(n)
allo stesso modo per induzione si prova che pij = 0 per ogni n > 2. Infatti
(n)
∑ (n−1)
∑ (n−1)
pij = pih phj = pih phj = 0,
h∈S h∈C
cioè C è chiusa.
23
1, 2, 3 sono stati comunicanti, {4, 5, 6, 7} è una classe chiusa non irriducibile,
{4, 5} è una classe irriducibile, 7 è uno stato assorbente.
qualsiasi sia n1 (è facile verificare che per la proprietà di Markov la proba-
bilità precedente è indipendente da n1 ).
(1) (1) (n)
Naturalmente ρij = pij = pij , mentre qualsiasi sia n ≥ 2 vale ρij ≤
(n)
pij . Per esempio nel caso della catena con matrice di transizione
0 0.5 0.5
P = 0.4 0.1 0.5
0.2 0.8 0
facilmente si calcola
(2) (2)
ρ12 = (0.5)(0.8) = 0.4 ≤ p12 = (0.5)(0.8) + (0.5)(0.1) = 0.45.
(n)
∑
n−1
(s) (n−s) (n)
pij = ρij pjj + ρij .
s=1
24
allora
(n)
ρij = P(τj = n | X0 = i) e ρij = P(τj < ∞ | X0 = i).
Naturalmente
ρij > 0 ⇐⇒ i → j.
Si dimostra la condizione necessaria: infatti ρij > 0 implica che esiste n ≥ 1
(n) (n) (n) (n)
tale che ρij > 0 e questo a sua volta implica pij > 0, essendo ρij ≤ pij .
Si dimostra la condizione sufficiente: infatti i → j implica che esiste
(n) (n) ∑ (s) (n−s) (n)
n ≥ 1 tale che pij > 0 e poiché pij = n−1 s=1 ρij pjj + ρij , segue che
(s)
esiste 1 ≤ s ≤ n tale che ρij > 0 e quindi ρij > 0.
ρii = 1
e transiente se
ρii < 1,
ovvero a parole uno stato è persistente se il tempo di primo ritorno in i
partendo da i è finito con probabilità 1; è transiente se la stessa variabile è
finita con probabilità minore di 1 e quindi con probabilità positiva partendo
da i la catena non vi fa più ritorno.
P(· | X0 = i) = Pi (·).
Teorema
ρii < 1 ⇐⇒ Pi (Xn = i inf.nte spesso) = 0
ρii = 1 ⇐⇒ Pi (Xn = i inf.nte spesso) = 1
25
La dimostrazione utilizza il seguente lemma di probabilità elementare.
26
e l’ultima somma coincide con
∑ (n ) (n −n ) (n −n ) (n −n )
ρii 1 ρii 2 1 . . . ρii k−1 k−2 ρii k k−1 =
n1 <n2 <...<nk
∑ (n ) (n −n1 ) (n −nk−2 )
∑ (n −nk−1 )
ρii 1 ρii 2 . . . ρii k−1 ρii k
n1 <n2 <...<nk−1 nk−1 <nk
∑ ∞
∑
(n ) (n −n1 ) (n −nk−2 ) (h)
ρii 1 ρii 2 . . . ρii k−1 ρii =
n1 <n2 <...<nk−1 h=1
Pi (Ak ) = ρkii .
1.18 Legge e valor medio del numero dei ritorni in uno stato
In quel che segue si utilizzerà la variabile aleatoria Nn (i) che conta il numero
delle visite fatte dalla catena allo stato i in n passi. Si ha
∑
n
Nn (i) = I{i} (Xk ),
k=1
ricordando che I{i} (x) è la funzione indicatrice dell’insieme {i} che vale 1 se
x ∈ {i}, cioè x = i, e 0 altrimenti.
La variabile aleatoria definita da
∞
∑
N∞ (i) = lim Nn (i) = I{i} (Xk )
n→∞
k=1
27
conta il numero totale delle visite della catena allo stato i (attenzione: il
limite si intende cosı̀: N∞ (i)(ω) = limn→∞ Nn (i)(ω) per ogni ω ∈ Ω). Os-
serviamo che, come la variabile aleatoria tempo di primo passaggio τi , anche
N∞ (i) è una variabile estesa, cioè a valori in N ∪ {+∞}.
Si osserva che vale l’uguaglianza tra eventi
Lemma
1 − ρii , k = 0
i transiente =⇒ Pi (N∞ (i) = k) = 0, k = +∞
k
ρii (1 − ρii ), altrimenti
28
∑
poiché ∞ k
k=1 kρii (1−ρii ) è media della geometrica trasformata di parametro
1 − ρii (legge del numero dei fallimenti prima del successo in uno schema di
Bernoulli di parametro 1 − ρii ).
Si osserva ora che
[ [ ] [ ]
Ei N∞ (i)] = Ei lim Nn (i) = lim Ei Nn (i) ,
n→∞ n→∞
poiché qui è lecito scambiare il limite con il valore medio (di ciò si tralascia
la dimostrazione). Inoltre utilizzando la linearità della media, si ha
[ ] ∑n
[ ]
Ei Nn (i) = Ei I{i} (Xk ) .
k=1
(k)
e, essendo I{i} (Xk ) ∼ B(p) con p = Pi (Xk = i) = pii ,
[ ] ∑n
(k)
Ei Nn (i) = pii
k=1
Teorema
∞
[ ] ∑ (k)
i transiente ⇐⇒ Ei N∞ (i) = pii < +∞
k=1
29
che si ricava similmente a Pi (N∞ (i) ≥ k) = Pi (Ak ) = ρkii . Se è i persistente
e j ̸= i si trova
1 − ρji , k=0
Pj (N∞ (i) = k) = ρji ρk−1 ii (1 − ρii ) = 0,
− ρji ρkii = ρji ρk−1 k≥1
ii
ρji , k = +∞
mentre se i è transiente
1 − ρji , k=0
Pj (N∞ (i) = k) = ρji ρii (1 − ρii ), k ≥ 1
k−1
0, k = +∞.
30
e quindi da quanto esposto si deriva il teorema seguente.
Teorema Qualsiasi sia j ∈ S
∞
∑ (k)
i transiente =⇒ pji < +∞.
k=1
Esercizio 4
Soluzione
(n+m)
∑
pij = P(Xn+m = j, Xn = h | X0 = i)
h∈S
∑ P(Xn+m = j, Xn = h, X0 = i)
= .
P(X0 = i)
h∈S
Infine ricordando
(m) (n)
P(Xn+m = j | Xn = h) = phj , P(Xn = h | X0 = i) = pih ,
(n+m)
si trova pij > 0 e quindi anche i → j.
31
1.20 Una condizione sufficiente per la transienza
Un criterio utile per verificare il carattere transiente di uno stato è
esiste i : j → i, i 9 j =⇒ j transiente.
(n)
Per la dimostrazione si procede cosı̀. Posto m = min{n ≥ 1 : pji > 0},
esistono i1 , i2 , . . . , im−1 ∈ S e diversi da i e da j tali che Pj (A) > 0 se A è
l’evento definito da
Pj ({τj < ∞} ∩ A) = 0,
ρjj = Pj (τj < ∞) = Pj ({τj < ∞}∩A)+Pj ({τj < ∞}∩Ac ) = Pj ({τj < ∞}∩Ac )
(k−m) (k−m)
Poiché per la proprietà di Markov Pj (τj = k | A) = ρij e poiché ρij ≤
(k−m)
pij , con il cambio di variabile n = k − m, si ottiene
∞
∑ (n)
Pj ({τj < ∞} ∩ A) ≤ pij Pj (A)
n=1
(n)
Si conclude osservando che per ipotesi, qualsiasi sia n ≥ 1, si ha pij = 0.
32
1.21 Una condizione sufficiente per la persistenza
Un criterio utile per verificare il carattere persistente di uno stato è
33
Si fa notare che, sia per S finito che infinito, l’implicazione appena di-
mostrata vale anche nel verso contrario. Infatti: ρji = 1 implica banalmente
j → i e quindi per l’implicazione diretta se j è persistente ρij = 1 (dunque
i → j) e i è persistente.
34
Gli stati 3 e 2 comunicano con 1, ma 1 non comunica né con 2 né con 3 e
quindi gli stati 2 e 3 sono transienti; C1 = {4, 5, 6} è classe irriducibile di
stati persistenti; C2 = {1} è classe irriducibile formata da un unico stato
assorbente.
S = T ∪ C1 ∪ C2 ∪ . . .
35
e quindi è sufficiente far vedere che, per ogni j ∈ S , Pj (N∞ (T ) = +∞) = 0.
Poiché T ha cardinalità finita,
cioè ∪
{N∞ (T ) = +∞} = {N∞ (i) = +∞}
i∈T
e quindi ∑
Pj (N∞ (T ) = +∞) ≤ Pj (N∞ (i) = +∞) = 0,
i∈T
Esercizio 5
Soluzione
Gli stati 1, 3, 4 sono transienti: infatti 1 → 3 ma 3 9 1, 3 → 5 ma 5 9 3,
4 → 3 ma 3 9 4. Facilmente si verifica poi che {2, 5, 6} è classe irriducibile,
finita e quindi persistente.
si definisca
λCi = Pi (τC < +∞), i ∈ S,
36
allora λCi è la probabilità che partendo da i la catena arrivi in un tempo
aleatorio finito in C. Dopo questo istante la catena non potrà più lasciare C
essendo la classe chiusa e per questo λCi si chiama probabilità di assorbimento
in C partendo da i.
Allora è ovvio che
i ∈ C =⇒ λCi = 1
e
i ∈ C ′ chiusa, C ′ ∩ C = ∅ =⇒ λCi = 0.
Si fa vedere che le quantità λCi , i ∈ T \ C soddisfano un sistema di equazioni
lineari in tante incognite e tante equazioni quanto è la cardinalità di T \ C.
Fissato i ∈ T \ C
∑∞
C
λi = Pi (τC = n),
n=1
inoltre ∑
Pi (τC = n) = pih1 ph1 h2 . . . phn−1 h
h∈C, hj ∈T \C, j=1,...,n−1
e
∑
Pi (τC = n + 1) = pih1 ph1 h2 . . . phn h
h∈C, hj ∈T \C, j=1,...,n
∑
= pih1 Ph1 (τC = n).
h1 ∈T \C
Ora, poiché
∞
∑
λCi = Pi (τC = 1) + Pi (τC = n),
n=2
∑ ∞
∑ ∑
λCi = pij + pih1 Ph1 (τC = m)
j∈C m=1 h1 ∈T \C
37
Si vedrà nel prossimo paragrafo che se T ha cardinalità finita il sistema
∑ ∑
xi = pij + pih1 xh1 .
j∈C h1 ∈T \C
e che nel caso T finito come si è già visto P(N∞ (T ) < +∞) = 1.
si dimostra che xi coincide con λi = Pi (τC < +∞). Per questo si sostituisce
nell’equazione precedente il valore di xh dato dall’equazione stessa
∑ ∑ ∑ ∑ ∑
xi = pih + pih phj + pih phj xj
h∈C h∈T \C j∈C h∈T \C j∈T \C
∑ ∑ ∑ ∑ ∑
= pih + pih phj + pih phj xj ,
h∈C h∈T \C j∈C j∈T \C h∈S
38
Si osserva che, poiché i primi due addendi insieme danno la probabilità
di passare da i in C in al più due passi,
∑ (2)
xi = Pi (τC ≤ 2) + pij xj .
j∈T \C
e iterando n − 1 volte
∑ (n)
xi = Pi (τC ≤ n) + pij xj .
j∈T \C
e inoltre
∞
∪
{τC ≤ n} = {τC < +∞},
n=1
39
1.26 Probabilità di estinzione
per la catena di nascita e morte con estremi assorbenti
In questa sezione si calcola la probabilità di assorbimento in {0} per una
catena di nascita e morte a stati finiti con estremi 0 e m assorbenti, ovvero
r0 = 1 (quindi p0 = 0) e rm = 1 (e quindi qm = 0), e con pi > 0 e qi > 0,
e quindi tutti gli stati intermedi comunicanti e transienti. Ponendo per
{0}
semplicità di notazione λCi = λi = λi , il sistema si scrive
λi = qi λi−1 + pi λi+1 + ri λi ,
i ∈ {1, . . . , m−1}, dove λ0 = 1 e λm = 0. Sostituendo a ri il valore 1−pi −qi ,
dopo facili passaggi algebrici, si trova per i ∈ {1, . . . , m − 1}
qi
λi − λi+1 = (λi−1 − λi )
pi
(attenzione: si usa pi > 0). Si calcola in modo ricorsivo per i ∈ {1, . . . , m−1}
qi qi−1 . . . q1
λi − λi+1 = (1 − λ1 ) = γi (1 − λ1 )
pi pi−1 . . . p1
avendo posto
qi qi−1 . . . q1
γi = .
pi pi−1 . . . p1
Si noti che posto γ0 = 1 l’uguaglianza
λi − λi+1 = γi (1 − λ1 )
vale anche per i = 0, dunque vale per i ∈ {0, . . . , m − 1}. Allora sommando
da 0 a m − 1 ambo i membri dell’uguaglianza precedente, si ricava
∑
m−1
λ0 − λm = γi (1 − λ1 )
i=0
40
e se q = p = 1/2 o anche solo q = p, r ̸= 0
m−j
λj = .
m
Cosı̀ nella rovina del giocatore la probabilità che A perda è
b
λa = .
a+b
Infatti τ0 (ω) < +∞ implica che esiste M , dipendente da ω, tale che τ0 (ω) <
M ; inoltre, poiché, per ω tale che X0 (ω) = 1, si ha τm (ω) + 1 ≤ τm+1 (ω),
allora, per ω tale che X0 (ω) = 1, τm (ω) diverge a +∞ crescendo, e quindi
esiste m, dipendente da ω, tale che τ0 (ω) < M < τm (ω). Pertanto
∞
∪
{τ0 < +∞, X0 = 1} ⊂ {τ0 < τm , X0 = 1}.
m=1
41
Ma P1 (τ0 < τm ) è pari alla probabilità di assorbimento in 0 partendo da
1 per la catena di nascita e morte su {0, . . . , m} con le stesse pi , ri , qi per
i = 1, . . . , m − 1 ma con 0 e m assorbenti.
Pertanto, ricordando l’espressione di λj per j = 1 calcolata nel paragrafo
precedente, si ha
∑m−1 ( )
γi 1
P1 (τ0 < +∞) = lim ∑i=1m−1 = lim 1 − ∑ m−1 .
m→∞ m→∞
i=0 γi i=0 γi
Concludendo, la catena è persistente se e solo se
∞
∑
γi = +∞.
i=0
Se qi = q, pi = p
∞
∑ ∞ ( )
∑ q i
γi = = +∞
p
i=0 i=0
se e solo se pq ≥ 1 ovvero se e solo se q ≥ p.
i+2
Esempio: pi = 2i+2 i
e qi = 2i+2 ; allora pqii = i
i+2 e
1 · 2 · 3 . . . (i − 2)(i − 1)i 2
γi = =
3 · 4 · 5 . . . i · (i + 1)(i + 2) (i + 1)(i + 2)
∑ ∑ 1
e poiché γi ha lo stesso comportamento di i2
< +∞, la catena è
transiente.
Esercizio 6
Tre libri sono messi uno sopra l’altro a formare una pila. In ogni istante
se ne sceglie uno a caso e si mette in cima alla pila lasciando invariata la
posizione degli altri due. Assumendo che i libri siano contraddistinti con le
lettere A,B,C: descrivere con una catena di Markov il sistema il cui stato è
costituito in ogni istante dalla disposizione dei libri nella pila.
Soluzione
Ci sono tanti stati quante sono le permutazioni della terna(A,B,C), ovvero
3! = 6. Inoltre da ogni stato le transizioni possibili equiprobabili sono 3.
Cosı̀ se per esempio ordiniamo i possibili stati in questo modo:
{(A B C) , (B A C) , (C A B) , (A C B) , (B C A) , (C B A)}
la matrice di transizione è la seguente
1 1 1
3 3 3 0 0 0
1 1
0 0 0 1
3 3 3
0 0 1 1 1
0
P=
0
3 3 3
1
3
1
3
1
3 0 0
1 0 0 0 1 1
3 3 3
1 1 1
0 0 0 3 3 3
42
La catena è irriducibile poiché tutti gli stati sono comunicanti e, essendo lo
spazio di stato finito, tutti gli stati sono persistenti.
43
Nel caso della rovina del giocatore con p = q per C = {0, m} e T = {1, . . . m − 1}
si calcola
Ei [τC ] = i(a + b − i)
e quindi, se il capitale iniziale di A è a, in media affinché il gioco finisca si
aspetta un tempo pari ad ab.
Continuazione dell’Esercizio 6
Soluzione
Per rispondere si calcola il tempo medio di assorbimento partendo dallo stato
1 nella classe chiusa C = {3, 6} per la catena modificata rendendo assorbenti
gli stati 3 e 6. Il grafico della nuova catena è
44
Esercizio 7
Soluzione
{0} 3 {0}
da cui si calcola facilmente λ1 = x1 = 8 e λ2 = x2 = 18 .
∑
3
{0} 1 1 3 1 1 1 3
P(τ0 < +∞) = λi =1· + · + · = .
4 4 8 4 8 4 8
i=0
13 15
e quindi si calcola E1 [τC ] = 8 , E2 [τC ] = 8 .
45
Esercizio 8
Sia (Xn )n≥0 la catena che descrive la seguente passeggiata aleatoria sui
vertici di un triangolo, numerati con 1,2,3 procedendo in senso antiorario: ci
si muove in senso antiorario con probabilità p e orario con probabilità 1 − p
e la densità iniziale è π0 = ( 15 0 45 ). Calcolare il valore medio del tempo di
primo arrivo nello stato 2.
Soluzione
Vale la formula
∑
3
E[τ2 ] = π0 (i)Ei [τ2 ].
i=1
Infatti poiché
∑
3
P(τ2 = n) = π0 (i)Pi (τ2 = n)
i=1
si ha
∞
∑ ∞
∑ ∑
3
E[τ2 ] = nP(τ2 = n) = n π0 (i)Pi (τ2 = n)
n=1 n=1 i=1
Si osserva che la stessa formula si sarebbe potuta ottenere anche nel modo
che segue. La variabile aleatoria, τ2 , tempo di primo arrivo nello stato 2, si
può scrivere cosı̀
∑
3
[ ]
E[τ2 ] = E τ2 I{i} (X0 ) .
i=1
46
∑3
Sostituendo dunque nella formula E[τ2 ] = i=1 π0 (i)Ei [τ2 ] i valori della
densità iniziale si ottiene
1 4
E[τ2 ] = E1 [τ2 ] + E3 [τ2 ].
5 5
Un modo per calcolare le medie E1 [τ2 ], E3 [τ2 ] è quello di pensare che esse
sono le stesse per la catena in cui rendiamo assorbente lo stato 2, ovvero per
la catena
47
Esercizio 9
Soluzione
0 0 0 1
il suo grafico è
48
persistenti coincide con {4} e il sistema di equazioni risolto dai tempi
medi di assorbimento in C è
x1 = 1 + 13 x2 + 31 x3
x2 = 1 + 12 x3
x3 =1
La soluzione è x1 = 11 3 11
6 , x2 = 2 , x3 = 1 e dunque la risposta è 6 . Si
sarebbe anche potuto calcolare facilmente in questo caso la densità del
tempo di assorbimento τC trovando
1 1 1 1 1
P1 (τC = 1) = , P1 (τC = 2) = + = , P1 (τC = 3) = .
3 3 6 2 6
il suo grafico è
49
Le probabilità di assorbimento nella classe C1 = {4} sono la soluzione
del sistema
1 1 1
x1 = 4 + 4 x2 + 4 x3
x2 = 31 + 13 x3
x3 = 21
e quindi x1 = x2 = x3 = 12 , come era da aspettarsi per ragioni di
simmetria. Dunque se ad iniziare è il maggiore, con probabilità 12 il
gioco finisce con la palla nelle mani del minore.
Il sistema di equazioni risolto dai tempi medi di assorbimento in C è
1 1
x1 = 1 + 4 x2 + 4 x3
x2 = 1 + 13 x3
x3 = 1
19
la cui soluzione è x1 = 12 , x2 = 43 , x3 = 1 e dunque la risposta è 19
12 .
Del resto
1 1 1 2 5 1
P1 (τC = 1) = , P1 (τC = 2) = + · = , P1 (τC = 3) = ,
2 4 4 3 12 12
e quindi
1 5 1 19
E1 [τC ] = 1 +2 +3 = .
2 12 12 12
50
e ricorsivamente
∑
n−1
πn (0) = (1 − p − q) π0 (0) + q
n
(1 − p − q)j .
j=0
Pertanto, essendo
∑
n−1
1 − (1 − p − q)n
(1 − p − q)j = ,
p+q
j=0
si ottiene
q ( q )
πn (0) = + (1 − p − q)n π0 (0) −
p+q p+q
p ( p )
πn (1) = + (1 − p − q)n π0 (1) − .
p+q p+q
Si osserva che, qualsiasi sia la densità iniziale π0 , se p + q = 1 si ottiene,
per ogni n ≥ 1, πn (0) = q e πn (1) = p. Se più in generale si assume
|1 − p − q| < 1, si ha limn→∞ (1 − p − q)n = 0 e quindi, qualsiasi sia la densità
iniziale π0 ,
q p
lim πn (0) = , lim πn (1) = .
n→∞ p+q n→∞ p+q
Dunque si può dire che, qualsiasi sia la densità iniziale, se |1 − p − q| < 1
ovvero se p + q ̸= 0, 2, la legge di questa catena al crescere del tempo si
stabilizza.
Altrimenti se entrambi i parametri sono nulli oppure se entrambi sono pari
ad 1, ovvero se p + q = 0 oppure se p + q = 2, allora non c’è convergenza
della successione delle densità. Infatti: se p + q = 0 la matrice di transizione
è la matrice identità e la successione (πn , n ≥ 0) è costante uguale a π0 ;
se p + q = 2 allora per n pari πn coincide con π0 , mentre per n dispari πn
coincide con il vettore (π0 (1), π0 (0)).
i) ∑
vi = 1
i∈S
51
Condizione necessaria e sufficiente affinché v : S → [0, 1] sia una misura
di probabilità invariante è che
∑
a) i∈S vi = 1
b) v P = v.
πn = v P = v.
(n= cardinalità di S) si dimostra che esiste una costante k tale che vi = k per
ogni i ∈ S è una misura di probabilità invariante. Affinché v sia invariante
la costante k deve verificare
∑n
a) i=1 k = 1
∑n
b) j=1 k pji = k per ogni i ∈ S.
∑ ∑
La condizione b) è chiaramente vera essendo nj=1 k pji = k nj=1 pji e P
bistocastica. La condizione a) fornisce k = n1 .
Dunque una misura invariante per P bistocastica è la misura uniforme.
È l’unica?
52
allora v tale che
ki
vi =
k
è una misura invariante per la catena. Infatti
∑ kj ∑ kj 1 ki
pji = = ,
k k kj k
j∈S j adiacenti a i
l’ultima uguaglianza usa il fatto che solo ki sono gli stati per i quali pji ̸= 0.
È l’unica misura invariante?
per una qualche costante α ∈ (0, 1). Allora w è invariante poiché wi ≥ 0 per
ogni i = 0, . . . , m e inoltre
a)
∑
m ∑
m
(1)
∑
m
(2)
wi = α vi + (1 − α) vi = α + (1 − α) = 1.
i=0 i=0 i=0
b)
w P = α v (1) P + (1 − α) v (2) P = αv (1) + (1 − α)v (2) = w.
53
La famiglia precedente definisce un’infinità di misure invarianti e dal prossi-
mo risultato segue che ogni misura invariante appartiene alla famiglia.
54
Anche il carattere della persistenza nel caso irriducibile è globale (vedi [3]).
Teorema Ogni catena irriducibile persistente positiva ammette un’unica
misura invariante data da
1
vi = , i ∈ S.
Ei [τi ]
55
(
La dimostrazione di questo punto nel caso infinito richiede il risultato di
scambio di limite e serie enunciato precedentemente:
∑ (n)
∑ (n)
∑ (n)
lim | π0 (i)(pij −vj )| ≤ lim π0 (i)|pij −vj | = π0 (i) lim |pij −vj | = 0
n→∞ n→∞ n→∞
i i i
(n) )
e |pij − vj | ≤ 2 per ogni n, i.
(k è arbitrario fissato)
iii) Se w fosse un’altra misura invariante, scelta π0 = w si avrebbe
πn (i) = wi per ogni i, n e quindi, dovendo anche essere per il punto prece-
dente limn→∞ πn (i) = vi , seguirebbe, per l’unicità del limite, wi = vi per
ogni i.
Esercizio 10
56
a) Calcolare le eventuali misure invarianti.
(n)
b) Calcolare limn→∞ pij per ogni i, j.
Soluzione
La catena ha matrice di transizione
1 0 0
P = 0 13 2
3
0 1 0
e misura iniziale π0 = ( 12 1 1
4 4) e il suo grafico è
57
Per quanto riguarda gli altri elementi, poiché la matrice di transizione
ristretta agli stati 2 e 3 è regolare (in quanto irriducibile con p22 > 0)
allora è ergodica e si ha per i = 2, 3
(n) (2) 3 (n) (2) 2
lim p = v2 = , lim p = v3 =
n→∞ i2 5 n→∞ i3 5
c) Infine poiché
∑
3
(n) 1 (n) 1 (n) 1 (n) 1
πn (1) = π0 (i) pi1 = p + p21 + p31 =
2 11 4 4 2
i=1
∑3
(n) 1 (n) 1 (n)
πn (2) = π0 (i) pi2 = p + p32
4 22 4
i=1
∑3
(n) 1 (n) 1 (n)
πn (3) = π0 (i) pi3 = p + p33 ,
4 23 4
i=1
allora
1
lim πn (1) =
n→∞ 2
1 3 3 3
lim πn (2) = ( + ) =
n→∞ 4 5 5 10
1 2 2 1
lim πn (3) = ( + ) = .
n→∞ 4 5 5 5
Esercizio 11
Soluzione
La matrice è irriducibile finita e quindi persistente positiva e con un’unica
misura invariante soluzione del sistema
x1 + x2 + x3 = 1
x1 + x2 + x3 = 1
0.4 x1 + 0.3 x2 + 0.2 x3 = x1 −6 x1 + 3 x2 + 2 x3 = 0
0.4 x1 + 0.4 x2 + 0.4 x3 = x2 equivalente a 4 x1 − 6 x2 + 4 x3 = 0
0.2 x1 + 0.3 x2 + 0.4 x3 = x3
2 x1 + 3 x2 − 6 x3 = 0
xi ≥ 0 xi ≥ 0.
58
Moltiplicando la seconda equazione per 2 e sottraendole la terza e al tempo
stesso moltiplicando la quarta per 2 e sottraendole la terza si ottiene il
sistema equivalente
x1 + x2 + x3 = 1
−8 x + 12 x = 0
1 2
12 x2 − 16 x3 = 0
x ≥ 0
i
Esercizio 12
Soluzione
a) La decomposizione dello spazio degli stati è
ovvero: 1 e 2 sono stati transienti poiché comunicano con 3 che non comu-
nica né con 1 né con 2; 3 è uno stato assorbente. Pertanto l’unica misura
invariante è v = (0 0 1), unica soluzione non negativa del sistema
∑
xi = 1
x P = x
x1 = 0
x = 0
2
b) Poiché 1 è transiente, si ha
ovvero
P1 (τ1 = +∞) > 0
59
e quindi E1 [τ1 ] = +∞.
60
Esercizio 13
Assegnata la matrice 3
1
4 0 0 4 0
1 1 1 1
0
4 4 4 4
P=
01 0 0 0 1
0 0 1
0
2 2
1 3
0 0 4 0 4
Soluzione
a) In questo caso
61
δv (2) . Cosı̀ poiché (2α 0 β α 4β) = (2α 0 0 α 0) + (0 0 β 0 4β) allora γ
(1) (1) (2) (2)
e δ sono tali che γ(v1 + v4 ) + δ(v3 + v5 )=1, ovvero, ricordando che
(1) (1) (2) (2)
v1 + v4 = 1 = v3 + v5 , sono tali che γ = 1 − δ. Si è mostrato che ogni
misura invariante si esprime come combinazione convessa di v (1) e v (2) , cioè
v = γv (1) + (1 − γ)v (2) con γ ∈ [0, 1].
Con dimostrazione analoga si prova l’affermazione generale per cui: le misure
invarianti di una catena a valori in uno spazio finito sono tutte e sole quelle
che si ottengono per combinazione convessa a partire dalle misure invarianti
della dinamica ristretta alle classi persistenti.
λC22 = P2 (τC2 < +∞) = P2 (τC2 < τC1 ) = 1 − P2 (τC1 < τC2 ) = 1 − λC21 ,
segue λC22 = 13 .
62
Per dimostrarlo si osservi che dalla seconda equazione segue che
x1 = d x0
63
1.36 Non esistenza della misura invariante
per la passeggiata aleatoria simmetrica in Z
Si può dimostrare che la passeggiata aleatoria su Z in cui sono possibili solo
le transizioni sugli stati adiacenti (pij = I{i−1} (j) q+I{i+1} (j) p) è persistente
se e solo se è simmetrica, cioè con stessa probabilità di un passo avanti e uno
indietro. Qui si dimostra che la passeggiata aleatoria simmetrica su Z non
ammette misura invariante e dunque si conclude che è catena persistente
nulla.
Nel caso simmetrico pij = I{i−1} (j) 21 +I{i+1} (j) 21 e il sistema di equazioni
per la misura invariante si riscrive
{∑
i∈Z xi = 1, xi ≥ 0
xi = xi−1 xi+1
2 + 2 , i ∈ Z.
∑
i−1
xi − x0 = (xj+1 − xj ) = i(x1 − x0 )
j=0
e quindi
xi = i(x1 − x0 ) + x0 .
∑
Segue che, poiché i∈Z xi = 1 < +∞, non può essere x1 − x0 > 0 altrimenti
limi→+∞ xi = +∞ (mentre il termine generico di una serie convergente
è infinitesimo); né può essere x1 − x0 < 0 altrimenti limi→−∞ xi = −∞,
mentre xi ≥ 0. ∑ Dunque x1 − x0 = 0, cioè∑xi = x0 per ogni i ≥ 1. Inoltre
dovendo essere i∈Z xi < +∞ e quindi i≥1 xi < +∞, potrà solo essere
xi = x0 = 0 per ogni i ≥ 1. Inoltre per ragioni di simmetria vale anche per
ogni i ≤ −1 ( )
xi = |i| + 1 (x0 − x1 ) + x1
e quindi xi = 0 per ogni i ≤ −1. Dunque il sistema
∑ non ammette soluzione
poiché quella identicamente nulla non verifica i∈Z xi = 1.
64
si ha
∞
∑
γ̃i < +∞
i=0
e la misura invariante si calcola cosı̀ per ogni i ≥ 0
γ̃i
vi = ∑∞ .
i=0 γ̃i
Il sistema per il calcolo della misura invariante è
x0 = x0 r0 + x1 q1
x = x p
i i−1 i−1 + xi ri + xi+1 qi+1 , i ≥ 1
∑+∞
i=0 xi = 1
x ≥ 0
i
e quindi
∑xi qi − xi−1 pi−1 = 0, i ≥ 1
+∞
i=0 xi = 1
xi ≥ 0
da cui pi−1 pi−1 pi−2
∑xi = qi xi−1 = qi qi−1 xi−2 = . . . = γ̃i x0 , i ≥ 1
+∞
i=0 xi = 1
xi ≥ 0.
Dalla seconda equazione si ottiene il valore di x0 :
1
x0 = ∑∞ .
i=0 γ̃i
e dunque contemporaneamente la condizione necessaria e sufficiente e l’e-
spressione della misura invariante.
65
e quindi
γ̃i
vi = ∑m .
i=0 γ̃i
Esercizio 14
Si indichi con (Xn )n la catena di Markov che descrive una coda in cui le
variabili aleatorie numero dei clienti in arrivo e in partenza in ogni unità
temporale sono indipendenti di legge Bernoulli rispettivamente di parametri
α = 14 e β = 12 .
a) Calcolare le probabilità di transizione della catena.
b) La catena è irriducibile ? È persistente? Ammette una misura invari-
ante unica?
c) Dare le condizioni su α e β generici che consentono di rispondere
affermativamente alle precedenti domande.
Soluzione
a) Indicati con A e B rispettivamente gli eventi {arriva un cliente} e {parte
un cliente}, per ipotesi A e B sono eventi indipendenti e da ogni sta-
to i diverso da 0 si transita in i + 1 con la probabilità di A ∩ B c che è
Pi (A) Pi (B c ) = α (1 − β) = 18 e in i − 1 con la probabilità di Ac ∩ B che è
Pi (Ac )∪Pi (B) = (1 − α) β = 38 e infine si rimane in i con la probabilità di
A∩B Ac ∩B c che è αβ +(1−α)(1−β) = 12 . Infine da 0 si transita in 1 con
probabilità α = 41 e si resta in 0 con probabilità 1 − α = 43 . Riassumendo
r0 = 34 , p0 = 14 , e, per ogni i ≥ 1, qi = q = 38 , pi = p = 18 , ri = r = 21 .
b) La catena è irriducibile poiché per ogni i ≥ 1 si ha pi > 0 e qi > 0. La
catena è persistente poiché sappiamo che, se le probabilità di nascita e morte
non dipendono dallo stato, condizione sufficiente è che qi ≥ pi , i ≥ 1. La
catena ammette un’unica misura ∑ invariante poiché la condizione necessaria
e sufficiente in generale è ∞ i=0 i < +∞ e, se si ha
γ̃ come in questo caso
( )i
p0 p
pi = p, qi = q, i ≥ 1, allora per i ≥ 1 vale γ̃i = p q e quindi la serie è
p
convergente se e solo se q < 1 cioè p < q, come in questo caso. La misura
invariante in generale è
γ̃i
vi = ∑∞
i=0 γ̃i
e qui per i ≥ 1,
1 ( 1 )i−1 2 ( 1 )i−1
4
γ̃i = 3 =
8
3 3 3
e quindi
2 ∑ ( 1 )i−1
∞
∑ ∞
23
γ̃i = 1 + =1+ =2
3 3 32
i=0 i=1
66
e in conclusione ( 1 )i
1
v0 = , vi = , i ≥ 1.
2 3
[c)] Se α e β sono in (0, 1) allora pi > 0 e qi > 0, per ogni i ≥ 1, e la catena è
irriducibile. La condizione per la persistenza è p = α (1 − β) ≤ (1 − α) β = q
ovvero α ≤ β ovvero probabilità di arrivo minore o uguale alla probabilità
di partenza. La condizione per l’esistenza della misura invariante è p =
α (1 − β) < (1 − α) β = q, ovvero α < β, ovvero probabilità di arrivo minore
della probabilità di partenza. Se è α = 0, allora si vede subito che la catena
non è irriducibile (infatti nessuno stato comunica con i successivi), tutti gli
stati positivi sono transienti (per ogni i ≥ 1, i comunica con 0 ma 0 non
comunica con i) e lo stato 0 è assorbente. Esiste un’unica misura invariante
che è la delta di Dirac in i = 0. Se è β = 0 la catena non è irriducibile
(nessuno stato comunica con i precedenti), gli stati sono tutti transienti e
naturalmente non esiste misura invariante.
Esercizio 15
Soluzione
In questo caso
v = (v1 v2 0 v4 )
67
ottenuta da quella originaria cancellando la terza riga e la terza colonna.
Occorre risolvere dunque
x1 + x2 + x3 = 1
3 1
x1 = 4 x1 + 4 x2
x2 = 14 x1 + 12 x2 + 34 x3
x3 = 14 x2 + 14 x3
xi ≥ 0.
Si trova x = ( 73 37 17 ) e dunque v = ( 37 3
7 0 17 ) è l’unica misura invariante per
la catena originaria.
Esercizio 16
Assegnata la matrice
0 14 3
4
P = 0 12 1
2
1 0 0
a) calcolare la misura invariante se esiste
b) la media del tempo di primo ritorno in 1
Soluzione
a) La catena è irriducibile e quindi, poiché finita, anche persistente positiva.
Esiste dunque un’unica misura invariante che si ottiene risolvendo
x1 + x2 + x3 = 1
x1 = x3
x2 = 14 x1 + 12 x2
x3 = 3 x1 + 1 x2
4 2
xi ≥ 0
equivalente a
x1 + x2 + x3 = 1
x1 = 2x2 = x3
xi ≥ 0
da cui x = ( 52 15 52 ) è la misura invariante.
b) Dal teorema sulle catene irriducibili si sa che la media del tempo di
primo ritorno in uno stato è il reciproco del valore della misura invariante
nello stato e quindi
5 1
E1 [τ1 ] = = .
2 v1
68
Esercizio 17
Soluzione
La matrice di transizione della catena di Ehrenfest modificata con d = 3 è
1 1
2 2 0 0
1 1 1 0
P= 6 2
0 1 1 1
3
3 2 6
0 0 12 21 .
Infatti, indicati con A e B rispettivamente gli eventi {il numero estratto cor-
risponde ad una biglia dell’urna fissata} e {l’urna estratta è quella fissata},
per ipotesi A e B sono eventi indipendenti condizionatamente al numero di
biglie nell’urna fissata e per esempio da ogni stato i diverso da 0 e d si tran-
sita in i − 1 con la probabilità di A ∩ B c che è Pi (A) Pi (B c ) = di 12 e in i + 1
con la probabilità di Ac ∩ B ∪che è Pi (Ac ) Pi (B) = d−i 1
d 2 e infine si rimane in
i con la probabilità di A ∩ B A ∩ B che è 2 . In modo analogo si calcolano
c c 1
La stessa cosa accade per una qualsiasi catena di nascita e morte finita
irriducibile a barriere riflettenti (r0 = 0, p0 = 1, rd = 0, qd = 1) e con ri = 0
qualsiasi sia i = 1, . . . , d − 1.
69
La stessa proprietà è verificata dalla matrice di transizione della catena
associata al grafo
ovvero la potenza P n per n pari ha tutti gli elementi sulla diagonale positivi
e per n dispari ha tutti gli elementi sulla diagonale nulli. Si individua subito
anche un’altra particolarità:
0 + 0 +
+ 0 + 0
P 2n+1 =
0 + 0 +
+ 0 + 0
+ 0 + 0
0 + 0 +
P 2n =
+ 0 + 0
0 + 0 +
dove il segno + indica che l’elemento corrispondente è positivo. Dunque
se parto da uno stato dispari allora mi trovo in ogni tempo dispari in uno
stato pari e in ogni tempo pari in uno stato dispari. È dunque chiaro che
pur essendo questa catena irriducibile e quindi, essendo finita, persistente
positiva e esistendo un’unica misura invariante v, non potrà certo essere
qualsiasi sia j
(n)
lim pij = vj .
n→∞
È facile accorgersi che anche in questo caso c’è una regolarità in P. In questo
caso qualsiasi sia i
(3n) (h)
pii > 0, n ≥ 1 pii = 0, h ̸= 3n, n ≥ 1.
70
Cosı̀ come prima lo spazio degli stati veniva diviso in due classi, i pari e i
dispari, che erano, da qualunque stato si partisse ciclicamente rivisitati (pe-
riodo 2), anche ora lo spazio viene suddiviso in classi rivisitate ciclicamente
e precisamente {1}, {2}, {0, 3}: comunque si parta dopo 3 passi ci si ritrova
nella classe di appartenenza dello stato iniziale.
71
Si definisce aperiodica una catena di periodo 1.
Naturalmente una condizione sufficiente per l’aperiodicità è che esista uno
stato h tale che phh > 0.
Si osservi che l’aperiodicità quando la catena è irriducibile ma non è persis-
tente positiva non è sufficiente per avere l’ergodicità : basta ricordare il caso
di una catena di nascita e morte con probabilità non nulla di∑ tornare con un
passo in uno stato ma senza misura invariante ovvero con ∞ i=0 γ̃i = +∞.
Come esempio si consideri il caso r0 > 0 e pi = p ≥ q = qi qualsiasi sia
i ≥ 1.
Esercizio 18
Soluzione
dove
qi qi−1 . . . q1
γ0 = 1, γi = , i ≥ 1.
pi pi−1 . . . p1
Qui
( 2 )i
γ0 = 1, γi = ( 3 )i = 2i i ≥ 1
1
3
e quindi la serie è divergente e la catena persistente.
72
dove
p0 p1 . . . pi−1
γ̃0 = 1, γ̃i = , i ≥ 1.
q 1 q 2 . . . qi
Qui
( 1 )i
1
γ̃0 = 1, γ̃i = ( 3 )i = , i ≥ 1.
2 2i
3
e quindi la serie è convergente come serie geometrica di ragione minore
di 1. Dunque esiste la misura invariante ed è
( 1 )i
1 1
v0 = , vi = 2 = i+1 , i ≥ 1.
2 2 2
1.40 Reversibilità
La proprietà di Markov si conserva rovesciando il tempo, infatti utilizzando
la definizione di probabilità condizionata e la formula del prodotto si ottiene
vi pij = vj pji .
73
Se v soddisfa l’equazione precedente allora è invariante per P. Infatti
qualsiasi sia i ∑ ∑ ∑
vl pli = vi pil = vi pil = vi .
l∈S l∈S l∈S
Inoltre la catena con matrice di transizione P e legge iniziale v risulta
reversibile; infatti per l’invarianza πn (i) = vi e πn+1 (j) = vj da cui
πn (i) pij vi pij vj pji
P(Xn = i | Xn+1 = j) = = = = pji .
πn+1 (j) vj vj
Esempi di catene reversibili sono l’urna di Ehrenfest, la catena di un grafo e
qualsiasi catena di nascita e morte persistente positiva in regime di stazionar-
ietà, ovvero inizializzata con la relativa misura invariante. Infatti si può facil-
mente verificare l’equazione del bilancio dettagliato in ciascun caso: per ( )l’ur-
d 1
na di Ehrenfest dobbiamo verificare vi pi(i+1) = vi+1 p(i+1)i con vi =
i 2d
e pi(i+1) = d−i i+1
d e p(i+1)i = d ; per la catena di un grafo dobbiamo verificare
vi pij = vj pji con vi = kki e pij ̸= 0 se e solo se pji ̸= 0 ; per la catena di nasci-
ta e morte persistente positiva dobbiamo verificare vi pi(i+1) = vi+1 p(i+1)i
con vi = ∑∞γ̃i γ̃i , γ̃i = p0q1p1q2...,p
...,qi i ≥ 1, γ̃0 = 1 e pi(i+1) = pi , p(i+1)i = qi .
i−1
i=0
e naturalmente ∑
pii = 1 − pij .
j̸=i
74
come costruire la catena al passo n + 1 sapendo che al passo n si trova in i.
Si assuma che siano k i possibili stati della catena. Sia Y una variabile di
densità (qi1 qi2 . . . , qik ) e sia U una variabile definita sullo stesso spazio di
probabilità, uniforme in [0, 1] e indipendente da Y . Allora la variabile
X = Y I[0, vY ) (U ) + i I[ vY ,1] (U )
vi vi
Esercizio 19
75
Soluzione
i) Lo spazio degli stati S = {1, 2, 3, 4} si decompone nell’unione disgiunta
della classe transiente T = {2} e delle due classi irriducibili persistenti
positive C1 = {1, 3} e C1 = {4}; dunque 2 è l’unico stato transiente e 4
è stato assorbente.
ii) Le misure invarianti sono tutte e sole le combinazioni convesse delle
misure invarianti v (1) e v (2) per la dinamica ristretta rispettivamente a C1 e
C2 , ovvero sono tutte e solo quelle della forma δv (1) +(1−δ)v (2) con δ ∈ [0, 1].
Inoltre v (1) = (x1 , 0, x3 , 0) dove
{
x1 = 21 x1 + x3
x3 = 12 x1 ,
Soluzione
La matrice di transizione della catena è
1−p p 0 0 0 ... 0 0 0 0...
1 − p 0 p 0 0 0 . . .
... 0 0 0
1 − p 0 0 p 0 0 . . .
... 0 0 0
· · · · · · · · · . . .
...
· · · · · · · · · . . .
...
· · · · · ... · · · · . . .
P=
· · · · · ... · · · · . . .
· · · · · ... · · · · . . .
· · · · · ... · · · · . . .
· · · · · ... · · · · . . .
1 − p · · · · ... 0 0 p 0 . . .
· · · · · ... · · · ·...
76
e quindi la misura invariante risolve il sistema
∑
x = i∈N (1 − p)xi
0
x = px , i ≥ 1
i i−1
∑
i∈N i = 1
x
x ≥ 0.
i
∑
Si ricava x0 = (1 − p) i∈N xi = 1 − p e xi = pxi−1 = p2 xi−2 = . . . = pi x0 =
pi (1 − p), i ≥ 1. Dunque l’unica misura invariante è vi = pi (1 − p), i ≥ 0 e si
tratta della densità di una geometrica trasformata di parametro 1 − p, cioè
la densità del numero di fallimenti prima del primo successo in uno schema
di Bernoulli infinito di parametro 1 − p.
La catena che è irriducibile è aperiodica come si deduce dal fatto che p00 > 0.
Dall’unicità della misura invariante segue che esiste un’unica classe persis-
tente positiva che per l’irriducibilità è tutto lo spazio di stato; si sa che una
catena irriducibile persistente positiva e aperiodica è ergodica.
Un altro procedimento consiste nel dimostrare direttamente che qualsiasi sia
i
(n)
lim pij = pj (1 − p).
n→∞
e questo segue subito dopo aver calcolato che per qualsiasi siano i, j, per
ogni n ≥ j + 1 vale
(n)
∑ (
n−j−1 )
n−j−1 h
pij = p (1 − p)
j
p (1 − p)n−j−1−h = pj (1 − p).
h
h=0
77
Dunque v invariante implica che per ogni n
1 ∑ ∑ (k)
n
vj = vi pij
n
k=1 i∈S
∑( ∑ n
1 (k)
)
= pij vi
n
i∈S k=1
∑n (k)
e usando l’uguaglianza Ei [Nn (j)] = k=1 pij (vedi paragrafi 18 e 19) si
ottiene
∑ Ei [Nn (j)] ∑ [ Nn (j) ]
vj = vi = Ei vi .
n n
i∈S i∈S
∑
Si osserva che la variabile aleatoria Nnn(j) = n1 nk=1 I{j} (Xk ) rappresenta la
frequenza relativa di visita allo stato j su n tempi. Passando al limite in n
nell’uguaglianza precedente si ottiene
∑ [ N (j) ]
n
vj = lim Ei vi ,
n→∞ n
i∈S
dove il passaggio al limite sotto il segno di serie, ovvio nel caso S finito,
è lecito in generale. Si ottiene l’esistenza e la forma dell’unica misura in-
variante per catene persistenti posistive usando il fatto che per le catene
irriducibili persistenti, qualsiasi sia i vale
{
[ N (j) ] 1
n Ej [τj ] , se Ej [τj ] < +∞
lim Ei =
n→∞ n 0, altrimenti
(vedi per un’idea della dimostrazione il paragrafo successivo e per una di-
mostrazione completa [3]).
78
È intuitivo: il rapporto tra n e il numero dei passaggi per j fino al tempo n
è vicino, quando n è grande, alla durata media degli intertempi tra un pas-
saggio e l’altro per j. Questo fatto ha la conseguenza applicativa seguente:
non potendo calcolare facilmente la misura invariante (p.es. perché è grande
il numero degli stati), nel caso persistente positivo, se ne può approssimare
il valore in uno stato j con il valore aleatorio, per n grande, della frequenza
relativa delle visite a j su n tempi, ovvero con la distribuzione empirica nello
stato j. Inoltre controllando se il valore di frequenza relativa dei passaggi
per un qualsiasi stato fissato si avvicina a 0 per n grande, si può dedurre la
persistenza nulla della catena.
Viceversa la frequenza di visita ad uno stato fissato si può approssimare a
regime con il valore della misura invariante nello stato.
Si dà un’idea qui della dimostrazione dell’enunciato nel caso in cui la
catena parta da j: secondo le notazioni già introdotte, si dimostra che l’e-
nunciato vale con probabilità 1 quando la densità iniziale è la delta di Dirac
in j.
A tale scopo si utilizza la legge forte dei grandi numeri nella formulazione
seguente:
79
Allora, poiché
lim Nn (j) = +∞
n→∞
80
2. Sia
1 0 0 0 0 0
1 1 1
0 0 0
4 2 4
0 1 2 1
0 1
P=
0
5 5 5
1 1
5 .
1
0 0 6 3 2
0 0 0 1
0 1
2 2
1 3
0 0 0 4 0 4
matrice di transizione su S = {1, 2, 3, 4, 5, 6}.
0 0 0 1
81
i) Scrivi la matrice di transizione della catena e determina il carat-
tere degli stati.
ii) Con che probabilità l’uomo non ha ombrelli disponibili prima del
secondo, del terzo e del quarto tragitto se si assume che prima
del primo tragitto li abbia entrambi disponibili (la legge iniziale,
ovvero la legge di X1 , è la delta di Dirac in 2)?
iii) Dopo quanto tempo in media, se si assume che prima del primo
tragitto abbia entrambi gli ombrelli disponibili, l’uomo non ha
ombrelli disponibili?
iv) Calcola le eventuali misure invarianti. Cosa puoi dire sul com-
(n)
portamento di pij per n grande?
v) Come approssimeresti la probabilità con cui l’uomo si bagna al
96-mo tragitto?
0 0 1 0
e misura iniziale π0 (1) = 1.
82
i) Studiare il comportamento della legge di Xn per n grande.
ii) Calcolare in modo approssimato
Soluzioni
P(Xn+1 = i + 1 | Xn = i) =
( d − i )2
P(E c ∩ F | Xn = i) = P(E c | Xn = i)P(F | Xn = i) =
d
P(Xn+1 = i − 1 | Xn = i) =
( i )2
P(E ∩ F c | Xn = i) = P(E | Xn = i)P(F c | Xn = i) = .
d
Poiché se j ̸= i − 1, i, i + 1 si ha P(Xn+1 = j | Xn = i) = 0, segue
83
iii) Poiché 1 è stato assorbente, ρ21 coincide con la probabilità di
{1}
assorbimento λ2 nella classe {1} partendo dallo stato 2. Occorre
dunque risolvere il sistema
1 1 1
x1 = + x1 + x2
4 2 4
1 2
x1 = x1 + x2 .
5 5
{1} {1}
Facilmente si calcola x1 = λ2 = 35 e x2 = λ3 = 15 .
Indicata con C la classe di tutti gli stati persistenti, poiché gli stati
transienti sono in numero finito, si ha
{1} {4,5,6}
1 = P(τC < +∞) = λ2 + λ2
e quindi
{1} {4,5,6}
1 − ρ21 = 1 − λ2 = λ2 ,
ovvero a parole 1 − ρ21 è la probabilità di assorbimento nella classe
{4, 5, 6} partendo da 2.
iv) La catena è finita e quindi le misure invarianti sono tutte e sole le
combinazioni convesse delle misure invarianti sulle classi irriducibili.
Dunque una qualsiasi misura invariante è della forma v = αv (1) +
(1 − α)v (2) con α ∈ [0, 1], dove v (1) = (1 0 0 0 0 0) e v (2) si calcola
risolvendo il sistema
x1 + x2 + x3 + x4 + x5 + x6 = 1
xi = 0, i = 2, 3
x = 1 x + 1 x + 1 x
4 6 4 2 5 4 6
x = 1
x
5 3 4
1 1 3
x 6 = 2 x4 + 2 x5 + 4 x6
x ≥ 0.
i
( )
Si ottiene v (2) = 0 0 0 14 121 2
3 .
84
Per calcolare le probabilità di transizione in più passi occorre calco-
lare le potenze della matrice P. Per rendere più agevole il conto si
osservi che le probabilità di transizione in n passi all’interno della
classe irriducibile {4, 5, 6}, coincidono con gli elementi della potenza
n-ma della sottomatrice ottenuta cancellando prima, seconda e terza
riga e colonna della matrice P, ovvero della matrice
1 1 1
6 3 2
1 0 1
.
2 2
1 3
4 0 4
{3} {3}
Si trova λ1 = 56 , λ2 = 23 .
Se la densità iniziale fosse uniforme, poiché vale l’uguaglianza
∑
P(τ3 < +∞) = π0 (i)ρi3 ,
i
85
tenendo conto del risultato precedente e del fatto che essendo 3, 4 as-
sorbenti le probabilità di raggiungere 3 in tempo finito partendo da 3
e da 4 sono rispettivamente 1 e 0, si ha che la probabilità richiesta è
1(5 2 ) 5
+ +1 = .
4 6 3 8
4. i) La matrice di transizione è
0 0 1
P = 0 q p ,
q p 0
è q e infatti in formule
∑
π2 (0) = π1 (i)pi0 = p20 = q.
i
Analogamente per calcolare P(0 ombrelli disponibili prima del terzo tragitto)
si procede cosı̀
∑ (2) (2)
∑
π3 (0) = π1 (i)pi0 = p20 = p2i pi0 = 0.
i i
E infine per calcolare P(0 ombrelli disponibili prima del quarto tragitto)
∑ (3) (3)
∑ (2)
π4 (0) = π1 (i)pi0 = p20 = p2i pi0
i i
∑ ∑ ∑ ∑
= p2i pij pj0 = q p0j pj0 + p p1j pj0
i j j j
= q + p2 q.
2
86
ovvero per la dinamica modificata rendendo assorbente lo stato 0 e
quindi la classe {0} coincidente con la classe di tutti gli stati persistenti
(in tal caso infatti 1 e 2 comunicano con 0 ma 0 non comunica con essi
e quindi sono transienti). La risposta è quindi x2 dove x1 , x2 risolvono
il sistema dei tempi medi di assorbimento
{
x1 = 1 + px2 + qx1
x2 = 1 + px1 ,
1+p 2p
che risolto dà x1 = p−p2
e x2 = p−p2
.
iv) Poiché la catena è persistente positiva esiste un’unica misura in-
variante che si ottiene risolvendo il sistema
v0 = qv1
v = qv + pv
1 1 2
v2 = v0 + pv1
v + v + v = 1
0 1 2
87
iii) Indicati con τ0 e τN i tempi di primo raggiungimento degli stati
0 e N , rispondere a questo punto equivale a calcolare P0 (τN < τ0 ) e
poiché
P0 (τN < τ0 ) = P0 (τN < τ0 , X1 = 1)
e l’ultimo membro coincide con
P0 (τN < τ0 | X1 = 1)P0 (X1 = 1) = P1 (τN < τ0 )q0 ,
occorre calcolare P1 (τN < τ0 ). L’ultima probabilità coincide con la
probabilità di assorbimento in N partendo da 1 per la catena cor-
rispondente alla matrice di transizione
1 0 0 0 0 ... 0 0
p1 0 q1 0 0 . . . 0 0
p2 0 0 q2 0 . . . 0 0
P= ,
· · · · · ... · ·
pN −1 0 0 0 0 . . . 0 qN −1
0 0 0 0 0 ... 0 1
ovvero per la dinamica modificata rendendo assorbenti gli stati 0 e
N . La risposta è quindi x1 dove x1 , x2 . . . , xN −1 risolvono il seguente
sistema delle probabilità di assorbimento in N
x1 = q1 x2
x = q x
2 2 3
.
...
x
N −1 = qN −1
88
1
v0 = .
1 + q0 + q0 q1 + . . . + q0 q1 q2 . . . qN −1
La catena soddisfa il criterio sufficiente per la regolarità (essere ir-
riducibile e avere un elemento non nullo sulla diagonale di P) e quindi
(n)
è ergodica e dunque limn→∞ pij = vj indipendentemente da i.
v) Occorre calcolare il tempo medio di ritorno nello stato 0 che in
formule è E0 [τ0 ]. Si sa che nelle catene persistenti positive questo
valore coincide con v0−1 e dunque in questo caso con 1 + q0 + q0 q1 +
. . . + q0 q1 q2 . . . qN −1 .
89
e il sistema soddisfatto dalla misura invariante è
3
x1 = 4 x1 + x2
x2 = 14 x1
x1 + x2 = 1 ;
ii)
1 1
P(X82 = 3, X81 = 4) = π81 (4)p43 ≈ ·1=
5 5
( 3 1 3
P(X60 = 1, X58 = 3) = π58 (3)p31 2) ≈ · = .
5 2 10
2 Processo di Poisson
2.1 Definizione
Tra i processi stocastici a tempo continuo a valori in N, ovvero nell’insieme
delle famiglie di v.a. definite su di uno stesso spazio di probabilità, a valori in
N ed indicizzate da un parametro reale continuo non negativo, interpretato
come il tempo, si chiamano processi di conteggio quelli che hanno traiettorie
uscenti dallo 0, non decrescenti, costanti a tratti e con salti di ampiezza
unitaria.
Sia (Xk , k ≥ 1) una famiglia di v.a. indipendenti (dunque in particolare
definite sullo stesso spazio di probabilità) di legge esponenziale di parametro
λ. Posto
∑ n
S0 := 0 Sn := Xk , n ≥ 1
k=1
Si deve osservare che dalla definizione segue che N (0) = 0 e che ogni traiet-
toria del processo è costante a tratti, non decrescente, continua da destra ed
90
ha salti unitari. Dunque il processo di Poisson è processo di conteggio. Se
si immagina che la v.a.Xk sia il tempo aleatorio che intercorre tra il k-mo
ed il k + 1-mo evento di un determinato flusso di eventi, allora Sn rappre-
senta il tempo aleatorio in cui si verifica l’n−mo evento e la v.a.N (t) conta
il numero degli eventi occorsi fino al tempo t incluso. Dunque la v.a. N (t)
può assumere ogni valore naturale e se ne determina facilmente la densità
di probabilità a partire dall’assunzione sulla legge degli intertempi di salto.
Fissato k ∈ N, per calcolare P(N (t) = k) il punto di partenza sono le due
semplici uguaglianze tra eventi
e
(N (t) ≥ k) = (Sk ≤ t).
Infatti insieme forniscono la terza uguaglianza
X1 + X2 + . . . + Xm ∼ Γ(α1 + α2 + . . . + αm , λ).
X1 + X2 + . . . + Xm ∼ Erl(m, λ).
∑
m−1
(λt)i −λt
P(Z ≤ t) = 1 − e .
i!
i=0
91
Da quanto detto segue che la legge di Sn , tempo di occorrenza dell’n−mo
evento di un processo di Poisson di parametro λ, è una Erlang di parametri
(n, λ) e in particolare
∑
n−1
(λt)i −λt
P(Sn ≤ t) = 1 − e .
i!
i=0
∑
k−1
(λt)i ∑
k
(λt)i (λt)k −λt
P(N (t) = k) = 1 − e−λt − 1 + e−λt = e .
i! i! k!
i=0 i=0
γt := SN (t)+1 − t
P(γt ≤ x) = 1 − e−λx .
dalla quale, tenendo conto che gli eventi dell’unione sono disgiunti, si ricava
passando alle probabilità
∑
+∞
(
P(γt > x) = P Sn ≤ t, Sn+1 − t > x).
n=0
92
Il primo termine della somma, ovvero quello corrispondente all’indice n = 0,
coincide con
(
P S0 ≤ t, S1 − t > x) = P(S1 − t > x) =
P(S1 > t + x) = P(X1 > t + x) = e−λ(t+x) .
In definitiva
∑∫ t
λn
−λ(t+x)
P(γt > x) =e + e−λ(t+x−y) yn−1 e−λy dy =
0 (n − 1)!
n≥1
∫ t ∑ λn
e−λ(t+x) + e−λ(t+x−y) yn−1 e−λy dy =
0 (n − 1)!
n≥1
∫ t ∑ λn−1
e−λ(t+x) + e−λ(t+x−y) λ yn−1 e−λy dy.
0 (n − 1)!
n≥1
93
e quindi si conclude
∫ t
P(γt > x) = e−λ(t+x) + λe−λ(t+x−y) dy = e−λx .
0
94
generico incremento. L’uguaglianza tra eventi
(N (s) = n, N (s + t) − N (s) = k) =
(N (s) = n, N (s + t) − N (s) ≤ k) \ (N (s) = n, N (s + t) − N (s) ≤ k − 1)
Ora
Si noti che nel primo passaggio è y < s e questo insieme alla condizione
y + Xn+1 > s implica che sia x > s − y > 0. Poiché Z ha legge Erl(k, λ), se
s + t − y − x ≤ 0 ovvero x ≥ s − y + t allora
P(y + x + Z > s + t) = 1,
∑
k−1
(λ(s + t − y − x))i
P(y + x + Z > s + t) = e−λ(s+t−y−x) .
i!
i=0
95
espressione che, effettuate nel primo addendo le dovute semplificazioni e
calcolato nel secondo addendo l’integrale in x, diventa
∫ s ( ∫ s−y+t ∑
k−1 ) λn yn−1
(λ(s + t − y − x))i −λ(s+t)
e λ dx dy+
0 s−y i! (n − 1)!
i=0
∫ s n n−1
−λ(s−y+t) λ y
e e−λy dy.
0 (n − 1)!
Per completare il calcolo del primo addendo è sufficiente scambiare somma-
toria ed integrale e quindi integrare prima in x e poi in y. Si ottengono cosı̀
facilmente le uguaglianze seguenti
k−1 i+1 ∫
∫ s(∑ s−y+t ) λn yn−1
−λ(s+t) λ
e (s + t − y − x)i dx dy+
0 i! s−y (n − 1)!
i=0
∫ s
λn
e−λ(s+t) yn−1 dy =
(n − 1)! 0
∑
k−1 ∫ s
−λ(s+t) (λt)i+1 λn (λs)n
e yn−1 dy + e−λ(s+t) =
(i + 1)! (n − 1)! 0 n!
i=0
∑k
(λt)i (λs)n (λs)n
e−λ(s+t) + e−λ(s+t) =
i! n! n!
i=1
(λs)n ∑
k
(λt)i
e−λ(s) e−λt .
n! i!
i=0
La dimostrazione è conclusa.
96
iniziano a contare gli eventi al tempo iniziale, ovvero il processo al tempo
iniziale vale 0, sono assiomi, ovvero costituiscono una definizione alternativa
per il processo di Poisson (vedi il paragrafo seguente sul processo di Poisson
non stazionario).
dove per la prima uguaglianza si usa il fatto che le v.a. N (t1 + 1) − N (t1 ) e
N (t2 + 1) − N (t2 ) sono indipendenti e per la seconda che hanno entrambe
legge Poiss(λ).
97
del paragrafo precedente.
Per la verifica della i) si osserva che vale l’uguaglianza tra eventi
(N (t + ∆t) − N (t) = 1) =
(N1 (t + ∆t) − N1 (t) = 1, N2 (t + ∆t) − N2 (t) = 0)∪
(N2 (t + ∆t) − N2 (t) = 1, N1 (t + ∆t) − N1 (t) = 0)
(N (t + ∆t) − N (t) = 0) =
(N1 (t + ∆t) − N1 (t) = 0, N2 (t + ∆t) − N2 (t) = 0).
98
quanto appena detto allora, se la consistenza della scorta è n, il tempo di
esaurimento è il tempo dell’n-mo evento di un Poisson di parametro λ1 + λ2
e quindi ha distribuzione Erlang di parametri n e λ1 + λ2 .
Inoltre per calcolare la probabilità che si esaurisca prima la scorta del prodot-
to 1, si osserva che, assumendo che le singole scorte ammontino a n1 e n2 con
n1 +n2 = n, questo accade se si verificano al più n2 −1 richieste del prodotto 2
(ovvero, almeno n1 richieste del prodotto 1) entro le prime n−1 = n1 +n2 −1
richieste. Infatti indicata con Ri , i = 1, 2 la v.a. che conta le richieste del
prodotto i entro le prime n − 1 richieste, si ha banalmente
R2 ≤ n2 − 1 =⇒ R1 ≥ n1
λ2
p2 = .
λ1 + λ2
Per dimostrare l’ultima uguaglianza si procede cosı̀: indicate con X e Y due
v.a. esponenziali rispettivamente di parametri λ e µ
∫ +∞
P(X < Y ) = P(X < Y | Y = y)µe−µy dy =
0
∫ +∞ ∫ +∞
−µy
P(X < y | Y = y)µe dy = P(X < y)µe−µy dy =
0 0
∫ +∞ ∫ +∞
λ
P(X ≤ y)µe−µy dy = (1 − e−λy )µe−µy dy = .
0 0 λ+µ
99
La proprietà del processo di Poisson che va sotto il nome di splitting
lavora al contrario della proprietà del merging: da un processo di Poisson si
generano due processi di Poisson indipendenti.
Si assume che (N (t))t≥0 sia un processo di Poisson di parametro λ e che
ogni evento del processo sia etichettato, in modo indipendente dagli altri,
come evento di tipo i = 1, 2 con probabilità pi , i = 1, 2, p1 + p2 = 1. Allora,
indicati con Ni (t), i = 1, 2, il numero degli eventi di tipo i verificatisi fino al
tempo t, i processi (N1 (t))t≥0 e (N2 (t))t≥0 sono processi di Poisson tra loro
indipendenti rispettivamente di parametri p1 λ e p2 λ.
Per dimostrare la proprietà precedente si verifica che, qualsiasi siano t > 0
e k e m naturali, vale
(p1 λt)k −p1 λt (p2 λt)m −p2 λt
P(N1 (t) = k, N2 (t) = m) = e e .
k! m!
Infatti si calcola
P(N1 (t) = k, N2 (t) = m) =
∑
+∞
P(N1 (t) = k, N2 (t) = m | N (t) = n)P(N (t) = n)
n=0
e, ricordando che N1 (t) + N2 (t) = N (t), risulta evidente che l’unico val-
ore possibile per n, indice della somma, è k + m e l’espressione precedente
coincide con
P(N1 (t) = k, N2 (t) = m | N (t) = k + m)P(N (t) = k + m).
Il primo fattore dell’espressione precedente per ipotesi si calcola come la
probabilità di k successi ciascuno di probabilità p1 su k + m prove indipen-
denti, mentre il secondo è il valore k + m della densità di una v.a. con legge
Poisson di parametro λt = λ(p1 + p2 )t (si ricordi p1 + p2 = 1). Quindi si
scrive ( ) ( )k+m
k + m k m λt
p1 p2 e−λ(p1 +p2 )t .
k (k + m)!
Usando il valore del coefficiente binomiale e riscrivendo l’esponenziale come
e−λp1 t e−λp2 t si ottiene proprio l’espressione voluta e la proprietà di splitting
è dimostrata.
∑N (t)
Si osservi che N1 (0) = 0 e per t > 0 N1 (t) può anche scriversi i=1 Di ,
dove le v.a. D1 , D2 , . . . sono i.i.d. di legge Bernoulli di parametro p1 , in-
dipendenti da (N (t))t≥0 .
Un processo (X(t))t≥0 uscente dallo 0 e definito al tempo t > 0 dalla formula
∑
N (t)
X(t) := Di ,
i=1
100
dove D1 , D2 , . . . sono i.i.d. a valori interi positivi indipendenti dal processo
(N (t))t≥0 , prende il nome di processo di Poisson composto. Si tratta di un
processo a valori in N con traiettorie costanti a tratti e continue a destra,
ma non necessariamente con salti unitari e quindi non necessariamente un
processo di conteggio.
Per esempio si può rappresentare con un processo di questo tipo l’ammontare
delle richieste di un certo prodotto in un generico istante se si assume che i
clienti che cercano il prodotto giungano secondo un flusso di Poisson e ogni
cliente chieda un numero aleatorio di pezzi del prodotto indipendente dal
numero di pezzi richiesti dagli altri clienti ma di stessa legge (la v.a.Di è il
numero di pezzi richiesti dal cliente i-mo).
Per il calcolo del valor medio del processo al tempo t si procede cosı̀
∑
+∞
E[X(t)] = E[X(t) | N (t) = n]P(N (t) = n).
n=1
∑
+∞ ∑
n ∑
+∞
E[Di ]P(N (t) = n) = E[D1 ] nP(N (t) = n) = E[D1 ]λt.
n=1 i=1 n=1
101
parametri e dunque (N1 (t) − N1 (t − T1 )) + (N2 (t) − N2 (t − T2 )) è v.a. di
Poisson di parametro λp1 T1 + λp2 T2 = λ(p1 T1 + p2 T2 ). Si conclude che per
tempi grandi, ovvero maggiori del massimo tra T1 e T2 , se la legge del tempo
di servizio è discreta a due valori, il numero degli sportelli occupati è v.a.
di legge Poisson di parametro pari al prodotto del numero medio dei clienti
in ingresso nel tempo unitario per il tempo medio di servizio.
Di fatto si può dimostrare che l’affermazione precedente è vera qualsiasi sia
la legge del tempo di servizio degli sportelli purché comune e di media finita.
( )
pk (s, t + ∆t) = pk−1 (s, t)λ(s + t)∆t + pk (s, t) 1 − λ(s + t)∆t + o(∆t).
Nel membro di destra dell’uguaglianza l’ultimo termine o(∆t) tiene conto
della trascurabile probabilità che nell’intervallo [s + t, s + t + ∆t) si verifichi
più di un evento. L’espressione precedente si può riscrivere
pk (s, t + ∆t) − pk (s, t) o(∆t)
= pk−1 (s, t)λ(s + t) − pk (s, t)λ(s + t) +
∆t ∆t
102
e mandando ∆t a zero, si ottiene, qualsiasi sia k ≥ 1,
d
pk (s, t) = pk−1 (s, t)λ(s + t) − pk (s, t)λ(s + t).
dt
In modo analogo si ricava che
d
p0 (s, t) = −p0 (s, t)λ(s + t).
dt
Risolvendo l’ultima equazione con dato iniziale p0 (s, 0) = 1 si ottiene
p0 (s, t) = e−(M(s+t)−M(s))
dove ∫ x
M (x) := λ(y) dy
0
e poi procedendo per ricorrenza si calcola, qualsiasi sia k ≥ 1, tenendo conto
che pk (s, 0) = 0,
(M(s + t) − M(s))k
pk (s, t) = e−(M(s+t)−M(s)) .
k!
Dunque l’incremento sull’intervallo (s, s + t] del processo di Poisson non
stazionario ha legge di Poisson di parametro M (s+t)−M (s). In particolare,
scegliendo s = 0, si ricava che la legge al tempo t del processo di∫ t Poisson
non stazionario è Poisson di parametro M (t) e dunque M (t) = 0 λ(y) dy
rappresenta il numero medio degli eventi che si verificano fino al tempo t
(incluso).
Si osserva che se si assume che λ(t) = λ per ogni t > 0 si ritrova la densità
degli incrementi del processo di Poisson stazionario.
(Sk ≤ t) = (N (t) ≥ k)
103
e l’indipendenza delle v.a. N (t) e N (T ) − N (t), si calcola
P(Sk ≤ t | N (T ) = n) =
P(N (t) ≥ k | N (T ) = n) =
P(N (t) ≥ k, N (T ) = n)
=
P(N (T ) = n)
∑n
j=k P(N (t) = j, N (T ) − N (t) = n − j)
=
P(N (T ) = n)
∑n
j=k P(N (t) = j)P(N (T ) − N (t) = n − j)
=
P(N (T ) = n)
∑n ( )j −λt ( )n−j
j=k λt e /j! λ(T − t) e−λ(T−t) /(n − j)!
( )n
λT e−λT /n!
104
vengono trasmessi istantaneamente.
Qual è il costo medio per la conservazione di tutti i messaggi arrivati tra
una trasmissione e la successiva?
Soluzione
Indicato con (N (t))t≥0 il processo di Poisson che conta i messaggi, il tempo
totale di conservazione dei messaggi è la v.a.
(T − S1 ) + (T − S2 ) + . . . + (T − SN (T ) )
e dunque, indicato con C il costo fisso per ogni unità temporale per ogni
singolo messaggio, il costo totale per la conservazione è
( )
C T − S1 + T − S2 + . . . + T − SN (T ) .
Dunque essendo C deterministico, condizionando al valore di N (T ) ∼ Poiss(λT)
e considerando che se non vi sono arrivi il costo nullo, si ottiene
[ ( )]
E C T − S1 + T − S2 + . . . + T − SN (T ) =
[ ]
CE T − S1 + T − S2 + . . . + T − SN (T ) =
+∞ [
∑ ] (λT )n
C E T − S1 + T − S2 + . . . + T − Sn | N (T ) = n e−λT =
n!
n=1
+∞ (
∑ [ ]) (λT )n
C nT − E S1 + S2 + . . . + Sn | N (T ) = n e−λT .
n!
n=1
105
Analogamente, se X è continua vale
∫ +∞ ∫ +∞
E[X] = P(X ≥ t) dt = P(X > t) dt.
0 0
Analoghe rappresentazioni valgono per il valor medio condizionato di v.a.
non negative. Dunque per la linearità della media condizionata, dopo aver
notato che per k ≤ n e t > T vale P(Sk > t | N (T ) = n) = 0, si scrive
[ ]
E Sk − Sk−1 | N (T ) = n =
[ ] [ ]
E Sk | N (T ) = n − E Sk−1 | N (T ) = n =
∫ +∞ ( ) ∫ +∞ ( )
P Sk > t | N (T ) = n dt − P Sk−1 > t | N (T ) = n dt =
0 0
∫ T ( ) ∫ T ( )
P Sk > t | N (T ) = n dt − P Sk−1 > t | N (T ) = n dt =
0 0
∫ T[ ]
P(Sk−1 ≤ t | N (T ) = n) − P(Sk ≤ t | N (T ) = n) dt.
0
Andando a sostituire le espressioni della distribuzione condizionata prece-
dentemente dimostrata ci si riduce al calcolo di
∫ T( )( ) (
n t k−1 t )n+1−k
1− dt =
0 k−1 T T
∫ 1( )
n
T sk−1 (1 − s)n+1−k ds
0 k − 1
che integrato per parti dà il risultato.
3 Processi di rinnovo
Si chiamano processi di rinnovo quei processi di conteggio per i quali gli
intertempi tra eventi successivi sono v.a. i.i.d. di media finita. Dunque i
processi di Poisson sono particolari processi di rinnovo. In un processo di rin-
novo gli eventi sono pensati come rinnovi nel senso di nuove inizializzazioni
di situazioni che hanno una durata aleatoria indipendente dalle precedenti
ma sempre statisticamente la stessa. Ad esempio sono processi di rinnovo
quelli che contano le sostituzioni immediate di apparecchiature identiche a
tasso di guasto non necessariamente costante e quindi per esempio soggette
ad usura. Si ricorda la nozione di tasso di guasto di una distribuzione di
v.a. X non negativa continua. Si calcola
P(t < X < t + ∆t | X > t) =
∫ t+∆t
t fX (x) dx fX (t)∆t + o(∆t) fX (t)
= = ∆t + o(∆t),
1 − FX (t) 1 − FX (t) 1 − FX (t)
106
dove la seconda uguaglianza discende dal teorema fondamentale del calco-
lo integrale. Si definisce tasso di guasto o rischio al tempo t (della dis-
tribuzione) di X la quantità
fX (t)
.
1 − FX (t)
Dalle precedenti uguaglianze segue che
fX (t)
∆t
1 − FX (t)
costituisce, a meno di termine trascurabili rispetto a ∆t, un’approssimazione
per la probabilità che un’apparecchiatura con tempo di vita X e ancora in
vita al tempo t, si guasti tra t e t + ∆t. A secondo che il tasso di rischio ri-
manga costante o no nel tempo l’apparecchiatura non è soggetta o è soggetta
all’usura ed in particolare se il tasso di rischio rimane costante, cresce o de-
cresce nel tempo allora l’aspettativa sul tempo di vita dell’apparecchiatura
in seguito all’utilizzo rispettivamente rimane la stessa, peggiora o migliora.
Indicato con r(t) il tasso di rischio al tempo t, integrando l’uguaglianza
fX (t)
r(t) =
1 − FX (t)
si ottiene ∫ t
ln(1 − FX (t)) = − r(s) ds
0
ovvero ∫t
1 − FX (t) = e− 0 r(s) ds
107
degli intertempi sia esponenziale quella che sia una qualsiasi legge di vari-
abile aleatoria non negativa (non banale) con media finita (non nulla).
Innanzitutto si deve osservare che in un tempo finito il numero dei rin-
novi può soltanto essere finito. Infatti, indicata con µ > 0 la media degli
intertempi, la legge forte dei grandi numeri implica che
X1 + . . . + Xn Sn
lim = lim =µ
n→+∞ n n→+∞ n
con probabilità 1 e questo implica che con probabilità 1
lim Sn = +∞.
n→+∞
che riduce il calcolo della densità di N (t) alla conoscenza della funzione di
ripartizione dei tempi Sn , n ≥ 1. Il valore medio del processo di rinnovo ad
un tempo t fissato, cioè
M (t) := E[N (t)]
si calcola a partire dalla funzione di ripartizione dei tempi Sn , n ≥ 1
per mezzo della formula
∑
+∞
M (t) = P(Sk ≤ t)
k=1
∑
che segue immediatamente dalla formula M (t) = +∞ k=1 P(N (t) ≥ k), vera
essendo N (t) v.a. non negativa (vedi Paragrafo 2.5).
Nel seguito ci si limita a considerazioni asintotiche sul valore medio del
processo di rinnovo ad un tempo t fissato, M (t), e sul valore medio del
tempo che occorre attendere a partire da t affinché si verifichi un rinnovo,
cioè E[γt ] dove, come per il processo di Poisson, si definisce
γt := SN (t)+1 − t.
108
Si ricordi subito che nel particolare caso del processo di Poisson di parametro
λ, poiché vale µ = λ1 , valgono le uguaglianze
t
M (t) = E[γt ] = µ,
µ
dove in particolare l’ultima uguaglianza segue dalla proprietà di perdita di
memoria del processo di Poisson. Dunque per il processo di Poisson la fun-
zione di rinnovo è lineare e il tempo medio di vita residuo è costante nel
tempo.
Per i processi di rinnovo con intertempi di rinnovo non esponenziali la fun-
zione di rinnovo non è lineare ma lo è asintoticamente e il tempo medio di
vita residua non è costante ma lo è asintoticamente. Più precisamente si
può dimostrare che quando gli intertempi di rinnovo sono v.a. continue con
momento secondo finito, ovvero E[X12 ] < +∞, valgono per tempi grandi le
due approssimazioni seguenti
t E[X12 ] E[X12 ]
M (t) ≈ + −1 E[γt ] ≈ .
µ 2µ2 2µ
Qui non si dimostra la prima approssimazione, ma si spiega come dalla prima
si ricava la seconda e a questo scopo si introduce e si dimostra un lemma
interessante di per sé: si tratta dell’equazione di Wald che generalizza il
risultato relativo al valore medio della somma di un numero aleatorio di
termini aleatori indipendenti di stessa legge visto per il processo di Poisson
composto.
109
quanto unione di eventi per ipotesi indipendenti dalla v.a.Di . Inoltre si sa
che il valor medio del prodotto di v.a. indipendenti è il prodotto dei valori
medi e quindi l’espressione precedente coincide con
∑
+∞
E[Di ] E[Ii≤N ].
i=1
Si
∑+∞ conclude osservando che le v.a. Di hanno tutte media E[D1 ] e che
i=1 P(N ≥ i) = E[N ].
E[X12 ]
E[γt ] ≈
2µ
Ricordando che V ar(X1 ) = E[X12 ] − µ2 , l’approssimazione si riscrive
( V ar(X ) )µ
1
E[γt ] ≈ + 1 .
µ2 2
Si osservi che
( V ar(X ) )µ √
1 V ar(X1 ) V ar(X1 )
2
+1 > µ ⇐⇒ 2
> 1 ⇐⇒ > 1.
µ 2 µ µ
Per una generica√ v.a. Z, di media µ e con varianza finita si può leggere
V ar(Z)
il coefficiente , ricordando il significato di media e varianza, come
µ √
V ar(Z)
una misura della regolarità della distribuzione e in particolare µ >
1 indica una distribuzione irregolare. Sono irregolari in questo senso per
esempio le v.a. con distribuzione Γ(α, λ) per α > 1, qualsiasi sia λ > 0.
Il fatto che per distribuzioni degli intertempi irregolari il tempo medio di
vita residua si approssima con un valore che supera la media degli intertempi
si ricorda con il nome di paradosso del tempo di attesa: se le partenze ai
capolinea sono irregolari arrivando a caso ad una fermata si aspetta in media
più del tempo medio tra una partenza e l’altra.
110
4 Catene di Markov a tempo continuo
4.1 Definizione
La generalizzazione al tempo continuo del concetto di catena di Markov a
tempo discreto e a valori discreti è naturale.
Una famiglia di v.a. (X(t))t≥0 a valori in S discreto definite tutte sullo
stesso spazio di probabilità è una catena di Markov a tempo continuo se,
qualsiasi sia n, qualsiasi siano t0 , t1 , . . . tn+1 , qualsiasi siano i, j, i0 , . . . , in−1
in S (quando le probabilità condizionate hanno senso)
P(X(tn+1 ) = j | X(tn ) = i, X(tn−1 ) = in−1 , . . . , X(t0 ) = i0 ) =
P(X(tn+1 ) = j | X(tn ) = i).
Qui si considera il caso omogeneo ovvero quello in cui, fissato t ≥ 0, per ogni
s≥0
pij (t) := P(X(t) = j | X(0) = i) = P(X(s + t) = j | X(s) = i)
e pij (t) è detto probabilità di transizione da i a j nel tempo t. Vale natural-
mente pij (0) = Ii (j).
111
Richiedere la proprietà di Markov equivale allora a richiedere che indicata
con f (t) la probabilità cercata valga
( )n
f (t) = lim pii (t/n) .
n→+∞
e per ogni α razionale esiste una successione divergente di interi della forma
m = n/α da cui
( )n ( )αm
lim pii (αt/n) = lim pii (t/ m) = f (t)α .
n→+∞ m→+∞
112
elemento non nullo, pi,i+1 = 1. Infine il processo di Poisson, come ogni pro-
cesso di rinnovo, ammette su un intervallo di tempo finito solo un numero
finito di salti.
Viene naturale chiedersi se, dati su di uno stesso spazio di probabilità
un processo di Poisson (N (t))t≥0 di parametro λ e una catena di Markov a
tempo discreto (Zn )n≥0 , il processo definito con
sia una catena di Markov a tempo continuo (qui Sn è come al solito l’n-mo
tempo di salto del processo di Poisson). Si noti che il processo introdotto
si può anche scrivere cosı̀: (ZN (t) )t≥0 . La risposta è affermativa. Il punto
è che se la matrice di transizione di (Zn )n≥0 ha almeno un elemento della
diagonale diverso da 1 e da 0, ovvero la catena (Zn )n≥0 ha almeno uno stato
non assorbente i con probabilità di transizione in se stesso non nulla, i tempi
di salto di (X(t))t≥0 sono un sottoinsieme eventualmente proprio dei tempi
di salto di (N (t))t≥0 e il tempo di soggiorno in i risulta esponenziale di
parametro λ(1−pii ) (in generale si può dimostrare che somma di un numero
aleatorio, con distribuzione geometrica di parametro p di v.a. esponenziali
di parametro λ è esponenziale di parametro λp).
Va anche notato che ogni catena di Markov a tempo continuo, (X(t))t≥0 ,
contiene una catena di Markov a tempo discreto, (Zn )n≥0 : posto S0 := 0 e
detti Sn , n ≥ 1 i tempi di salto di (X(t))t≥0 , si pone Zn := X(Sn ), n ≥ 0.
Naturalmente la matrice dei salti P della catena a tempo continuo coincide
con la matrice di transizione P della catena a tempo discreto e dunque per la
dinamica discreta gli stati non assorbenti hanno probabilità nulla di tornare
dopo un passo in se stessi.
113
funzione di transizione al tempo t, in analogia al caso discreto, qualsiasi sia
t ≥ 0, si può scrivere
πt = π0 P(t)
(P(0) è la matrice identità). Dunque il problema si sposta su come calcolare
la funzione di transizione P(t), t ≥ 0 a partire dalla dinamica, ovvero dai
parametri dei tempi di permanenza νi , i = 1, 2, . . . e dalla matrice delle
probabilità di salto P.
Si può dimostrare che la funzione di transizione soddisfa le seguenti equazioni
differenziali
P ′ (t) = QP(t)
P ′ (t) = P(t)Q,
dove Q è cosı̀ definita
qij = νi pij , i ̸= j
qii = −νi .
Si può osservare che, con le convenzioni adottate sul valore di νi per i assor-
bente, nella matrice Q una riga corrispondente ad uno stato assorbente è tut-
ta nulla. Del resto, ricordando che P(0) è la matrice identità, dalle equazioni
si ricava che P ′ (0) = Q e se i è assorbente, qualsiasi sia t, pij (t) = Ii (j) per
ogni j e quindi p′ij (t) = 0 per ogni j.
Le precedenti equazioni (matriciali) sono note rispettivamente con il nome
di equazioni all’indietro e all’avanti di Kolmogorov. Riscrivendole in forma
estesa si trova ∑
p′ij (t) = qik pkj (t)
k
∑
p′ij (t) = pik (t)qkj
k
∑
Si dimostra l’equazione all’indietro, p′ij (t) = k qik pkj (t), nel modo
seguente.
Se lo stato i è assorbente p′ij (t) = 0 qualsiasi sia j e qik = 0 qualsiasi sia k e
114
quindi l’equazione è vera. Se lo stato i non è assorbente, indicato con T1 il
tempo di primo salto della catena di Markov, si scrive
pij (t) = P(T1 > t, X(t) = j | X(0) = i) + P(T1 ≤ t, X(t) = j | X(0) = i).
P(X(t) = j | X(0) = i, T1 = s) =
∑
P(X(t) = j, X(T1 ) = k | X(0) = i, T1 = s) =
k̸=i
∑
P(X(t) = j | X(T1 ) = k, X(0) = i, T1 = s)P(X(T1 ) = k | X(0) = i, T1 = s) =
k̸=i
∑
P(X(t) = j | X(s) = k)P(X(T1 ) = k | X(0) = i)
k̸=i
∑
pkj (t − s)pik
k̸=i
In conclusione
∫ t∑
−νi t −νi t
pij (t) = Ii (j)e + νi e pkj (u)pik eνi u du
0 k̸=i
115
e la funzione t → pij (t) è derivabile in quanto composizione di funzioni
derivabili, con derivata pari a
( ∫ t∑ ) ∑
−νi t
−νi Ii (j)e + νi e
νi t
pkj (u)pik eνi u du + νi pkj (t)pik
0 k̸=i k̸=i
cioè a ∑
−νi pij (t) + νi pkj (t)pik
k̸=i
116
∑
dove nell’ultima riga si usa j̸=i pij = 1.
Si deve anche notare che dati i parametri infinitesimali, ovvero data Q, la
dinamica è assegnata. Infatti si calcolano i parametri dei tempi di soggiorno
νi , i = 1, 2, . . . e la matrice delle probabilità di salto P nel modo seguente: se
la riga i-ma di Q è nulla allora νi = 0 e la riga i-ma di P ha solo l’elemento
sulla diagonale non nullo, ovvero i è stato assorbente; altrimenti
∑ qij
νi = qij , pij = .
νi
j̸=i
In conclusione cosı̀, come nel caso tempo discreto una dinamica markoviana
è individuata dalla matrice di transizione P, nel caso tempo continuo una
dinamica markoviana è individuata dalla matrice dei parametri infinitesimali
Q.
qij ̸= 0 ⇐⇒ |i − j| ≤ 1
λi := qi,i+1 , i ≥ 0 µi := qi,i−1 , i ≥ 1
νi = λi + µi , ν0 = λ 0
117
ovvero
p′00 (t) = −λp00 (t) + λp10 (t)
p′10 (t) = −µp10 (t) + µp00 (t),
avendo posto per semplicità λ = λ0 e µ = µ1 . Sottraendo la seconda
equazione dalla prima si ottiene
( )′ ( )( )
p00 (t) − p10 (t) = − λ + µ p00 (t) − p10 (t)
p′ij (t) = qi,i−1 pi−1,j (t) + qii pij (t) + qi,i+1 pi+1,j (t)
118
Si chiamano catene di pura nascita le catene di Markov a tempo continuo
con µi = 0 qualsiasi sia i e quindi νi = λi e pi,i+1 = 1. Le equazioni di
Kolmogorov si scrivono
per j > i, pij (t) si calcola ricorsivamente da una delle due equazioni di
Kolmogorov. Infatti utilizzando, per esempio, l’equazione all’avanti
∫ t
pij (t) = λj−1 e−λj (t−s) pi,j−1 (s) ds.
0
119
duplica con probabilità p o muore con probabilità 1 − p, indipendentemente
dagli altri; nuovi individui si aggiungono alla popolazione seguendo un flusso
di Poisson di parametro β ≥ 0 indipendente dalle altre variabili aleatorie del
processo. Si determinano i parametri dei tempi di permanenza della catena
nei singoli stati. Se la popolazione non ha individui, ovvero il processo è
nello stato 0, arriverà un nuovo individuo dopo un tempo σ ∼ esp(β) e
quindi
ν0 = β.
Altrimenti se nella popolazione ci sono i ≥ 1 individui (numerati), indicati
con τ1 , τ2 , . . . , τi i tempi di quiescenza degli individui e indicato con T1 il
tempo di primo salto del processo, varrà
T1 = min(σ, τ1 , τ2 , . . . , τi )
νi = β + i α, i ≥ 1.
pi,i−1 =
P(X(T1 ) = i − 1 | X(0) = i) =
P(X(T1 ) = i − 1, T1 ̸= σ | X(0) = i) =
P(X(T1 ) = i − 1 | T1 ̸= σ, X(0) = i)P(T1 ̸= σ | X(0) = i).
P(X(T1 ) = i − 1 | T1 ̸= σ, X(0) = i) = 1 − p.
Inoltre ( )
(T1 ̸= σ) = min(τ1 , τ2 , . . . , τi ) < σ
e, poiché le v.a. σ e min(τ1 , τ2 , . . . , τi ) sono, condizionatamente a X(0) = i,
indipendenti ed esponenziali rispettivamente di parametro β e iα, allora
( ) iα
P T1 ̸= σ | X(0) = i =
β + iα
120
(si ricordi: date due esponenziali indipendenti allora, se X ∼ esp(λ) e Y ∼
esp(µ), si ha Y < X con probabilità µ/(λ + µ)). In definitiva
iα(1 − p)
pi,i−1 = .
β + iα
Di conseguenza
β + iαp
pi,i+1 = 1 − pi,i−1 = .
β + iα
I tassi di nascita e morte sono dunque
λi = λ, i ≥ 0 µi = iµ, i ≥ 1 µ0 = 0.
E’ ovvio che, avendo stabilito una regola di precedenza per i clienti in attesa
di servizio (per esempio, first in first out ovvero l’ordine di arrivo diven-
ta ordine di servizio), il primo cliente in attesa nel caso infiniti sportelli
121
viene servito subito mentre in questo caso aspetta un tempo esponenziale di
parametro N µ (si ricordi la perdita di memoria dell’esponenziale). Quanto
tempo in media aspetterà il secondo cliente in fila?
∑
i∧j
( )
pij (t) = P Y (t) = k, Z(t) = j − k | X(0) = i .
k=0
∑
i∧j
( ) )
pij (t) = P Y (t) = k | X(0) = i P(Z(t) = j − k | X(0) = i .
k=0
Per quanto riguarda il secondo fattore, per la formula delle probabilità totali,
se N (t) conta tutti i clienti entrati in coda dopo il tempo iniziale ma entro
il tempo t, si ha
( )
P Z(t) = j − k | X(0) = i =
∑
P(Z(t) = j − k | N (t) = n, X(0) = i)P(N (t) = n | X(0) = i)
n≥j−k
122
al tempo t,
( )
P Z(t) = j − k | X(0) = i =
∑ ( n ) j−k
q (1 − qt )n−j+k P(N (t) = n | X(0) = i) =
j−k t
n≥j−k
∑ ( n ) j−k (λt)n −λt
qt (1 − qt )n−j+k e =
j−k n!
n≥j−k
( )
j−k (λt)
j−k ∑ λt(1 − qt ) n−j+k
−λt
qt e =
(j − k)! (n − j + k)!
n≥j−k
(λt)j−k
qtj−k e−λqt t .
(j − k)!
Cosı̀ in definitiva
i∧j ( )
∑ i (λqt t)j−k −λqt t
pij (t) = e−kµt (1 − e−µt )i−k e .
k (j − k)!
k=0
Inoltre, detto τ il tempo di arrivo del generico cliente entrato in coda dopo
il tempo iniziale, si può calcolare qt condizionando al valore di τ cosı̀
∫ +∞
qt = e−µ(t−s) fτ (s) ds.
−∞
123
di servizio di legge qualsiasi con media finita. In particolare per esempio lo si
è dimostrato come applicazione dello splitting nel caso di tempo di servizio
a due valori.
Si tratta del secondo esempio, dopo quello della catena a due stati, di conver-
genza della funzione di transizione al divergere del tempo ovvero di ciò che,
in analogia con il caso tempo discreto, si definisce comportamento ergodico
delle catene di Markov a tempo continuo.
w = wP(t),
w = wP(t), ∀t ⇐⇒ wQ = 0.
124
∑ vj vi /νi
v = vP, < +∞ =⇒ wQ = 0, wi := ∑ , ∀i.
νj j vj /νj
j
Si ricava qui soltanto la prima delle due implicazioni. L’ipotesi implica che
qualsiasi sia j ∑ ∑
wk qkj = wk qkj + wj qjj = 0
k k̸=j
da cui ∑
wk qkj = −wj qjj = wj νj .
k̸=j
Riferimenti bibliografici
[1] P.Baldi, Calcolo delle probabilità e statistica, Milano : McGraw-Hill,
1992
[2] P.Bremaud, Markov Chains, Gibbs fields, Monte Carlo simulation and
queues, New York : Springer, 1999
[3] P.G.Hoel, S.C.Port, C.J.Stone, Introduction to Stochastic Processes,
Boston: Houghton Mifflin, c1972
125
[4] S.M.Ross, Introduction to Probability Models, San Diego [etc.] :
Harcourt Academic Press, 2000
126