Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
ai
Processi Stocastici
E. Vardaci 1
Processo Stocastico
E. Vardaci 2
Processo Stocastico (2)
E. Vardaci 3
E. Vardaci 4
Variabile Aleatoria o Stocastica
∫ p(x )dx = 1
b
x ∈ [ a, b]
a
E. Vardaci 5
{X t , t ∈ T }
Un processo stocastico Xt e’ una collezione di variabili aleatorie
contraddistinte da un parametro t. Ad ogni valore di t
corrisponde una successione, in generale diversa, di valori di X
E. Vardaci 6
Definizione di Processo Stocastico (2)
Xt ∈Ω Insieme dei
valori di X
Spazio degli stati di X
{X t (s ), t ∈ [− ∞ , +∞ ] }
e’ detta una realizzazione o una traiettoria del processo.
E. Vardaci 8
Traiettorie di un Processo Stocastico (2)
E. Vardaci 9
E. Vardaci 10
Caratterizzazione di un Processo Stocastico
E. Vardaci 11
Processo Indipendente
n
f ( x ( t1 ),...., x ( t n ) ) = ∏ P (x (t ) )
X i
i =1
E. Vardaci 12
Processo Stocastico Stazionario
Una prima semplificazione dell’insieme dei processi stocastici
la si ottiene con la definizione di stazionarieta’.
M k ( X (t i ) ) = M k ( X (t i + k ) )
E. Vardaci 14
Esempio: 1-D Random Walk
X v.a. posizione al tempo n = 0, 1, 2
⎛ 1 −1 ⎞
η = ⎜⎜ 1 1 ⎟
⎟ xn = xn −1 + η n
⎝ 2 2⎠
xn = η1 + η 2 + .... + η n
E. Vardaci 15
E. Vardaci 16
Catena di Markov
Un processo stocastico a tempi discreti e’ una Catena di
Markov se per t=1, 2, 3... e per tutti gli stati (a valori finiti o
numerabili), si ha che
P( X t +1 = it +1 | X t = it , X t −1 = it −1 ,..., X 1 = i1 , X 0 = i0 )
= P( X t +1 = it +1 | X t = it )
P( X t +1 = j | X t = i ) = pij ∀ t
Probabilita’ di transizione da i → j
pij = probabilita’ (ad un passo) che al tempo t+1 il processo fara’ una
transizione nello stato j, essendo nello stato i al tempo t
E. Vardaci 18
Matrice di Transizione o Stocastica (1/2)
Se l’insieme Ω degli stati e’ finito, le probabilita’ pij
costituiscono una matrice quadrata, il cui ordine e’ pari alla
cardinalita’ dell’insieme Ω, e possiedono le seguenti proprieta’:
E. Vardaci 19
pij
p jk
i
pii j k
E. Vardaci 20
Catena di Markov omogenea a due stati
j
i
⎛α 1 − α ⎞
P= ⎜⎜ ⎟⎟ Ω = { x1 , x2 }
⎝ β 1− β ⎠
E. Vardaci 21
P( X m + n = j | X m = i ) = P( X n = j | X 0 = i ) = Pij( n )
Equazione di Chapman-Kolmogorov
E. Vardaci 23
P( n+m)
ij = ∑P P = P n
ik
m
kj
n+m
ij
k
P ( n+m) = P ( n) ⋅ P ( m)
Le equazioni di Chapman-Kolmogorov consentono di ricavare la
matrice di transizione in n passi, la quale coincide con la potenza
n-esima della matrice di stocastica
E. Vardaci 24
Chapman - Kolmogorov (2)
(1+1)
P ( 2)
=P =P (1)
⋅P (1)
= P ⋅P = P 2
( n −1+1) n −1
P (n)
=P =P ⋅P = P
1 n
E. Vardaci 25
P( X 2 = 1 | X 0 = 2 ) = P212
E. Vardaci 26
Esempio: Catena di Markov a due stati (3)
Se una persona compra CC1, qual’e’ la probabilita’
che compri ancora CC1 dopo tre acquisti?
P( X 3 = 1 | X 0 = 1) = P113
P P2
E. Vardaci 27
E. Vardaci 28
Esempio: Catena di Markov a due stati (5)
π (1)
1 =π (0)
1 p11 + π (0)
2 p21 π (1)
1 = ∑ π m( 0 ) pm1
m =1
2
π (1)
2 =π (0)
1 p12 + π (0)
2 p22 π (1)
2 = ∑ π m( 0 ) pm 2
m =1
2
π (1)
n = ∑ π m( 0 ) pmn
E. Vardaci m =1 29
E. Vardaci 30
Esempio: Catena di Markov a due stati (7)
⎛ 0.60 0.40 ⎞
P = ⎜⎜ ⎟⎟ (π (0)
1 )
, π 2( 0 ) = (0 . 5, 0 . 5 )
⎝ 0.30 0.70 ⎠
⎛ 0.6 0.4 ⎞
(π (1)
1 ,π (1)
2 ) = (0.5, 0.5)⎜⎜ ⎟⎟ = (0.45, 0.55)
⎝ 0.3 0.7 ⎠
⎛ 0.6 0.4 ⎞
(π ( 2)
1 ,π ( 2)
2 ) = (0.45, 0.55)⎜⎜ ⎟⎟ = (0.435, 0.565)
⎝ 0.3 0.7 ⎠
Si trova che questi valori diventano stazionari
E. Vardaci 31
stato finale
E. Vardaci 32
Classificazione degli Stati
E. Vardaci 33
E. Vardaci 34
Esempio di catena ergodica
E. Vardaci 35
Distribuzione di equilibrio
E. Vardaci 36