Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Descripcin
1
04/09/2017
2
04/09/2017
3
04/09/2017
Cadena de Markov..
En nuestro estudio de las cadenas de Markov, hacemos la
suposicin subsecuente que para todos los estados i y j y
todos los t, P(Xt+1 = j|Xt = i) es independiente de t.
Esta suposicin nos permite escribir P(Xt+1 = j|Xt = i) = pij
donde pij es la probabilidad de que dado que el sistema
esta en el estado i al tiempo t, estar en un estado j en el
tiempo t+1.
Si el sistema se mueve desde el estado i durante un
periodo al estado j durante el siguiente periodo, decimos
que ha ocurrido una transicin de i a j.
4
04/09/2017
Cadena de Markov..
Las pijs son referidas como las probabilidades de
transicin para la cadena de Markov.
Esta ecuacin implica que la ley de probabilidad que
relaciona el estado en el siguiente periodo con el estado
actual no cambia con el tiempo.
Con frecuencia se le llama suposicin de
Estacionariedad y cualquier cadena de Markov que
satisface esta suposicin es llamada cadena de Markov
estacionaria.
Tambin debemos definir qi como la probabilidad de que
la cadena este en el estado i al tiempo 0; en otras
palabras, P(X0=i) = qi.
Cadena de Markov..
Llamamos al vector q= [q1, q2,qs] la distribucin de
probabilidad inicial para la cadena de Markov.
10
5
04/09/2017
Cadena de Markov..
Dado que el estado en el tiempo t es i, el proceso tiene
que estar en algn estado en el tiempo t +1. Esto significa
que para cada estado i:
11
Estado i
12
6
04/09/2017
Estado i
Grficamente:
13
14
7
04/09/2017
Estado
15
16
8
04/09/2017
17
18
9
04/09/2017
10
04/09/2017
11
04/09/2017
24
12
04/09/2017
25
Ejemplo de Inventarios
La tienda de computadoras Just a Bit vende un modelo especial de
laptop que puede reabastecer cada semana. Sea D1, D2, , la demanda
semanal (incluye ventas perdidas) afectando el nivel de inventario al
final de la semana:
Dt = numero de laptops que se venderan en la semana t si el
inventario no se agota (incluye ventas perdidas cuando se agota
el inventario).
Las demandas Dt son vars. aleatorias independientes e idnticamente
distribuidas que siguen una fdp. de Poisson con media = 1.
Sea X0 el numero de laptops que se tienen en el tiempo 0, X1 el
numero de laptops al final de la semana 1, entonces la var. aleatoria:
Xt = numero de laptops disponibles al final de la semana t.
Por ejemplo, supongamos que X0 = 3 (semana 1 inicia con 3 laptops)
Entonces {Xt } = {X0, X1, X2, } es un proceso estocstico donde la var.
aleatoria Xt representa el estado del sistema en el tiempo t.
26
13
04/09/2017
Ejemplo de Inventarios..
El sbado en la noche se reordenan ms laptops al proveedor que
entrega el Lunes a la hora que abre la tienda. La tienda tiene la
siguiente poltica de ordenar:
Si Xt = 0, ordenar 3 laptops al proveedor
Si Xt 1, no se ordenan laptops al proveedor
Por lo tanto el inventario flucta entre 0 y 3 laptops, por lo que los
estados del sistema al final de cada semana son 0, 1, 2 y 3 laptops.
Como cada var. aleatoria Xt (t=0, 1,2,..) representa el estado del
sistema al final de la semana t, sus nicos valores son , 1, 2 y 3. Las
vars. aleatorias Xt son dependientes y se pueden evaluar en forma
iterativa por medio de la expresin:
Ejemplo de Inventarios..
Entonces la matriz de transicin de 1 paso seria:
dado que Dt+1 tiene una fdp. Poisson con media = 1 entonces:
28
14
04/09/2017
Ejemplo de Inventarios..
Entonces el primer rengln de la matriz de transicin P de 1 paso
cuando Xt = 0 a algn estado Xt+1 como 0, 1, 2, o 3:
P00 = implica que se repusieron las 3 laptops y la demanda fue de
3 o mas para volver a dejar el inventario en 0, es decir:
Ejemplo de Inventarios..
En el ultimo rengln de P la semana t+1 inicia con 3 laptops lo cual es
equivalente al primer rengln donde se ordenaron 3 laptops para
iniciar semana, por lo que la matriz P completa queda:
Grficamente:
30
15
04/09/2017
Ejemplo de Inventarios..
Podramos estar interesados en por ejemplo si tenemos solo 1 laptop
al final de la semana , la probabilidad de que no haya laptops en
inventario 2 semanas despus:
31
Ejemplo de Inventarios..
Ahora bien, se puede obtener la matriz P(4) mediante:
32
16
04/09/2017
33
17
04/09/2017
18
04/09/2017
1 1
1
2
3
1
19
04/09/2017
Ergdica
Ergdica No ergdica
39
40
20
04/09/2017
El vector = [1 2 s] es frecuentemente
denominado distribucin de estado-estable, o
distribucin de equilibrio para la cadena de Markov.
41
21
04/09/2017
22
04/09/2017
46
23
04/09/2017
(6)
24
04/09/2017
50
25
04/09/2017
51
52
26
04/09/2017
(7)
54
27
04/09/2017
m30
m20
m10
56
28
04/09/2017
0
1
2
3
Si queremos por ejemplo completar la columna del estado 1 y 2
evitando el rengln y columna de P donde i = j:
57
58
29
04/09/2017
Cadenas Absorbentes..
Para responder, necesitamos escribir la matriz de transicin con
los estados listados en el siguiente orden:
Primero estados transitorios
Despus estados absorbentes
Suponemos que tenemos s m estados transitorios (t1, t2, ts-m)
y m estados absorbentes (a1, a2, ..am). Entonces la matriz de
transicin es escrita en la forma de:
s-m m
columnas columnas
s-m renglones
P=
m renglones
P corresponde a los estados t1, t2, ts-m y a1, a2, ..am , I es la matriz
identidad de m x m que es absorbente, Q la matriz (s-m)x(s-m)
representa la transicin entre estados, R es una matriz de (s-m)x(m)
para la transicin de estados transitorios a absorbentes, 0 son ceros
59
representando que es imposibles ir de edos. absorbentes a transitorios.
Cadenas Absorbentes..
Ahora podemos responder a las preguntas anteriores:
Si la cadena inicia en un estado transitorio dado y antes de que
alcancemos un estado absorbente, Cul es el numero esperado
de veces que se va a entrar a cada estado?
Respuesta: Si estamos en el estado transitorio ti, el nmero
esperado de periodos que se estar en estado tj antes de la
absorcin es el ij-avo elemento de (I Q)-1 .
+++
Cuntos periodos esperamos estar en un estado transitorio dado
antes de que la absorcin tome lugar?
Respuesta: Si estamos en el estado transitorio ti, la
probabilidad de absorcin en estado absorbente aj es el ij-avo
elemento de la matriz (I Q)-1 R.
30
04/09/2017
0 I 62
31
04/09/2017
Recordar que:
Entonces:
63
64
32
04/09/2017
65
Junior
Senior
Asociado
Retirado no/socio
Retirado socio
33
04/09/2017
Junior
Senior
Asociado
Retirado no/socio
Retirado socio
Entonces s = 5 y m = 2
67
Despus:
34
04/09/2017
69
70
35
04/09/2017
71
72
36
04/09/2017
37
04/09/2017
38
04/09/2017
Junior
Senior
Asociado
77
39
04/09/2017
40
04/09/2017
81
41
04/09/2017
83
84
42
04/09/2017
85
86
43
04/09/2017
88
44
04/09/2017
89
90
45
04/09/2017
91
46
04/09/2017
94
47
04/09/2017
Polticas aleatorizadas
La introduccin de Dik proporciona una motivacin para formular un
modelo de programacin lineal. Se piensa que el costo esperado de
una poltica se puede expresar como una funcin lineal de la Dik o de
alguna variable relacionada, sujeta a restricciones lineales.
Desafortunadamente, los valores de Dik son enteros (0 o 1) y se
requieren variables continuas para la formulacin de programacin
lineal.
95
48
04/09/2017
97
3. Yik 0 para i = 0, 1, . . . , M y k = 1, 2, . . . , K.
98
49
04/09/2017
Minimizar
Sujeto a: (1)
(2) para j = 0, 1, . , M
50
04/09/2017
Decisin a Edo:
1 nada 1, 2, 3
2 reparac. 1
3 reemp. 0
De manera que:
Esta poltica indica que debe dejarse la mquina como est (decisin
1) cuando se encuentre en el estado 0 o 1, debe hacerse una
reparacin general (decisin 2) cuando est en el estado 2 y debe
reemplazrsela (decisin 3) si est en el estado 3. Costo $1,667.
sta es la misma poltica que se encontr mediante la enumeracin.
102
51
04/09/2017
103
R1= R2=
104
52
04/09/2017
Mtodo de enumeracin
exhaustiva:
Polticas disponibles:
105
106
53
04/09/2017
adems de
107
54
04/09/2017
109
55