Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Discreto
Modelos Estocásticos
Profesor Alvaro J Cepeda Ortiz
alvarocepeda@Hotmail.com
Unidad 4: Proceso de Renovación
2 Ecuaciones de Chapman-Kolmogorov
alvarocepeda@Hotmail.com
Introducción a las Cadenas de Markov
Matriz de Transición
Existen casos en que toman en cuenta la incertidumbre acerca de MUCHOS eventos futuros
posibles. Por lo que existen modelos de probabilidad para procesos que evolucionan en el
tiempo de manera probabilística. Lo que hemos visto hasta ahora son procesos estocásticos
que tienen estas características.
Las cadenas de markov tienen la particularidad de que las probabilidades que describen la
forma en que el proceso evolucionará en el futuro dependen sólo del estado actual en que se
encuentra el proceso, por lo que es independiente del pasado.
Estados: {1,2,………s}
Estados:
{1,2,………s}
alvarocepeda@Hotmail.com
Definición Formal Cadena de Markov
Una cadena de Markov es un proceso estocástico a tiempo discreto {Xn:n=0, 1, . . }, con espacio
de estados discreto, y que satisface la propiedad de Markov, esto es, para cualquier entero n
>0, y para cualesquiera estados x0, . . . , xn+1, se cumple:
Tomaremos como espacio de estados de una cadena de Markov al conjunto discreto {0,1,2…},
o cualquier subconjunto finito que conste de los primeros elementos de este conjunto. Cuando
el espacio de estados es finito se dice que la cadena de Markov es finita.
alvarocepeda@Hotmail.com
Introducción a las Cadenas de Markov
alvarocepeda@Hotmail.com
Ejemplo Markov
Una urna contiene 2 bolas sin pintar en su estado presente. Se elige una bola tirando una
moneda al aire. Si la bola no está pintada y la moneda es “cara”, se pinta la bola de color rojo; sí
la bola no está pintada y la moneda es “sello”, se pinta la bola de color negro. Sí la bola está
pintada (ya sea rojo o negro), se cambia el color de la bola (de rojo a negro o bien de negro a
rojo).
1. Encuentre la matriz de transición del problema.
2. Confeccionar el diagrama de markov
Podemos definir el un [s r n], donde s: n°bolas sin pintar; r: n°bolas rojas; rn n°bolas negras.
alvarocepeda@Hotmail.com
Ejemplo Markov
alvarocepeda@Hotmail.com
Inventarios
máx 3 Dt 1, 0
Sí Xt=0
X t 1
máxX t Dt 1, 0
Si Xt≥1, para t= 0,1,2,3
alvarocepeda@Hotmail.com
Inventarios
Dado que Dt+1 tiene una distribución de Poisson con media 1. Entonces:
alvarocepeda@Hotmail.com
Inventarios
Para la primera fila de P, se trata de la transición de estado de Xt=0 a algún estado Xt+1.
Xt+1= máx { 3-Dt+1,0} si Xt=0
Por lo tanto para la transición a Xt+1=3, Xt+1=2, Xt+1=1 ,
Una transición de Xt=0 a Xt+1=0 implica que la demanda de cámaras en la semana t+1 es 3 o
más, después que se agregaron 3 cámaras al inventario agotado al principio de la semana, de
manera que
alvarocepeda@Hotmail.com
Inventarios
Para la última fila de P, la semana t+1 comienza con 3 cámaras en inventario y los cálculos de
las probabilidades de transición son justo las mismas que para la primera fila. La matriz de
transición completa es:
alvarocepeda@Hotmail.com
Cadenas de Markov
Podemos expresar:
k s
Pij (2)
(Prob de ir desde i a
k)*(prob de ir desde k a j)
k 1
alvarocepeda@Hotmail.com
Cadenas de Markov
alvarocepeda@Hotmail.com
Cadenas de Markov
alvarocepeda@Hotmail.com
Cadenas de Markov
Respondiendo la pregunta 1
Se busca P(X2 = 1 | X0= 2) = P21(2) = elemento 2,1 de P2.
Por lo tanto, P21(2) = 0.34. Esto significa que la probabilidad es 34% que un consumidor cola 2
compre cola 1 en el futuro.
Notar que P21(2) = (probabilidad que la siguiente compra sea cola 1 y la segunda compra sea
cola 1) + (probabilidad que la siguiente compra sea cola 2 y la segunda compra sea cola 1) =
p21 p11+ p22 p21 = (0.2*.09)+(0.8*0.2) =.34.
alvarocepeda@Hotmail.com
Cadenas de Markov
Respondiendo la pregunta 2
Se busca P11(3) = elemento 1,1 de P3.
alvarocepeda@Hotmail.com
Introducción a las Cadenas de Markov
Supongamos que 60% de las personas consumen cola 1, y 40% consumen cola 2. Tres
compras desde ahora, qué fracción de los consumidores comprarán cola 1?
Dado que q=[0.60, 0.40] y q(columna 1 de P3 )= probabilidad que después de 3 compras la
persona prefiera cola 1. la probabilidad será:
0.781
0.60 0.40*
0.438
alvarocepeda@Hotmail.com
Clasificación de Estados
Alcanzable
Un estado j es alcanzables desde i si existe un camino que nos lleve desde i a j.
Comunicados
El estado i y j están comunicados si j es alcanzable desde i, y i es alcanzable desde j.
Cerrado
Un conjunto S en una cadena de Markov es un conjunto cerrado si no existen estados fuera de
S que sean alcanzados desde algún estado de S.
Absorbente
Se dice que el estado i es un estado absorbente si pii=1.
Transiente
Un estado i es un estado transiente si
existe un estado j que es alcanzado
desde i, pero el estado i no es alcanzado
desde j.
Recurrente
Un estado no transiente es recurrente.
alvarocepeda@Hotmail.com
Clasificación de Estados
Periódico
Un estado es periódico con periodo k>1 si k es el menor número tal que todos los caminos
llevan del estado i de vuelta al estado i tienen un largo que es múltiplo de k. Sí un estado
recurrente no es periódico, se denomina aperiódico.
Ergódico
Sí todos los estados de una cadena son recurrentes, y comunicados unos con otros, la cadena
se denomina ergódica.
alvarocepeda@Hotmail.com
Estados estables y Media de primer paso
En nuestro ejemplo anterior de las colas 1 y 2, podemos tener el siguiente resultado después de
aplicar n pasos de la matriz de transición.
alvarocepeda@Hotmail.com
Estados estables y Media de primer paso
Sea P la matriz de transición para una cadena ergódica de s-estados. Entonces existe un vector
1 2 3 ... n
Se cumple que
Observe que para un n grande Pn se aproxima una matriz con filas idénticas. Independiente del
estado inicial i, existe una probabilidad πj, que esté en el estado j.
El vector π = [π1 π2 …. πn ] es usualmente llamado el estado estable de la distribución, o
distribución de equilibrio, para una cadena de markov. Además, se tiene para n suficientemente
grande, se tiene.
alvarocepeda@Hotmail.com
Estados estables y Media de primer paso
Para obtener los valores únicos de los estados de probabilidades estacionarios, se tiene para
cualquier n y cualquier i.
Con esta propiedad podemos tener un sistema de ecuaciones, para el ejemplo de las colas 1 y
2… tenemos.
alvarocepeda@Hotmail.com
Estados estables y Media de primer paso
Utilizando el vector.
Adicionalmente tenemos:
Es decir, existe un 2/3 de probabilidad que la persona consuma cola 1, y 1/3 de probabilidades
que consuma cola 2.
alvarocepeda@Hotmail.com
Ejemplo Transiciones
El ascensor de un edificio con Planta Baja y dos pisos realiza viajes de un piso a otro piso. El
piso en el que finaliza el viaje n-ésimo del ascensor sigue una cadena de Markov. Se sabe que
la mitad de los viajes que parten de la planta baja se dirigen a cada uno de los otros dos pisos,
mientras que si un viaje comienza en el primer piso, sólo el 25% de las veces finaliza en el
segundo. Por último, si un trayecto comienza en el segundo piso, siempre finaliza en la planta
baja. Se pide:
1. Calcular la matriz de probabilidades de transición de la cadena
2. Dibujar el gráfico
3. ¿Cuál es la probabilidad de que, a largo plazo, el ascensor se encuentre en cada uno
de los tres pisos (por separado).
alvarocepeda@Hotmail.com
Ejemplo Transiciones
1/2
3/4
1/2 1/2
1/4
alvarocepeda@Hotmail.com
Ejemplo Transiciones
alvarocepeda@Hotmail.com
Estados estables y Media de primer paso
Ejemplo
Sigamos con el ejemplo de las colas 1 y 2. Supongamos que cada consumidor hace una
compra 1 vez a la semana (52 semanas en un año), y supongamos que existen 100 millones de
consumidores de Cola. Una unidad de cola cuesta $1 a la compañía para poder venderla en $2.
Una agencia de publicidad dice que con $500 millones por año, la compañía reducirá de 10% a
5% la fracción de consumidores de cola 1 que se cambian a consumir cola 2. ¿Debería la
compañía contratar la agencia de publicidad?.
Solución
Dado que tenemos una cantidad de transiciones considerable, podemos utilizar los valores de
π1= 2/3 de todas las compras son cola 1. Cada cola 1 comprada tiene una ganancia de $1.
Dado que el total de compras en un año es 52(100.000.000) o 5,2 billones, la ganancia anual de
la cola 1 en un año sería:
2/3 (5.200.000.000) = $3.466.666.667.
La agencia de publicidad indica que la matriz cambiará a:
alvarocepeda@Hotmail.com
Estados estables y Media de primer paso
alvarocepeda@Hotmail.com
Estados estables y Media de primer paso
Dado que
alvarocepeda@Hotmail.com
Estados estables y Media de primer paso
Se obtiene
Podemos resolver la ecuación linear, obteniendo las medias de primer paso para cada
transición. Se puede mostrar que.
Para el caso las colas 1 y 2, teníamos que π1=2/3 y π2= 1/3, entonces
m11= 1/(2(/3)= 1.5 y m22= 1/(1/3) = 3
alvarocepeda@Hotmail.com
Cadenas absorbentes
Existen variados casos en que algunos estados de la matriz de transición son absorbentes y el
resto transiente, a esto se les denomina cadenas absorbentes.
Ejemplo
La firma consultora strategos tiene tres tipos de consultores. Junior, Senior y Partners. Durante
una determinado año, existe una probabilidad del 15% de que un consultor Junior sea
promovido a Senior y un 5% de probabilidad de que deje la empresa. A su vez, existe un 20%
de probabilidad que un consultor Senior sea promovido a Partner y un 10% de probabilidad de
que deje la empresa. Existe un 5% de probabilidad de que un Partner deje la empresa.
¿Cuál es la probabilidad de que un consultor junior deje la firma antes de convertirse en
Partner?.
¿Cuál es el tiempo promedio en que el consultor Junior permanece en la compañía?.
Solución
Primero debemos representar el plan de carrera posible.
alvarocepeda@Hotmail.com
Cadenas absorbentes
alvarocepeda@Hotmail.com
Cadenas absorbentes
y llamemos
Consultor Junior t1
Consultor Senior t2
Consultor Partner t3
Deja como no Partner a1
Deja como Partner a2
Sí nos encontramos en el tiempo presente ti, el número esperado de periodos necesarios para
llegar al estado transiente tj antes de la absorción es el ij ésimo elemento de la matriz (I-Q)-1
Sí la cadena de markov empieza en un estado transiente, ¿cuál sería la probabilidad de
terminar en un estado absorbente?. Sí estamos en un estado transiente ti, la probabilidad de
que eventualmente pasemos a un estado absorbente aj, es el ij ésimo elemento de la matriz (I-
Q)-1 R.
La matriz (I-Q)-1 es llamada la matriz fundamental de la cadena de markov.
alvarocepeda@Hotmail.com
Cadenas Abosorbentes
Entonces…
alvarocepeda@Hotmail.com
Cadenas Abosorbentes
Además se obtiene
a1 a2
Para la pregunta 1: El valor esperado que un consultor junior permanece en la empresa (como
junior) + el valor esperado de un consultor que entro como junior y prosigue como senior+ el
valor esperado de un consultor que entro como junior y prosigue como partner es el valor
esperado del tiempo de un consultor junior en la empresa.
1
1
( I Q)11 5 1
( I Q)12 2.5 ( I Q)13 10
Entonces el tiempo total es 17.5
Para la pregunta 2: La probabilidad de que un consultor junior se convierta en partner y de que
deje la firma como partner. Esto corresponde al valor 1,2 de la matriz
1
(I Q)12 * R 0.5
1
Para la pregunta 3: Esto corresponde al elemento 3,3 de la matriz ( I Q)33 20
alvarocepeda@Hotmail.com
Ejercicios
alvarocepeda@Hotmail.com
Ejercicios
0.701 0.298
P
8
0.697 0.302
alvarocepeda@Hotmail.com
Ejercicios
alvarocepeda@Hotmail.com
Decisión Markoviana
alvarocepeda@Hotmail.com
Ejemplo Decisión Markoviana
Cada año, al comenzar la estación para Mejorar los Viñas (de marzo a septiembre) un
agrónomo usa una prueba química para determinar el estado del suelo. Dependiendo de los
resultados de las pruebas, la productividad para la nueva estación cae en uno de los tres
estados: 1) bueno, 2) regular y 3) malo.
A través de los años el agrónomo observó que las condiciones meteorológicas prevalecientes
durante el invierno (octubre a febrero) juegan un papel importante en la determinación de la
condición del suelo, dejándolo igual o empeorándolo, pero nunca mejorándolo. En este
respecto, el estado del suelo en el año anterior es un factor importante para la productividad del
presente año. Usando los datos de las pruebas hechas por el agrónomo, las probabilidades de
transición durante un periodo de un año, de un estado de productividad a otro, se representan
con la siguiente cadena de markov
PA
alvarocepeda@Hotmail.com
Ejemplo Decisión Markoviana
El agrónomo puede alterar la matriz de transición con acciones adicionales. En el caso normal,
se aplica fertilizante para mejorar las condiciones del suelo, y se obtiene la siguiente matriz:
PB =
Dado que las viñas son negocios muy rentables, se asoció la matriz de transición con una
estructura de ingresos de un estado a otro. Dado que el agrónomo tiene la opción de usar o no
fertilizante, la ganancia o pérdida va dependiendo de la decisión tomada. Las matrices RA y RB
resumen los ingresos en millones de dólares, correspondiente a las matrices PA y PB
respectivamente.
RA= RB=
alvarocepeda@Hotmail.com
Ejemplo Decisión Markoviana
alvarocepeda@Hotmail.com
Ejemplo Decisión Markoviana
alvarocepeda@Hotmail.com
Ejemplo Decisión Markoviana
Entonces en la Etapa 3
Etapa 2
alvarocepeda@Hotmail.com
Ejemplo Decisión Markoviana
Entonces en la Etapa 1
La solución nos indica que el agrónomo en los años 1 y 2 debe aplicar fertilizante
independiente del estado del sistema. En el año 3 sólo se debe aplicar fertilizante si el
sistema se encuentra en el estado 2 o 3. Los ingresos totales esperados son:
10.74 si el estado es bueno en el año 1
7.92 si el estado es regular en el año 1
4.23 si el estado es malo en el año 1
alvarocepeda@Hotmail.com
Ejercicios Varios
1 2 3
4 5 6
7 8 9
El ratón se mueve de un compartimiento a otro contiguo en forma aleatoria. Por ejemplo: si tiene
k comportamientos contiguos, escoge 1 de ellos con probabilidad 1/k (no se considera el
comportamiento actual).
Sea Xn= número del comportamiento en que se encuentra el ratón después de la movida
numero “n”.
Obtenga la matriz de transición y el diagrama de markov
alvarocepeda@Hotmail.com
Ejercicios Varios
Estado Inversión USD 30.000 Inversión usd 50.000 Inversión usd 80.000
venta
mes
anterior
Altas Medias Bajas Altas Medias Bajas Altas Medias Bajas
Altas 0,2 0,5 0,3 0,4 0,4 0,2 0,7 0,2 0,1
Medias 0,1 0,5 0,4 0,3 0,4 0,3 0,5 0,3 0,2
Bajas 0,1 0,3 0,6 0,2 0,2 0,6 0,3 0,3 0,4
El ingreso neto promedio mensual (sin considerar la inversión en publicidad) para cada uno de
los niveles de ventas es de USD 300.000 para las ventas altas, USD 220.000 para las ventas
medias y USD 150.000 para las ventas bajas.
alvarocepeda@Hotmail.com
Ejercicios Varios
a) Obtenga el valor del beneficio neto promedio mensual de la empresa en el largo plazo al
utilizar la política señalada.
b) Sí las ventas en el mes actual fueron medias ¿Cuál es el valor esperado del ingreso neto
promedio en el próximo mes?
c) Suponga ahora que la empresa decide que su inversión promedio mensual en publicidad no
puede superar USD60.000 ¿Es factible la política propuesta anteriormente?
alvarocepeda@Hotmail.com
Ejercicios Varios
Un proceso de producción incluye una máquina que se deteriora con rapidez tanto en la calidad
como en la cantidad de producción con el trabajo pesado, por lo que se inspecciona al final de
cada día. Después de la inspección, se clasifica la condición de la máquina en uno de los
siguientes estados:
alvarocepeda@Hotmail.com
Fin Unidad 04
alvarocepeda@Hotmail.com