Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Tiempo ti tj
Definicin de Cadenas de Markov
El proceso estocstico de tiempo discreto puede estar en uno de
un nmero finito de estados identificados por 1, 2,...,s.
j=1,n qj = 1
Definicin de Cadenas de Markov
Las probabilidades de transicin se presentan como una matriz P de
probabilidad de transicin s x s. La matriz de probabilidad de transicin
se puede escribir como:
1 2 3 ... S
Perodo de Transicin
1 p11 p12 p13 ... p1s
2 p21 p22 p23 ... P2s
P= 3 p31 p32 p33 ... P3s
... ... ... ... ... ...
S ps1 ps2 ps3 ... pss
Ejemplo
Xt = Condiciones de tiempo en la ciudad de Ica
Ejemplo
Xt = El valor de venta del kilogramo de pollo cada semana.
Ejemplo
Xt = Lanzamiento de una moneda.
Definicin de procesos estocsticos
Ejemplo
Xt = Temperatura registrada en cada da del ao en la
ciudad de Arequipa.
Ejemplo
Xt = Cantidad de alumnos que egresan semestralmente
en la especialidad de ingeniera industrial.
Ejemplo
Xt = Nmero de alumnos que asisten a cada clase de IO2.
Ejemplos (Cadenas de Markov)
62% s n
s 0.38 0.62
38% 65% n 0.35 0.65
35%
Ejemplos (Cadenas de Markov)
Ejemplo 2 Cadena de Markov con 3 estados
Supongamos que el estado de nimo de Enzo puede ser, alegre, triste o
molesto. Si est alegre, habr una probabilidad de 80% de que siga
alegre al da siguiente y 15% de que est triste. Si est triste, 30% de
que siga triste y 50% de que est molesto. Y, si est molesto, 80% de
que no siga molesto y 50% de que est alegre al da siguiente. Hallar la
Matriz de Transicin.
T
A 30%
80% A T M
A 0.80 0.15 0.05
T 0.20 0.30 0.50
M 0.50 0.30 0.20
20%
M
Ejemplos (Cadenas de Markov)
Ejemplo 3 Cadena de Markov con 4 estados
Considere el siguiente modelo para el valor de una accin. Si la accin
sube o no maana depende de si subi o no hoy y ayer. Si la accin subi
hoy y ayer , maana subir con probabilidad a. Si la accin subi hoy y
ayer baj, maana subir con probabilidad b. Si la accin baj hoy y
ayer subi, la probabilidad de que suba maana es c. Por ltimo, si la
accin baj hoy y ayer, la probabilidad de que suba maana es d.
Determine la matriz de transicin de un paso para la cadena de Markov.
SS SB BS BB
SB
1-d SS a 1-a 0 0
a SS BB
1-b
SB 0 0 c 1-c
BS b 1-b 0 0
BS BB 0 0 d (1-d)
Ejemplo: lnea telefnica
0,9 0,1
Q
0,3 0,7
0,1
0,9 0 1 0,7
0,3
Ejemplo: Lanzamiento de un dado
1
2/3 2/3 2/3 2/3 2/3 2/3
0 1 2 3 4 5
1/3 1/3 1/3 1/3
1
2/3 2/3 2/3 1/3
97 98 99 100
1/3
1/3 1/3 1/3
Ejemplo de proceso estocstico
6
5
4 4
gana
3 3
2 2
1 2
1
0 1
0
0 0
-1
-1 -1
-2
pierde -2 -2
-3
-3
-4 -4
-5
2
Valor del proceso
-1
-2
1 2 3 4 5 6
Instante de tiempo, t
Ejemplo de proceso estocstico
Si fijo t, por ejemplo t0=3, obtengo una de
las variables aleatorias del proceso:
X3 :
X 3
PX 3 ( ) 3 PCCC
1 1 1 1
2 2 2 8
PX 3 ( ) 3 PFFF
1 1 1 1
2 2 2 8
APLICACIN 1
Participaciones de mercado
Una investigacin de mercados sobre el consumo de 3 marcas de cerveza: A, B y C
por 1000 personas dar al inicio (n=0) y despus de un periodo (n=1) los siguientes
resultados:
DURANTE UN PERIODO
AL INICIO (n = 0) A B C
CLIEN PROB CLIEN PROB CLIEN PROB CLIEN PROB
A 200 0.2 140 0.7 40 0.2 20 0.1
B 300 0.3 30 0.1 150 0.5 120 0.4
C 500 0.5 120 0.24 80 0.16 300 0.6
AL FINAL (n = 1) 290 0.29 270 0.27 440 0.44
Por lo tanto: = .T
El sistema de ecuaciones sera:
A + B + C = 1
0,7A + 0,1B + 0,24C = A
0,2A + 0,5B + 0,16C = B
0,1A + 0,4B + 0,6C = C
A Coca-Cola A B
B 0.38 0.62
A B A B
0.74 0.26
P= A P2= A 0.6464 0.3536
A B A B
A B A B
P5= A 0.59621 0.40379 P6= A 0.59463 0.40537
B 0.59016 0.40984 B 0.59246 0.40754
Ejemplo solucin (elevando Pn para estabilizarlo en el largo plazo)
A B A B
A B A B
A B A B
A B A B
A = 0.59375
B = 0.40625
Matriz Grfico
Pronosticando el clima
37
Estado estacional del clima
Para este caso, las predicciones para el clima en das mas distantes son
incrementalmente imprecisos y tienden a tornarse en un vector de estado
estacional. Este vector representa las probabilidades de condiciones
soleadas y lluviosas para todos los das y son independientes del clima
inicial. El vector del estado estacional se define como:
Xn = X(n-1)
As que;
Resolviendo:
0.9SO +0.5LL = SO - 0.1SO + 0.5LL = 0
SO = 0.8333 y
0.1SO + 0.5LL = LL 0.1SO -0.5LL = 0
LL = 0.1667
Adems SO + LL = 1
38
Aplicacin 4: La ruina del jugador
1 0 p
2
1-p
p
1-p
1
5 4 3
p p
La ruina del jugador
Usando diagramas de rbol: 2 juegos
0
1-p
1 2p(1-p)
(1-p)2
1 0 (1-p)2
2
p2 p2 (1-p)2
p(1-p)
1
5 4 3 2 juegos
p2 0 1 2 3 4 5
2p(1-p) 0 1 0 0 0 0 0
1 1-p p(1-p) 0 p2 0 0
Ps
Pt
Ei=I,J,K Ej=X,Y,Z
Probabilidad
E2=1,0,1 de transitar
probabilidad
0,5
0,5 E3=0,1,1
E1=1,1,0
1 1 a)
1 E4=0,2,0 E3=0,1,1
E0=2,0,0
E1=1,1,0
E4=0,2,0
0,5 0,5
0,5
E2=1,0,1 E3=0,1,1 1 E5=0,0,2
probabilidad 0,5
1
E5=0,0,2 E3=0,1,1
EO= 1 2 E1= 3 4
N N S S
E1= 4 5
S S
E3= 2 3 EO= 4 5
probabilidad N S N N
E2= 3 4
0.03
S N E3= 4 5
Xo X1 X2 X3
Usando diagramas de rbol
Encontrando las probabilidades de estado estable por medio de ecuaciones
SOLUCIN
Probabilidad de transicin de n pasos
Si una cadena de Markov se encuentra en el estado i en el tiempo
m, la probabilidad que n perodos despus la cadena de Markov
est en el estado j, es:
pij (n) = P(Xm+n= j / Xm=i) = P(Xn= j / X0=i)
Donde pij (1) = pij
1 2 3 ... S
1 P11(n) P12(n) P13(n) ... P1s(n)
2 P21(n) P22(n) P23(n) ... P2s(n)
P(n) = 3 P31(n) P32(n) P33(n) ... P3s(n)
... ... ... ... ... ...
S Ps1(n) Ps2(n) Ps3(n) ... Pss(n)
Probabilidad de transicin de n pasos
i k j
k l j
i
i
k l j
En general,
P( Xn+m=j / Xm=i ) = Pij (n)
P (n) = P*P*P*.....*P (n veces)
Ejemplo
Una fotocopiadora de oficina tiene uno de dos
posibles comportamientos: FUNCIONA o NO
FUNCIONA
0.25
0.75
0.75
1 2
0.25
Ejemplo - solucin
1 2 0.25
0.75
P= 1 0.75 0.25 0.75
1 2
2 0.25 0.75
0.25
a) 1 2 b) 1 2
P2 = 1 0.625 0.325 P3 = 1 0.567 0.433
2 0.325 0.625 2 0.433 0.567
Clasificacin de estados de una Cadena
de Markov
Definicin:
i
Clasificacin de estados de una Cadena
de Markov
Definicin:
Un estado j es alcanzable desde el estado i, si hay una trayectoria
que vaya de i a j.
j j
i k
i
j es alcanzable por i.
Clasificacin de estados de una Cadena
de Markov
Definicin:
Dos estados, i y j se comunican, si el estado j es alcanzable
desde el estado i, y adems el estado i es alcanzable desde el
estado j.
k
j i
i
j
i se comunica con j
Clasificacin de estados de una Cadena
de Markov
Definicin:
Un conjunto de estados S en una Cadena de Markov es conjunto
cerrado, si ningn estado fuera de S es alcanzable desde un
estado S.
j
l
i
k
Clasificacin de estados de una Cadena
de Markov
Definicin:
Un estado i, es estado absorbente si pii = 1
i P =1
ii
Clasificacin de estados de una Cadena
de Markov
Definicin:
Un estado i es estado transitorio si hay un estado j alcanzable
desde i, pero el estado i no es alcanzable desde el estado j.
j k
i
i
j
i es transitorio
Clasificacin de estados de una Cadena
de Markov
Definicin:
Si un estado no es transitorio, se llama estado recurrente.
k
i
i j
j
i es recurrente
Clasificacin de estados de una Cadena de Markov
Definicin:
Un estado i es peridico con perodo k > 1, si k es el menor
nmero de pasos, tal que todas las trayectorias que parten del
estado i y regresan al estado i tienen una longitud mltiplo de k.
Si k>1, entonces diremos que i es peridico de periodo k. El
estado i ser peridico de periodo k>1 si existen caminos que
llevan desde i hasta i pero todos tienen longitud mk, con m>0
ij K=2
il K=4
j
i
estado i es peridico
l
Periodicidad
Ejemplo: En la siguiente CM todos los estados
son peridicos de periodo k=2:
12 k=2
13 k=4
14 k=6
1 2 3 4 ---------
Ejemplo: En la siguiente CM todos los estados son
peridicos de periodo k=3:
2 4 6 13 k=3
15 k=6
17 k=9
1 3 5 7
Periodicidad
Ejemplo de CM peridica de periodo k=3:
A1 A2
1 3
2 4
5
A3
Clasificacin de estados de una Cadena
de Markov
Definicin:
Si un estado recurrente no es peridico, se llama aperidico.
k
i
k
i
j
j
i es aperidico
Clasificacin de estados de una Cadena
de Markov
Definicin:
Si todos los estados de una cadena de Markov son recurrentes,
aperidicos y se comunican entre s, se dice que la cadena es
ergdica.
Ejemplo
Evaluar la siguiente cadena de Markov
1 2 3
1 0.33 0.67 0
P= 2 0.50 0 0.50
3 0 0.25 0.75
Estados recurrentes
0.67
1 2
Estados aperidicos
0.5
0.25
Se comunican entre s.
0.5
0.75 La cadena de Markov es
3
ergdica.
Cadenas ergdicas
Ejemplo: Analizar la siguiente CM, con S={a, b,
c, d, e}:
a b c d e
a 1 2 0 1 0 0
2
b 0 1
4 0 3
4 0
Q c 0 0 1 0 2
3 3
d 1 4 1
2 0 1
4 0
e 1 3 1
0 0 3
1
3
Ejemplos Clasificar los estados
Recurrentes: a, c, e
Transitorios: b, d
Peridicos: ninguno
Absorbentes: ninguno
1/4 1/3
1/2
b 1/2 c
1/2 3/4 a 1/3 2/3
1/4 1/3
d
e
1/4
1/3
Ejemplo: Analizar la siguiente CM, con
S={a, b, c, d, e, f, g}:
a b c d e f g
a 0 0 1 0 0 0 0
b 0 0,2 0 0 0,4 0,4 0
c 0,8 0 0 0 0,2 0 0
Q d 0 0 0 0 0 1 0
e 0 0 1 0 0 0 0
f 0 0 0 0,7 0 0,3 0
g 0 0 0 0 0 0 1
Clasificar los estados
Ejemplos Recurrentes: a, c, d, e, f, g
Transitorios: b
Peridicos: a, c, e (todos de periodo 2)
Absorbentes: g
0,3
a f 1
0,4
1 0,4 0,7 1 g
0,8 1 e b
c 0,2
d
0,2
Tiempos promedio de primera pasada
Ejemplo: Matriz de dos Estados
Matriz de Nmero esperado
Matriz de Probabilidades De transiciones
1 2 1 2
P= 1 p11 p12 = 1 11 12
2 p21 p22 2 21 22
g = 1 2 . s C1
C2
.
Cs
Cadenas de Markov absorbentes
Transitorios Absorbentes
s-m columnas m columnas
Absorbentes m filas 0 I
As tenemos:
I es una matriz identidad de orden m x m que representa las
probabilidades de permanecer dentro de un estado absorbente.
1 2 3 4 5
1 p11 p12 p13 p14 p15
Q R
2 p21 p22 p23 p24 p25
P= 3 p31 p32 p33 p34 p35
4 0 0 0 1 0
O I
5 0 0 0 0 1
APLICACIONES
Aplicacin 1.- Planificacin de Personal
Q R
O I
S hacemos la
siguiente notacin:
t1= Principiante,
t2 = Experimentado,
t3= Socio,
a1= Sale sin ser socio y
a2 = Sale siendo socio. 86
Para dar respuesta a las preguntas formuladas anteriormente, es necesario
obtener las matrices: (I-Q)-1 y (I-Q)-1R, la informacin contenida en estas
matrices debidamente interpretadas, permite tomar decisiones.
87
1. Matriz Fundamental Interpretacin:
88
Por lo tanto:
1. El tiempo esperado que un abogado principiante permanece en la
empresa = (duracin esperada del abogado principiante en la empresa
como principiante) + (tiempo esperado que el abogado principiante
permanece en la empresa como abogado con experiencia) + (tiempo
esperado que el abogado principiante permanece en la empresa como
socio). Entonces
- Tiempo esperado como principiante = (I-Q)-111=5
- Tiempo esperado como con experiencia = (I-Q)-112=2,5
- Tiempo esperado como socio = (I-Q)-113 =10
Por lo tanto, el tiempo total esperado que un abogado principiante
permanece en la empresa es 5 + 2,5 + 10 = 17,5 aos.
2. La probabilidad de que un abogado principiante recin ingresado llegue a
ser socio es tan slo la probabilidad de que salga de la empresa siendo
socio. Como t1 = Principiante y a2 = Sale siendo socio, la respuesta es el
elemento 12 de (I-Q)-1R = 50.
3. Como t3 = Socio, buscamos el nmero esperado de aos que pasa en t3,
dado que comenzamos en t3. Este es justamente el elemento 33 de (I-Q)-1 =
20 aos. Es razonable, por que durante cada ao hay una probabilidad de
0,05 (1 en 20) que un socio deje el bufete y, por lo tanto, debe tardar un
promedio de 20 aos en dejar la empresa.
89
Aplicacin 2.- MODELOS DE PLANEACION DE PERSONAL
90
Entonces:
Nmero que ingresa al grupo i = nmero que sale del grupo i
H1 = (0,15 + 0,05)50 (abogados principiantes)
(0,15)50 + H2 = (0,20 + 0,10)30 (abogados con experiencia)
(0,20)30 + H3 = (0,05)10 (abogados asociados)
La solucin nica
a2 de este sistema de
a1 ecuaciones es
H1=10, H2=1,5,
H3=-5,5. Estos
significa que para
t2 0.7 mantener el censo
0.8 deseado de
t1
estado estable,
Los Justicieros
deben despedir
t3 5,5 socios cada
ao.
0.95
Aplicacin 3
A travs del anlisis de cuentas por cobrar pasadas, un contralor
proporciona la siguiente informacin:
Pagadas 0 0 1 0
morosas 0 0 0 1
Paso = 1 da
3 4 1 2
R= 1 0.5 0 Q= 1 0.4 0.1
1 2
2 0.6 0.1 2 0.1 0.2
(I - Q)-1 = 1 1.702 0.213
2 0.213 1.277
3 4
(I - Q)-1R= 1 0.979 0.021 La concesin ser:
2 0.872 0.128 60000(0.021) + 40000(0.128)= $6380
APLICACIN 4
Una empresa necesita contratar copiadoras en renta, escogiendo entre dos mquinas.
Las dos mquinas hacen copias que no se pueden distinguir. Cada mquina funciona o
no funciona. Segn los registros anteriores, se ha determinado que si la mquina I
trabaja un da determinado, la probabilidad es de 0,95 que trabaje el da siguiente. Si
no trabaja un cierto da, la probabilidad es de 0,75 que funcione el siguiente da. Si la
mquina II trabaja hoy, la probabilidad es de 0,9 que trabaje maana. Si no funciona
hoy, la probabilidad es de 0,8 que trabaje maana. Qu mquina debe rentar la
empresa?
94
Determinando estado estable para ambas mquinas
MQUINA 1 MQUINA 2
MQUINA 1 MQUINA 2
95
APLICACIN 5
Una pequea tienda de videos lleva un control del nmero de veces por
semana que es rentado un video y estima las siguientes probabilidades de
transicin (ver matriz siguiente)
5 4 3 2 1 0
96
Determinando la matriz fundamental
98
e) Suponga que un video fue rentado 3 veces esta semana. En
promedio, cuntas veces ms ser rentado?
Usamos la informacin
de la segunda fila: La
probabilidad de que sea
desechado es 100%
99
Juan es propietario de un terreno con 5000 pinos. Cada ao Juan le permite
a los detallistas de rboles de navidad seleccionar y cortar rboles para la
venta a clientes individuales. Juan protege los rboles pequeos (por lo
general de menos de 120 cm. de alto) de manera que estn disponibles para
la venta en aos futuros. Actualmente estn clasificados 1500 rboles como
protegidos, en tanto que los 3500 restantes estn disponibles para corte.
Sin embargo, aunque en un ao dado un rbol est disponible para corte,
quizs no sea seleccionado sino hasta en aos futuros. Aunque la mayora
de los rboles que no se cortan en un ao dado viven hasta el siguiente,
todos los aos se pierden algunos pinos enfermos.
100
La siguiente matriz de transicin es apropiada
101
b) Cuntos aos se espera que pase un rbol pequeo en el vivero
antes de ser cortado y vendido o perdido por enfermedad?
102
APLICACIN 7.- Problema de produccin
104
Grfico: Matriz:
106
d) Con los datos de costos de mano de obra y de materiales, cules son
los costos directos esperados?
107
9. Ejercicios Propuestos
Problema 1
Movimiento de agua
Xi 1 2 3 4 5 Para todo i
F(Xi) 1/8 1/4 1/4 1/4 1/8 independientes.
De la marca 1 60 8 20 12 40%
De la marca 2 15 40 25 20 20%
De la marca 3 25 16 50 9 30%
De la marca 4 28 12 20 40 10%
Mercado Compartido
Taller de Produccin
Se tienen tres bolas blancas y tres bolas negras en dos urnas (tres bolas
en cada urna).
El sistema est en el estado i, i = 0,1,2,3, si la primera urna contiene i
bolas blancas.
En cada paso se saca una bola de cada urna y se intercambian (de
urnas).
Sea Xn el estado del sistema despus del n-simo paso:
Por qu {Xn, n = 0, 1, ....} es una CM?
Calcular la matriz de transicin.
Se tienen beneficios de 10, 20, 30 y 40 dlares por estar en los estados
0, 1, 2 y 3 respectivamente. Cul ser el beneficio esperado a largo
plazo?
Problema 6
Vigilante nocturno
Un vigilante nocturno recorre el museo cuya planta se dibuja a
continuacin, de acuerdo a estas reglas:
Desde la pieza D, va a la pieza C, y luego al patio P.
Desde el patio, con igual probabilidad se dirige a la pieza B, o a la
pieza C (continuando luego a D).
Desde la pieza B, vuelve al patio.
Se solicita lo siguiente:
Hallar la Matriz de Transicin.
Analizar la matriz para determinar la
posibilidad de la existencia de estados
estables.
Calcular la probabilidad de encontrarse en
cada estado despus de dar 33, 34, 35 y 36
pasos. Comente.
ANEXOS
116
Espacio de estados de un
proceso:
Usaremos a1,a2,.....an
El conjunto de todos
para representar los (n)
los posibles estados
estados de un estado
que un proceso puede
ocupar en los distintos ai ------> aj para
movimientos se llama representar que el
espacio de estados. Un proceso se mueve del
espacio de estados estado (i) al estado (j).
puede ser
finito,
infinito
Probabilidades de transicin de un solo paso
Propiedad de Markov
El diagrama es un grfico
de una secuencia de una
muestra de una cadena de
Markov de cinco estados
A ----> E .En los doce
pasos se recorren todos
los estados.
Evidentemente el proceso
no puede quedarse nunca
atrapado. A los estados
que pueden atrapar un
proceso se les llaman
estados absorbentes.
Probabilidades de transicin superiores
A B C D E A B C D E
A 1 0 0 0 0 A 1 0 0 0 0
B 1/2 0 1/2 0 0 B 1/2 1/4 0 1/4 0
C 0 1/2 0 1/2 0 C 1/4 0 1/2 0 1/4
D 0 0 1/2 0 1/2 D 0 1/4 0 1/4 1/2
E 0 0 0 0 1 E 0 0 0 0 1
CADENAS DE MARKOV ABSORBENTES
Estados ergdicos:
Sea E un subconjunto de S y E' el
complementario de E en S. Si cada estado de
E se puede alcanzar desde cualquier otro
estado de E, pero ningn estado de E' se
puede alcanzar desde E, entonces E recibe
el nombre de conjunto ergdico. Un estado
ergdico es un elemento de un conjunto
ergdico.
CADENAS DE MARKOV CADENAS ERGODICAS
ABSORBENTES Cadena que est formada
Son cadenas en donde por un conjunto ergdico se
todos los estados llama cadena ergdica. Se
transitorios son absorbentes. distinguen dos tipos de
cadenas ergdicas:
a) Cadena ergdica cclica:
en ella slo se puede entrar
en un estado a intervalos
peridicos fijos.
b) Cadena ergdica
regular: cadena ergdica
no-cclica.
EJEMPLO DE CADENA REGULAR
S1 S2
S1 1/2 1/2
S2 1/2 1/2
Est claro que el sistema
completo nunca estar
completamente "atrapado" en un
estado, as que la cadena es
regular.
S1 S2 S3
S1 0 3/4 1/4
S2 1/2 0 1/2
Siempre es posible moverse de
un estado a cualquier otro, en
cualquier paso siendo los S3 1/4 3/4 0
movimientos no-cclicos. As la
cadena y la matriz son regulares.
EJEMPLO DE CADENA NO REGULAR
S1 S2 S3
S1 1/4 1/4
Despus de n pasos la cadena entrar
(con probabilidad 1 cuando n tiende a
S2 0 1/3 1/3 ) en S2 o en S3. Una vez situada en
uno de estos estados nunca podr pasar a
S1. Por lo tanto S1 es un estado
S3 0 1/4 1/4 transitorio y as la cadena es no regular y
por lo tanto no-ergdica, aunque el
conjunto [ S2, S3 ] sea un conjunto
ergdico.
EJEMPLO DE CADENA CICLICA
S1 S2 S3
S1 0 0 1
S2 1 0 0
La cadena se mueve con perodo
3 a travs de los conjunto
S3 0 1 0 cclicos [ S1 ] [ S2 ] y [ S3 ]. Es por
lo tanto una cadena cclica
ergdica y no una cadena regular.
Clasificacin de estados en una cadena de Markov
Estado transitorio
Es aqul tal que despus de que el proceso ha entrado ah, nunca
regresar
El estado i es transitorio si y slo si existe un estado j que es
accesible desde i, pero donde el estado i no es accesible desde j
Al no haber acceso al estado i desde j, existe una probabilidad
positiva (incluso igual a 1) de que el proceso se mueva al estado j
y nunca regrese al estado i
Estado recurrente
Es un estado tal que una vez que el proceso ha estado en l,
existe la seguridad de que volver
Un estado es recurrente si y slo si no es transitorio
Estado absorbente
Es un estado tal que despus de haber entrado all, el sistema ya
nunca saldr
Para que un estado i sea absorbente se requiere que pii = 1
Estado transitorio
En la siguiente matriz de
transicin, el estado 2 es
Estado n+1
transitorio, ya que de l
es posible pasar 0 1 2 3
directamente al estado 0,
pero no de regreso 0 0.25 0.25 0 0.5
Estado n
Por tanto existe la 1 0.1 0.5 0.25 0.15
posibilidad de que el
sistema pase del estado 2 0.3 0.1 0.4 0.2
2 al 0 y no regrese 3 0.2 0.1 0.4 0.3
nuevamente
Estado transitorio
0.25
0.5
0.25
0.10
0 1
0.25
0.50
0.15
0.30 0.10
0.10
2 3
0.20
0.40
0.30
0.40
0.20
En la siguiente matriz de
transicin, todos los Estado n+1
estados, excepto el 2, 0 1 2 3
son recurrentes
Esto es porque desde los 0 0.25 0.25 0 0.5
estados 0,1 y 3 se puede
Estado n
1 0.1 0.5 0.25 0.15
acceder a cualquiera otro
estado, y a su vez, los 2 0.3 0.1 0.4 0.2
estados 0,1 y 3 son 3 0.2 0.1 0.4 0.3
accesibles desde
cualquier otro estado
Estado recurrente
0.25
0.5
0.25
0.10
0 1 Las flechas
0.25
coloreadas por
0.50 pares indican
0.15
las conexiones
0.30 0.10 desde y hacia
0.10 el estado 1
2 3
0.20
0.40
0.30
0.40
0.20
En la siguiente matriz de
transicin, el estado 0 y
el estado 2 son
absorbentes, ya que una Estado n+1
vez entrando en alguno 0 1 2 3
de ellos, el sistema no
vuelve a salir 0 1 0 0 0
Esto ocurre porque la
Estado n
probabilidad de pasar al 1 0.1 0.5 0.25 0.15
estado 0 dado que se 2 0 0 1 0
encuentra en el estado 0
es igual a 1 3 0.2 0.1 0.4 0.3
Anlogamente ocurre
para el estado 2
Estado absorbente
0.5
1
0.10
0 1
0.25
0.15
0.30 0.10
2 3
1
0.30
0.40
0.20
Entnces: