Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
FACULTAD DE MATEMÁTICAS
Cadenas de Markov
desde un punto de vista
de Aplicaciones.
TESIS
Que para aprobar la Experiencia Educativa
Experiencia Recepcional
P R E S E N T A:
José Salas Martı́nez.
DIRECTORES DE TESIS:
Dr. Raquiel Rufino López Martı́nez.
Introducción. V
1. Conceptos Básicos. 1
1.1. Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Probabilidad condicional. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Fórmula de Bayes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Procesos Estocásticos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2. Cadenas de Markov. 11
2.1. Definición y Propiedad de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Matriz de Transición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3. Transición de m pasos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4. Distribución Inicial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5. Distribución Estacionaria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6. Distribución Lı́mite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.7. Periodicidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8. Teorema de la Convergencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.9. Cadenas doblemente estocásticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.10. Cadenas de Tiempo Continuo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.10.1. Proceso de Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.10.2. Una Cadena de Markov Continua de dos Estados. . . . . . . . . . . . . . . . 42
3. Aplicaciones. 45
3.1. Cadena del Monopoly. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.1.1. Matriz de Transición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.1.2. Distribución Estacionaria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.1.3. Distribución Lı́mite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2. Cadena de Tiempo (Clima). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2.1. Función de Transición para Xn . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.2.2. Distribución de Xn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.2.3. Simulación en EXCEL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
Conclusiones. 57
Bibliografı́a 58
iii
Introducción.
Los conceptos básicos de las cadenas de Markov fueron introducidos por Andrew A. Markov
durante 1907, a partir del trabajo de Markov es cuando se inicia formalmente el desarrollo de los
procesos estocásticos. Weiner durante 1923 fue el primero en tratar rigurosamente el caso con-
tinuo de la cadena de Markov y fue Kolmogorov durante los años 30’s quien desarrolló la teorı́a
general de los procesos estocásicos. A partir de este momento un gran número de matemáticos
se involucran dándole un gran auge. La importancia de estudiar las cadenas como un estudio de
variables aleatorias es que una gran cantidad de aplicaciones tienen la propiedad de Markov, esto
dio lugar a una gran cantidad de investigaciones en la teorı́a de los procesos estocásticos [1, 9].
Las cadenas de Markov son útiles en ciertas ramas de la Fı́sica como lo son la Termodinámica,
en Meteorologı́a ayuda a tener predicciones más acertadas en el cambio del tiempo de un dı́a a
otro, en Ciencias Biológicas se explican modelos Epidemiológicos, en Teorı́a de juegos, Finanzas,
Ciencias Sociales, Estadı́stica y Matemáticas [7, 8]. El concepto de Cadena de Markov fue sin duda
una de las contribuciones más grandes de Andrew, y ha sido reconocida durante el paso del tiempo.
Este trabajo tiene tres propósitos importantes: primero es el estudio de las Cadenas de Markov
mediante el estudio de la teorı́a y de ejemplos bastante claros, el segundo es mostrar que las cade-
nas de Markov tienen diferentes aplicaciones y por último es modelar de una manera muy sencilla
cómo se comporta un proceso de este tipo sin que una persona sea experta en la materia. A lo
largo de este trabajo describiremos qué es una cadena de Markov, para qué sirven estos procesos
y cómo se clasifican dichas cadenas. Veremos además cómo se conforman estos procesos. Es decir,
analizar cuáles son los elementos primordiales que conforman una cadena de Markov, entre otras.
- A lo largo del capı́tulo 2 definiremos lo que es una Cadena de Markov, los estados, su clasi-
ficación y veremos qué sucede con estos procesos a largo plazo. Para esto se demostrará un
resultado importante conocido como Teorema de la Convergencia y aplicaremos éste resulta-
do en varias aplicaciones. Cabe mencionar que analizaremos una manera sencilla de ver una
cadena mediante el uso de matrices (Matriz de Transición), además analizaremos los ejemplos
clásicos como lo son la cadena de Ehrenfest, la cadena de la Ruina del Jugador y el Modelo
de Wright-Fisher. En estos modelos podremos apreciar lo que ocurre cuando llegamos a un
v
determinado estado y éste no permite abandonarlo (Estado Absorbente), además estudiare-
mos ejemplos donde los periodos de tiempo no son fijos (el Proceso de Poisson). Como las
cadenas de Markov son sucesiones de variables aleatorias con cierta estructura, éstas pueden
ser continuas o discretas, para nuestros fines sólo analizaremos variables aleatorias discretas
(espacios de estados a lo más numerables) [1, 2, 4, 5, 8, 9].
Conceptos Básicos.
1.1. Probabilidad
La teorı́a de la probabilidad es bastante amplia y rica en ejemplos. Dentro de las matemáticas
podemos encontrar los Procesos Estocásticos, en los cuales basaremos este trabajo recepcional,
para ello comenzaremos analizando los conceptos básicos de la teorı́a de probabilidad. Existen
diferentes fenómenos que observamos a lo largo de nuestras vidas, cuando no podemos determinar
a ciencia cierta el resultado de dicho fenómeno, decimos que es un fenómeno aleatorio [6].
Ejemplos bastante claros de fenomenos aleatorios son: lanzar una moneda, el lanzamiento de un
dado, jugar ruleta, entre otros [6]. Es por ello que la probabilidad se encarga de modelar este tipo
de fenómenos, lo que nos lleva a definir todos los elementos que estos implican.
Definición 1.1.1 El espacio constituido por los posibles resultados de un fenómeno aleatorio se
le llama espacio muestral y se denota normalmente por Ω.
El espacio muestral (Ω) en otras palabras es el conjunto de todos los posibles resultados que nuestro
fenómeno aleatorio puede experimentar. Para fines prácticos nos enfocaremos al estudio de espacios
muestrales finitos o numerables, de la definición 1.1.1 obtenemos la siguiente definición:
Definición 1.1.2 Un subconjunto A del espacio muestral, es decir, A ⊂ Ω diremos que es un
evento o suceso del fenómeno aleatorio.
Para tener una idea más clara de estas dos definiciones analizaremos el siguiente ejemplo [4].
Ejemplo 1.1.1 Consideremos que una persona lanza un dado.
Es fácil ver que Ω = {1, 2, 3, 4, 5, 6} y un evento A lo definiremos como la posibilidad de que se
obtenga un número par, esto es A = {2, 4, 6}, además de que A ⊂ Ω.
Una vez que ya hemos comprendido estas dos definiciones bastante básicas para la teorı́a de la
probabilidad con base en la Definición 1.1.2, definiremos de manera matemática lo que es un suceso
o evento.
Definición 1.1.3 Sea ℑ la colección de todos los subconjuntos posibles de un espacio muestral Ω,
denotamos a ℑ como la σ−álgebra de Ω si ℑ cumple con las siguientes condiciones:
1
CAPÍTULO 1 2
(i) Ω ∈ ℑ
(ii) A ∈ ℑ =⇒ Ac ∈ ℑ.
∞
S
(iii) A1 , A2 , . . . ∈ ℑ =⇒ Ak ∈ ℑ
k=1
b) P(Ω) = 1.
c) 0 ≤ P(A) ≤ 1, ∀ A ∈ ℑ.
Ya que hemos definido algunos conceptos importantes para esta rama de las matemáticas nos
enfocaremos a analizar que dado un fenómeno aleatorio con su respectivo espacio muestral Ω, ℑ
la σ−álgebra generada por Ω y una función de probabilidad P, decimos que la terna (Ω, ℑ, P) es
un espacio de probabilidad [3]. Con ayuda de esta definiremos un concepto muy importante que
usaremos a lo largo de este trabajo.
Definición 1.1.5 Consideremos un espacio de probabilidad (Ω, ℑ, P), definimos la función X :
Ω → R, decimos que X es una variable aleatoria si el conjunto {X ≤ x} ∈ ℑ para cualquier
x ∈ R.
Existen distintos tipos de variables aleatorias, pero en este trabajo sólo nos enfocaremos en variables
aleatorias discretas y para no expresar en cada definición y resultado que necesitamos un espacio
de probabilidad, desde ahora quedará implı́cito que requerimos dicho espacio. Lo que nos lleva a
la siguiente definición:
Definición 1.1.6 Sea H = {x1 , x2 , . . .} una colección
P finita o numerable de números reales tales
que P(X = xk ) > 0 para cualquier xk , además si P(X = xk ) = 1 decimos que X es una variable
k
aleatoria discreta y H es el conjunto de todos los posibles valores que puede tomar X.
Una vez analizados estos conceptos que nos serán de mucha utilidad, tomaremos en cuenta el
siguiente ejemplo para tener una idea clara de dichos conceptos y ası́ poderlos comprender de una
mejor manera.
Ejemplo 1.1.2 Supongamos que tenemos un experimento aleatorio que consiste en lanzar tres
monedas.
Si X denota el número de caras (C) que aparecen al observar dicho experimento, entonces X es una
variable aleatoria y puede tomar los siguientes valores {0, 1, 2, 3} con las siguientes probabilidades:
1
P(X = 0) = P({AAA}) =
8
3
P(X = 1) = P({AAC}, {ACA}, {CAA}) =
8
3
P(X = 2) = P({ACC}, {CAC}, {CCA}) =
8
1
P(X = 3) = P({CCC}) =
8
Como X debe tomar uno de los valores 0, 1, 2, 3, debemos tener en cuenta que:
3
! 3
[ X
P (X = i) = P(X = i) = 1
i=0 i=0
A = {(2, 6), (3, 5), (4, 4), (5, 3), (6, 2)}
B = {(3, 1), . . . , (3, 6)}
En la Figura 1.2 podemos ver un esquema que nos permite analizar de una manera gráfica cómo
se puede particionar un espacio muestral [3]. Con base en esto y la probabilidad condicional enun-
ciaremos el siguiente teorema que nos facilitará la comprensión de la Fórmula de Bayes.
Teorema 1.3.1 Sea {Hk , 1 ≤ k ≤ n} una partición de Ω, entonces para cualquier evento A ⊂ Ω,
tenemos:
n
X
P(A) = P(A|Hk ) · P(Hk )
k=1
El Teorema 1.3.1 se conoce como la ley de la probabilidad total, podemos ver que dada una
partición de un espacio muestral y dado un evento A, este evento se puede ver como la intersección
del evento con los elementos de la partición, es por ello que la probabilidad de éste puede ser
expresada como una probabilidad condicional, por lo que, podemos calcular la probabilidad del
evento A dado que ocurren los eventos Hk . Una vez visto esto enunciaremos la Fórmula de Bayes.
Teorema 1.3.2 Sea {Hk , 1 ≤ k ≤ n} una partición de Ω. Entonces, para cualquier evento A ⊂ Ω,
tenemos:
P (A|Hk ) · P (Hk )
P (Hk |A) = (1.2)
P (A)
Por 1.3.1
P (A|Hk ) · P (Hk )
P (Hk |A) = n
P (1.3)
P (A|Hk ) · P (Hk )
k=1
CAPÍTULO 1 7
Notamos que en el Teorema 1.3.2 dada una partición y un evento cualquiera A, podemos calcular
la probabilidad condicional de algún elemento de la partición dado que ocurre el evento A, esta
se puede expresar en función de la probabilidad condicional del evento A dado Hk . Observando el
denominador de la Ecuación (1.2) aplicamos el Teorema 1.3.1 para llegar a la Ecuación (1.3), que
conocemos como fórmula de Bayes. Para tener más claros estos teoremas ası́ como la definición
de partición, consideraremos los siguientes ejemplos. El primero es un ejemplo que nos permite
interpretar con detalle la importancia del Teorema 1.3.2, dicho ejemplo está relacionado con una
encuesta realizada fuera de unas casillas durante las elecciones para gobernador de un estado [5].
Ejemplo 1.3.1 En las elecciones de un estado durante el año de 1982, una estación de televisión
predijo con base en éstas, que la persona Roberto ganarı́a las elecciones. La encuesta consistı́a en
cuestionar a la gente al salir del lugar de la votación. Cuando los votos fueron contados Roberto
perdió ante Juan por un margen considerable. ¿Qué hizo que las encuestas fallaran?
Sean H1 , H2 los eventos de que las personas que votaron por Roberto y las que votaron por Juan
respectivamente y A el evento donde el votante se detiene a contestar la encuesta. Sabemos:
P (H1) = 0,45
P (H2) = 0,55.
Conociendo que el 40 % de los votantes de Roberto responde frente al 30 % de los votantes de Juan,
esto es:
P (A|H1 ) = 0,4
P (A|H2 ) = 0,3.
Estamos interesados en conocer P (H1|A), esto es la fracción de los votantes de Roberto que con-
testaron la encuesta, para ello podemos ver que:
P (H1 |A)
P (H1 |A) =
P (A)
P (H1 ∩ A)
=
P (H1 ∩ A) + P (H2 ∩ A)
Además, sabemos que P (H1 ∩ A) = P (A|H1) · P (H1) y P (H2 ∩ A) = P (A|H2 ) · P (H2 ), aplicando
la Fórmula de Bayes tenemos que:
P (H1 ∩ A)
P (H1|A) =
P (H1 ∩ A) + P (H2 ∩ A)
P (A|H1 ) · P (H1 )
= 2
P
P (A|Hi ) · P (Hi )
i=1
P (A|H1) · P (H1 )
=
P (A|H1) · P (H1 ) + P (A|H2) · P (H2 )
(0,4)(0,45) 0,18
= = = 0,5217
(0,4)(0,45) + (0,3)(0,55) 0,345
CAPÍTULO 1 8
Esto nos dice que el 52,17 % de los votantes de Roberto respondió a la encuesta sobre cómo votó,
lo que no implica que Roberto ganarı́a la elección.
El siguiente ejemplo está relacionado con una enfermedad llamada Hemofilia, y el cómo podemos
usar la Fórmula (1.3) para calcular la probabilidad de que una persona posea la enfermedad dado
otro evento [5], dicho esto analizamos el ejemplo.
Ejemplo 1.3.2 Elena tiene un hermano con hemofilia, y sus padres no tienen la enfermedad. Ya
que la hemofilia es causada por un alelo recesivo h en el cromosoma X, se puede inferir que su
madre es portadora, mientras que su padre tiene el alelo sano en su único cromosoma X. Elena
recibió un cromosoma X de su padre y el otro de su madre, hay un 50 % de probabilidad de que
sus hijos tengan la enfermedad. Si ella tiene dos hijos sanos ¿Cuál es la probabilidad de que ella
sea portadora?
Al analizar la Figura 1.3 podemos ver el diagrama de cómo se puede transmitir la hemofilia. Sean
H1 , H2 los eventos, ella es portadora y ella no es portadora respectivamente, y A el evento tiene 2
hijos sanos. Podemos ver que:
1
P (H1) = ,
2
1
P (H2) = .
2
1
Debido que ella tiene dos hijos sanos, cuando es portadora la probabilidad es de , mientras que
4
1
es 1 cuando ella no lo sea, es decir P (A|H1 ) = y P (A|H2) = 1, estamos interesados en conocer
4
CAPÍTULO 1 9
la P (H1|A):
P (H1|A)
P (H1 |A) =
P (A)
P (H1 ∩ A)
= .
P (H1 ∩ A) + P (H2 ∩ A)
Sabemos que P (H1 ∩ A) = P (A|H1 ) · P (H1) y P (H2 ∩ A) = P (A|H2) · P (H2 ), aplicando la fórmula
de Bayes tenemos que:
P (H1 ∩ A)
P (H1 |A) =
P (H1 ∩ A) + P (H2 ∩ A)
P (A|H1) · P (H1 )
= 2
P
P (A|Hi ) · P (Hi )
i=1
P (A|H1) · P (H1 )
=
P (A|H1) · P (H1 ) + P (A|H2) · P (H2 )
(1/2)(1/4) 1/8 1
= = = .
(1/2)(1/4) + (1/2)(1) 5/8 5
Lo que nos dice que la probabilidad de que ella sea portadora, dado que tiene dos hijos sanos, es
de 1/5.
Ahora que ya hemos comprendido claramente la Fórmula de Bayes, podemos resolver cualquier
problema de probabilidad condicional usando dicha fórmula y una partición del espacio muestral.
Con estos dos ejemplos y todos los conceptos anteriores podemos comenzar a analizar lo que real-
mente deseamos estudiar; los procesos estocásticos y algunos ejemplos. En los capı́tulos posteriores
los estudiaremos a detalle mediante el uso de las Cadenas de Markov y analizaremos algunas
aplicaciones de éstas.
Observación 1.4.1 (a) T puede ser un subconjunto de los enteros no negativos, o un subcon-
junto de R, por ejemplo {0, 1, ..., n}, [0, t], [0, ∞].
CAPÍTULO 1 10
(b) Si T es de la forma {0, 1, ..., n} o los enteros no negativos, diremos que es un porceso a
tiempo discreto. Mientras que si T es de la forma [0, t] o [0, ∞] diremos que el proceso es a
tiempo continuo.
(c) Para nuestros fines trabajaremos con espacios de estados finitos o a lo más numerables.
Dicho esto analizamos un sencillo ejemplo de estos procesos, ya que en secciones posteriores tenemos
un sin número de ejemplos.
tiempo discreto y a tiempo continuo, el proceso de Poisson, los martingales, los porcesos de Levy,
los procesos Gausianos [9]. Sin más preámbulos estudiemos las cadenas de Markov a lo largo del
siguiente capı́tulo, ası́ como el proceso de Poisson, que es un claro ejemplo de las cadenas a tiempo
continuo.
Capı́tulo 2
Cadenas de Markov.
Las cadenas de Markov forman una parte muy importante dentro de los procesos estocásticos
y la teorı́a de probabilidad, puesto que tienen una amplia teorı́a y un sin número de aplicaciones
[5]. Existen diferentes tipos de cadenas de Markov y nos enfocaremos en el estudio de las cade-
nas homogéneas, donde éstas no dependen del tiempo [8], dicho esto comenzaremos analizando la
definición formal de cadena de Markov ası́ como sus diferentes componentes. Teniendo en cuenta
que para el estudio de esta teorı́a, como en el capı́tulo anterior, es necesario un espacio de proba-
bilidad (Ω, ℑ, P), donde Ω es el espacio muestral, ℑ es la familia de todos los subconjuntos de Ω y
P es una función de probabilidad. De esta manera no necesitaremos mencionar a lo largo de este
capı́tulo.
Definición 2.1.1 Sean X una variable aleatoria y S un conjunto de números, sea i ∈ S decimos
que i es un estado, si la variable aleatoria X toma el valor de i, es decir, P(X = i) > 0, y el
conjunto S es conocido como espacio de estados.
De la Definición 2.1.1 podemos deducir que un estado es el posible valor que toma una variable
aleatoria. Un espacio de estados es el conjunto de todos los posibles estados por los que puede
pasar una variable aleatoria. Para fines prácticos consideraremos que nuestro espacio de estados sea
finito o numerable, más aún tomaremos conjuntos de números enteros, para que nuestras variables
aleatorias sean discretas. De esta manera analizaremos la idea fundamental de este trabajo, esta
es la definición formal de una cadena de Markov.
Definición 2.1.2 Sea {Xn , n ≥ 0}, una sucesión de variables aleatorias, S un espacio de estados,
11
CAPÍTULO 2 12
i0 , i1 , . . . , in−1 , i, j ∈ S, si:
La Ecuación (2.1) es conocida como propiedad de Markov, ésta nos dice que la probabilidad de un
evento futuro sólo depende del evento inmediato anterior y no de la evolución del sistema, lo cual
implica que las cadenas de Markov son procesos sin memoria [5]. Ahora que ya tenemos entendido
lo que es una cadena de Markov, podemos enfocarnos en ciertas cadenas que serán objeto de
nuestro estudio, lo que nos lleva a la siguiente definición:
Definición 2.1.3 Sea {Xn , n ≥ 0}, una cadena de Markov con espacio de estados S, decimos que
{Xn , n ≥ 0}, es una cadena de Markov Homogénea, si:
Dicho de otra manera la Definición 2.1.3 se refiere al hecho de que si una cadena de Markov no
depende del tiempo, es decir, no depende de n, ésta es considerada una cadena homogénea [8],
una vez que ya tenemos definido nuestro objeto de estudio, usaremos una función para ver cómo
evoluciona o se mueve una cadena entre los diferentes estados. Esta es la función de transición, y
nos permitirá verlo con mayor facilidad.
Definición 2.1.4 Sea {Xn , n ≥ 0} una cadena de Markov con espacio de estados S. Definimos
la función p(i, j) como:
Donde p(i, j) es la función de transición del estado i al estado j, y cumple con las siguientes
propiedades:
Es necesario mencionar que p(i, j) es conocida como la transición en un sólo paso del estado i al
estado j. En otras palabras si estamos en el instante i y queremos llegar a j en un sólo paso, lo
denotamos por p(i, j), de la Definición 2.1.4 es claro ver que (i) es cierto puesto que p(i, j) es una
probabilidad, mientras que la propiedad (ii) se refire a que la suma de las probabilidades de ir de i
a j es uno [5], para tener un concepto más claro, consideremos un ejemplo bastante sencillo donde
se muestra lo dicho hasta ahora.
Ejemplo 2.1.1 Consideramos una cadena de Markov con dos estados, 1 y 2, de tal manera que
podemos ir de 1 a 2 con probabilidad p y de 2 a 1 con probabilidad q, para ver el comportamiento
de esta cadena veamos la figura 2.1.
CAPÍTULO 2 13
Figura 2.1: Dinámica de una cadena de Markov de dos estados para el Ejemplo 2.1.1.
Para formular la cadena de Markov que modele los tiros libres es necesario notar que Xn+1 no
sólo depende de Xn también de Xn−1 , por lo que dejaremos que los estados de este proceso sean
los resultados de sus últimos dos tiros, S = {EE, EF, F E, F F }, donde E denota el hecho de que
enceste y F que falle, de esta manera la probabilidad de transición es:
EE EF F E F F
EE 3/4 1/4 0 0
EF 0 0 2/3 1/3
F E 2/3 1/3 0 0
FF 0 0 1/2 1/2
Para explicar esto supongamos que estamos en el estado EF , es decir Xn−1 = E y Xn = F , en este
caso el siguiente resultado sera H con probabilidad 2/3, cuando esto ocurre, el siguiente estado
será (Xn , Xn+1 ) = F E con probabilidad 2/3, y falla con probabilidad 1/3 esto es (Xn , Xn+1 ) = F F .
CAPÍTULO 2 14
Definición 2.2.1 Sea p(i, j) la función de transición de una cadena de Markov, diremos que
p(i, j) es la ij−ésima entrada de la matriz P , y diremos que ésta es la matriz de transición de
dicha cadena.
Observación 2.2.1 Como P está formada por cada una de las transiciones de la cadena podemos
afirmar que P es una matriz no negativa, lo que implica que cada una de sus entradas es positiva,
esto es cierto por (i) de la definición 2.1.4.
De lo anterior es fácil deducir que a lo largo de este trabajo usaremos matrices no negativas,
además de ser no negativas, cada una de las filas de estas matrices suma 1, sabemos que las
variables aleatorias pasan por diferentes estados conforme ésta se mueve, pero qué sucederı́a si
la cadena llega a un estado especı́fico y no sale de éste [5], el estado se convierte en un estado
absorbente, lo que resulta en la siguiente definición.
Para que sea preciso el concepto antes analizado, consideremos los siguientes ejemplos que son
clásicos en la teorı́a de las cadenas de Markov, en los cuales hay estados absorbentes.
Ejemplo 2.2.1 (Ruina del jugador) Cosideremos la posibilidad de un juego de casino, en que un
jugador gana $1 cada turno con probabilidad p = 0,4 y pierde $1 con probabilidad 1 − p = 0,6.
Con las siguientes condiciones, si el jugador llega a $N deja de jugar, mientras que si llega a 0, el
casino lo obliga a dejar el juego.
Sea Xn la cantidad de dinero que el jugador tiene en el n−ésimo juego, suponiendo que Xn tiene la
propiedad de Markov, entonces para predecir el siguiente estado Xn+1 para esto debemos tener en
cuenta que si el jugador sigue jugando entonces Xn = i con 0 < i < N, ya que 0 y N son estados
absorbentes puesto que si llegamos a ellos automáticamente dejamos de jugar. De esta manera
vemos que:
p(i, i + 1) = 0,4
p(i, i − 1) = 0,6
p(0, 0) = 1
p(N, N) = 1
CAPÍTULO 2 15
Para tener una visión más clara de la tabla anterior observemos la Figura 2.2.
Con base en la tabla anterior y a la Figura 2.2 podemos afirmar que la matriz de transición para
éste modelo es:
1 0 0 0 ... 0
0,6 0 0,4 0 . . . 0
0 0,6 0 0,4 . . . 0
P = 0 0 0,6 0 . . . 0
.. .. .. .. . . ..
. . . . . .
0 0 0 0 ... 1
Otro ejemplo bastante sencillo para comprender todos estos conceptos es el siguiente.
Ejemplo 2.2.2 (Modelo de Wright-Fisher) Consideremos una población fija de n genes que pueden
ser de dos tipos A ó a. Estos tipos de genes se llaman alelos. La población en el tiempo n + 1 se
obtiene mediante la elaboración con reemplazo de la población en el estado n. En este caso si per-
mitimos que Xn sea el número de alelos en el tiempo n, entonces Xn es una cadena de Markov
con probabilidad de transición
j n−j
n i i
p(i, j) = 1− 0 ≤ i, j ≤ n (2.2)
j n n
Donde el lado derecho de la Ecuación (2.2) es la distribución para n ensayos independientes con
i
probabilidad de éxito . Tengamos en cuenta cuando i = 0, tenemos p(0, 0) = 1 y cuando i = n.
n
CAPÍTULO 2 16
0 1 2 3 4
0 1 0 0 0 0
1 81/256 27/64 27/128 3/64 1/256
2 1/16 1/4 3/8 1/4 1/16
3 1/256 3/64 27/128 27/64 81/256
4 0 0 0 0 1
Es claro ver que en este modelo los estados 0 y n son estados absorbentes, porque estando en ellos
dificilmente salimos de éstos, ya que eventualmente entra en alguno de los estados absorbentes. Para
que este modelo sea más interesante y más realista, introduciremos la probabilidad de mutaciones:
un alelo A que se dibuja termina siendo un alelo a en la siguiente generación con probabilidad u,
mientras que una a que se dibuja termina siendo una A en la proxima generación con probabilidad
v, en este caso la probabilidad de que una A sea generada por un sorteo dado es:
i n−i
ρi = (1 − u) + v.
n n
Es decir, podemos obtener una A dibujando una A y no tener una mutación, o dibujamos una A
que tiene una mutación. Dado que los sorteos son independientes, la probabilidad de transición
todavı́a tiene la forma binomial:
n
p(i, j) = (ρi )j (1 − ρi )n−j .
j
n−i
P(Xn+1 = i + 1|Xn = i, Xn−1 = in−1 , . . . , X0 = i0 ) =
n
Ya que para aumentar el número de bolas tenemos que escoger una de las n − i bolas en la urna,
i
el número también puede disminuir en 1 con probabilidad . Y la probabilidad de transición
n
está dada por:
n−i
p(i, i + 1) = ,
n
i
p(i, i − 1) = .
n
Para 0 ≤ i ≤ n. Con p(i, j) = 0 en otro caso, cuando n = 5, por ejemplo, la matriz de transición
es:
0 1 2 3 4 5
0 0 5/5 0 0 0 0
1 1/5 0 4/5 0 0 0
2 0 2/5 0 3/5 0 0
3 0 0 3/5 0 2/5 0
4 0 0 0 4/5 0 1/5
5 0 0 0 0 5/5 0
Aquı́, hemos escrito al menos un 5/5 para enfatizar el patrón en las diagonales de la matriz.
Ejemplo 2.2.4 (Cadena de Tiempo.) Sea Xn el tiempo en n dı́as en una determinada ciudad,
supongamos que tenemos los siguientes estados 1 lluvioso, 2 nublado sin lluvia y 3 soleado, a pesar
de que el clima no es exactamente una cadena de Markov, podemos proponerla como un sencillo
modelo, cuya matriz de transición es:
0,2 0,5 0,3
P = 0,1 0,3 0,6
0,7 0,2 0,1
CAPÍTULO 2 18
Es indispensable ver que esta cadena no posee estados absorbentes, ya que para ningún estado
p(i, i) = 1, podemos notar en la matriz de transición que después de un dı́a nublado sin lluvia (2)
sigue un dı́a lluvioso (3) es 0,6, es decir, p(2, 3) = 0,6, mientras que un dı́a soleado (1) es seguido
de un dı́a lluvioso (3) con probabilidad 0,3, en otras palabras p(1, 3) = 0,3, por otra parte, que un
dı́a nublado (2) sea seguido de un dı́a soleado (1) es p(2, 1) = 0,1.
Es necesario ver que esta propiedad sı́ es válida, supongamos que deseamos calcular:
p2 (i, j) = P(Xn+2 = j|Xn = i)
Vemos que para llegar a que Xn+2 = j pero Xn+1 debe pasar por algún estado k, esto es:
p2 (i, j) = P(Xn+2 = j|Xn = i)
X
= P(Xn+2 = j, Xn+1 = k|Xn = i)
k
X P(Xn+2 = j, Xn+1 = k, Xn = i)
=
k
P(Xn = i)
X P(Xn+2 = j, Xn+1 = k, Xn = i) P(Xn+1 = k, Xn = i)
= ·
P(X n = i) P(Xn+1 = k, Xn = i)
k
X P(Xn+2 = j, Xn+1 = k, Xn = i) P(Xn+1 = k, Xn = i)
= ·
P(X n+1 = k, Xn = i) P(Xn = i)
k
X
= P(Xn+2 = j|Xn+1 = k, Xn = i) · P(Xn+1 = k|Xn = i)
k
X
= p(i, k)p(k, j).
k
Podemos notar que el último renglón es la (i, j)−ésima entrada de la matriz P 2 . Si se sigue por
inducción matemática podemos concluir esto en lo siguiente.
CAPÍTULO 2 19
Dicha demostración se sigue por inducción, una vez establecido que para ir de i a j en m pasos se
necesita calcular la m-ésima potencia de la matriz de transición, la importancia de esto es poder
demostrar la ecuación de Chapman-Kolmogorov [5], la cual está dada en la siguiente proposición.
A continuación nos dedicaremos a demostrar que la Ecuación (2.3) es correcta, es decir, mostraremos
la veracidad de ésta, tenemos que tener en cuenta que para ir de i a j en m + n pasos tenemos que
ir de i a k en m pasos y de k a j en n pasos entonces [2]:
X
P(Xn+m = j|X0 = i) = P(Xm+n = j, Xm = k|X0 = i)
k
X
= P(Xm+n = j, Xm = k|X0 = i)
k
X P(Xm+n = j, Xm = k, X0 = i)
=
k
P(X0 = i)
X P(Xm+n = j, Xm = k, X0 = i) P(Xm = k, X0 = i)
= ·
k
P(X0 = i) P(Xm = k, X0 = i)
X P(Xm+n = j, Xm = k, X0 = i) P(Xm = k, X0 = i)
= ·
k
P(Xm = k, X0 = i) P(X0 = i)
X
= (P(Xm+n = j|Xm = k, X0 = i) · P(Xm = k|X0 = i))
k
X
= pm (i, k)pn (k, j)
k
Para tener una idea más clara de esta demostración para la ecuación (2.3), tengamos en cuenta el
análisis de la Figura 2.5, que básicamente nos explicará el por qué es necesario ir de i a k y de k
a j.
Como ya hemos demostramos el teorema y la ecuación de Chapman-Kolmogorov, podemos estudiar
con más detalle algunos ejemplos.
Ejemplo 2.3.1 Consideremos la cadena de la movilidad social, sea Xn la clase social de una
familia en la generación n-ésima, supongamos que 1 es la clase baja, 2 es media baja, 3 es la
CAPÍTULO 2 20
Clase media, 4 es la clase media alta y 5 es la clase alta, ahora consideremos los cambios entre los
estados de la siguiente manera:
1 2 3 4 5
1 0,5 0,2 0,15 0,1 0,05
2 0,3 0,3 0,2 0,15 0,05
3 0,1 0,2 0,4 0,2 0,1
4 0,05 0,15 0,2 0,3 0,3
5 0,1 0,15 0,15 0,2 0,4
Supongamos que una familia comienza en la clase media en la generación 0. ¿Cuál es la probabilidad
de que la generación 1 se eleve a la clase alta y la generación 2 caiga a la clase baja?, ¿Cuál es la
probabilidad de que una familia que inicia en la clase media en la generación 0 sea de clase baja
en la generación 2?.
Responderemos a la primera cuestión de la siguente manera, puesto que necesitamos calcular lo
siguiente:
P(X2 = 1, X1 = 5, X0 = 3)
P(X2 = 1, X1 = 5|X0 = 3) =
P(X0 = 3)
P(X2 = 1, X1 = 5, X0 = 3) P(X1 = 5, X0 = 3)
= ·
P(X0 = 3) P(X1 = 5, X0 = 3)
P(X2 = 1, X1 = 5, X0 = 3) P(X1 = 5, X0 = 3)
= ·
P(X1 = 5, X0 = 3) P(X0 = 3)
= P(X2 = 1|X1 = 5, X0 = 3)P(X1 = 5|X0 = 3)
= P(X2 = 1|X1 = 5)P(X1 = 5|X0 = 3)
= p(3, 5)p(5, 1)
= (0,1)(0,1)
= 0,01
CAPÍTULO 2 21
Por otro lado para responder a la segunda pregunta tenemos que analizar:
5
X
P(X2 = 1|X0 = 3) = P(X2 = 1, X1 = k|X0 = 3)
k=1
5
X
= p(3, k)p(k, 1)
k=1
= (0,1)(0,5) + (0,2)(0,3) + (0,4)(0,1) + (0,2)(0,05) + (0,1)(0,1)
= 0,17
Con estos dos ejercicios simples podemos notar que es bastante tedioso estar calculando este tipo
de procesos. Mencionamos en páginas anteriores que el último cálculo es una de las entradas de la
matriz de transición elevada al cuadrado, para ello vemos que:
0,5 0,2 0,15 0,1 0,05
0,3 0,3 0,2 0,15 0,05
P = 0,1 0,2 0,4 0,2 0,1
0,05 0,15 0,2 0,3 0,3
0,1 0,15 0,15 0,2 0,4
Calculando P 2 :
0,335 0,2125 0,2025 0,15 0,1
0,2725 0,22 0,2225 0,17 0,115
2
P =
0,17 0,205 0,27 0,2 0,155
0,135 0,185 0,2225 0,2175 0,24
0,16 0,185 0,205 0,2025 0,2475
Fijándonos en la entrada que ésta ubicada en la intersección de la tercera fila y la primera columna,
es la probabilidad de ir del estado 3 al estado 1 exactamente en 2 pasos. Que en esencia es el cálculo
que hicimos para resolver a la segunda cuestión de nuestro problema.
Ejemplo 2.3.2 Consideremos la cadena de tiempo, estudiada en el Ejemplo 2.2.4, sabemos que
tenemos la siguiente matriz de transición:
0,2 0,5 0,3
P = 0,1 0,3 0,6
0,7 0,2 0,1
¿Qué sucede a largo plazo?
Para entender qué es lo que deseamos calcular con la pregunta de este problema, usaremos el
teorema anterior porque necesitamos calcular qué pasa con las diferentes transiciones conforme
pasa el tiempo, esto es, calcular las diferentes potencias de la matriz de transición para ver el
comportamiento de los estados, por ejemplo calculamos P 2 :
0,3 0,31 0,39
P 2 = 0,47 0,26 0,27
0,23 0,43 0,34
CAPÍTULO 2 22
Esta nos da la información necesaria para ir del estado i al estado j en dos pasos, si calculamos
P 3 obtendremos el comportamiento de los estados en 3 estapas:
0,364 0,321 0,315
P 3 = 0,309 0,367 0,324
0,327 0,312 0,361
Multiplicando nuevamente por P tenemos:
0,3254 0,3413 0,3333
P 4 = 0,3253 0,3294 0,3453
0,3493 0,3293 0,3214
Aplicando la ecuación de Chapman-Kolmogorov, es decir, P 4 · P 4 = P 8 :
0,33333174 0,33323893 0,33342933
P 8 = 0,33361973 0,33323654 0,33314373
0,33304853 0,33352453 0,33342694
Análogamente tenemos:
0,3333332789589 0,33333336097561 0,33333336006549
P 16 = 0,33333335915538 0,33333327941396 0,33333336143066
0,33333336188572 0,33333335961044 0,33333327850385
Si continuamos con lo cálculos podemos notar que mientras n crece entonces la matriz P n tiende
a:
1/3 1/3 1/3
1/3 1/3 1/3
1/3 1/3 1/3
Por lo anterior podemos decir que nuestra matriz converge cuando n es lo suficientemente grande.
En la Ecuación (2.4) podemos ver que P(Xn = j|X0 = i) = pn (i, j), suponiendo que P(X0 = i) =
q(i) tenemos:
X
P(Xn = j) = q(i)pn (i, j) (2.5)
i
CAPÍTULO 2 23
En otras palabras, la Ecuación (2.5) nos dice que multipliquemos por la izquierda la matriz de
transición por las probabilidades iniciales, dicho de otra manera, para que ésta operación esté bien
definida, como la matriz de transición es de tamaño k × k necesitamos multiplicar por una matriz
de tamaño 1 × k (matriz fila), lo que nos lleva a la siguiente definición:
Definición 2.4.1 Sea {Xn , n ≥ 0}, una cadena de Markov, llamaremos distribución inicial al
vector fila, cuyas entradas son la probabilidad de que la variable aleatoria comience en un estado
y será denotada por π0 , es decir:
π0 = (q(0), q(1), . . . , q(k)) (2.6)
P
Donde 0, 1, . . . , k ∈ S, q(i) = P(X0 = i) y q(i) = 1.
i
Para tener una mejor idea podemos analizar los siguentes ejemplos, y ası́ comprender la importancia
de esta definición.
Ejemplo 2.4.1 Consideremos la cadena de tiempo estudiada en el Ejercicio 2.2.4, supongamos
además que la distribución inicial es q(1) = 0,3, q(2) = 0,5 y q(3) = 0,2.
De esta manera podemos ver que:
0,2 0,5 0,3
π0 · P = 0,3 0,5 0,2 · 0,1 0,3 0,6
0,7 0,2 0,1
= 0,25 0,34 0,41
Donde 0,25 es la probabilidad de que la variable aleatoria X1 = 1, 0,34 es la probabilidad de que
la variable aleatoria X1 = 2 y 0,41 es la probabilidad de que la variable aleatoria X1 = 3, dicho
esto podemos observar que el producto de la distribución inicial por la matriz de transición es la
distribución de la variable aleatoria X1 .
Ejemplo 2.4.2 En la cadena de movilidad social estudiada en el Ejemplo 2.3.1, supongamos que
la distribución inicial está dada por q(1) = 0,2, q(2) = 0,2, q(3) = 0,3, q(4) = 0,15 y q(5) = 0,15.
Multiplicando la distribución inicial por la matriz de trancisión tenemos:
0,5 0,2 0,15 0,1 0,05
0,3 0,3 0,2 0,15 0,05
π0 · P = 0,2 0,2 0,3 0,15 0,15 · 0,1 0,2 0,4 0,2 0,1
0,05 0,15 0,2 0,3 0,3
0,1 0,15 0,15 0,2 0,4
= 0,2125 0,205 0,2425 0,185 0,155
π·P = π
Para tener una mejor idea realicemos algunos ejemplos y, de esta manera, despejaremos cualquier
duda acerca de la distribución estacionaria y tendremos una idea clara de cómo calcularla.
Ejemplo 2.5.1 Supongamos que tenemos una cadena de Markov de dos estados con matriz de
transición:
1−a a
P =
b 1−b
−π1 a + π2 b = 0
π1 a − π2 b = 0
Que no nos aporta ninguna información acerca de cómo son π1 y π2 , recordemos además que la
suma de las π’s es 1, de esta manera construimos el siguiente sistema:
π1 + π2 = 1
π1 a − π2 b = 0
b a
Del cual sabemos que las soluciones son π1 = y π2 = , para comprobar esto vemos que:
a+b a+b
b a b − ba + ab b
(1 − a) + (b) = =
a+b a+b a+b a+b
b a ba + a − ab a
(a) + (1 − b) = =
a+b a+b a+b a+b
Con estos cálculos ya sabemos cuál es la distribución estacionaria, para cualquier cadena de Markov
de dos estados.
Ejemplo 2.5.2 Calcule la distribución estacionaria para una cadena de Markov de tres estados.
CAPÍTULO 2 25
Considerando que es una cadena de tres estados, entonces su matriz de transición está dada por:
a b 1−a−b
P = c d 1−c−d
e f 1−e−f
De esta manera:
π ·
P = π
a b 1−a−b
(π1 π2 π3 ) · c d 1 − c − d = (π1 π2 π3 )
e f 1−e−f
Sabemos que π1 + π2 + π3 = 1, por lo que reemplazaremos la tercera ecuación del sistema anterior
por esta última, de esta manera obtenemos:
cf − e(d − 1)
π1 =
(a − 1)(d − 1) + e(b − d + 1) + f (c − a + 1) − bc
be − f (a − 1)
π2 =
(a − 1)(d − 1) + e(b − d + 1) + f (c − a + 1) − bc
(a − 1)(d − 1) − bc
π3 =
(a − 1)(d − 1) + e(b − d + 1) + f (c − a + 1) − bc
Con esto hemos calculado la distribución estacionaria para cualquier cadena de Markov de tres
estados, sin embargo, en los siguiente ejemplo no lo usaremos, puesto que deseamos que el lector
se dé cuenta de un detalle fino en los cálculos para la distribución estacionaria.
Ejemplo 2.5.3 Calcule la distribución estacionaria para la cadena de Markov de tres estados que
tiene la siguiente matriz de transición:
0,8 0,1 0,1
P = 0,2 0,6 0,2
0,2 0,4 0,4
CAPÍTULO 2 26
El cual no nos aporta ninguna información sobre cómo son nuestas π’s, debido a que si sumamos
las tres ecuaciones obtendremos π1 + π2 + π3 = π1 + π2 + π3 , pero sabemos que π1 + π2 + π3 = 1 y
reemplazándola por la tercera ecuación del sistema anterior tendremos:
Usando las primeras dos ecuaciones del sistema π · P = π y el hecho de que la suma de las π’s es
1, obtenemos el siguiente sistema:
Esto se truduce como la distribución estacionaria por una matriz A, igual a un vector que tiene
de última coordenada un uno y puros ceros, es decir, π · A = (0 0 1) donde:
−0,5 0,2 0,15 0,1 1
0,3 −0,7 0,2 0,15 1
A= 0,1 0,2 −0,6 0,2 1
0,05 0,15 0,2 −0,7 1
0,1 0,15 0,15 0,2 1
Tengamos en cuenta que las dos primeras columnas de la matriz A consiste en las primeras dos
columnas de la matriz de transición restando 1 de la diagonal, y la columna final es de unos. Es
fácil ver que el sistema π · A = (0 0 1) y se ve como π = (0 0 1) · A−1 . Calculando la inversa de A:
−1,716559 −0,100598 0,006381 0,196317 1,614459
−0,411028 −1,204932 −0,072821 0,112610 1,576171
−1
A = −0,027401 −0,080328 −1,338188 0,007507
1,438411
0,093842 0,001126 −0,074698 −1,1216005 1,1013306
0,218652 0,202623 0,225952 0,186670 0,1661004
Con
k
X
πn (j) ≥ 0 , πn (j) = 1
j=0
CAPÍTULO 2 28
πn (j) = P(Xn = j)
Xk
= P(X0 = i)P(Xn = j|X0 = i)
i=1
Xk
= π0 (i)P(Xn = j|X0 = i)
i=1
Si usamos la teorı́a de matrices para los cálculos de distribuciones, podemos ver lo anterior de la
siguiente manera:
πn = π0 P n
πn = πn−1 P = . . . = π0 P n , n ≥ 1 (2.7)
π = lı́m πn
n→∞
π = πP (2.8)
y
π = π0 lı́m P n (2.9)
n→∞
Observación 2.6.1 (i) La Ecuación (2.8) nos dice que la distribución lı́mite es una distribución
estacionaria.
(iii) (2.9) implica que la distribución lı́mite está dada por la n−ésima potencia de la matriz P .
(iv) A partir de (2.9) el lı́mite de las potencias de P es una matriz con todas sus filas iguales y
las entradas de dicha matriz serán los elementos de la distribución lı́mite.
Definición 2.6.1 Consideremos una cadena de Markov con matriz de transición P y distribución
inicial π0 . Llamaremos distribución lı́mite de esta cadena a la matriz fila:
Para tener una idea más precisa de esto analizaremos algunos ejemplos, en los cuales quedará re-
suelta la gran mayorı́a de nuestras dudas acerca de lo estudiado hasta este momento en esta
sección.
Ejemplo 2.6.1 Consideremos la cadena de tiempo y distribución estacionaria estudiadas en el
Ejemplo 2.4.1:
π0 = 0,3 0,5 0,2
0,2 0,5 0,3
P = 0,1 0,3 0,6
0,7 0,2 0,1
Similarmente:
0,33333174 0,33323893 0,33342933
π8 = π0 P 8 = 0,3 0,5 0,2 · 0,33361973 0,33323654 0,33314373
0,33304853 0,33352453 0,33342694
= 0,333419093 0,333294855 0,333286052
De esta manera:
1 1 1
lı́m πn =
n→∞ 3 3 3
CAPÍTULO 2 30
2.7. Periodicidad.
Comenzaremos esta sección analizando la cadena de Ehrenfest estudiada en el Ejemplo 2.2.3
para el caso en el que n = 5.
0 1 0 0 0 0
1/5 0 4/5 0 0 0
0 2/5 0 3/5 0 0
P =
0 0 3/5 0 2/5 0
0 0 0 4/5 0 1/5
0 0 0 0 1 0
Por lo que:
−1 1 0 0 0 1
0,2 −1 0,8 0 0 1
0 0,4 −1 0,6 0 1
A =
0 0 0,6 −1 0,4 1
0 0 0 0,8 −1 1
0 0 0 0 1 1
Que converge a:
1 5 10 10 5 1
32 32 32 32 32 32
Con base en esto podemos decir:
n
k
π(k) =
2n
CAPÍTULO 2 31
Para comprobar que es correcto observemos que para 0 < k < n, podemos terminar en el estado
k sólo si subimos de k − 1 ó por bajando de k + 1, por lo que:
n n
k−1 n−k+1 k+1 k+1
π(k − 1)p(k − 1, k) + π(k + 1)p(k + 1, k) = n
· + n
·
2 n 2 n
1 (n − 1)! (n + 1)!
= n +
2 (k − 1)!(n − k)! (k)!(n − k + 1)!
1 n k n−k
= n + = π(k)
2 k n n
La única manera de terminar en 0 es porque bajamos de 1, entonces:
n 1
π(1)p(1, 0) = n · = π(0)
2 n
Del mismo modo, la única manera de terminar en n es porque subimos de n − 1, esto es:
n 1
π(n − 1)p(n − 1, n) = n · = π(0)
2 n
Sin embargo si consideramos esta cadena con n = 3 tenemos que la matriz de transición para este
caso es:
0 1 0 0
1/3 0 2/3 0
Q = 0 2/3 0 1/3
0 0 1 0
Calculando la trancisión en dos pasos tendremos:
1/3 0 2/3 0
0 7/9 0 2/9
Q2 = 2/9 0 7/9 0
0 2/3 0 1/3
Podemos ver que el patrón se desplazó, si continuamos con la transición de tres pasos obtenemos:
0 7/9 0 2/9
7/27 0 20/27 0
Q3 = 0
20/27 0 7/27
2/9 0 7/9 0
Continuando con Q4 tenemos:
7/27 0 20/27 0
0 61/81 0 20/81
Q4 =
20/81
0 61/81 0
0 20/27 0 7/27
Hemos visto que el patrón efectivamente se desplazó, además, es fácil ver que en Q2n tenemos
q 2n (i, j) > 0 si i + j es par y q 2n+1 (i, j) = 0 si i + j es impar. Caso contrario en Q2n+1 pues
q 2n+1 (i, j) > 0 si i + j es impar y q 2n+1 (i, j) = 0 si i + j es par. Lo que hace muy difı́cil notar la
convergencia de Qn cuando n → ∞. Lo que nos lleva a las siguientes definiciones:
CAPÍTULO 2 32
Definición 2.7.1 Sea {Xn , n ≥ 0}, una cadena de Markov con matriz de transición P , decimos
que P es irreducible, si para cada i y j se puede llegar de i a j, es decir, pm (i, j) > 0 para algún
m ≥ 1.
Definición 2.7.2 Sea i un estado de una cadena de Markov, diremos que i es una estado aperiódi-
co, si el máximo común divisor de Ji = {n ≥ 1 : pn (i, i) > 0} es 1, es decir:
gcd(Ji ) = 1
Supongamos que el máximo común divisor de Ji es k, en otras palabras, k = gcd(Ji ) diremos que
k es el periodo del estado i.
Consideremos el siguiente ejemplo para tener una idea más clara de lo que sucede con estas defini-
ciones.
Ejemplo 2.7.2 (Triángulo y cuadrado.) Consideremos el espacio de estados S = {−2, −1, 0, 1, 2, 3}
y la probabilidad de transición es:
−2 −1 0 1 2 3
−2 0 0 1 0 0 0
−1 1 0 0 0 0 0
0 0 1/2 0 1/2 0 0
1 0 0 0 0 1 0
2 0 0 0 0 0 1
3 0 0 1 0 0 0
Es decir, 0 → −1 → −2 → 0 es un triángulo y 0 → 1 → 2 → 3 → 0 es un cuadrado. (ver Figura
2.6)
Podemos ver que 5 ∈/ J0 pues no hay forma de llegar a 0 en 5 pasos, y después de 6 el resto de los
números estan en J0 . Observemos que J0 es cerrado bajo la suma, dicho esto no es difı́cil concluir
que el máximo común divisor de J0 es 1, por lo tanto 0 es un estado aperiódico.
Ejemplo 2.7.3 Consideremos una cadena de Markov con espacio de estados S = {1, 2, 3, 4} y
matriz de transición:
0,5 0,5 0 0
0,3 0,7 0 0
P = 0
0 0,2 0,8
0 0 0,8 0,2
La dinámica de cadena de Markov se puede ver de una manera más gráfica en la Figura 2.7.
Figura 2.7: Dinámica de la cadena de Markov con espacio de estados S = {1, 2, 3, 4}.
Veamos que si la cadena comienza en 1 ó 2 se queda en esos dos estados, de manera muy similar
si comienza en los estados 3 ó 4, por lo que la cadena es reducible. Para ver que esto es cierto,
tengamos en cuenta que si la cadena comienza en 1 ó 2, ésta se comporta como una cadena de
Markov con espacio de estados S1 = {1, 2} y matriz de transición:
0,5 0,5
P1 =
0,3 0,7
Sucede lo mismo si comienza en 3 ó 4, esto puede ser un ejemplo muy sencillo que nos muestre
cómo es el comportamiento de una cadena de Markov reducible, pues en éstas se puede analizar
el comportamiento a largo plazo reduciendo la cadena en subcadenas con espacios de estados más
pequeños.
CAPÍTULO 2 34
Demostración. Sea {Yn , n ≥ 0}, una cadena de Markov independiente de la cadena {Xn , n ≥ 0},
pero con la misma matriz de transición. De esta manera definimos {Zn , n ≥ 0}, como Zn = (Xn , Yn )
es una cadena de Markov con probabilidad de transición:
πZ = πX πY
Para ver que efectivamente esto es cierto, tomemos (x0 , y0 ) ∈ S ′ , donde S ′ es el espacio de estados
de {Zn , n ≥ 0}, de esta manera:
X XX
πZ ((x0 , y0))p((x0 , y0 ), (x, y)) = πX (x0 )πY (y0 )p(x0 , x)p(y0 , y)
(x0 ,y0 ) x0 y0
! !
X X
= πX (x0 )p(x0 , x) πY (y0 )p(y0 , y)
x0 y0
= πX (x)πY (y) = πZ ((x, y))
Por lo que:
Lo anterior es cierto debido a que Xn y Yn son aperiódicas, por lo que Zn es recurrente positiva y
en particular es recurrente.
Sea j un estado de la cadena original (Xn ), definimos el primer momento en el que la cadena
Zn , n ≥ 0, visita por primera vez el estado (j, j) como τj = mı́n {n ≥ 1 : Zn = (j, j)}, sea τ =
mı́n {n ≥ 1 : Xn = Yn }, y τ será el primer momento en el que coinciden las dos cadenas, como
CAPÍTULO 2 35
Es decir, sobre el evento (τ ≤ n), las variables aleatorias Xn y Yn tienen la misma distribución de
probabilidad, por otra parte:
Mientras que:
Corolario 2.8.1 Si para algún n, pn (i, j) > 0 para todo i y j entoces hay una única distribución
estacionaria π, y:
Ejemplo 2.8.1 Una tienda vende un determinado producto, si al final del dı́a el número de
unidades que posee la tienda es 0 ó 1, se adquiere más producto, teniendo en cuenta que el lı́mite
de productos que puede tener es 5. Suponiendo que la nueva mercancı́a llega antes de abrir la tien-
da, al dı́a siguiente, sea Xn , n ≥ 0, el número de unidades en el inventario al final del n−ésimo
dı́a, si suponemos que el número de clientes que compran el producto cada dı́a es 0, 1, 2, 3 con
probabilidad 0,3, 0,4, 0,2 y 0,1 respectivamente, obtenemos las siguiente matriz de trancisión:
0 0 0,1 0,2 0,4 0,3
0 0 0,1 0,2 0,4 0,3
0,3 0,4 0,3 0 0 0
P =
0,1 0,2 0,4 0,3 0 0
0 0,1 0,2 0,4 0,3 0
0 0 0,1 0,2 0,4 0,3
Como todas las entradas son positivas en P 2 podemos aplicar el corolario anterior para afirmar
que esta cadena es irreducible y tiene distribución estacionaria única.
Proposición 2.9.1 Si {Xn , n ≥ 0}, es una cadena doblemente estocástica, si la cadena tiene N
1
estados entonces la distribución estacionaria es π(i) = , ya que:
N
X 1
π(i)p(i, j) = (2.14)
i
N
1 P 1 1 P
Para ver que (2.14) es válida, como π(i) = tenemos que p(i, j) = p(i, j) y por la
P N i N N i
Definición 2.9.1 sabemos que p(i, j) = 1 lo que nos lleva a afirmar que (2.14) es cierta. Una vez
i
que ya definimos cómo es una cadena doblemente estocástica, analizaremos un ejemplo bastante
sencillo para tener una idea más clara y precisa acerca de este tema.
Ejemplo 2.9.1 (Juego de mesa Tiny.)Considere un juego de mesa circular con sólo seis espacios
{0, 1, 2, 3, 4, 5}. En cada turno decidimos hasta dónde nos desplazamos lanzando dos monedas, y
luego moviendo un espacio por cada cara obtenida. En este caso la matriz de transición es:
1/4 1/2 1/4 0 0 0
0 1/4 1/2 1/4 0 0
0 0 1/4 1/2 1/4 0
P =
0 0 0 1/4 1/2 1/4
1/4 0 0 0 1/4 1/2
1/2 1/4 0 0 0 1/4
CAPÍTULO 2 38
Aquı́ consideremos que el 5 está junto a 0, por lo que si estamos ahı́ y obtenemos dos caras el
resultado es 5 + 2 mód (6) = 1, donde i + k mód (6) es lo que queda al dividir i + k por 6. Es
claro ver que la sumas de las columnas de la matriz P es 1, por lo que la distribución estacionaria
es uniforme, para comprobar la hipótesis del teorema de la convergencia, se observa que después
de tres turnos nos habremos movido entre 0 y 6 espacios por lo que, p3 (i, j) > 0. Para comprobar
ésto calculemos P 2 y P 3 :
1/16 1/4 3/8 1/4 1/16 0
0 1/16 1/4 3/8 1/4 1/16
2
1/16 0 1/16 1/4 3/8 1/4
P =
1/4 1/16 0 1/16 1/4 3/8
3/8 1/4 1/16 0 1/16 1/4
1/4 3/8 1/4 1/16 0 1/16
y
1/32 3/32 15/64 5/16 15/64 3/32
3/32 1/32 3/32 15/64 5/16 15/64
15/64 3/32 1/32 3/32 15/64 5/16
P3 =
5/16 15/64 3/32 1/32 3/32 15/64
15/64 5/16 15/64 3/32 1/32 3/32
3/32 15/64 5/16 15/64 3/32 1/32
Podemos observar que las entradas en P 3 son todas positivas, además de que P es irreducible.
Aplicando el corolario anterior podemos concluir que tenemos una distribución estacionaria única,
que en efecto ya conocı́amos por el hecho de que la cadena es doblemente estocástica.
Para tener una idea mas clara de esto, consideraremos el estudio de un proceso que es un claro
ejemplo de una cadena de Markov de tiempo continuo, dicho proceso es conocido como Proceso de
Poisson.
son, dicho esto daremos las caracterı́sticas principales del proceso de Poisson [7].
(A1) La probabilidad de ocurrencia de un evento en el intervalo de tiempo (t, t + δt) es λδt + o(δt).
Donde λ es una constante positiva y o(δt) es tal que:
o(δt)
lı́m = 0
δt→0 δt
De esta manera un evento de este proceso puede describir la llegada de un autobús o un cambio
de cliente [7]. A partir de A1, A2 y A3, podemos observar la distribución de Poisson.
Sea Pn (t) la probabilidad de que el evento n ocurra en el intervalo [0, t], supangamos que Pn (t) es
diferenciable, entonces, podemos obtener una relacion entre Pn (t) y Pn−1 (t) como:
dPn (t)
= −λPn (t) + λPn−1 (t) , n = 0, 1, 2, . . . (2.15)
dt
Haciendo n = 0 en (2.15) dado que P−1 (t) = 0 obtenemos la siguiente ecuación diferencial para
P0 (t):
(
dPo (t)
= −λP0 (t)
dt
P0 (0) = 1
Donde P0 (0) es la probabilidad de que ningún evento se prudujo en el intervalo [0, 0] es por eso
que debe de ser 1, resolviendo la ecuación para P0 (t) obtenemos:
Veamos que (2.16) que es la probabilidad de que ningún evento se produzca en el intervalo [0, t].
De esta manera:
(2.17) es la probabilidad de que al menos un evento se produjo en el intervalo de tiempo [0, t], por
lo que la distribución de densidad de probabilidad f (t), para el tiempo de espera y que el primer
evento ocurra, está dada por la distribución exponencial, bien conocida como:
d 1 − e−λt
f (t) = = λe−λt , t ≥ 0
dt
Cabe mencionar que:
dPn (t)
= −λPn (t) + λPn−1 (t), n = 1, 2, . . .
dt
P (t) = e−λt
0
Pn (0) = 0, n = 1, 2, . . .
d(P1 (t))
+ λP1 (t) = λP0 (t)
dt
d(P1 (t))
+ λP1 (t) = λe−λt
dt
Multiplicando ambos lados por eλt obtendremos:
d(P1 (t))
eλt + λeλt P1 (t) = λ
Zdt Z
d λt
e P1 (t) dt = λ tdt
dt
De esta manera:
P1 (t) = λte−λt
d(P2 (t))
+ λP2 (t) = λP1 (t)
dt
d(P2 (t))
+ λP2 (t) = λ λte−λt
dt
d(P2 (t))
+ λP2 (t) = λ2 te−λt
dt
De nuevo si multiplicamos ambos lados de la ecuación anterior, tenemos:
d(P2 (t))
eλt + λeλt P2 (t) = λ2 t
dt
CAPÍTULO 2 41
λ2 t2 −λt
P2 (t) = e
2
Para n = 3:
d(P3(t))
+ λP3 (t) = λP2 (t)
dt 2 2 −λt
d(P3(t)) λte
+ λP3 (t) = λ
dt 2
3 2
d(P3(t)) λ t −λt
+ λP3 (t) = e
dt 2
d(P3 (t)) λ3 t2
eλt + λeλt P3 (t) =
dt 2
λ3 t3 −λt (λt)3
P3 (t) = e =
6 3!
En general:
(λt)n −λt
Pn (t) = e
n!
Con esto podemos decir que el proceso de Poisson, la distribución de Poisson y la distribución
exponencial están relacionados entre sı́, lo que nos lleva a la siguiente proposición [7].
(B2) Sea N(t) el número de llegadas en el intervalo de tiempo [0, t], entoces:
(λt)n −λt
P (N(t) = n) = e , n = 0, 1, 2, . . .
n!
Con todo esto podemos concluir que el Proceso de Poisson es un claro ejemplo de una cadena de
Markov de tiempo Continuo.
CAPÍTULO 2 42
Donde:
−λ µ
A =
λ −µ
det(A − πI) = 0
−λ − π µ
= 0
λ −µ − π
π 2 + (λ + µ)π = 0
Resolviendo π 2 + (λ + µ)π = 0, vemos que los valores propios son π1 = 0 y π2 = −(λ + µ), ahora
calcularemos los vectores propios respectivos a cada uno de los valores propios, de esta maner para
π1 = 0, tenemos:
(A − 0I) X = 0
−λ µ x1 0
=
λ −µ x2 0
CAPÍTULO 2 43
Ası́ obtenemos:
µ! µ!
−λ µ 1 − 1 −
→ λ → λ
λ −µ λ −µ 0 0
µ µ
Por lo que x1 = x2 si hacemos x2 = λ vemos que v1 = , ahora calculemos el vector propio
λ λ
para π2 = −(λ + µ), entoces:
(A + (λ + µ)I) X = 0
µ µ x1 0
=
λ λ x2 0
Ası́:
µ µ 1 1
→
λ λ 0 0
1
Como x1 = −x2 , haciendo x2 = −1, de esta forma π2 = −(λ + µ) obtenemos: v2 = . De esta
−1
manera podemos afirmar que la solución del sistema es:
P0 (t) µ 1
= C1 + C2 e−(λ+µ)t
P1 (t) λ −1
1 µ
Donde C1 = y C2 = − , por lo que:
λ+µ λ+µ
µ µ −(λ+µ)t
P0 (t) = − e
λ+µ λ+µ
λ µ −(λ+µ)t
P1 (t) = + e
λ+µ λ+µ
Debido a que las probabilidades de los estados estables están dadas por:
µ
lı́m P0 (t) =
t→∞ λ+µ
λ
lı́m P1 (t) =
t→∞ λ+µ
Con esto podemos decir que no es necesario resolver el sistema de ecuaciones diferenciales para
encontrar la distribución de probabilidad del estado estable, podemos ver que tanto P0 (t) como
CAPÍTULO 2 44
P0 (t) dp0
= =0
dt dt
P1 (t) dp1
= =0
dt dt
Reducimos el problema a calcular el siguiente sistema de ecuaciones lineal para calcular la proba-
bilidad del estado estable, es decir:
−λ µ p0 0
=
λ −µ p1 0
Aplicaciones.
45
CAPÍTULO 3 46
Lo primero que tenemos que notar es que la cadena que modelaremos tiene como espacio de
estados S = {0, 1, 2, 3, 4, . . . , 38, 39}, tomemos en cuenta que, como jugamos con dos dados, la
suma mı́nima que se puede obtener al lanzar un par de estos es 2, mientras que el máximo de
casillas que podemos avanzar es 12, por lo que llamaremos a rk la probabilidad de que la suma
de los dados sea k, en otras palabras, r2 = 1/36, r3 = 2/36, . . . , r11 = 2/36, r12 = 1/36. Es fácil
12
P
ver que rk = 1, de esta manera consideremos que Xn , n ≥ 0, sea la probabilidad de que un
k=2
jugador se encuentre en la casilla n en el n−ésimo turno, Xn , n ≥ 0 es una cadena de Markov.
Ahora definiremos la probabilidad de transición, es decir, la probabilidad de pasar de estar en la
casilla i a la casilla j en un turno, con i, j ∈ S, y la definiremos de la siguiente manera:
0 0 0,028 ... 0 0 0
0 0 0 ...
0 0 0
0 0 0 ...
0 0 0
P = .. .. .. .. .. .. ..
. . . . . . .
0,056 0,083 0,111 . . . 0 0 0,028
0,028 0,056 0,083 . . . 0 0 0
0 0,028 0,056 . . . 0 0 0
P
Para ver que es una cadena de Markov, tengamos en cuenta que p(i, j) = 1, para cada i, además
i
de que p(i, j) ≥ 0 para todos i, j ∈ S, lo interesante de una cadena de Markov es ver cómo se
comporta a largo plazo. Con la ayuda de Python haremos los cálculos necesarios para ver cómo
se comporta dicha cadena, usando los comandos necesarios para evitar hacer los cálculos a mano,
puesto que la matriz de transición tiene tamaño 40 × 40, de esta manera calculando P 2 , vemos
que:
0 0 0 ... 0 0 0
0 0 0 ... 0 0 0
0 0 0 ... 0 0 0
.. . . .. .. .. ..
P2 = . .. .. . . . .
0 0,000784 0,003136 . . . 0 0 0
0 0 0,000784 . . . 0 0 0
0. 0 0. ... 0 0 0
CAPÍTULO 3 47
A partir de P 4 podemos ver que todas las entradas de la matriz de transición son positivas. Con
esto podemos concluir que P es irreducible y aperiódica, esto es aún más fácil de ver ya que
la suma máxima de las caras de los dados es 12, si lanzamos 4 veces los dados, lo mı́nimo que
podemos avanzar son 8 casillas, mientras que el máximo de casillas que se puede avanzar es 48, y
básicamente con 4 lanzamientos podemos dar una vuelta completa al tablero. En el caso de que
en los cuatro lanzamientos obtuvimos cantidades muy próximas a 12, continuando con los cálculos
para ver el comportamiento a largo plazo, venemos que:
0,0038 0,0053 0,0073 . . . 0,0016 0,0020 0,0027
0,0027 0,0038 0,0054 . . . 0,0014 0,0016 0,0020
0,0020 0,0027 0,0038 . . . 0,0015 0,0014 0,0016
8 .. .
. .
. . . .
. .
. .
.
P = . . . . . . .
0,0098 0,0128 0,0164 . . . 0,0038 0,0053 0,0073
0,0073 0,0098 0,0128 . . . 0,0027 0,0038 0,0053
0,0054 0,0073 0,0098 . . . 0,0020 0,0027 0,0038
Después de 16 etapas, o turnos, calcularemos para 32, y todo lo anterior es posible hacerlo gracias
a la ecuación de Chapman-Kolmogorov:
0,0210 0,0206 0,0204 . . . 0,0227 0,0220 0,02149
0,0215 0,0210 0,0206 . . . 0,0234 0,0227 0,02207
0,0221 0,0214 0,0210 . . . 0,0241 0,0234 0,02272
P 32 = ... .. .. .. .. .. ..
. . . . . .
0,0202 0,0201 0,0202 . . . 0,0210 0,0206 0,02034
0,0203 0,0201 0,0201 . . . 0,0214 0,0210 0,02062
0,0206 0,0203 0,0202 . . . 0,0220 0,0214 0,02101
CAPÍTULO 3 48
1. Si Xn = 1, entonces:
P (Xn+1 = 1) = 0,2
P (Xn+1 = 2) = 0,5
P (Xn+1 = 3) = 0,3
2. Si Xn = 2, entonces:
P (Xn+1 = 1) = 0,1
P (Xn+1 = 2) = 0,3
P (Xn+1 = 3) = 0,6
3. Si Xn = 3, entonces:
P (Xn+1 = 1) = 0,7
P (Xn+1 = 2) = 0,2
P (Xn+1 = 3) = 0,6
3.2.2. Distribución de Xn .
En EXCEL podemos generar números aleatorios en [0, 1] con el comando U=ALEATORIO(),
de esta manera generaremos la distribución de la variable aleatoria para el caso 1, de la siguiente
manera [7]:
1 si U ∈ [0, 0,2)
Xn+1 = 2 si U ∈ [0,2, 0,7)
3 si U ∈ [0,7, 1]
Q2 1,2,3
B3 = ALEAT ORIO()
C3 = SI(B3 < 0,2, 1, −1)
D3 = SI(Y (B3 > 0,2, B3 < 0,5), 2, −1)
E3 = SI(B3 > 0,5, 3, −1)
F3 = MAX(C3, D3, E3)
G3 = ALEAT ORIO()
H3 = SI(G3 < 0,2, 1, −1)
I3 = SI(Y (G3 > 0,2, G3 < 0,5), 2, −1)
J3 = SI(G3 > 0,5, 3, −1)
K3 = MAX(H3, I3, J3)
L3 = ALEAT ORIO()
M3 = SI(L3 < 0,2, 1, −1)
N3 = SI(Y (L3 > 0,2, L3 < 0,5), 2, −1)
O3 = SI(L3 > 0,5, 3, −1)
P3 = MAX(M3, N3, O3)
Q3 = MAX(SI(Q2 = 1, F 3, −1), SI(Q2 = 2, K3, −1), SI(Q2 = 3, P 3, −1))
En la tabla podemos observar que Q2 es X0 , esto implica que la cadena puede comenzar en 1,2
o 3, de B3 − Q3 será la simulación para X1 , tendremos que hacer cada uno de los pasos de la
tabla hasta Bi − Qi, i = 3, 5, 6, . . . , 42 que sera el valor 1, 2 ó 3 que toma la cadena en los 40
pasos. Ası́ mostramos cómo queda nuestra simulación. Para ello analicemos la Figura 3.2, en ella
se muestra cómo queda nuestra simulación, para el caso en el que X0 = 1 y la Figura 3.5 nos
muestra una gráfica de dicha simulación, mientras que las Figuras 3.3 y 3.6 nos muestran el caso
en el que X0 = 2 del mismo modo que las Figuras 3.4 y 3.7 nos muestran lo que sucede cuando
X0 = 3.
CAPÍTULO 3 52
Figura 3.2: Simulación de una cadena de Markov en EXCEL cuando X0 = 1. Podemos ver que
tendremos exactamente 18 dı́as con lluvia, 9 dı́as nublados sin lluvia, y 14 dı́as soleados.
CAPÍTULO 3 53
Figura 3.3: Simulación de una cadena de Markov en EXCEL cuando X0 = 2. Podemos ver que
tendremos exactamente 17 dı́as con lluvia, 8 dı́as nublados sin lluvia, y 16 dı́as soleados.
CAPÍTULO 3 54
Figura 3.4: Simulación de una cadena de Markov en EXCEL cuando X0 = 2. Podemos ver que
tendremos exactamente 14 dı́as con lluvia, 13 dı́as nublados sin lluvia, y 14 dı́as soleados.
CAPÍTULO 3 55
Figura 3.5: Simulación de una cadena de Markov en EXCEL cuando X0 = 1. Podemos ver que
tendremos exactamente 18 dı́as con lluvia, 9 dı́as nublados sin lluvia, y 14 dı́as soleados.
Figura 3.6: Simulación de una cadena de Markov en EXCEL cuando X0 = 2. Podemos ver que
tendremos exactamente 17 dias con lluvı́a, 8 dı́as nublados sin lluvia, y 16 dı́as soleados.
Figura 3.7: Simulación de una cadena de Markov en EXCEL cuando X0 = 3. Podemos ver que
tendremos exactamente 14 dı́as con lluvia, 13 dı́as nublados sin lluvia, y 14 dı́as soleados.
CAPÍTULO 3 56
Conclusiones.
Esto nos hace pensar en el sin fin de aplicaciones que tienen la cadenas de Markov, ası́ como la
importancia que éstas nos brindan haciendo un análisis más detallado.
Posteriormente podemos segir estudiando las siguientes lı́neas de investigación relacionadas con las
cadenas de Markov, particularmente en la teorı́a de colas, cadenas de markov a tiempo continuo un
poco más complejas, mientras que en la parte de las cadenas de tiempo discreto, se podria seguir
estudiando procesos como las martingales, cadenas de nacimiento y muerte, cadenas de Markov
absorbentes. Más aún podremos adentrarnos en el estudio de los Procesos de Decisión de Markov,
un poco de cálculo estocástico, sistemas de manofactura y re-manofactura (que estan relacionados
ampliamente con la teorÃa de colas y los procesos a tiempo continuo), cadenas de Markov de
Monte Carlo, en fin un sin nÃo mero de teorı́as en las que se podria continuar este trabajo. Sin
embargo, es facil ver que este tipo de problemas serı́a analizarlos de una manera más interesante
en estudios posteriores.
57
BIBLIOGRAFÍA 58
Bibliografı́a
[1] M.E. Caballero, V.M. Rivero, Cadenas de Markov. Un enfoque elemental. Sociedad
Matemática Mexicana. 2004.
[2] P.G. Hoel, S.C. Port, Introduction to Stochastic Processes. University of California. 1972.
[4] P.G. Hoel, S.c. Port. Introduction to Probability Theory. University of California. 1971.
[6] M.A. Garcia, Introducción a la teorı́a de la Probabilidad, Primer Curso. Fondo de Cultura
Económica. Mexico. 2005.
[7] W. Ching, X. Huang, Markov Chains: Models, Algorithms and Applications. Springer. 2013.
[8] O. Häggströng. Finite Markov Chains and Algorithmic Applications. Cambrige University
Press. 2003.
[9] L. Rincon. Introducción a los Procesos Estocásticos. Depto. de Matemáticas, UNAM. 2011.
59