Sei sulla pagina 1di 6

TECNOLGICO NACIONAL DE MXICO

INSTITUTO TECNOLGICO DE PUEBLA

INGENIERA INDUSTRIAL

ING. ROSA MARA FLORES TREJO

CARREN CERN YULI BERENICE


ESTRADA OLAYA KARLA PAOLA
GAMBOA BARRERA MARA FERNANDA
MEDINA PREZ NGELES

INVESTIGACIN DE OPERACIONES II

UNIDAD 4
CADENAS DE MARKOV

MARTES Y JUEVES
11:00 13:00

INC1019 G

/2017
INVESTIGACIN DE OPERACIONES
UNIDAD IV: CADENAS DE MARKOV

INTRODUCCIN
Las cadenas de Markov fueron introducidas por el matemtico ruso Andrey Markov
alrededor de 1907. Su intencin era crear un modelo probabilstico para analizar la
frecuencia con la que aparecen las vocales en poemas y textos literarios. El xito
del modelo propuesto por Markov radica en que es lo suficientemente complejo
como para describir ciertas caractersticas no triviales de algunos sistemas, pero al
mismo tiempo es lo suficientemente sencillo para ser analizado matemticamente.
Las cadenas de Markov pueden aplicarse a una amplia gama de fenmenos
cientficos y sociales, y se cuenta con una teora matemtica extensa al respecto.
En este captulo presentaremos una introduccin a algunos aspectos bsicos de
este modelo. Esta dependencia del evento anterior distingue a las cadenas de
Markov de las series de eventos independientes como tirar una moneda al aire o un
dado.
Un proceso o sucesin de eventos que se desarrolla en el tiempo en el cual el
resultado en cualquier etapa contiene algn elemento que depende del azar se
denomina proceso aleatorio o proceso estocstico.
El caso ms simple de un proceso estocstico en que los resultados dependen de
otros, ocurre cuando el resultado en cada etapa slo depende del resultado de la
etapa anterior y no de cualquiera de los resultados previos. Tal proceso se
denomina proceso de Markov o cadena de Markov (una cadena de eventos, cada
evento ligado al precedente).
QU ES UN PROCESO ESTOCSTICO?
Es un concepto matemtico que sirve para tratar con magnitudes aleatorias que
varan con el tiempo, o ms exactamente para caracterizar una sucesin de
variables aleatorias (estocsticas) que evolucionan en funcin de otra variable,
generalmente el tiempo.
QU SON LAS CADENAS DE MARKOV?
Las cadenas de Markov son modelos probabilsticos que se usan para predecir la
evolucin y el comportamiento a corto y a largo plazo de determinados sistemas.
Una cadena de Markov es una sucesin de ensayos similares u observaciones en
la cual cada ensayo tiene el mismo nmero finito de resultados posibles y en donde
la probabilidad de cada resultado para un ensayo dado depende slo del resultado
del ensayo inmediatamente precedente y no de cualquier resultado previo.
En efecto, las cadenas de este tipo tienen memoria, "Recuerdan" el ltimo evento y
esto condiciona las posibilidades de los eventos futuros.
Es un modelo de probabilidad de procesos que evolucionan en el tiempo de una
manera probabilstica. Tales procesos se llaman procesos estocsticos (variable de
tiempo).
Las cadenas de Markov tienen la propiedad particular de que las probabilidades que
describen la forma en que el proceso evolucionar en el futuro dependen slo del
estado actual en que se encuentra el proceso y, por lo tanto, son independientes de
los eventos que ocurrieron en el pasado.

DEFINICIN DE UNA CADENA DE MARKOV


Una cadena de Markov (CM) es un proceso estocstico con un nmero finito de
estados (M), con probabilidades de transicin estacionarias y que tiene la propiedad
markoviana.
PROPIEDAD DE MARKOV O MARKOVIANA
Un proceso estocstico tiene la propiedad markoviana si las probabilidades de
transicin en un paso slo dependen del estado del sistema en el perodo anterior
(memoria limitada).
ELEMENTOS DE UNA CADENA DE MARKOV
Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes
(ejemplo: estados de la enfermedad)
Ciclo de Markov (paso); periodo de tiempo que sirve de base para examinar
las transiciones entre estados (ejemplo, un mes)
Probabilidades de transicin entre estados, en un ciclo (matriz P)
Distribucin inicial del sistema entre los M estados posibles.

PARA QU SIRVEN LAS CADENAS DE MARKOV?


Permiten predecir la evolucin y comportamiento a corto y largo plazo de
determinados sistemas.
Proporcionan un sistema muy til para crear e implementar un proceso de toma de
decisiones que sopese posibles escenarios y se utiliza para predecir con mayor
exactitud comportamientos futuros.

TIPOS DE CADENAS
Cadenas errticas
Una cadena de Mrkov se dice irreducible si se cumple cualquiera de las siguientes
condiciones (equivalentes entre s):
1. Desde cualquier estado de E se puede acceder a cualquier otro.
2. Todos los estados se comunican entre s.
3. C(x)=E para algn xE.
4. C(x)=E para todo xE.
5. El nico conjunto cerrado es el total.
La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son
ejemplos de cadenas de Mrkov irreducibles.
Cadenas positivo-recurrentes
Una cadena de Mrkov se dice positivo-recurrente si todos sus estados son positivo-
recurrentes. Si la cadena es adems irreducible es posible demostrar que existe un
nico vector de probabilidad invariante y est dado por:
1
=

Cadenas regulares
Una cadena de Mrkov se dice regular (tambin primitiva o ergdica) si existe
alguna potencia positiva de la matriz de transicin cuyas entradas sean todas
estrictamente mayores que cero.
Cuando el espacio de estados E es finito, si P denota la matriz de transicin de la
cadena se tiene que:
lim () =
1

donde W es una matriz con todos sus renglones iguales a un mismo vector de
probabilidad w, que resulta ser el vector de probabilidad invariante de la cadena. En
el caso de cadenas regulares, ste vector invariante es nico.
Cadenas absorbentes
Una cadena de Mrkov con espacio de estados finito se dice absorbente si se
cumplen las dos condiciones siguientes:
1. La cadena tiene al menos un estado absorbente.
2. De cualquier estado no absorbente se accede a algn estado absorbente.
Si denotamos como A al conjunto de todos los estados absorbentes y a su
complemento como D, tenemos los siguientes resultados:
1. Su matriz de transicin siempre se puede llevar a una de la forma

=
0
donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz
identidad, 0 es la matriz nula y R alguna submatriz.
2. ( < 1) = 1, esto es, no importa en donde se encuentre la cadena,
eventualmente terminar en un estado absorbente.

TIPOS DE ESTADOS
BIBLIOGRAFA
Winston, Wayne L. (1994 2da. Edicin ). Investigacin de Operaciones.
Mxico: Grupo Editorial Iberoamrica. pp. 963-992
S. Hillier, Frederick y Lieberman, Gerald, J. Introduccin a la Investigacin de
operaciones. Edicin 9, McGraw Hill
Taha, Hamdy A. (1989). Investigacin de operaciones: una introduccin.
Mxico: Alfa Omega.
Rincn Luis. (2012). INTRODUCCION A LOS PROCESOS
ESTOCASTICOS. septiembre 11, 2017, de UNAM Sitio web:
http://lya.fciencias.unam.mx/lars/Publicaciones/procesos2012.pdf

Potrebbero piacerti anche