Sei sulla pagina 1di 6

INSTITUTO TECNOLOGICO DE AGUASCALIENTES

INGENIERÍA INDUSTRIAL

INVESTIGACIONO DE OPERACIONES II
DR. ENRIQUE MANUEL GONZALES GOMEZ
CADENAS DE MARKOV
RAYGOZA BARBOSA ADRIANA MONTSERRAT
DURÓN SALAZAR LEYSA THAJANY
MACÍAS DURÓN ZAMANTA
JUAN CARLOS PADILLA PEREZ
Domingo 24 de Mayo del 2020
Origen:
Andréi Andréyevich Márkov (14 de junio de 1856 - 20 de julio de 1922) Matemático
ruso conocido por sus trabajos en la teoría de los números y la teoría de
probabilidades. Su trabajo teórico en el campo de los procesos en los que están
involucrados componentes aleatorios (procesos estocásticos) darían fruto en un
instrumento matemático que actualmente se conoce como cadena de Márkov.
¿Qué es?
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que
ocurra un evento depende del evento inmediato anterior. "Recuerdan" el ultimo
evento y esto condiciona las posibilidades de los eventos futuros. Esta
dependencia del evento anterior distingue a las cadenas de Markov de las series
de eventos independientes, como tirar una moneda al aire o un dado.
En esencia, una cadena es un proceso en tiempo discreto en el que una variable
aleatoria va cambiando con el paso del tiempo. Las cadenas de Markov tienen la
propiedad de que la probabilidad de que sólo depende del estado inmediatamente
anterior del sistema. Cuando en una cadena dichas probabilidades no dependen
del tiempo en que se considere
Sí, construyendo un diagrama de estados que modelan la probabilidad de
transición entre los eventos que has definido: Donde P es la probabilidad de pasar
de un estado (evento) a otro. Para el ejemplo:
 P12 muestra la probabilidad de tener mañana un rendimiento positivo
habiendo sido hoy negativo.
 P21 muestra la probabilidad de tener mañana un rendimiento negativo
habiendo sido hoy positivo.
 P11 muestra la probabilidad de tener mañana un rendimiento negativo
habiendo sido hoy negativo.
 P22 muestra la probabilidad de tener mañana un rendimiento positivo
habiendo sido hoy positivo.
Tipos de cadenas:
Cadenas irreducibles
Una cadena de Markov se dice irreducible si se cumple cualquiera de las
siguientes condiciones (equivalentes entre sí): 1. Desde cualquier estado de E se
puede acceder a cualquier otro. 2. Todos los estados se comunican entre sí. 3.
C(x)=E para algún x∈E. 4. C(x)=E para todo x∈E. 5. El único conjunto cerrado es
el total. La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes
son ejemplos de cadenas de Markov irreducibles.
Cadenas positivo-recurrentes
Una cadena de Markov se dice positivo-recurrente si todos sus estados son
positivo-recurrentes. Si la cadena es además irreducible es posible demostrar que
existe un único vector de probabilidad invariante y está dado por:

Cadenas regulares
Una cadena de Márkov se dice regular (también primitiva o ergódica) si existe
alguna potencia positiva de la matriz de transición cuyas entradas sean todas
estrictamente mayores que cero. Cuando el espacio de estados E es finito, si P
denota la matriz de transición de la cadena se tiene que:

Cadenas absorbentes:
Una cadena de Markov con espacio de estados finito se dice absorbente si se
cumplen las dos condiciones siguientes:
 La cadena tiene al menos un estado absorbente.
 De cualquier estado no absorbente se accede a algún estado absorbente.
 Su matriz de transición siempre se puede llevar a una de la forma.

donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz


identidad, 0 es la matriz nula y R alguna submatriz. Esto es, no
importa en donde se encuentre la cadena, eventualmente terminará en un estado
absorbente.
Cadenas de markov en tiempo continuo:
Si en lugar de considerar una secuencia discreta X1, X2, …, Xi,… con i indexado
en el conjunto de números naturales, se consideran las variables
aleatorias Xt con t que varía en un intervalo continuo del conjunto de números
reales, tendremos una cadena en tiempo continuo. Para este tipo de cadenas en
tiempo continuo la propiedad de Márkov se expresa de la siguiente manera:

Para una cadena de Márkov continua con un número finito de estados puede
definirse una matriz estocástica dada por:

Aplicación:
Las cadenas de Markov son útiles para controlar ciertos factores de la gestión de
un negocio sujetos a variaciones constantes. Donde se realizan aproximaciones o
previsiones de largo o muy largo plazo.
Es posible aplicar este principio a campos tan diferentes como la meteorología,
astrología, biología... o a las empresas, que se ha aplicado para analizar patrones
de morosidad, necesidades de personal, prever defectos en maquinaria, etc.
La condición de una máquina en el momento del mantenimiento preventivo
mensual es mala, regular o buena. Para el mes t, el proceso estocástico en esta
situación se representa como sigue:

La variable aleatoria Xt es finita porque representa tres estados: malo (0),regular


(1) y bueno (2).
Ejemplo:
En una población de 10,000 habitantes, 5000 no fuman, 2500 fuman uno o menos
de un paquete diario y 2500 fuman más de un paquete diario. En un mes hay un
5% de probabilidad de que un no fumador comience a fumar un paquete diario, o
menos, y un 2% de que un no fumador pase a fumar más de un paquete diario.
Para los que fuman un paquete, o menos, hay un 10% de probabilidad de que
dejen el tabaco, y un 10% de que pasen a fumar más de un paquete diario. Entre
los que fuman más de un paquete, hay un 5% de probabilidad de que dejen el
tabaco y un 10% de que pasen a fumar un paquete, o menos. ¿Cuántos individuos
habrá de cada clase el próximo mes?

NF= No fuman
FC= fuman uno o menos de un paquete diarios
FCC= fuman más de un paquete diario.
Resultado:
Después de un mes habrán NF=5025, FC=2500, FCC=2475
Video:
https://youtu.be/OLw9CkEsaPU

Potrebbero piacerti anche