Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Una cadena de Markov es una secuencia de n experimentos en la que cada experimento consta de m
resultados o estados posibles E1, E2,… En y la probabilidad de que ocurra un resultado particular depende
únicamente de la probabilidad del resultado del experimento anterior. La probabilidad de transición p ij es
la probabilidad de que el experimento pase del estado Ei al estado Ei . Así, p ij es una probabilidad
condicional que se puede expresar como pij= P Ei /Ej ;1 i ,j m.. Si los índices i, j de pij
representan el número de renglón y el número de columna, respectivamente, entonces las probabilidades
de transición se pueden colocar en una matriz P de probabilidades de transición, cuyos elementos son no
negativos y menores o iguales a 1.
Cualquier renglón suma 1, y representa la probabilidad de pasar de una estado a otro. (1)
Las predicciones en base al análisis de Markov son de suma importancia para el manejo de sistemas y
procesos en todo tipo de organizaciones, pudiendo ser utilizada para ayuda en la toma de decisiones con
respecto al movimiento de personal, inventarios, comportamiento de clientes, etc
c) Un ejemplo de aplicación
El fabricante de dentífrico Brillo controla actualmente 60% del mercado de una ciudad. Datos del año
anterior muestran que :el 88% de consumidores de Brillo continúan utilizándola, mientras que el 12% de los
usuarios de Brillo cambiaron a otras marcas. El 85% de los usuarios de la competencia permanecieron leales
a estas otras marcas, mientras que el 15% cambió a Brillo. Definir la matriz de transición y el vector inicial de
distribución.
Desarrollo
Se considera como estado 1 al consumo de dentífrico Brillo y al estado 2 como el consumo de una marca
de la competencia. Entonces,
buscar...
Procesos de Markov
Métodos Cuantitativos
PROCESOS DE MARKOV
Operativilidad de maquinaria
Markov Proporciona
Información acerca de la probabilidad de cada estado después de una gran cantidad de transiciones o
periodos.
Probabilidades a lo largo del tiempo o el estado en el que terminarán los acontecimientos.
Idea del camino a tomar para alcanzar objetivos y metas.
DEFINICIONES IMPORTANTES
Estados del proceso, también llamados Ensayos, son eventos que desencadenan transiciones del sistema de
un estado a otro.
Estado del Sistema: Condición del sistema en cualquier ensayo o periodo particular
Probabilidad de Transición: Es la probabilidad de que el sistema pase al estado siguiente.
Probabilidad de Estado: Probabilidad de que el sistema se encuentre en un estado determinado.
Probabilidad de Estado Estable: La probabilidad de que el sistema termine en alguna estado en particular
después de un gran numero de transiciones.
Estado Absorbente: Cuando no hay posibilidad de salir de ese estado, si ha alcanzado ese estado allí
permanecerá.
•Matriz Fundamental: Tabla de probabilidades asociadas con los estados y sus transiciones en un proceso de
Markov.
Comentarios (32)
RSS Comentarios
PROCESO DE MARKOV
escrito por Julio Humberto Guevara Fajardo, mayo 09, 2010
PROCESOS DE MARKOV:
Se dice que los procesos de MARKOV, son útiles para estudiar la evolución de sistemas a lo largo de ensayos
repetidos, los que, a menudo son periodos sucesivos donde el estado del sistema en cualquier periodo
particular no pueden determinarse con certeza. Por ello, para describir la manera en que el sistema cambia de
un periodo al siguiente se emplean probabilidades de transición.
Los procesos de MARKOV, son también llamados Markovianos, que pueden usarse para describir la
probabilidad de que una maquina esta funcionando en un período continuará funcionando en siguiente
período (o se estropeará). También pueden usarse los modelos para describir la probabilidad de que un
consumidor que compra la marca A, en un período compre la marca B en el siguiente periodo.
Principio de Markov:
Cuando una probabilidad condicional depende únicamente del suceso inmediatamente anterior, cumple con el
Principio de Markov de Primer Orden, es decir.
Los sucesos que cumplan con un proceso de Markov, se pueden representar por medio de un esquema donde
los nodos indique los estados y arcos dirigidos de nodo a nodo con un número que representa la probabilidad
de transición de ir de un estado a otro, ó por medio de una matriz de transición.
Ejemplo:
Para calcular:
= p11.p11+ p12.p21+ p13.p31
= 0,2.0,2+0,3.0,3+0,5.0,2 = 0,23
luego + + =1
El cálculo de las probabilidades de estado absorbente requiere la determinación y uso de lo que se le llama
matriz fundamental. La lógica matemática que subyace en la matriz fundamental esta fuera del alcance de
este texto. Sin embargo
-1
TOMA DE DECISIONES
escrito por Julio Humberto Guevara Fajardo, mayo 09, 2010
TOMA DE DECISIONES:
El análisis de toma de decisiones puede usarse para desarrollar una estrategia óptima cuando el tomador de
decisiones se enfrenta con varias alternativas de decisión y una incertidumbre o patrón de eventos futuros
llenos de riesgos.
La toma de decisiones se puede decir que es la selección de un curso de acción entre varias alternativas por
lo tanto constituye la base de la planeación. La administración es le ejercicio de dar forma de manera,
consciente y constante a las organizaciones y el arte de tomar decisiones es medular para ello. Como
anteriormente se menciono la toma de decisiones, identificación y elección de un curso de acción para tratar
un problema concreto o aprovechar una oportunidad.
Esta constituye una parte importante en la labor de todo gerente, sobra decir que todos tomamos decisiones,
lo que diferencia el ejercicio de esta en la administración es la atención sistemática y especializada que los
gerentes o administradores prestan a la misma.
La toma de decisiones esta relacionada a un problema, dificulta o conflicto. Por medio de la decisión y
ejecución se espera obtener respuestas a un problema o solución a un conflicto.
Formulación del problema:
Es el primer paso en el proceso de análisis de decisiones es la formulación del problema, comenzando con una
declaración verbal de éste. Luego se identifican las alternativas de decisión, los eventos futuros inciertos,
conocidos como eventos futuros fortuitos, y las consecuencias o resultados asociados con cada alternativa de
decisión y cada evento fortuito.
Diagrama de influencia:
El diagrama de influencia es una herramienta grafica que muestra las relaciones entre las decisiones, los
eventos al azar u las consecuencias para un problema de decisión. Los nodos en un diagrama de influencia se
usan para reparar las decisiones, los eventos fortuitos y las consecuencias. Se emplean rectángulos para o
cuadrados para describir los nodos de decisión, círculos u óvalos para describir los nodos fortuitos y rombos
para describir los nodos de secuencia.
Tablas de resultados:
En el análisis de decisiones, nos referimos a la secuencia resultante de una combinación específica de una
alternativa de decisión y un estado de la naturaleza como un resultado o consecuencia. La tabla que muestra
los resultados para todas las combinaciones de las alternativas de decisión y los estados de la naturaleza, es
una tabla de resultados.
Árbol de decisión:
El árbol de decisión nos proporciona una representación grafica del proceso de toma de decisiones.
Los árboles de decisión proveen un método efectivo para la toma de decisiones debido a que:
Claramente plantean el problema para que todas las opciones sean analizadas.
Nos ayuda a realizar las mejores decisiones sobre la base de la información existente y de las mejores
suposiciones.
Para comenzar a dibujar un árbol de decisión debemos escribir cuál es la decisión que necesitamos tomar.
Dibujaremos un recuadro para representar esto en la parte izquierda de una página grande de papel.
Desde este recuadro se deben dibujar líneas hacia la derecha para cada posible solución, y escribir cuál es la
solución sobre cada línea. Se debe mantener las líneas lo más apartadas posibles para poder expandir tanto
como se pueda el esquema.
Al final de cada línea se debe estimar cuál puede ser el resultado. Si este resultado es incierto, se puede
dibujar un pequeño círculo. Si el resultado es otra decisión que necesita ser tomada, se debe dibujar otro
recuadro. Los recuadros representan decisiones, y los círculos representan resultados inciertos. Se debe
escribir la decisión o el causante arriba de los cuadros o círculos. Si se completa la solución al final de la línea,
se puede dejar en blanco.
Comenzando por los recuadros de una nueva decisión en el diagrama, dibujar líneas que salgan
representando las opciones que podemos seleccionar. Desde los círculos se deben dibujar líneas que
representen las posibles consecuencias. Nuevamente se debe hacer una pequeña inscripción sobre las líneas
que digan que significan. Seguir realizando esto hasta que tengamos dibujado tantas consecuencias y
decisiones como sea posible ver asociadas a la decisión original.
Un ejemplo de árbol de decisión se puede ver en la siguiente figura:
+1
Probabilidad de estado estable: Probabilidad de que el sistema esté en cualquier estado en particular después
de un número grande de transiciones. Una vez que se ha alcanzado el estado estable, la probabilidades de
estado no cambian de un período a otro.
Estado absorbente: Se dice que un estado es absorbente si la probabilidad de hacer una transición para salir
de ese estado es cero. Por tanto, una vez que el sistema ha hecho una transición a un estado absorbente,
permanecerá ahí.
Matriz fundamental: Matriz necesaria para el cálculo de probabilidades asociadas con los estados absorbentes
de unproceso de Markov.
+0
...
escrito por Marina Elizabeth España Rosales 00-8440, mayo 12, 2010
PROCESOS DE MARKOV
Una cadena de Márkov, que recibe su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922),
es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato
anterior.
Cuando una probabilidad condicional depende únicamente del suceso inmediatamente anterior, cumple con el
Principio de Markov de Primer Orden.
Las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de determinados
tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no determinada a lo largo del
tiempo en torno a un conjunto de estados.
Una cadena de Markov, por tanto, representa un sistema que varía su estado a lo largo del tiempo, siendo
cada cambio una transición del sistema.
La forma más cómoda de expresar la ley de probabilidad condicional de una cadena de Markov es mediante la
llamada matriz de probabilidades de transición P, o más sencillamente, matriz de la cadena.
Dicha matriz es cuadrada con tantas filas y columnas como estados tiene el sistema, y los elementos de la
matriz representan la probabilidad de que el estado próximo sea el correspondiente a la columna si el estado
actual es el correspondiente a la fila.
Como el sistema debe evolucionar de t a alguno de los n estados posibles, las probabilidades de transición
cumplirán con la propiedad siguiente:
n
∑ Pij = 1
J= 1
Cuando las Pij cumplen las propiedades arriba indicadas, la matriz P es una matriz estocástica: la suma de
valores de las filas de la matriz será siempre igual a 1(la suma de los valores de la columna no tienen ninguna
propiedad especial)
+0
PROCESOS DE MARKOV
escrito por Ana Marcela Ramos Fajardo 99-5399, mayo 12, 2010
ANALISIS DE CUENTAS POR COBRAR
Una aplicación de contabilidad en la que los procesos de Markov han producido resultados útiles implica la
estimación de la reserva para cuentas por cobrar de dudosa recuperación o, simplemente dudosas. Esta
reserva es una estimación de la cantidad de cuentas por cobrar que al final demostrarán ser incobrables.
Veamos cómo podemos considerar la operación de cuentas por cobrar como un proceso de Markov. Primero,
concétrese en lo que le sucede en la actualidad a un dólar en las cuentas por cobrar. Conforme la firma
continúe operando en el futuro, podemos considerar cada semana como un ensayo de un proceso de Markov
con un dólar existente en uno de los siguientes estados del sistema.
Estado 1. Categoría pagado
Estado 2. Categoría deuda incobrable
Estado 3. Categoría 0-30 días
Estado 4. Categoría 31-90
Por tanto, podemos rastrear el estado semana a semana de un dólar usando un análisis de Markov para
identificar el estado del sistema en una semana o periodo particular.
+4
Cadenas de Markov
escrito por Nancy Veraliz Cervantes Lemus, mayo 12, 2010
CADENAS DE MARKOV
2.En los negocios, ¿para que se han utilizado las cadenas de markov?
Para analizar patrones de compra de los consumidores, para pronosticar las concesiones por deudores
morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
3.¿Qué característica deben de tener los eventos para que puedan representarse a través de una cadena de
markov?
Deben de tener memoria.
8.En un diagrama de estados, cuando no se marcan las flechas de transición, ¿qué significa?
Que su probabilidad es cero.
9.Además del método gráfico, ¿qué otro método se puede utilizar para exhibir las probabilidades de
transición?
Usar una matriz de transición.
10.¿Qué condición deben cumplir las filas o renglones de una matriz de transición?
Sumar uno.
+1
Un modelo oculto de Márkov
escrito por Julio César Padilla Mejia, mayo 13, 2010
Un modelo oculto de Márkov
o HMM (por sus siglas del inglés, Hidden Markov Model) es un modelo estadístico en el que se asume que el
sistema a modelar es un proceso de Márkov de parámetros desconocidos. El objetivo es determinar los
parámetros desconocidos (u ocultos, de ahí el nombre) de dicha cadena a partir de los parámetros
observables. Los parámetros extraídos se pueden emplear para llevar a cabo sucesivos análisis, por ejemplo
en aplicaciones de reconocimiento de patrones. Un HMM se puede considerar como la red bayesiana dinámica
más simple.
Los modelos ocultos de Márkov son especialmente aplicados a reconocimiento de formas temporales, como
reconocimiento del habla, de escritura manual, de gestos, etiquetado gramatical o en bioinformática.
Los modelos ocultos de Márkov fueron descritos por primera vez en una serie de artículos estadísticos por
Leonard E. Baum y otros autores en la segunda mitad de la década de 1960. Una de las primeras aplicaciones
de HMMs fue reconocimiento del habla, comenzando en la mitad de la década de 1970.1
En la segunda mitad de la década de 1980, los HMMs comenzaron a ser aplicados al análisis de secuencias
biológicas, en particular de DNA. Desde entonces, se han hecho ubicuos en el campo de la bioinformática.2
Ejemplo de utilización [editar]
Imagínese que tiene un amigo que vive lejos y con quien habla a diario por teléfono acerca de lo que hizo
durante el día. A su amigo le interesan tres actividades: caminar por la plaza, salir de compras y limpiar su
departamento. Lo que su amigo hace depende exclusivamente del estado del tiempo en ese día. Usted no
tiene información clara acerca del estado del tiempo donde su amigo vive, pero conoce tendencias generales.
Basándose en lo que su amigo le dice que hizo en el día, usted intenta adivinar el estado del tiempo.
Supóngase que el estado del tiempo se comporta como una cadena de Márkov discreta. Existen dos estados,
"Lluvioso" y "Soleado", pero usted no los puede observar directamente, es decir, están ocultos. Existe también
una cierta posibilidad de que su amigo haga una de sus actividades cada día, dependiendo del estado del
tiempo: "caminar", "comprar" o "limpiar". Dado que su amigo le cuenta sus actividades del día, esas son las
observaciones. El sistema completo es un modelo oculto de Márkov.
Usted conoce las tendencias generales del tiempo en el área y lo que a su amigo le gusta hacer. En otras
palabras, los parámetros del HMM son conocidos. Pueden escribirse usando el lenguaje de programación
Python:
estados = ('Lluvioso', 'Soleado')
probabilidad_emision = {
'Lluvioso' : {'caminar': 0.1, 'comprar': 0.4, 'limpiar': 0.5},
'Soleado' : {'caminar': 0.6, 'comprar': 0.3, 'limpiar': 0.1},
}
En esta porción de código se tiene:
La probabilidad_inicial que representa el estado en el que usted cree que se encuentra el HMM la primera vez
que su amigo lo llama (es decir, sabe que es un poco más probable que esté lluvioso). La distribución de
probabilidades que se usó aquí no es la de equilibrio, que es (dadas las probabilidades de transición)
aproximadamente {'Lluvioso': 0.571, 'Soleado': 0.429}.
La probabilidad_transicion representa el cambio del tiempo en la cadena de Márkov por detrás del modelo. En
este ejemplo, hay un 30% de probabilidad de que mañana esté soleado si hoy llovió.
La probabilidad_emision representa con cuanta probabilidad su amigo realiza una actividad determinada cada
día. Si llueve, hay un 50% de probabilidad de que esté limpiando su departamento; si hay sol, hay un 60% de
probabilidades de que haya salido a caminar.
+0
Ejemplo de aplicación:
Un experto en mercadeo está interesado en analizar la participación en el mercado y lealtad del cliente para
Comercial Córdova y Bazar Europa. Para el efecto se recopiló datos de 100 compradores de la ciudad de
Chiquimula a lo largo de un periodo de 10 semanas.
Se supone que estos datos muestran el patrón de viajes de compras semanales de cada cliente en función de
la secuencia de visitas a Comercial Córdova y Bazar Europa. Para el efecto se toman en cuenta los datos del
periodo anterior. Al revisar los datos, suponga que encontramos que de todos los clientes que compraron en
Comercial Córdova en una semana dada, 80% compro en Comercial Córdova la siguiente semana, mientras
20% cambio a Bazar Europa. Suponga que datos similares para los clientes que compraron en Bazar Europa
en una semana dada muestran que 70% compro en Bazar Europa la siguiente semana, mientras 30% cambio
a Comercial Córdova.
A partir de lo anterior establecer las probabilidades de transición a través del método de markov.
Con la matriz de probabilidades podemos determinar la probabilidad de que un cliente visite Comercial
Córdova o Bazar Europa en algún periodo del futuro.
Suponiendo que tenemos un cliente cuyo último viaje de compras fue a Comercial Córdova. ¿Cuál es la
probabilidad de que este cliente compre en Comercial Córdova en el siguiente viaje semanal, periodo 1?
Con un diagrama de árbol se puede describir dos viajes de compras semanales de un cliente que compro la
última vez en Comercial Córdova. A continuación se observa el recorrido:
= (0.80 0.20)
(0.30 0.70)(0.70 0.30)
La probabilidad de comprar en Comercial Córdova durante la segunda semana es del 70% (0.70), mientras la
probabilidad de comprar en Bazar Europa durante la segunda semana es de 30% (0.30).
+0
PROCESOS DE MARKOV
escrito por Zully Amarilis Morales Solís, mayo 14, 2010
ESTADOS Y PROBABILIDADES DE ESTADO
Los estados se utilizan para identificar todas las condiciones posibles de un proceso o de un sistema. Por
ejemplo, una máquina puede encontrarse en uno de dos estados en un momento dado. Puede funcionar
correctamente o puede no funcionar correctamente. Se puede llamar a la operación correcta de la máquina el
primer estado, y al funcionamiento incorrecto el segundo estado. En realidad es posible identificar estados
específicos de muchos procesos y sistemas. Si solo existen tres tiendas de abarrotes en un pueblo pequeño,
en un momento dado un residente puede ser cliente de cualquiera de las tres. Si los estudiantes pueden
tomar una de tres especializaciones dentro del área de administración (digamos ciencia administrativa,
sistemas de información administrativa o administración general), cada una de estas área puede ser
considerada un estado.
En el análisis de Markov también se supone que los estados son tanto colectivamente exhaustivos como
mutuamente excluyentes. Colectivamente exhaustivo significa que puede confeccionar una lista que contenga
todos los estados posibles de un sistema o proceso. Nuestra presentación del análisis de Markov supone que
existe un número finito de estados de cualquier sistema. Mutuamente excluyente significa que un sistema solo
estar en un estado en un momento dado. Un estudiante solo puede estar en una de tres áreas de
especialización administrativa y no en dos o más áreas al mismo tiempo. También significa que una persona
solo puede ser cliente de una de tres tiendas de abarrotes en un momento dado.
Una vez que se han identificado los estados, el siguiente paso es determinar la probabilidad de que el sistema
se encuentre en un estado particular. Tal información se coloca entonces en un vector de probabilidades de
estado.
Esto muestra que la probabilidad de que la maquina funcione correctamente (estado)1 es 1, y la probabilidad
de que la máquina funcione incorrectamente (estado 2) es de 0, en el primer periodo. Sin embargo en la
mayoría los casos, se maneja mas de un articulo.
+1
...
escrito por Karen Celeste Sagastume Ramírez, mayo 14, 2010
PROCESOS DE MARKOV
Principio de Markov:
Cuando una probabilidad condicional depende únicamente del suceso inmediatamente anterior, cumple con el
Principio de Markov de Primer Orden, es decir.
Definiciones en los Procesos de Markov de Primer Orden:
Si un suceso depende de otro además del inmediatamente anterior, este es un proceso de Markov de mayor
orden. Por ejemplo, Un proceso de segundo orden describe un proceso en el cual el suceso depende de los
dos sucesos anteriores.
Los procesos de Markov también se les llama Cadenas de Markov.
Ejemplo:
Para calcular:
+0
Procesos de Markov
escrito por Amilcar Villeda - 3228 00 1139, mayo 15, 2010
Una cadena de Márkov, que recibe su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922),
es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato
anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona
las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de
Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado.
Este tipo de proceso, introducido por Márkov en un artículo publicado en 1907,[1] presenta una forma de
dependencia simple, pero muy útil en muchos modelos, entre las variables aleatorias que forman un proceso
estocástico. En los negocios, las cadenas de Márkov se han utilizado para analizar los patrones de compra de
los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
+0
Cadenas de Markov
escrito por Ana Luisa Vargas Cabrera, mayo 16, 2010
Una cadena de Markov representa un sistema que varía su estado a lo largo del tiempo, siendo cada cambio
una transicion del sistema. Dichos cambios no estan predeterminados, aunque si lo esta la probabilidad del
próximo estado en función de los estados anteriores, probabilidad que es constante a lo largo del tiempo.
Eventualmente, en una transicion, el nuevo estado puede ser el mismo que el anterior y es posible que exista
la posibilidad de influir en las probabilidades de transicion actuando adecuadamente sobre el sistema
(decision).
Los estados son una caracterizacion de la situacion en que se halla el sistema en un instante dado, dicha
caracterización puede ser tanto cuantitativa como cualitativa. Desde un punto de vista práctico
probablemente, la mejor definicion de que debe entenderse por estado es la respuesta que se daría a la
pregunta ¿como estan las cosas?
...
escrito por Ana Luisa Vargas Cabrera, mayo 16, 2010
Analisis de decisiones: es un método análitico que provee herramientas para analizar situaciones donde hay
que tomar una decisión.
2. TOMA DE DECISIONES BAJO INCERTIDUMBRE: no se conocen las probabilidades asociadas con los
diferentes resultados de cada alternativa.
Ejemplo: Una compañia estudia la posibilidad de añadir un nuevo producto a su línea de produccion. Las
alternativas que estudia son: hacer una ampliacion grande a sus facilidades, hacer una ampliacion pequeña a
sus facilidades, o no hacer ninguna ampliacion y no producir el producto nuevo. Para cada una de estas
alternativas los resultados pueden ser favorables o no favorables. Si no conocemos las probabilidade
asociadas con cada ujno de los resultados para las distintas alternativas tenemos que tomar una decision bajo
incertidumbre usando uno de varios criterios disponibles.
3. TOMA DE DECISIONES BAJO RIESGO: se conocen las probabilidades asociadas con los diferentes
resultados de cada alternativa.
Ejemplo: Si en el ejemplo anterior conocemos las probabilidades asociadas con cada uno de los resultados
para las distintas alternativas, tenemos que tomar una decision bajo riesgo escogiendo la alternativa con la
ganancia promedio mayor.
+1
Procesos de Markov
escrito por Sandra Isabel Esquivel Vega, junio 13, 2010
Los modelos de proceso de Markov son utiles para estudiar la evolución de sistemas a lo largo de ensayos
repetidos los que, a menudo, son periodos sucesivos donde el estado del sistema en cualquier periodo
particular no puede determinarse con certeza.
Consiste en analizar el comportamiento de los clientes mediante ensayos de proceso, seleccionando lugares
de visita continua a los cúal se le conoce como estado del sistema en ese periodo y de acorde a las
alternativas que el cliente posea así existirá una cantidad finita de estados.
Ensayos del Proceso: Frecuencia con la que se solicita el servicio por los clientes.
Estado del sistema: Tienda particular seleccionada en un periodo de tiempo.
+0
Cadenas positivo-recurrentes
Una cadena de Markov se dice positivo-recurrente si todos sus estados son positivo-recurrentes. Si la cadena
es además irreducible es posible demostrar que existe un único vector de probabilidad invariante.
Cadenas regulares
Una cadena de Markov se dice regular (también primitiva o ergódica) si existe alguna potencia positiva de la
matriz de transición cuyas entradas sean todas estrictamente mayores que cero.
Cadenas absorbentes
Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las dos condiciones
siguientes:
+0
PRECAUCION AL SUBIR SU APORTACIÓN
escrito por MSc. Edgar Carrera, junio 15, 2010
DEBE SER:
1) EN EL ESPACIO QUE PERMITE ESTE SITIO
2) REVISAR LOS APORTES ANTERIORES Y NO REPETIR ESOS APORTES, PERO SI PUEDEN MEJORARSE
3)MÍNIMO 15 LINEAS MAXMO 25 LINEAS
PARA JUTIAPA FECHA MAXIMA DE ENTREGA DE MARKOV 18JUNIO2010
+0
Markov señala que para un alor fijo de los demas valores aleatorias no dependen d el, si no para cualquier
conjunto de tiempo definidos en el intervarlo de analisis condicionales del ultimo valor para el conjunto.
Cadena de markov, es un proceso discretoy homogeneo en el tiempo suponiendo que los instantes en el
tiempo cada uno de lo anterior, markov se llama discreto si los cambios de estado o transiccion solo se
producen en instantes dados no aleatorios y como maximo en nuemero finito enumerable.
por extencion se llamara proceso discreto aquel enque los instantes de cambio enumerables y eventualmente
aleatorios pero en los que no nos interesamos pro a abcisa exacta en el tiempo, sino en su orden de
sucesion.
Walter Vinicio Ortiz Yanes. Maestria en admon. RR. HH. extencion jutiapa.
+0
EJEMPLO DE CADENAS DE MARKOV
escrito por Ana Gabriela Rivas Vásquez Maestria en RRHH - Metodos Cuantitativos - Jutiapa, junio 15, 2010
Una tienda de renta de videos tiene 3 locales en la ciudad. Un video puede ser rentado en cualquiera de los 3
locales y regresado o devuelto a cualquiera de ellos. Hay estudios que muestran que los videos son rentados
en un local y devueltos de acuerdo con las probabilidades dadas por
Rentado en Devuelto a
123
1 0.7 0.1 0.2
2 0.2 0.8 0
3 0.2 0.2 0.6
SOLUCION
DATOS Y NOMENCLATURA
T = Matriz de Transición
T2= Matriz de transición al cuadrado
Rentado en Devuelto a
123
1 0.7 0.1 0.2
T= 2 0.2 0.8 0
3 0.2 0.2 0.6
Nota: para poder sacar las probabilidades del siguiente año sacamos el cuadrado de T.
123123
1 0.7 0.1 0.2 1 0.7 0.1 0.2
T2= 2 0.2 0.8 0 X 2 0.2 0.8 0
3 0.2 0.2 0.6 3 0.2 0.2 0.6
El cuadrado de T significa multiplicar dos veces la matriz de transición (los datos que nos dan para la
elaboracion del problema)
Primera fila de la primer matriz por la primera columna de la segunda matriz y asi sucesivamente tal como se
muestra a continuación:
Entonces:
123
1 0.55 0.19 0.26
T2= 2 0.30 0.66 0.04
3 0.30 0.30 0.40
Respuesta:
La probabilidad de que el video rentado en el local 1 sea devuelto en el mismo es: 0.55 x 100=55%
La probabilidad de que el video rentado en el local 2 sea devuelto en el mismo es: 0.66 x 100=66%
La probabilidad de que el video rentado en el local 3 sea devuelto en el mismo es: 0.40 x 100=40%
+0
PROCESOS DE MARKOV
escrito por Maris Yessenia Peraza Ronquillo, junio 16, 2010
PROCESOS DE MARKOV:
Markov permite analizar y conocer a los consumidores en un mercado actual y competitivo, ya que,
proporciona herramientas adecuadas para poder estudiar la realidad de la participación de la demanda.
Asimismo podemos analizar la situación de las cuentas por conbrar en un organización.
Al aplicar Markov en cuanto a los demandantes en un mercado consumidor nos podemos dar cuenta de la
exigencia del cliente para poder cubrir sus necesidades y así convertirlo en un cliente fiel. A través de este
análisis se puede llegar a conocer las posibles actitudes de los clientes de un período a otro y así estar a la
vanguardia y poder cubrir al máximo sus expecgtativas para lograr su satisfacción y así mantenerse en el
mercado comeptitivo.
También se debe tomar en cuenta que Markov permite hacer un análisis en relación a lo finacniero de la
organización y debemos recordar que para que una empresa subsiste su principal motor es el capital por lo
que se debe reguardar siempre, lo que significa tomar decisiones correctas en las inversiones. Esto implica
que se debe conocer el mercado, las leyes a las cuales esta sujeta la empresa, las tendencias tecnológicas, la
competencia, la situación financiera cambiaria y finalmente hacer un análsisi de los clientes con los que
cuenta la emrpesa para así poder otorgar créditos; ya que esto signfica tener que recuperar esa cuenta. Al
habler de proprocionar créditos significa que va existir una cuenta por cobrar la cual tiene que mostrar una
equilibrio adecuado para la toma de decisiones de los propietarios.
+0
...
escrito por Jose Juan Monzon Matias, junio 16, 2010
Metodos Cuantitativos para los negocios
Novena Edicion
Anderson
Sweeney
Williams
ANALISIS DE PARTICIPACION EN EL MERCADO
Suponga que estamos interesados en analizar la participación en el mercado y lealtad del cliente para
Murphy´s y Foodliner y Ashley´s Supermarket, los dos únicos supermercados en un poblado pequeño. Nos
enfocamos en la secuencia de los viajes de compras de un cliente, y suponemos que hace un viaje de
compras cada semana, ya sea a Murphy´s Fooddliner o a Ashle´s Supermarket, pero no a ambos.
Usando la terminología de los proceso de Markov, nos referimos a los periodos semanales o viajes de compras
como los ensayos de proceso. Por tanto, en cada ensayo el cliente comprará ya sea en Murphy´s Foodliner o
en Ashley´s Supermarket. La tienda particular seleccionada en una semana dada se conoce como el estado
del sistema en ese periodo. Debido a que el cliente tiene dos alternativas de compra en cada ensayo, decimos
que el sistema tiene dos estados. Con una cantidad finita de estados los identificamos como sigue:
Estado 1. El cliente compra en Murphy´s Foodliner
Estado 2. El cliente compra en Ashley´s Supermarket
Si decimos que el sistema está en el estado 1 en el ensayo 3, sólo estamos diciendo que el cliente en
Murphy´s compra durante la tercera semana del periodo de compras.
Usando un modelo de procesos markoviano seremos capaces de calcular la probabilidad de que el cliente
compre en cada tienda durante cualquier periodo.
Para determinar las probabilidades de los diversos estados que ocurren en ensayos sucesivo del proceso de
Markov necesitamos información sobre la probabilidad de que un cliente permanezca con la misma o cambie a
la tienda competidora conforme continue el proceso de un ensayo a otro o de una semana a otra.
+0
+0
+0
Aporte MARKOV
escrito por Jaqueline Michelle Monzón Zepeda, junio 16, 2010
Cadenas de Markov
Después de mucho estudio sobre el clima, hemos visto que si un día está soleado, en el 70% de los casos el
día siguiente continua soleado y en el 30% se pone nublado. En términos de probabilidad, lo que nos sirve
entonces para predecir el clima, vemos que la probabilidad de que continúe soleado el día siguiente es .7 y la
probabilidad de que al día siguiente esté nublado es .3. También nos fijamos en que si un día está nublado, la
probabilidad de que esté soleado el día siguiente es .6 y la probabilidad de que se ponga nublado es .4.
Pregunta
Hoy está nublado, ¿cuál es la probabilidad de que mañana continúe nublado? ¿cuál es la probabilidad de que
está nublado pasado mañana?
HOYMAÑANAPASADO MAÑANA
0.7Soleado
Soleado
0.6Nublado
0.3
0.6 Soleado
Nublado 0.4
Nublado Nublado
0.4
Posibles estados del tiempo a partir de que hoy está nublado
Con la ayuda de la Figura 1 podemos predecir qué ocurrirá mañana si sabemos que hoy está nublado.
Vemos que la probabilidad de que mañana continúe nublado es .4, es decir, si hiciéramos esta predicción
muchas veces estaríamos en lo correcto cerca del 40% de las veces. Para conocer la probabilidad de esté
nublado pasado mañana buscamos en las hojas del árbol correspondientes al Tiempo pasado mañana los
lugares donde dice nublado. Hay dos hojas donde esto ocurre. Ahora lo que queda es determinar cómo desde
el principio, desde la raíz del árbol, podemos llegar allí.
Si hoy está nublado, para que pasado mañana esté nublado, podríamos tener un día de mañana soleado o
nublado. Así tenemos las siguientes secuencias en orden de (hoy, mañana, pasado mañana): (nublado,
soleado, nublado) o (nublado, nublado, nublado) donde pasado mañana es nublado. Estas secuencias son
mutuamente excluyentes, corresponden a caminos distintos en el árbol, así tenemos que:
Att.
+0
PROCESOS DE MARKOV
escrito por Licda. Marilena Anahí Ramírez Méndez, junio 18, 2010
ANÁLISIS DE MARKOV
Afin de ilustrar el proceso de Markov presentamos un problema en el que los estados de resultados de
actividades son marcas, y las probabilidades de transición expresan la probabilidad de que los consumidores
vayan de una marca a otra. Supongamos que la muestra inicial de consumidores se compone de 1 000
participantes distribuidos entre cuatro marcas(A, B, C, D). Una suposición adicional es que la muestra
representa a todo el grupo.
DATOS Y NOMENCLATURA
MARCAS
A, B, C, D
SOLUCION
En la siguiente tabla la mayor parte de los clientes que compraron inicialmente la marca A, siguieron con ella
en el segundo periodo. No obstante la marca A ganó 50 clientes y perdió 45 con otras marcas.
MarcaPeriodo 1
Numero de ClientesGanancias PerdidasPeriodo 2
Numero de Clientes
A2205045225
B3006070290
C2302525230
D2504035255
1 0001751751 000
Esta tabla no muestra la historia completa, sino que necesita un análisis detallado con respecto a la
proporción de ganancias y perdidas netas entre las cuatro marcas. Es necesario calcular las probabilidades de
transición para las cuatro marcas. Las probabilidades de transición se definen como la probabilidad de que
determinada marca, conserve sus clientes. Para determinar lo anterior dividimos se divide el numero de
clientes retenidos entre en numero de clientes en el periodo inicial, por ejemplo para la marca A (220-
45=175) se divide 175/220 lo que nos da 0.796, al igual para las otras marcas, obteniendo
0.767(B),0.891(C),0.860(D).
Para aquellos clientes que cambiaron de marcas , es necesario mostrar las perdidas y ganancias entre las
marcas a fin de completar las matriz de probabilidades de transición. De acuerdo con los datos desarrollados,
el paso siguiente consiste en convertir el cambio de marcas de los clientes de modo que todas las perdidas y
ganancias tomen forma de probabilidades de transición, obteniendo la matriz de probabilidad de transición.
+0
+0
EJEMPLO. 1
Los alumnos de una escuela técnica, cursan 4 años para terminar su carrera. De los que ingresan a primer
año, 80% aprueba, 10% reprueba y el resto deserta. De los que están en segundo año, 85% aprueba, 10%
reprueba y el resto deserta. De los de tercer año, 80% aprueba, 15% reprueba y resto deserta. Los que están
en el último grado, 85% se gradúa, 5% deserta y el resto reprueba.
a)¿ Cuántos años se espera que un alumno pase como estudiante?
b)¿ Cual es la probabilidad de que un estudiante se gradúe?
Solución: Encontrar cuántos y cuales son los estados y modelar la matriz de transición.
S0=Ingreso S1 S2 S3 S4 S5 S6
S1 =Primer año S10.10 0.80 0 0 0.10 0
S2 =Segundo año S20 0.10 0.85 0 0.05 0
S3 =Tercer año P = S30 0 0.15 0.80 0.05 0
S4 =Cuarto año S40 0 0 0.10 0.05 0.85
S5 =Deserta S50 0 0 0 1 0
S6 =Se gradúa S60 0 0 0 0 1
a=Estados absorventes
n=Estados no absorventesm=a+n
Una vez alcanzados los estados absorbentes S5 y S6, la probabilidad de que el proceso permanezca en el
respectivo estado es 1. Por lo tanto es imposible (probabilidad cero) ir desde cualquiera de estos estados
hasta cualquier otro. En realidad esto se debe a que el alumno tomó la decisión de dejar la escuela
voluntariamente o decidió graduarse.
A partir del análisis de cadenas de Markov absorbentes, se obtiene la siguiente información:
1.- El número de pasos antes de que el proceso sea absorbido, utilizando (I – N-1) Para el ejemplo los pasos
serían años.
2.- El número esperado de veces que el proceso está en cualquier estado no absorbente. Para el ejemplo,
sería el número de años que el alumno permanece en cada grado.
3.- La probabilidad de absorción por cualquier estado absorbente dado, por medio de la siguiente expresión
(I-N)-1*A.
Para realizar los cálculos anteriores, la matriz de transición se subdivide en cuatro matrices y son los estados
absorbentes los quedan la pauta para dicha subdivisión.
Donde N e I son opuestos por el vértice.
Estas matrices más pequeñas contienen elementos de probabilidad que nos originan "a” estados absorbentes
y "n" no absorbentes que en total serían a + n = m estados.
Matriz I: Es una matriz identidad de dimensiones a*a y representa las probabilidades de permanecer dentro
de un estado absorbente.
Matriz O: Es una matriz cero de a*n y nos indica las probabilidades de ir desde un estado absorbente hasta
un estado absorbente.
Matriz A: Es una matriz de n*a y contiene las probabilidades de ir desde un estado no absorbente hasta un
estado absorbente.
Matriz N: Es una matriz de n*n que contiene las probabilidades de ir desde un estado no absorbente hasta un
estado no absorbente.
+0
markov
escrito por CARLOS HUMBERTO LEMUS RAMOS, junio 18, 2010
+0
PROCESOS MARKOVIANOS
escrito por Juana Maria Godoy Contreras, junio 18, 2010
Se esta planeando una campaña publicitaria de Red Pop, que es una bebida gaseosa, para aumentar la
probabilidad de atraer clientes de Super Cola que es la competencia. La administración cree que la nueva
campaña aumentara a 0.15 la probabilidad de que un cliente cambie de Super Cola a Red Pop. ¿Cuál es el
efecto proyectado de la campaña publicitaria en las participaciones del mercado?
DATOS Y NOMENCLATURA
0.85 S
S
0.15 R
0.90 0.10
π1 π2 = π1 π2 0.15 0.85
π1 = π1 * 0.90 + π2 *0.15
π2 = π1 * 0.10 + π2 *0.85
π2 + π1 = 1
π1 = 0.90 π1 + 0.15 (1- π1)
π1 = 0.90 π1 + 0.15 - 0.15 π1
0.25 π1 = 0.15
π1 = 0.15/0.25 = 0.60
π1 = 0.40
R// el efecto proyectado de la campaña publicitaria en las participaciones del mercado es de
π1 = 0.6, π2 = 0.4
+0
...
escrito por Irma Alvarez Molina, junio 18, 2010
Cadenas de Markov
Definición : Sea la secuencia x1,...,xn,...,xL; xi X; i {1,...,L}. Para que un proceso sea markoviano de orden n,
se tiene que cumplir que:
P{xL+1 / xL,...,x1} = P{xL+1 / xL,...,xL-n+1}
Aunque el caso que nos ocupa es con índice "i" y variable aleatoria discretos, también hay procesos
markovianos con índice y/o variable aleatoria continuos.
+0
CADENAS DE MARKOV
escrito por LESLY M. CASTAÑEDA MONTUFAR, junio 18, 2010
Una cadena de Márkov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende
del evento inmediato anterior, esta dependencia del evento anterior distingue a las cadenas de Márkov de las
series de eventos independientes, como tirar una moneda al aire o un dado. En el área de los negocios es
muy importante, ya que nos permite analizar los patrones de compra, de deudores morosos, de movimiento
de productos, necesidades de personal y para analizar el reemplazo de equipo, de esta manera poder tomar
las decisiones oportunas correspondientes. Las cadenas de markov pueden ser homogéneas y no
homogéneas, se dice que es homogénea si la probabilidad de ir del estado i al estado j en un paso no
depende del tiempo en el que se encuentra la cadena, y si para alguna pareja de estados y para algún tiempo
n la propiedad antes mencionada no se cumple diremos que la cadena de Markov es no homogénea.
Dentro de los tipos de cadenas de Markov podemos citar:
Cadena irreducible
Cadena Positvo-recurrente
Cadenas Regulares
Cadenas Absorbentes
Cadenas en tiempo continuo
+0
PROCESOS DE MARKOV
escrito por kelly Xuya, junio 19, 2010
PROCESOS DE MARKOV
Los procesos de markov tienen la propiedad de no tener memoria por lo que se les puede llamar procesos SIN
MEMORIA, pues el estado actual del sistema junto con as probabilidades de transicion contienen toda la
informacion necesaria para predecir el comportamiento futuro del sistema,
Tale procesos se consideran procesos markovianos de primer orden, los procesos de markov de orden
superior son aquellos en que los estados futuros del sistema dependen de dos o mas estados previos.
En otras aplicaciones el analistas cuantitativos han extendido el estudio de procesos de markov a los llamados
PROCESOS MARKOVIANOS DE DECISIÒN , en estos modelos pueden tomarse desiciones en cada perìodo, lo
que afecta en las probabilidades de transicion y por consiguiente en el comportamiento futuro del sistema.
Los procesos marcovianos de desicion se han usado para analisar la descompostura de maquinas y las
operaciones de mantenimiento,la planificacion del movimiento de pacientes en hospitales, la elavoracion de
estrategias de inspecciòn, la determinacion de la duracion de suscripciones a periòdicos y el analisis de
reemplazo de equipo.
+0
+0
Escribir comentario
Nombre
Sitio Web
Título
Comentario
corto | largo
Inicio
Cursos
Seguridad Industrial
Calendario
Contacto
Correo
Escriba su Email:
Subscribe
Username
Password
Remember me
Login
Forgot login?
No account yet? Register