Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Las predicciones en base al análisis de Markov son de suma importancia para el manejo
de sistemas y procesos en todo tipo de organizaciones, pudiendo ser utilizada para
ayuda en la toma de decisiones con respecto al movimiento de personal, inventarios,
comportamiento de clientes, etc
c) Un ejemplo de aplicación
El fabricante de dentífrico Brillo controla actualmente 60% del mercado de una ciudad.
Datos del año anterior muestran que :el 88% de consumidores de Brillo continúan
utilizándola, mientras que el 12% de los usuarios de Brillo cambiaron a otras marcas. El
85% de los usuarios de la competencia permanecieron leales a estas otras marcas,
mientras que el 15% cambió a Brillo. Definir la matriz de transición y el vector inicial de
distribución.
Desarrollo
• Saltar al contenido
•
Top of Form
buscar...
Bottom of Form
Procesos de Markov
Métodos Cuantitativos
PROCESOS DE MARKOV
• Operativilidad de maquinaria
• En situaciones que impliquen una secuencia de ensayos con una cantidad finita de estados
posibles en cada ensayo.
• Situaciones de estados absorbentes como en las cuentas por cobrar las cuentas incobrables.
Markov Proporciona
DEFINICIONES IMPORTANTES
• Estados del proceso, también llamados Ensayos, son eventos que desencadenan transiciones
del sistema de un estado a otro.
• Estado del Sistema: Condición del sistema en cualquier ensayo o periodo particular
• Estado Absorbente: Cuando no hay posibilidad de salir de ese estado, si ha alcanzado ese
estado allí permanecerá.
• •Matriz Fundamental: Tabla de probabilidades asociadas con los estados y sus transiciones en
un proceso de Markov.
Agregalo como Favorito
Compartir
Enviar email
Hits: 2531
Comentarios (32)
RSS Comentarios
PROCESO DE MARKOV
escrito por Julio Humberto Guevara Fajardo, mayo 09, 2010
PROCESOS DE MARKOV:
Se dice que los procesos de MARKOV, son útiles para estudiar la evolución de sistemas a lo largo
de ensayos repetidos, los que, a menudo son periodos sucesivos donde el estado del sistema en
cualquier periodo particular no pueden determinarse con certeza. Por ello, para describir la
manera en que el sistema cambia de un periodo al siguiente se emplean probabilidades de
transición.
Los procesos de MARKOV, son también llamados Markovianos, que pueden usarse para describir
la probabilidad de que una maquina esta funcionando en un período continuará funcionando en
siguiente período (o se estropeará). También pueden usarse los modelos para describir la
probabilidad de que un consumidor que compra la marca A, en un período compre la marca B en
el siguiente periodo.
Principio de Markov:
Cuando una probabilidad condicional depende únicamente del suceso inmediatamente anterior,
cumple con el Principio de Markov de Primer Orden, es decir.
Los sucesos que cumplan con un proceso de Markov, se pueden representar por medio de un
esquema donde los nodos indique los estados y arcos dirigidos de nodo a nodo con un número
que representa la probabilidad de transición de ir de un estado a otro, ó por medio de una
matriz de transición.
Ejemplo:
Para calcular:
= p11.p11+ p12.p21+ p13.p31
= 0,2.0,2+0,3.0,3+0,5.0,2 = 0,23
luego + + =1
TOMA DE DECISIONES
escrito por Julio Humberto Guevara Fajardo, mayo 09, 2010
TOMA DE DECISIONES:
El análisis de toma de decisiones puede usarse para desarrollar una estrategia óptima cuando el
tomador de decisiones se enfrenta con varias alternativas de decisión y una incertidumbre o
patrón de eventos futuros llenos de riesgos.
La toma de decisiones se puede decir que es la selección de un curso de acción entre varias
alternativas por lo tanto constituye la base de la planeación. La administración es le ejercicio de
dar forma de manera, consciente y constante a las organizaciones y el arte de tomar decisiones
es medular para ello. Como anteriormente se menciono la toma de decisiones, identificación y
elección de un curso de acción para tratar un problema concreto o aprovechar una oportunidad.
Esta constituye una parte importante en la labor de todo gerente, sobra decir que todos
tomamos decisiones, lo que diferencia el ejercicio de esta en la administración es la atención
sistemática y especializada que los gerentes o administradores prestan a la misma.
La toma de decisiones esta relacionada a un problema, dificulta o conflicto. Por medio de la
decisión y ejecución se espera obtener respuestas a un problema o solución a un conflicto.
Formulación del problema:
Es el primer paso en el proceso de análisis de decisiones es la formulación del problema,
comenzando con una declaración verbal de éste. Luego se identifican las alternativas de
decisión, los eventos futuros inciertos, conocidos como eventos futuros fortuitos, y las
consecuencias o resultados asociados con cada alternativa de decisión y cada evento fortuito.
Diagrama de influencia:
El diagrama de influencia es una herramienta grafica que muestra las relaciones entre las
decisiones, los eventos al azar u las consecuencias para un problema de decisión. Los nodos en
un diagrama de influencia se usan para reparar las decisiones, los eventos fortuitos y las
consecuencias. Se emplean rectángulos para o cuadrados para describir los nodos de decisión,
círculos u óvalos para describir los nodos fortuitos y rombos para describir los nodos de
secuencia.
Tablas de resultados:
En el análisis de decisiones, nos referimos a la secuencia resultante de una combinación
específica de una alternativa de decisión y un estado de la naturaleza como un resultado o
consecuencia. La tabla que muestra los resultados para todas las combinaciones de las
alternativas de decisión y los estados de la naturaleza, es una tabla de resultados.
Árbol de decisión:
El árbol de decisión nos proporciona una representación grafica del proceso de toma de
decisiones.
Los árboles de decisión proveen un método efectivo para la toma de decisiones debido a que:
Claramente plantean el problema para que todas las opciones sean analizadas.
Nos ayuda a realizar las mejores decisiones sobre la base de la información existente y de las
mejores suposiciones.
Para comenzar a dibujar un árbol de decisión debemos escribir cuál es la decisión que
necesitamos tomar. Dibujaremos un recuadro para representar esto en la parte izquierda de una
página grande de papel.
Desde este recuadro se deben dibujar líneas hacia la derecha para cada posible solución, y
escribir cuál es la solución sobre cada línea. Se debe mantener las líneas lo más apartadas
posibles para poder expandir tanto como se pueda el esquema.
Al final de cada línea se debe estimar cuál puede ser el resultado. Si este resultado es incierto,
se puede dibujar un pequeño círculo. Si el resultado es otra decisión que necesita ser tomada,
se debe dibujar otro recuadro. Los recuadros representan decisiones, y los círculos representan
resultados inciertos. Se debe escribir la decisión o el causante arriba de los cuadros o círculos. Si
se completa la solución al final de la línea, se puede dejar en blanco.
Comenzando por los recuadros de una nueva decisión en el diagrama, dibujar líneas que salgan
representando las opciones que podemos seleccionar. Desde los círculos se deben dibujar líneas
que representen las posibles consecuencias. Nuevamente se debe hacer una pequeña
inscripción sobre las líneas que digan que significan. Seguir realizando esto hasta que tengamos
dibujado tantas consecuencias y decisiones como sea posible ver asociadas a la decisión
original.
•
• +1
Matriz fundamental: Matriz necesaria para el cálculo de probabilidades asociadas con los
estados absorbentes de unproceso de Markov.
•
• +0
...
escrito por Marina Elizabeth España Rosales 00-8440, mayo 12, 2010
PROCESOS DE MARKOV
Una cadena de Márkov, que recibe su nombre del matemático ruso Andrei Andreevitch Markov
(1856-1922), es una serie de eventos, en la cual la probabilidad de que ocurra un evento
depende del evento inmediato anterior.
Cuando una probabilidad condicional depende únicamente del suceso inmediatamente anterior,
cumple con el Principio de Markov de Primer Orden.
Las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de
determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no
determinada a lo largo del tiempo en torno a un conjunto de estados.
Una cadena de Markov, por tanto, representa un sistema que varía su estado a lo largo del
tiempo, siendo cada cambio una transición del sistema.
La forma más cómoda de expresar la ley de probabilidad condicional de una cadena de Markov
es mediante la llamada matriz de probabilidades de transición P, o más sencillamente, matriz de
la cadena.
Dicha matriz es cuadrada con tantas filas y columnas como estados tiene el sistema, y los
elementos de la matriz representan la probabilidad de que el estado próximo sea el
correspondiente a la columna si el estado actual es el correspondiente a la fila.
Como el sistema debe evolucionar de t a alguno de los n estados posibles, las probabilidades de
transición cumplirán con la propiedad siguiente:
n
∑ Pij = 1
J= 1
Cuando las Pij cumplen las propiedades arriba indicadas, la matriz P es una matriz estocástica:
la suma de valores de las filas de la matriz será siempre igual a 1(la suma de los valores de la
columna no tienen ninguna propiedad especial)
•
• +0
PROCESOS DE MARKOV
escrito por Ana Marcela Ramos Fajardo 99-5399, mayo 12, 2010
ANALISIS DE CUENTAS POR COBRAR
Una aplicación de contabilidad en la que los procesos de Markov han producido resultados útiles
implica la estimación de la reserva para cuentas por cobrar de dudosa recuperación o,
simplemente dudosas. Esta reserva es una estimación de la cantidad de cuentas por cobrar que
al final demostrarán ser incobrables.
Veamos cómo podemos considerar la operación de cuentas por cobrar como un proceso de
Markov. Primero, concétrese en lo que le sucede en la actualidad a un dólar en las cuentas por
cobrar. Conforme la firma continúe operando en el futuro, podemos considerar cada semana
como un ensayo de un proceso de Markov con un dólar existente en uno de los siguientes
estados del sistema.
Por tanto, podemos rastrear el estado semana a semana de un dólar usando un análisis de
Markov para identificar el estado del sistema en una semana o periodo particular.
•
• +4
•
Cadenas de Markov
escrito por Nancy Veraliz Cervantes Lemus, mayo 12, 2010
CADENAS DE MARKOV
2.En los negocios, ¿para que se han utilizado las cadenas de markov?
Para analizar patrones de compra de los consumidores, para pronosticar las concesiones por
deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de
equipo.
3.¿Qué característica deben de tener los eventos para que puedan representarse a través de
una cadena de markov?
Deben de tener memoria.
6.¿Con qué nombre se conoce a la probabilidad de estar en un estado y pasar a otro en una
cadena de markov?
Probabilidad de transición.
8.En un diagrama de estados, cuando no se marcan las flechas de transición, ¿qué significa?
Que su probabilidad es cero.
9.Además del método gráfico, ¿qué otro método se puede utilizar para exhibir las probabilidades
de transición?
Usar una matriz de transición.
10.¿Qué condición deben cumplir las filas o renglones de una matriz de transición?
Sumar uno.
•
• +1
probabilidad_transicion = {
'Lluvioso' : {'Lluvioso': 0.7, 'Soleado': 0.3},
'Soleado' : {'Lluvioso': 0.4, 'Soleado': 0.6},
}
probabilidad_emision = {
'Lluvioso' : {'caminar': 0.1, 'comprar': 0.4, 'limpiar': 0.5},
'Soleado' : {'caminar': 0.6, 'comprar': 0.3, 'limpiar': 0.1},
}
En esta porción de código se tiene:
La probabilidad_inicial que representa el estado en el que usted cree que se encuentra el HMM
la primera vez que su amigo lo llama (es decir, sabe que es un poco más probable que esté
lluvioso). La distribución de probabilidades que se usó aquí no es la de equilibrio, que es (dadas
las probabilidades de transición) aproximadamente {'Lluvioso': 0.571, 'Soleado': 0.429}.
La probabilidad_transicion representa el cambio del tiempo en la cadena de Márkov por detrás
del modelo. En este ejemplo, hay un 30% de probabilidad de que mañana esté soleado si hoy
llovió.
La probabilidad_emision representa con cuanta probabilidad su amigo realiza una actividad
determinada cada día. Si llueve, hay un 50% de probabilidad de que esté limpiando su
departamento; si hay sol, hay un 60% de probabilidades de que haya salido a caminar.
•
• +0
Ejemplo de aplicación:
Se supone que estos datos muestran el patrón de viajes de compras semanales de cada cliente
en función de la secuencia de visitas a Comercial Córdova y Bazar Europa. Para el efecto se
toman en cuenta los datos del periodo anterior. Al revisar los datos, suponga que encontramos
que de todos los clientes que compraron en Comercial Córdova en una semana dada, 80%
compro en Comercial Córdova la siguiente semana, mientras 20% cambio a Bazar Europa.
Suponga que datos similares para los clientes que compraron en Bazar Europa en una semana
dada muestran que 70% compro en Bazar Europa la siguiente semana, mientras 30% cambio a
Comercial Córdova.
Suponiendo que tenemos un cliente cuyo último viaje de compras fue a Comercial Córdova.
¿Cuál es la probabilidad de que este cliente compre en Comercial Córdova en el siguiente viaje
semanal, periodo 1?
Con un diagrama de árbol se puede describir dos viajes de compras semanales de un cliente que
compro la última vez en Comercial Córdova. A continuación se observa el recorrido:
•
• +0
PROCESOS DE MARKOV
escrito por Zully Amarilis Morales Solís, mayo 14, 2010
ESTADOS Y PROBABILIDADES DE ESTADO
Los estados se utilizan para identificar todas las condiciones posibles de un proceso o de un
sistema. Por ejemplo, una máquina puede encontrarse en uno de dos estados en un momento
dado. Puede funcionar correctamente o puede no funcionar correctamente. Se puede llamar a la
operación correcta de la máquina el primer estado, y al funcionamiento incorrecto el segundo
estado. En realidad es posible identificar estados específicos de muchos procesos y sistemas. Si
solo existen tres tiendas de abarrotes en un pueblo pequeño, en un momento dado un residente
puede ser cliente de cualquiera de las tres. Si los estudiantes pueden tomar una de tres
especializaciones dentro del área de administración (digamos ciencia administrativa, sistemas
de información administrativa o administración general), cada una de estas área puede ser
considerada un estado.
En el análisis de Markov también se supone que los estados son tanto colectivamente
exhaustivos como mutuamente excluyentes. Colectivamente exhaustivo significa que puede
confeccionar una lista que contenga todos los estados posibles de un sistema o proceso. Nuestra
presentación del análisis de Markov supone que existe un número finito de estados de cualquier
sistema. Mutuamente excluyente significa que un sistema solo estar en un estado en un
momento dado. Un estudiante solo puede estar en una de tres áreas de especialización
administrativa y no en dos o más áreas al mismo tiempo. También significa que una persona
solo puede ser cliente de una de tres tiendas de abarrotes en un momento dado.
Una vez que se han identificado los estados, el siguiente paso es determinar la probabilidad de
que el sistema se encuentre en un estado particular. Tal información se coloca entonces en un
vector de probabilidades de estado.
•
• +1
...
escrito por Karen Celeste Sagastume Ramírez, mayo 14, 2010
PROCESOS DE MARKOV
Principio de Markov:
Cuando una probabilidad condicional depende únicamente del suceso inmediatamente anterior,
cumple con el Principio de Markov de Primer Orden, es decir.
Ejemplo:
Para calcular:
•
• +0
Procesos de Markov
escrito por Amilcar Villeda - 3228 00 1139, mayo 15, 2010
Una cadena de Márkov, que recibe su nombre del matemático ruso Andrei Andreevitch Markov
(1856-1922), es una serie de eventos, en la cual la probabilidad de que ocurra un evento
depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria.
"Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta
dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos
independientes, como tirar una moneda al aire o un dado.
Este tipo de proceso, introducido por Márkov en un artículo publicado en 1907,[1] presenta una
forma de dependencia simple, pero muy útil en muchos modelos, entre las variables aleatorias
que forman un proceso estocástico. En los negocios, las cadenas de Márkov se han utilizado
para analizar los patrones de compra de los deudores morosos, para planear las necesidades de
personal y para analizar el reemplazo de equipo.
•
• +0
•
Cadenas de Markov
escrito por Ana Luisa Vargas Cabrera, mayo 16, 2010
Una cadena de Markov representa un sistema que varía su estado a lo largo del tiempo, siendo
cada cambio una transicion del sistema. Dichos cambios no estan predeterminados, aunque si lo
esta la probabilidad del próximo estado en función de los estados anteriores, probabilidad que
es constante a lo largo del tiempo. Eventualmente, en una transicion, el nuevo estado puede ser
el mismo que el anterior y es posible que exista la posibilidad de influir en las probabilidades de
transicion actuando adecuadamente sobre el sistema (decision).
Los estados son una caracterizacion de la situacion en que se halla el sistema en un instante
dado, dicha caracterización puede ser tanto cuantitativa como cualitativa. Desde un punto de
vista práctico probablemente, la mejor definicion de que debe entenderse por estado es la
respuesta que se daría a la pregunta ¿como estan las cosas?
•
• +0
...
escrito por Ana Luisa Vargas Cabrera, mayo 16, 2010
Analisis de decisiones: es un método análitico que provee herramientas para analizar
situaciones donde hay que tomar una decisión.
3. TOMA DE DECISIONES BAJO RIESGO: se conocen las probabilidades asociadas con los
diferentes resultados de cada alternativa.
Ejemplo: Si en el ejemplo anterior conocemos las probabilidades asociadas con cada uno de los
resultados para las distintas alternativas, tenemos que tomar una decision bajo riesgo
escogiendo la alternativa con la ganancia promedio mayor.
•
• +1
Procesos de Markov
escrito por Sandra Isabel Esquivel Vega, junio 13, 2010
Los modelos de proceso de Markov son utiles para estudiar la evolución de sistemas a lo largo
de ensayos repetidos los que, a menudo, son periodos sucesivos donde el estado del sistema en
cualquier periodo particular no puede determinarse con certeza.
Ensayos del Proceso: Frecuencia con la que se solicita el servicio por los clientes.
Estado del sistema: Tienda particular seleccionada en un periodo de tiempo.
•
• +0
•
•
Cadenas positivo-recurrentes
Una cadena de Markov se dice positivo-recurrente si todos sus estados son positivo-recurrentes.
Si la cadena es además irreducible es posible demostrar que existe un único vector de
probabilidad invariante.
Cadenas regulares
Una cadena de Markov se dice regular (también primitiva o ergódica) si existe alguna potencia
positiva de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero.
Cadenas absorbentes
Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las dos
condiciones siguientes:
•
• +0
•
• +0
•
• +0
Rentado en Devuelto a
123
1 0.7 0.1 0.2
2 0.2 0.8 0
3 0.2 0.2 0.6
DATOS Y NOMENCLATURA
T = Matriz de Transición
T2= Matriz de transición al cuadrado
Rentado en Devuelto a
123
1 0.7 0.1 0.2
T= 2 0.2 0.8 0
3 0.2 0.2 0.6
Nota: para poder sacar las probabilidades del siguiente año sacamos el cuadrado de T.
123123
1 0.7 0.1 0.2 1 0.7 0.1 0.2
T2= 2 0.2 0.8 0 X 2 0.2 0.8 0
3 0.2 0.2 0.6 3 0.2 0.2 0.6
El cuadrado de T significa multiplicar dos veces la matriz de transición (los datos que nos dan
para la elaboracion del problema)
Primera fila de la primer matriz por la primera columna de la segunda matriz y asi
sucesivamente tal como se muestra a continuación:
Entonces:
123
1 0.55 0.19 0.26
T2= 2 0.30 0.66 0.04
3 0.30 0.30 0.40
Respuesta:
La probabilidad de que el video rentado en el local 1 sea devuelto en el mismo es: 0.55 x
100=55%
La probabilidad de que el video rentado en el local 2 sea devuelto en el mismo es: 0.66 x
100=66%
La probabilidad de que el video rentado en el local 3 sea devuelto en el mismo es: 0.40 x
100=40%
•
• +0
PROCESOS DE MARKOV
escrito por Maris Yessenia Peraza Ronquillo, junio 16, 2010
PROCESOS DE MARKOV:
Al aplicar Markov en cuanto a los demandantes en un mercado consumidor nos podemos dar
cuenta de la exigencia del cliente para poder cubrir sus necesidades y así convertirlo en un
cliente fiel. A través de este análisis se puede llegar a conocer las posibles actitudes de los
clientes de un período a otro y así estar a la vanguardia y poder cubrir al máximo sus
expecgtativas para lograr su satisfacción y así mantenerse en el mercado comeptitivo.
También se debe tomar en cuenta que Markov permite hacer un análisis en relación a lo
finacniero de la organización y debemos recordar que para que una empresa subsiste su
principal motor es el capital por lo que se debe reguardar siempre, lo que significa tomar
decisiones correctas en las inversiones. Esto implica que se debe conocer el mercado, las leyes
a las cuales esta sujeta la empresa, las tendencias tecnológicas, la competencia, la situación
financiera cambiaria y finalmente hacer un análsisi de los clientes con los que cuenta la
emrpesa para así poder otorgar créditos; ya que esto signfica tener que recuperar esa cuenta. Al
habler de proprocionar créditos significa que va existir una cuenta por cobrar la cual tiene que
mostrar una equilibrio adecuado para la toma de decisiones de los propietarios.
•
• +0
...
escrito por Jose Juan Monzon Matias, junio 16, 2010
Metodos Cuantitativos para los negocios
Novena Edicion
Anderson
Sweeney
Williams
ANALISIS DE PARTICIPACION EN EL MERCADO
Usando la terminología de los proceso de Markov, nos referimos a los periodos semanales o
viajes de compras como los ensayos de proceso. Por tanto, en cada ensayo el cliente comprará
ya sea en Murphy´s Foodliner o en Ashley´s Supermarket. La tienda particular seleccionada en
una semana dada se conoce como el estado del sistema en ese periodo. Debido a que el cliente
tiene dos alternativas de compra en cada ensayo, decimos que el sistema tiene dos estados.
Con una cantidad finita de estados los identificamos como sigue:
Estado 1. El cliente compra en Murphy´s Foodliner
Estado 2. El cliente compra en Ashley´s Supermarket
Si decimos que el sistema está en el estado 1 en el ensayo 3, sólo estamos diciendo que el
cliente en Murphy´s compra durante la tercera semana del periodo de compras.
Usando un modelo de procesos markoviano seremos capaces de calcular la probabilidad de que
el cliente compre en cada tienda durante cualquier periodo.
Para determinar las probabilidades de los diversos estados que ocurren en ensayos sucesivo del
proceso de Markov necesitamos información sobre la probabilidad de que un cliente permanezca
con la misma o cambie a la tienda competidora conforme continue el proceso de un ensayo a
otro o de una semana a otra.
•
• +0
•
• +0
•
• +0
•
Aporte MARKOV
escrito por Jaqueline Michelle Monzón Zepeda, junio 16, 2010
Cadenas de Markov
Después de mucho estudio sobre el clima, hemos visto que si un día está soleado, en el 70% de
los casos el día siguiente continua soleado y en el 30% se pone nublado. En términos de
probabilidad, lo que nos sirve entonces para predecir el clima, vemos que la probabilidad de que
continúe soleado el día siguiente es .7 y la probabilidad de que al día siguiente esté nublado es .
3. También nos fijamos en que si un día está nublado, la probabilidad de que esté soleado el día
siguiente es .6 y la probabilidad de que se ponga nublado es .4.
Pregunta
Hoy está nublado, ¿cuál es la probabilidad de que mañana continúe nublado? ¿cuál es la
probabilidad de que está nublado pasado mañana?
HOYMAÑANAPASADO MAÑANA
0.7Soleado
Soleado
0.6Nublado
0.3
0.6 Soleado
Nublado 0.4
Nublado Nublado
0.4
Posibles estados del tiempo a partir de que hoy está nublado
Con la ayuda de la Figura 1 podemos predecir qué ocurrirá mañana si sabemos que hoy está
nublado.
Vemos que la probabilidad de que mañana continúe nublado es .4, es decir, si hiciéramos esta
predicción muchas veces estaríamos en lo correcto cerca del 40% de las veces. Para conocer la
probabilidad de esté nublado pasado mañana buscamos en las hojas del árbol correspondientes
al Tiempo pasado mañana los lugares donde dice nublado. Hay dos hojas donde esto ocurre.
Ahora lo que queda es determinar cómo desde el principio, desde la raíz del árbol, podemos
llegar allí.
Si hoy está nublado, para que pasado mañana esté nublado, podríamos tener un día de mañana
soleado o nublado. Así tenemos las siguientes secuencias en orden de (hoy, mañana, pasado
mañana): (nublado, soleado, nublado) o (nublado, nublado, nublado) donde pasado mañana es
nublado. Estas secuencias son mutuamente excluyentes, corresponden a caminos distintos en el
árbol, así tenemos que:
Att.
•
• +0
•
PROCESOS DE MARKOV
escrito por Licda. Marilena Anahí Ramírez Méndez, junio 18, 2010
ANÁLISIS DE MARKOV
DATOS Y NOMENCLATURA
MARCAS
A, B, C, D
SOLUCION
En la siguiente tabla la mayor parte de los clientes que compraron inicialmente la marca A,
siguieron con ella en el segundo periodo. No obstante la marca A ganó 50 clientes y perdió 45
con otras marcas.
MarcaPeriodo 1
Numero de ClientesGanancias PerdidasPeriodo 2
Numero de Clientes
A2205045225
B3006070290
C2302525230
D2504035255
1 0001751751 000
Esta tabla no muestra la historia completa, sino que necesita un análisis detallado con respecto
a la proporción de ganancias y perdidas netas entre las cuatro marcas. Es necesario calcular las
probabilidades de transición para las cuatro marcas. Las probabilidades de transición se definen
como la probabilidad de que determinada marca, conserve sus clientes. Para determinar lo
anterior dividimos se divide el numero de clientes retenidos entre en numero de clientes en el
periodo inicial, por ejemplo para la marca A (220- 45=175) se divide 175/220 lo que nos da
0.796, al igual para las otras marcas, obteniendo 0.767(B),0.891(C),0.860(D).
Para aquellos clientes que cambiaron de marcas , es necesario mostrar las perdidas y ganancias
entre las marcas a fin de completar las matriz de probabilidades de transición. De acuerdo con
los datos desarrollados, el paso siguiente consiste en convertir el cambio de marcas de los
clientes de modo que todas las perdidas y ganancias tomen forma de probabilidades de
transición, obteniendo la matriz de probabilidad de transición.
•
• +0
•
• +0
•
Cadena de Markov Absorventes (Ampliación del Tema)
escrito por Mario Rodolfo Lucero Alvarado, junio 18, 2010
CADENAS DE MARKOV ABSORVENTES
Los estados absorbentes describen procesos que terminan o finalizan después de alcanzar
determinadas condiciones y dan como resultado un caso especial de cadenas de Markov,
algunos ejemplos son:
1.- En control de calidad, después de encontrar un número predeterminado de partes que
pueden ser aceptadas o rechazadas, se suspende la inspección secuencial.
2.- Después de “x” horas de funcionamiento, una máquina se detiene para repararla o
reemplazarla.
3.- Después de que una persona ha trabajado en una empresa, puede jubilarse o recontratarse.
4.- Después del seguimiento que se hace a una cuenta bancaria esta se paga o se considera
perdida
CARACTERÍSTICAS.
a)Un estado absorbente es aquel que tiene una probabilidad de ser abandonado igual a cero, o
sea que una vez comenzado es imposible dejarlo y el proceso se detiene completamente o se
detiene para luego comenzar a partir de algún otro estado.
b) Una cadena de Markov es absorbente si:
1) Tiene por lo menos un estado absorbente.
2) Es posible ir desde cada estado no absorbente hasta por lo menos un estado absorbente. No
es necesario efectuar esta transición en un paso; ni es necesario alcanzar cada estado
absorbente a partir de cualquier estado no absorbente.
EJEMPLO. 1
Los alumnos de una escuela técnica, cursan 4 años para terminar su carrera. De los que
ingresan a primer año, 80% aprueba, 10% reprueba y el resto deserta. De los que están en
segundo año, 85% aprueba, 10% reprueba y el resto deserta. De los de tercer año, 80%
aprueba, 15% reprueba y resto deserta. Los que están en el último grado, 85% se gradúa, 5%
deserta y el resto reprueba.
a)¿ Cuántos años se espera que un alumno pase como estudiante?
b)¿ Cual es la probabilidad de que un estudiante se gradúe?
Solución: Encontrar cuántos y cuales son los estados y modelar la matriz de transición.
S0=Ingreso S1 S2 S3 S4 S5 S6
S1 =Primer año S10.10 0.80 0 0 0.10 0
S2 =Segundo año S20 0.10 0.85 0 0.05 0
S3 =Tercer año P = S30 0 0.15 0.80 0.05 0
S4 =Cuarto año S40 0 0 0.10 0.05 0.85
S5 =Deserta S50 0 0 0 1 0
S6 =Se gradúa S60 0 0 0 0 1
a=Estados absorventes
n=Estados no absorventesm=a+n
Una vez alcanzados los estados absorbentes S5 y S6, la probabilidad de que el proceso
permanezca en el respectivo estado es 1. Por lo tanto es imposible (probabilidad cero) ir desde
cualquiera de estos estados hasta cualquier otro. En realidad esto se debe a que el alumno tomó
la decisión de dejar la escuela voluntariamente o decidió graduarse.
A partir del análisis de cadenas de Markov absorbentes, se obtiene la siguiente información:
1.- El número de pasos antes de que el proceso sea absorbido, utilizando (I – N-1) Para el
ejemplo los pasos serían años.
2.- El número esperado de veces que el proceso está en cualquier estado no absorbente. Para el
ejemplo, sería el número de años que el alumno permanece en cada grado.
3.- La probabilidad de absorción por cualquier estado absorbente dado, por medio de la
siguiente expresión (I-N)-1*A.
Para realizar los cálculos anteriores, la matriz de transición se subdivide en cuatro matrices y
son los estados absorbentes los quedan la pauta para dicha subdivisión.
Donde N e I son opuestos por el vértice.
Estas matrices más pequeñas contienen elementos de probabilidad que nos originan "a” estados
absorbentes y "n" no absorbentes que en total serían a + n = m estados.
Matriz I: Es una matriz identidad de dimensiones a*a y representa las probabilidades de
permanecer dentro de un estado absorbente.
Matriz O: Es una matriz cero de a*n y nos indica las probabilidades de ir desde un estado
absorbente hasta un estado absorbente.
Matriz A: Es una matriz de n*a y contiene las probabilidades de ir desde un estado no
absorbente hasta un estado absorbente.
Matriz N: Es una matriz de n*n que contiene las probabilidades de ir desde un estado no
absorbente hasta un estado no absorbente.
•
• +0
markov
escrito por CARLOS HUMBERTO LEMUS RAMOS, junio 18, 2010
•
• +0
PROCESOS MARKOVIANOS
escrito por Juana Maria Godoy Contreras, junio 18, 2010
Se esta planeando una campaña publicitaria de Red Pop, que es una bebida gaseosa, para
aumentar la probabilidad de atraer clientes de Super Cola que es la competencia. La
administración cree que la nueva campaña aumentara a 0.15 la probabilidad de que un cliente
cambie de Super Cola a Red Pop. ¿Cuál es el efecto proyectado de la campaña publicitaria en las
participaciones del mercado?
DATOS Y NOMENCLATURA
0.85 S
S
0.15 R
0.90 0.10
π1 π2 = π1 π2 0.15 0.85
π1 = π1 * 0.90 + π2 *0.15
π2 = π1 * 0.10 + π2 *0.85
π2 + π1 = 1
π1 = 0.90 π1 + 0.15 (1- π1)
π1 = 0.90 π1 + 0.15 - 0.15 π1
0.25 π1 = 0.15
π1 = 0.15/0.25 = 0.60
π1 = 0.40
...
escrito por Irma Alvarez Molina, junio 18, 2010
Cadenas de Markov
Definición : Sea la secuencia x1,...,xn,...,xL; xi X; i {1,...,L}. Para que un proceso sea markoviano
de orden n, se tiene que cumplir que:
P{xL+1 / xL,...,x1} = P{xL+1 / xL,...,xL-n+1}
Aunque el caso que nos ocupa es con índice "i" y variable aleatoria discretos, también hay
procesos markovianos con índice y/o variable aleatoria continuos.
•
• +0
CADENAS DE MARKOV
escrito por LESLY M. CASTAÑEDA MONTUFAR, junio 18, 2010
Una cadena de Márkov es una serie de eventos, en la cual la probabilidad de que ocurra un
evento depende del evento inmediato anterior, esta dependencia del evento anterior distingue a
las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o
un dado. En el área de los negocios es muy importante, ya que nos permite analizar los patrones
de compra, de deudores morosos, de movimiento de productos, necesidades de personal y para
analizar el reemplazo de equipo, de esta manera poder tomar las decisiones oportunas
correspondientes. Las cadenas de markov pueden ser homogéneas y no homogéneas, se dice
que es homogénea si la probabilidad de ir del estado i al estado j en un paso no depende del
tiempo en el que se encuentra la cadena, y si para alguna pareja de estados y para algún
tiempo n la propiedad antes mencionada no se cumple diremos que la cadena de Markov es no
homogénea.
Dentro de los tipos de cadenas de Markov podemos citar:
Cadena irreducible
Cadena Positvo-recurrente
Cadenas Regulares
Cadenas Absorbentes
Cadenas en tiempo continuo
•
• +0
PROCESOS DE MARKOV
escrito por kelly Xuya, junio 19, 2010
PROCESOS DE MARKOV
Los procesos de markov tienen la propiedad de no tener memoria por lo que se les puede llamar
procesos SIN MEMORIA, pues el estado actual del sistema junto con as probabilidades de
transicion contienen toda la informacion necesaria para predecir el comportamiento futuro del
sistema,
Tale procesos se consideran procesos markovianos de primer orden, los procesos de markov de
orden superior son aquellos en que los estados futuros del sistema dependen de dos o mas
estados previos.
•
• +0
•
• +0
Escribir comentario
Top of Form
Nombre
Sitio Web
Título
Comentario
corto | largo
Inicio
Cursos
Seguridad Industrial
Calendario
Contacto
Correo
Top of Form
Escriba su Email:
Subscribe
Bottom of Form
Top of Form
Username
Password
Remember me
Login
Forgot login?
No account yet? Register
Bottom of Form