Sei sulla pagina 1di 3

CADENAS DE MARKOV ANTECEDENTES Una cadena de Mrkov, que recibe su nombre del matemtico ruso Andrei Andreevitch Markov

(1856-1922), es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el ltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Mrkov de las series de eventos independientes, como tirar una moneda al aire o un dado. Este tipo de proceso, introducido por Mrkov en un artculo publicado en 1907,[1] presenta una forma de dependencia simple, pero muy til en muchos modelos, entre las variables aleatorias que forman un proceso estocstico. En los negocios, las cadenas de Mrkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo. DEFINICIN En matemticas, se define como un proceso estocstico discreto que cumple con la propiedad de Mrkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la informacin relevante para describir en probabilidad su estado futuro. Una cadena de Mrkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribucin de probabilidad condicional de Xn+1 en estados pasados es una funcin de Xn por s sola, entonces: Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Mrkov. FUNDAMENTACION MATEMATICA Para la teora de las cadenas de Markov (MC), se sabe que el futuro es independiente del pasado dado el presente, donde el presente puede ser uno o ms estados a travs de los cuales evoluciona el sistema. As, el sistema est completamente caracterizado por el estado presente y un nmero finito de estados previos (el nmero de estados previos requeridos para la descripcin del estado presente da el orden de la cadena de Markov. En otras palabras, para un proceso de primer orden, OBJETIVO El objetivo principal de la teora de markov es realizar un anlisis del costo y eficacia de comparar 2 tratamientos o ms para seleccionar el mejor, desde una perspectiva econmica en salud. Como se mencion, cuando se disean estos modelos muchas veces es necesario asumir cierto tipo de evolucin de la enfermedad ms all del tiempo habitual de observacin en los trabajos clnicos. Los modelos de Markov son aptos en este sentido, dado que permiten estimar los beneficios y los costos a largo plazo. IMPORTANCIA EN LA TOMA DE DECISIONES La teora de cadenas de markov es importante para los economistas, administradores, o un sin nmero de personas que necesiten tomar las mejores de decisiones ya que estas influirn en la solucin de problemas elegidos por un modelo para medir el beneficio y costo de poner en prctica el modelo.

APLICACIN Fsica Las cadenas de Markov son usadas en muchos problemas de la termodinmica y la fsica estadstica. Ejemplos importantes se pueden encontrar en la Cadena de Ehrenfest o el modelo de difusin de Laplace. Meteorologa Si consideramos el clima de una regin a travs de distintos das, es claro que el estado actual solo depende del ltimo estado y no de toda la historia en s, de modo que se pueden usar cadenas de Markov para formular modelos climatolgicos bsicos. Modelos epidemiolgicos Una importante aplicacin de las cadenas de Markov se encuentra en el proceso GaltonWatson. ste es un proceso de ramificacin que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia (vase modelaje matemtico de epidemias). Internet El pagerank de una pgina web (usado por google en sus motores de bsqueda) se define a travs de una cadena de Markov, donde la posicin que tendr una pgina en el buscador ser determinada por su peso en la distribucin estacionaria de la cadena. Simulacin Las cadenas de Markov son utilizadas para proveer una solucin analitica a ciertos problemas de simulacin tales como el Modelo M/M/1. Juegos de azar Son muchos los juegos de azar que se pueden modelar a travs de una cadena de Markov. El modelo de la ruina del jugador, que establece la probabilidad de que una persona que apuesta en un juego de azar eventualmente termine sin dinero, es una de las aplicaciones de las cadenas de Markov en este rubro. Economa y Finanzas Las cadenas de Markov se pueden utilizar en modelos simples de valuacin de opciones para determinar cundo existe oportunidad de arbitraje, as como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de precios. Msica

Diversos algoritmos de composicin musical usan cadenas de Markov, por ejemplo el software Csound o Max

Potrebbero piacerti anche