Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
2015 Ciclo IX
Ao de la Promocin de la Industria
Responsable y del Compromiso Climtico
PROFESOR:
DR. CIRO RODRIGUEZ RODRIGUEZ
ALUMNOS:
MENDOZA GUERREROS BRYAN.
PLASENCIA MOSTACERO PAUL.
UCHIMA RIVAS FRANCO ANTONIO.
FLORES RICARDO.
CADENAS DE MARKOV
CARPETA DE TRABAJO
PROCESO ESTOCSTICO
Una sucesin de observaciones x1, x2, se denomina proceso estocstico:
-
SISTEMAS DE MARKOV
Un sistema de Markov (o proceso de Markov o cadena de Markov) es un
proceso estocstico que puede ser en algunos estados (enumerados), y puede
pasar de un estado a otro durante cada instante de acuerdo a probabilidades
determinadas.
Si un sistema de Markov est en estado i, hay una determinada
probabilidad pij, de ir a estado j el prximo paso, y pij es llamado
la probabilidad de transicin.
Un sistema de Markov puede ser ilustrado por significados de un diagrama de
transicin de estados, que muestra todos los estados y las probabilidades de
transicin. (Ver el ejemplo)
La matriz P cuya ijo entrada pij se llama la matriz de transicin asociada con el
sistema. Las entradas en cada fila suman en total 1. Por lo tanto, para este
caso, una a 2 matriz de transicin P podra ser representado en la siguiente
figura.
CARPETA DE TRABAJO
Ejemplo
DIAGRAMA DE TRANSICIN:
(Falta de flechas indica la probabilidad cero.)
MATRIZ:
DIAGRAMA DE RBOL
Ejemplo: Despus de muchos estudios sobre el clima, hemos visto que si un
da est soleado, en el 70% de los casos el da siguiente continua soleado y en
el 30% se pone nublado. En trminos de probabilidad, lo que nos sirve
entonces para predecir el clima, vemos que la probabilidad de que contine
soleado el da siguiente es 0.7 y la probabilidad de que al da siguiente est
nublado es 0.3. Tambin nos fijamos en que si un da est nublado, la
probabilidad de que est soleado el da siguiente es 0.6 y la probabilidad de
CARPETA DE TRABAJO
que se ponga nublado es 0.4. Hoy est nublado, cul es la probabilidad de que
maana contine nublado? cul es la probabilidad de que est nublado
pasado maana?
Podemos ilustrar esta situacin por medio de un diagrama de rbol:
CARPETA DE TRABAJO
0.
4
0.
6
0.
0.5 0
5
Y sea v = [ 100 200 300 ] una distribucin inicial. A continuacin, la
distribucin despus de un paso se expresa por
CARPETA DE TRABAJO
0. 0.
0
2 8
vP = [ 100 200
300 ]
0.
0.
0
4
6
0. 0.
0
5 5
= [ 250 230
120 ]
0.
0.
0
4
6
0. 0.
0
5 5
= [ 202 260
138 ]
Para obtener la matriz 2-pasos de transicin, calculamos:
P2
=
0. 0.
0
2 8
0.3 0.1
0. 6 0.
6
0
4
6
0.3 0.6
0. 80. 2
0
5 5
0.3 0.4
0.
2
0.4
80.
4
0
0.
5
0.3
0.
0
8
0
0.
6
0.
0
5
As, por ejemplo, la probabilidad de pasar del estado 3 al estado 1 en dos pasos
viene dada por la [3,1] entrada en P2, es decir 0.3.
Ejemplo 2:
CARPETA DE TRABAJO
Del
estado
1
2
CARPETA DE TRABAJO
Para estado
1
2
0.88
0.12
0.15
0.85
CARPETA DE TRABAJO
CARPETA DE TRABAJO
|01|
|10|
Nunca alcanza un estado sustentable.
Adoptando el enfoque algebraico anteriormente para el ejemplo del cereal K
tenemos las tres ecuaciones siguientes:
x1 = 0.88x1 + 0.15x2
x2 = 0.12x1 + 0.85x2
x1 + x2 = 1
o
0.12x1 - 0.15x2 = 0
0.12x1 - 0.15x2 = 0
x1 + x2 = 1
Note que la ecuacin x1 + x2 = 1 es esencial. Sin ella no podramos obtener
una nica solucin para x1 y x2. Resolviendo conseguimos x1 = 0.5556 y x2 =
0.4444
Por lo tanto, en la largo plazo, K comercializa una porcin del mercado del
55.56%.
Un chequeo numrico til (particularmente para problemas ms grandes) es
sustituir los resultados finales en las ecuaciones originales para verificar que
ellos son consistentes con esas ecuaciones.
=1
CARPETA DE TRABAJO
+...
[x
y
z . . . ]P
[x y
=
. .]
z.
0.
0.
0
4
6
0. 0.
0
5 5
CARPETA DE TRABAJO
0.
0.
0
4
6
0. 0.
0
5 5
= [35/99 40/99
24/99]
=v
Por lo tanto, la matriz largo plazo de transicin es:
APLICACIN DE MARKOV:
Un programa que permite resolver nuestro problema atreves de la cadena de
Markov.
Aplicacin de Markov
Un programa que permite resolver nuestro problema atreves de la cadena de Markov
Cdigo en php:
CARPETA DE TRABAJO
CARPETA DE TRABAJO
CARPETA DE TRABAJO
CARPETA DE TRABAJO
CARPETA DE TRABAJO