Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Resumen
Abstract
Palabras Clave: Cadenas de Markov, modelos, Keywords: Markov chains, models, processes,
event, future events, time.
procesos, evento, eventos futuros, tiempo.
1
2
1. Introduccin
En la actualidad la probabilidad y estadstica
abarca la gran mayora de aplicaciones, ya sea
a nivel acadmico, industrial, laboral, etc; esto
es por su funcionalidad, aplicacin lgica y
exacta, por dichas razones la probabilidad y
estadstica en nuestra carrera de ingeniera en
sistemas e ingeniera mecnica automotriz no
es la excepcin, es por eso que las cadenas,
modelos ocultos y procesos de Markov se
convierten en un mtodo de probabilidad para
determinar eventos futuros que dependen de
eventos actuales o anteriores, por ejemplo en la
aplicacin automotriz la probabilidad del
ndice de contaminacin del parque automotor
en los ltimos 5 aos dependern del
mantenimiento que se dio a dicho parque
automotor , tambin dependern del nmero
del parque automotor que se ha incrementado
en los ltimos 5 aos por lo que podemos
concluir que las cadenas de Markov estn
presentes en dicha aplicacin ya que el evento
de contaminacin es dependiente de los dos
eventos mencionados anteriormente. Por lo
que a continuacin analizaremos los conceptos
bsicos para comprender de qu se trata las
cadenas, modelos ocultos y procesos de
Markov.
2. Trabajos relacionados
La utilizacin de las cadenas de Markov abarca
varias aplicaciones ya sea en el rea industrial,
rea educativa, rea de ingeniera, etc; por lo
que a continuacin citamos algunas
aplicaciones de trabajos relacionados con
cadenas de Markov:
{} = {0, 1, 2, }
(1)
= (, , )
4. Modelos
Markov[2]
Ocultos
(2)
de
(, ; , ) = ( = )|() =
(5)
(6)
6. Conclusiones
5. Procesos de Marko[4]
7. Trabajo Futuro
Un proceso de Markov tiene la propiedad de
que la probabilidad de comportamiento futuro
est totalmente definida si se conoce el estado
actual. El conocimiento de estados previos al
actual no altera la probabilidad de
comportamiento futuro.
r () |(1) = 1, (2) = 2, . . . , () =
r () |(1) = ()
(3)
(4)
O_CONVENCIONALES_CADENA_M
ARKOV.pdf?sequence=1
8. Referencias
[1] E. Guerrero, Cadenas de Markov
investigacin de operaciones [online].
Ingeniera,
2014.
Disponible
en:
http://es.slideshare.net/eddyguerrero05/ca
denas-de-markov-34726886
[2] M. Gmez, Modelos Ocultos de Markov
[online]. Educacin, Tecnologia, 2009.
Disponible
en:
http://es.slideshare.net/slidemarcela/model
os-ocultos-de-markov-1395263
[3] M. Cartuche, Modelos Oculto de Markov
Problemas de entrenamiento [online].
Julio,
2008.
Disponible
en:
http://es.slideshare.net/macartuche/model
os-oculto-de-markov-problemas-deentrenamiento
[4] Isa.cie.uva, Procesos de Markov [online].
Departamento de Ingeniera. Disponible
en:
http://www.isa.cie.uva.es/estudios/doctora
do/GA/Transpa_fab_avanzada_JGG.pdf
[5] A. Uranga, R. Luevanos, J. Gonzlez, F.
Cortes, C. vila, Ingeniera Industrial.
Actualidad y Nuevas Tendencias [online].
Artculo, Revista, 2011. Disponible en:
http://www.redalyc.org/pdf/2150/2150248
22003.pdf
[6] O. Senz, A. Gonzlez, Cadenas de
Markov aplicadas al diagnstico y
tratamiento de conductas y procesos de
aprendizaje
[online].
Educacin.
Disponible
en:
http://espacio.uned.es/fez/eserv/bibliuned:20379/
cadenas_markov.pdf
[7]
T.
Quiroz,
Aplicaciones
no
convencionales de cadena de Markov
[online]. Tesis, 2012. Disponible en:
http://tesis.pucp.edu.pe/repositorio/bitstrea
m/handle/123456789/1248/QUIROZ_MA
RTINEZ_TELMO_APLICACIONES_N
5