Sei sulla pagina 1di 31

INTRODUCCIN

Las cadenas de Markov estn destinadas a una clase de modelos de


probabilidad que son tiles en una amplia variedad de ciencias. Las cadenas
de Markov han encontrado aplicaciones en la biologa, la fsica, la demografa,
la economa y, lo que es ms importante para nuestros propsitos, la
administracin.
La ciencia administrativa ha desarrollado mtodos de anlisis y herramientas
cuantitativas para la toma de decisiones objetivas. Un factor importante que se
debe considerar al seleccionar una herramienta de toma de decisiones es su
grado de confiabilidad, ya que as la incertidumbre y el riesgo resultan menores
ser mejor.
Una relacin de algunos elementos de apoyo cuantitativo en la toma de
decisiones gerenciales es el anlisis de markov.
Las cadenas de Markov se pueden utilizar en modelos simples de valuacin de
opciones para determinar cundo existe oportunidad de arbitraje, as como en
el modelo de colapsos de una bolsa de valores o para determinar la volatilidad
de precios.










DEDICATORIA


A Dios, mi escudo y fortaleza.
A nuestros padres,
por su gran ejemplo y esfuerzo.
A mi asesor, Lino Fernndez,
por su amistad y oportuno consejo.


























ORIGEN DE LA TEORA MARKOVIANA.
Esta teora debe su nombre a Andrei Andreyevich Markov quien naci en San
Petersburgo, Rusia, el 14 de Junio de 1856. Estudi matemticas en la
Universidad de San Petersburgo y se gradu en el
ao 1878. En sus inicios como docente, alrededor
del ao 1886, focaliz su trabajo en anlisis y
teora del nmero, fracciones continuas, lmite de
integrales, teora de aproximacin y la serie de
convergencias.
Tambin estuvo interesado en la poesa e hizo
estudios de los diversos estilos poticos.
Estudi, entre otros muchos aspectos, las construcciones lingsticas a partir
del clculo matemtico (1913). As, por ejemplo, analiz la produccin literaria
del gran poeta ruso Puschkin, llamada Eugene Onieguin, y dedujo que las
letras del alfabeto cirlico, como las de cualquier otro alfabeto, iban apareciendo
relacionadas con las que las precedan en la escritura. La nueva letra est
determinada por la anterior, pero es independiente de la manera en la que
aparece respecto de las anteriores.
Markov es recordado por su estudio de cadenas secuenciales, que consisten
en variables al azar, en las que la variable futura es predeterminada por la
preexistente, pero independiente de la manera que sta se gener de sus
precursores. Es decir, se trata de un sistema que sufre a lo largo del tiempo
cambios de estado o transiciones aleatorias y las probabilidades que describen
la forma en que el proceso evolucionar en el futuro, son independientes de los
eventos ocurridos en el pasado. El sistema no est desprovisto de memoria en
su totalidad, slo guarda informacin del recuerdo ms reciente de su pasado.
Es muy importante comentar que su estudio no estuvo basado en un simple
anlisis estadstico, sino que intent aplicarlo a la generacin de textos
literarios.
Las cadenas de Markov se han aplicado en reas diversas, como educacin,
comercializacin, servicios de salud, finanzas, contabilidad y produccin, tras
los aportes de Norbert Wiener (1923) y Andrei Kolmogorov (1930).

1. CONCEPTO DE CADENA DE MARKOV.
Una Cadena de Markov es una serie de acontecimientos, en los que la
probabilidad de que ocurra uno depende del inmediatamente anterior.
Los conceptos necesarios para describir una Cadena de Markov son los
siguientes:
a) Estados (Ei, i=1,, n). Son aquellas opciones entre las que pueden
elegir los consumidores. Para que los estados formen parte del mismo
mercado es necesario que todos los consumidores de dicho mercado
tenga acceso a todos los estados en igualdad de condiciones.

b) Cuota de mercado o Estado de probabilidad (Pi, i=1,.., n). Es la
probabilidad de consumir el Estado i en el momento n. Siempre estar
situado en 0 Pi 1. Se calcula con la siguiente frmula:

Pi = (Nmero de consumidores del Estado i en el momento n)
(Nmero de consumidores totales)

c) Vector estado (Pn). Es un vector fila formado por las cuotas de
mercado del momento n. Los elementos de este vector suman
siempre 1.

Pn = (P1, P2, P3,, Pi)

d) Probabilidad de cambio (Pij i=1,, n y j=1,, n). Es la probabilidad
de que un consumidor que est en el Estado i en el momento n pase
al Estado j en el momento n+1. Siempre estar situado en 0 Pij 1.
Se calcula con la siguiente frmula:

Pij = (Nmero de consumidores del Estado i en el momento n que se
pasan al Estado j en el momento n+1) / (Nmero de consumidores
totales del Estado i en el momento n)

e) Matriz de transicin (Mt). Es la matriz formada por las distintas
probabilidades de cambio. Sus filas siempre suman 1.








f) Proceso estocstico. un conjunto de variables aleatorias que
evolucionan en funcin normalmente del tiempo.

g) Vector Equilibrio o Vector de Estabilidad. Es aquel que se obtiene
a largo plazo si la matriz de transicin cumple la caracterstica del
ergodismo. Es un vector estable que nunca se modificar salvo que
cambien las condiciones de mercado.

h) Matriz ergdica. Una matriz es ergdica si su primer auto valor es
uno y el resto de los autos valores menores que uno.

i) Estado absorbente. Es aqul estado cuya probabilidad de pasar de
uno a otro es nula. Por ejemplo, si el primer estado fuera absorbente,
la matriz de transicin quedara as:











2. FORMULACIN DE LAS CADENAS DE MARKOV.
2.1. Tipos de cadenas de Markov.
a) Cadenas irreducibles.-
Una cadena de Markov se dice irreducible si se cumple cualquiera
de las siguientes condiciones (equivalentes entre s):
Desde cualquier estado de E se puede acceder a cualquier
otro.
Todos los estados se comunican entre s.
C(x)=E para algn xE.
C(x)=E para todo xE.
El nico conjunto cerrado es el total.
b) Cadenas positivo-recurrentes.-
Una cadena de Markov se dice positivo-recurrente si todos sus
estados son positivo-recurrentes. Si la cadena es adems
irreducible es posible demostrar que existe un nico vector de
probabilidad invariante.
c) Cadenas regulares.-
Se dice regular (tambin primitiva o ergdica) si existe alguna
potencia positiva de la matriz de transicin cuyas entradas sean
todas estrictamente mayores que cero.
d) Cadenas absorbentes.-
Una cadena de Markov con espacio de estados finito se dice
absorbente si se cumplen las dos condiciones siguientes:
1. La cadena tiene al menos un estado absorbente.
2. De cualquier estado no absorbente se accede a algn estado
absorbente.
Si denotamos como A al conjunto de todos los estados
absorbentes y a su complemento como D, tenemos los siguientes
resultados:
Su matriz de transicin siempre se puede llevar a una de la forma:









2.2. Formato de la matriz de transiciones:












2.3. Como realizar el diagrama de transicin.














Ejemplo: la ruina del jugador
En el tiempo 0, tengo $2 en los tiempos 1,2 n participo en un juego
en el que apuesto $1 con la probabilidad P, gano el juego, y con
probabilidad 1-P, pierdo el juego. Mi objetivo es incrementar mi capital
a $4, y cuando lo logre se termina el juego. El juego tambin se termina
si mi capital se reduce a $0.
Encuentre la matriz de transicin.
Desarrolle el diagrama de transicin.













3. PROCESOS ESTOCSTICOS.
Algunas veces nos encontramos interesados en cmo cambia una variable
aleatoria con el tiempo. Por ejemplo, es posible que se desee saber cmo
evoluciona el precio de una parte de las acciones o la participacin en el
mercado de una empresa. El estudio de cmo una variable aleatoria cambia
a travs del tiempo incluyen los procesos estocsticos.

- Definicin: Un proceso estocstico es una sucesin de variables
aleatorias ordenadas en el tiempo (en el caso de series temporales).
- Serie Temporal: es una realizacin del proceso estadstico, es decir, es
una observacin de T variables aleatorias ordenadas en el tiempo.

Suponga que se observan algunas caractersticas de un sistema en puntos
discretos en el tiempo (identificados con 0,1,2,.). Sea Xt el valor de la
caracterstica del sistema en el tiempo t. En la mayora de las situaciones, Xt
no se conoce con certeza antes del tiempo t y se podra considerar como
una variable aleatoria.

Un proceso estocstico discreto en el tiempo es simplemente una
descripcin de la relacin entre las variables aleatorias X0, X1, X2.

Ejemplos de procesos estocsticos:
- Serie mensual de ventas de un producto.
- Estado de una mquina al final de cada semana (funciona/averiada).
- N de clientes esperando en una cola cada 30 segundos.
- Marca de detergente que compra un consumidor cada vez que hace la
compra. Se supone que existen 7 marcas diferentes.
- N de unidades en almacn al finalizar la semana.

Ejemplo 1:
- Se dispone de 4 mdulos de atencin que se van activando
secuencialmente a medida que la cantidad de usuarios que deben ser
atendidos aumenta.
- Cada mdulo tiene un mximo de usuarios a los que puede entregar
servicio.
- Cuando un mdulo est completamente utilizado, entra en servicio el
siguiente mdulo.
- Si un mdulo deja de ser utilizado, el mdulo se desactiva
temporalmente, quedando en servicio los mdulos anteriores.







La definicin de estados para el ejemplo ser:

Central
Telefnica
1 2 3 4
Estado 1: El mdulo 1 est siendo utilizado.
Estado 2: El mdulo 2 est siendo utilizado.
Estado 3: El mdulo 3 est siendo utilizado.
Estado 4: El mdulo 4 est siendo utilizado.

Ejemplo 2:
Repetir 1 ao: 2%
Pasar a 2 ao: 97%
Retirarse al final del 1 ao: 1%

Repetir 2 ao: 3%
Pasar a 3 ao: 95%
Retirarse al final del 2 ao: 2%

Repetir 3 ao: 4%
Pasar a 4 ao: 92%
Retirarse al final del 3 ao: 2%

Repetir 4 ao: 1%
Egresar: 96%
Retirarse al final del 4 ao: 3%

Definicin de estados:
Estado 1: Estar en primer ao.
Estado 2: Estar en segundo ao.
Estado 3: Estar en tercer ao.
Estado 4: Estar en cuarto ao.
Estado 5: Egresar del establecimiento.
Estado 6: Retirarse del establecimiento.

Ejemplo 3:
El clima de Centerville puede cambiar con rapidez de un da a otros. Sin
embrago, las posibilidades de tener clima seco (sin lluvia) maana es de
alguna forma mayor si hoy esta seco, es decir, no llueve. Esta
probabilidades no cambian si se considera la informacin acerca del clima
en los das anteriores a hoy.

La evolucin del clima da tras da en Centerville es un proceso estocstico.
Si se comienza en algn da inicial (etiquetado como el da 0), el clima se
observa cada da t puede ser:

Estado 0= El da es seco
Estado 1= El da t es lluvioso

As, para = 0, 1, 2, , la variable aleatoria Xt
Toma los valores,

0 s da t es seco
Xt
1 s da t es lluvioso

El proceso estocstico {Xt}= {X0, X1, X2.} proporciona una representacin
matemtica de la forma como evaluacin el clima de Centerville a travs del
tiempo.

4. PROPIEDAD MARKOVIANA DE PRIMER ORDEN.
Nos dice que el futuro depende nicamente del valor del estado del presente
y es independiente del pasado.




















Como son probabilidades condicionales deben satisfacer:








5. PROBABILIDAD DE TRANSICIN ESTACIONARIA DE UN SOLO PASO.


















Una matriz de transicin P se dice que es regular si para algn entero
positivo k, la matriz k P no tiene elementos iguales a cero. Si P es una matriz
de transicin regular, entonces sin importar la matriz de estado inicial, las
matrices de estado sucesivas se aproximan a alguna matriz de estado fija B
en donde B.P = B. La matriz B se denomina matriz estacionaria del sistema.

Ejemplo: Si la matriz de transicin regular es







Por definicin, la suma de las probabilidades p1+ p2 =1 y adems B.P = B, o
sea:






De all, resolviendo el sistema que queda planteado podemos calcular la
matriz estacionaria buscada.



Ejemplo:
Suponga que toda la industria de bebidas de cola produce solo 2. Dado que
una persona la ultima vez compro cola 1, hay 67% de probabilidades de que
su siguiente compra se cola 1. Dado que la ultima compra de una persona
fue cola 2, hay un 33% de probabilidad de que su siguiente compra se cola
2.

Si una persona en la actualidad es comprador de cola 2, cual es la
probabilidad de que compre cola 1 dos veces a partir de ahora?

Solucin:
Vemos las compras de cada persona como una cadena de Markov con el
estado, en cualquier tiempo dado, el tipo de cola que compro la persona en
la ultima vez. As, la compras de cada individuo puede representarse como
una cadena de Markov donde.

Estado 1= la persona compro cola del tipo 1 la ultima vez.
Estado 2= la persona compro cola del tipo 2 la ultima vez.

Si se define xn como el tipo de cola que una persona compra en su n-sima
compra futura (compra actual de cola = x0) , entonces x0 ,x1... se podra
describir como la cadena de Markov con la siguiente matriz de transicin:







Respondiendo a la pregunta se tiene una probabilidad del 67% de que el
comprador de cola 2 compre cola 1 dos veces a partir de ahora.



6. PROBABILIDAD DE TRANSICIN ESTACIONARIA DE N PASOS.
Suponga que se est estudiando una cadena de Markov con una matriz de
probabilidad de transicin conocida P. (puesto que las cadenas con las que
se tratar son estacionarias, no nos molestaremos en marcar nuestras
cadenas de Markov como estacionarias). Una pregunta de inters es:
Si una cadena de Markov est en el estado i en el tiempo m, cul es la
probabilidad de que n periodos despus la cadena est en el estado j?
Puesto que se trata con una cadena de Markov estacionaria, esta
probabilidad es independiente de m, as que se podra escribir.




Donde se llama probabilidad del n-simo paso de una transicin del
estado i al estado j.

Resulta claro que = Pu: Para determinar , observe que si el
sistema ahora est en el estado i, entonces para que el sistema termine en
el estado j dos periodos a partir de ahora, se debe ir del estado i a algn
estado k y luego del estado k al estado j (vase la figura 3). Este
razonamiento nos permite escribir




Usando la definicin de P, la matriz de probabilidad de transicin, se
reescribe la ltima ecuacin como:




El lado derecho de (3) es slo el producto escalar del rengln i de la matriz P
con la columna J de la matriz P. Por consiguiente, es el ij-simo
elemento de la matriz .
Al ampliar este razonamiento, se puede demostrar que para n > 1,


+
= = = = = = =
0
( | ) ( | ) ( )
n m m n ij
P X j X i P X j X i P n
( )
ij
P n
(1)
ij
P
(2)
ij
P
( ) ( )
1
(2) probabilidad de transici n de i a k X probabilidad de transicion de k a j
k s
ij
k
P
=
=
=

1
( 2 )
k s
i j
k
P P i k P j k
=
=
=

(2)
ij
P
2
P
( ) emesimo elemento de P
n
ij
P n ij =


Por supuesto, para n = O, , as que se debe
escribir










EJEMPLO: BEBIDA
Suponga que toda la industria de bebidas produce solo 2 refrescos. Dado
que una persona la ultima vez compro refresco 1, hay 90% de
probabilidades de que su siguiente compra sea refresco 1. dado que la
ultima compra de una persona fue refresco 2, hay un 80% de probabilidades
de que su siguiente compra se refresco 2.

- Si una persona en la actualidad es comprador de cola 2, cul es la
probabilidad de que compre cola 1 dos veces a partir de ahora?
= = =
0 0
(0) ( | )
ij
P P X j X i
l si j = i
.
0 si j i
(0)
ij
P
=

=
`
)
- Si una persona en la actualidad es comprador de cola 1, cul es la
probabilidad de que compre cola 1 tres ocasiones a partir de ahora?

SOLUCION:
Vemos las compras de cada persona como una cadena de Markov con el
estado, en cualquier tiempo dado, del tipo de cola que compr la persona
en la ltima vez. As, las compras de cada individuo pueden representarse
como una cadena de Markov de dos estados, donde

Estado 1= La persona compr cola del tipo 1 la ltima vez.
Estado 2= La persona compr cola del tipo 2 la ltima vez.

Si se define Xn como el tipo de cola que una persona compra en su n-
sima compra futura (compra actual de cola = Xo), entonces X0, X1, se
podra describir como la cadena de Markov con la siguiente matriz de
transicin:








Ahora se pueden contestar las preguntas 1 y 2.
Se busca P(X2 = 1|X0 = 2) = p21(2) = elemento 2,1 de P 2:






Por consiguiente, P21(2) = .34. Esto significa que la probabilidad de que un
bebedor de cola 2 en el futuro compre dos veces cola l es .34. Mediante la
(
(
(

=
2 1
80 . 20 .
10 . 90 .
2
1
R R
R
R
P
(

=
(

=
66 . 34 .
17 . 83 .
80 . 20 .
10 . 90 .
80 . 20 .
10 . 90 .
2
P
teora de probabilidad bsica, se podra obtener esta respuesta de una
manera distinta (vase la figura 4).

Observe que P21 (2) = (probabilidad de que la siguiente compra sea cola 1 y
la segunda compra sea cola 1) + (probabilidad de que la siguiente compra
sea cola 2 y la segunda compra sea cola1)
= P21P11 + P22P21= (.20)(.90) + (.80)(.20) = .34.

Ahora se busca P11(3) = elemento 11 de P 3 :




Por lo tanto, P11(3) = .781


















Probabilidades de Estados Estables.
(

=
(

= =
562 . 438 .
219 . 781 .
66 . 34 .
17 . 83 .
80 . 20 .
10 . 90 .
) (
2 3
P P P
Ahora analizaremos el concepto importante de probabilidades de estado
estable, que se puede usar para describir el comportamiento a largo plazo
de una cadena de Markov.

El resultado es vital para comprender las probabilidades de estado estable y
el comportamiento a largo plazo de las cadenas de Markov.

Sea P la matriz de transicin de una cadena ergdica de estado estable.
Entonces existe un vector = [1 2 s] tal que:












El vector = [1 2 s] se llama distribucin de estado estable, o
distribucin de equilibrio, para la cadena de Marcov. Para una cadena
determinada con matriz de transicin P, cmo se puede hallar la
distribucin de probabilidades de estado estable? A Partir del teorema 1, se
observa que y toda i.





(m + n) = (n) [P]m Lo cual define una relacin de recurrencia, la cual
permite conocer la evolucin del vector de probabilidad de estado en el
instante m, conociendo el vector de probabilidad inicial, hacienda n = 0
t + ~ ~ ( 1) ( )
ij ij j
P n P n
A medida que aumenta el nmero de instantes m, las matrices convergen a
un valor estable, independiente del vector de probabilidad inicial. Por lo
tanto, cuando el sistema llega a un estado j, la probabilidad en estado
estable llegara ser:






Entonces la ecuacin quedara de la siguiente manera.



Ya que con la ecuacin anterior se tendran un nmero infinito de soluciones
debido a que el rango de la matriz P siempre resulta ser menor o igual a s -
1. Para obtener valores nicos de las probabilidades de estado, observe que
para cualquier n y cualquier i.





EJEMPLO: anterior de los refrescos donde P:




Refresco 1 refresco 2
P = refresco 1 0.9 0.1
refresco 2 0.2 0.8
t

(
=

lim
m
j ij
m
P
t t = P
+ + + =
1 2
( ) ( ) ... ( ) 1
i i is
P n P n P n
1
j
j
t =

1 2
=
1 2
0.9 0.1
0.2 0.8



Se considera una seal con amplitud entre 2A y 2A, el cual solo puede
tomar valores mltiplos de A. En cualquier instante n, la seal puede, ya sea
quedarse en el mismo valor, aumentar A o disminuir A. Al asumir que los
cambios tienen igual probabilidad, determine:

- La matriz de transicin de estados.
- La probabilidad de que en el segundo instante, la seal pase el estado A
al estado A.
- La probabilidad de estado de la seal en estado estable.








El diagrama de transicin de estados que se ilustra en la siguiente figura,
determina el proceso de Markov donde:





Luego, la matriz de transicin de estados es igual a:












Para definir las probabilidades de transicin para el segundo instante, se
tiene:







Luego PA,A = 1/9 = 0.111. Ntese que dicha probabilidad puede hallarse
usando la matriz de transicin de estado inicial PA,A = PA,0P0,A = 1/3*1/3
= 0.111. En estado estable se debe satisfacer el sistema de ecuaciones,
dado por 2.26, y eliminando el trmino 5:












Suponga que cada cliente realiza una compra de refresco durante cualquier
semana. Suponiendo que hay 100 mil clientes que consumen refresco. A la
compaa le cuesta 1 dlar producir un refresco y lo vende en 2 dlares. Por
$500 mil al ao, una empresa publicitaria garantiza disminuir de 10 a 5% la
fraccin de clientes de refresco 1que cambian a refresco 2 despus de una
compra. Debe la compaa que fabrica refresco 1 contratar a la empresa
publicitaria?

En la actualidad, una fraccin 1 = 2/3 de las compras de refresco 1. Cada
compra de refresco 1produce a la compaa una ganancia de 1 dlar.
Puesto que hay un total 52(100 000), compras de refresco al ao, ganancia
de la compaa que produce refresco 1 es:

2/3(5 200 000) = $ 3466,666

La compaa publicitaria esta ofreciendo cambiar la matriz P a






Para P, las ecuaciones de estado estable son:

1 = .951 + .202
2 = .051 + .802

Sustituyendo la ecuacin por 1 + 2 = 1 y resolviendo, se obtiene 1 = .80
y 2 = .20. Ahora la ganancia anual de la compaia que produce refresco 1
ser.

0.80 (5 200 000) 500 000 = $ 3`660,000

Por lo tanto, la compaa que produce refresco 1 debe contratar a la agencia
de publicidad.

7. ESTADOS ABSORBENTES.
Refresco 1 refresco 2
P = refresco 1 0.95 0.05
refresco 2 0.2 0.8
Muchas aplicaciones interesantes de las cadenas de markov tienen que ver
con cadenas en las que algunos de los estados son absorbentes y el resto
son estados transitorios. Este tipo de cadena se llama cadena absorbente.
Considere una cadena de markov absorbente; si se comienza en un estado
transitorio, entonces finalmente se esta seguro de salir del estado transitorio
y terminar en uno de los estados absorbentes.
En este formato, los renglones y las columnas de P corresponden (en
orden) a los estados
Aqu I es una matriz identidad de m x m que refleja el hecho de que nunca
se puede dejar un estado absorbente: Q es una matriz de (s m) x (s m)
que representa estados transitorios; R es una matriz de (s m) x m que
representa transiciones a estados absorbentes; 0 es una matriz de m x (s
m) que consiste por completo en ceros. Esto refleja el echo de que es
imposible ir de un estado absorbente a un transitorio.

EJEMPLO: planificacin de fuerza de trabajo.
El bufete jurdico de Mason y Burger emplea tres tipos de abogados:
principiantes, experimentados y asociados. Durante un ao determinado,
hay una probabilidad .15 de que un abogado principiante sea promovido a
experimentado y una probabilidad .05 de que salga de la empresa. Tambin,
hay una probabilidad .20 de que el abogado experimentado sea promovido
asocio y una probabilidad .10 de que salga de la empresa. La probabilidad
de que un asociado salga de la empresa es de .05
1. Cul es el tiempo promedio que un abogado principiante recin
contratado dure trabajando en la empresa?
2. Cul es la probabilidad de que un abogado principiante se convierta
en asociado?
3. Cul es el tiempo promedio que un asociado pasa en la empresa?


Matriz de probabilidades de transicin:



principiante experimentado asociado
sale como no
asociado
sale como
asociado
principiante 0.8 0.15 0 0.05 0
experimentado 0 0.7 0.2 0.1 0
asociado 0 0 0.95 0 0.05
sale como no
asociado
0 0 0 1 0
sale como
asociado
0 0 0 0 1








Solucin:





















EJEMPLO: cuentas por cobrar
Suponga que una empresa asume que una cuenta es incobrable si se tiene
ms de tres meses de atraso. Entonces al comienza de cada mes, cada
cuenta se puede clasificar en uno de los siguientes estados:
0.8 0.15 0
Q= 0 0.7 0.2
0 0 0.95
0.05 0
R= 0.1 c0
0 0.05
0.2 -0.15 0
I -Q = 0 0.3 -0.2
0 0 0.05
a1 a2
t1 0.5 0.5
(I-Q)^-1 R= t2 0.33 0.66
t3 0 1

Estado 1 Cuentas nuevas.
Estado 2 El pago de la cuenta tiene un mes de atraso.
Estado 3 El pago de la cuenta tiene dos meses de atraso.
Estado 4 El pago de la cuenta tiene tres meses de atraso.
Estado 5 La cuenta ha sido pagada.
Estado 6 La deuda se borra como deuda incobrable.

Los datos se muestran en la siguiente cadena de markov

- Cual es la probabilidad de que finalmente se cobre una cuenta nueva?
- Cul es la probabilidad de una cuenta de un mes de retraso en algn
momento sea una deuda incobrable?

Matriz de probabilidad de transicin









Solucin:









nueva 1 mes 2 meses 3 meses pagada incobrable
nueva 0 0.6 0 0 0.4 0
1 mes 0 0 0.5 0 0.5 0
2 meses 0 0 0 0.4 0.6 0
3 meses 0 0 0 0 0.7 0.3
pagada 0 0 0 0 1 0
deuda
incobrable
0 0 0 0 0 1
0 0.6 0 0
0 0 0.5 0
Q= 0 0 0 0.4
0 0 0 0
0.4 0
0.5 0
R= 0.6 0
0.7 0.3

















Interpretacin:
1. As, finalmente de que se cobre una cuenta nueva es de = .964 el
96%.
2. Por consiguiente, la probabilidad de una cuenta con un mes de
retraso se convierta en una deuda incobrable es de = .06

8. LA CADENA DE MARKOV Y SU FUNCIN EMPRESARIAL.
En ocasiones resulta complicado determinar cual va a ser la evolucin de
ciertos aspectos empresariales sujetos a variaciones constantes. Esto puede
dificultar la adecuacin de esfuerzos econmicos y de personal, entre otros.

Una manera diferente de controlar ciertos factores de la gestin de un
negocio es realizar aproximaciones o previsiones en base a la utilizacin de
cadenas de Markov. No es un mtodo totalmente exacto pero si til para
previsiones a largo o muy largo plazo.

t1 t2 t3 t4
t1 1 0.6 0.3 0.12
(I - Q)^-1= t2 0 1 0.5 0.2
t3 0 0 1 0.4
t4 0 0 0 1
a1 a2
t1 0.964 0.036
(I - Q)^-1 R = t2 0.94 0.06
t3 0.88 0.12
t4 0.7 0.3
A diferencia del mtodo clsico de utilizar el ao inmediatamente anterior
como gua, la cadena de Markov utiliza todos los estados anteriores para
determinar una evolucin ms realista de lo que cabe esperar de los
prximos ejercicios. Es una tcnica curiosa aunque algo complicada para
quien no domine la materia.

Toda consecucin numrica cuando se repite tiende a descubrir cifras
relevantes y patrones. Dado el gran nmero y variedad de cifras existente en
los balances lo mejor es realizar el estudio en base a los ratios. Esto
descubre ms posibilidades pues tambin podemos utilizar los ratios de
RRHH, que cuantifican valores cualitativos y miden factores humanos.

Es posible aplicar este principio a campos tan diferentes como la
meteorologa, astrologa, biologa o a las empresas (entre otras muchas
reas, por supuesto).

En lo que nos interesa, se ha aplicado para analizar patrones de morosidad,
necesidades de personal, prever defectos en maquinaria, etc.

Una manera diferente de controlar ciertos factores de la gestin de un
negocio es realizar aproximaciones o previsiones en base a la utilizacin de
cadenas de Markov. No es un mtodo totalmente exacto pero si til para
previsiones a largo o muy largo plazo.

El problema de estas cadenas radica en la dificultad de su clculo en casos
donde el nmero de estados es muy grande (por eso recomiendo realizarlo
en base a ratios relevantes) y en la bsqueda de factores que respondan a
las propiedades markovianas.

Adems, requiere de personal cualificado para crear un sistema eficiente
para esos casos. Para ello se puede hablar con un informtico ya que
deber realizarse una base de datos y este deber estudiar las frmulas
para aplicarlas de la mejor manera posible.

REFERENCIAS BIBLIOGRFICAS
LIBROS:

HAMDY A Taha
Investigacin de Operaciones 7 Edicion 2004

CRDOVA, Manuel
2006 Estadstica Aplicada. Primera Edicin
Per: Editorial Moshera.

DUGAS, R.
1976 La matemtica, objeto de cultura y herramienta de trabajo
Espaa: Editorial Gustavo Gili

EVANS, M. & ROSENTHAL, J.
2005 Probabilidad y Estadstica: La ciencia de la Incertidumbre
Espaa: Editorial Revert.

GORDON, Patrick
1997 Cadenas finitas de Markov y sus aplicaciones.
Primera Edicin. Traducido por: TRILLAS, Enrique y BONET,
Eduardo. Espaa: Hispano Europea.

HILLIER, Frederick y LIEBERMAN, Gerald
2006 Introduccin a la Investigacin de Operaciones.
Octava Edicin Traducido por: MURRIETA, Jess. Mxico:
McGraw-Hill Interamericana.

KERNINGHAN, B.
2004 The Practice of Programming
Indianapolis: Pearson Education

WINSTON, Wayne
2005 Investigacin Operativa Aplicaciones y Algoritmos.
Cuarta Edicin. Traducido por: VELASCO, Adolfo. Mxico: Thompson.

BOLETN DE LA SOCIEDAD DE ESTADSTICA E INVESTIGACIN
OPERATIVA DE LA UNIVERSIDAD COMPLUTENSE
2006 Andrei Markov (1856-1922) en el 150 Aniversario de su
Nacimiento. Madrid, volumen 22, pp.4, 7-8.

MATERIAL DE ENSEANZA:

FERNANDEZ BONILLA, Lino
Mtodos cuantitativos para negocios II Primera Edicin.
UNCP-FACAP-2009

LPEZ, Ezequiel
Cadenas de Markov. Departamento de Ciencias y Lenguajes de
Comunicacin de la Universidad de Mlaga. 14 de diciembre del 2012.
www.lcc.uma.es/~ezeqlr/ios/Tema4.ppt

RODRIGUEZ, Teodoro
2002 Procesos Estocsticos. Introduccin a los mtodos estadsticos,
numricos y probabilsticos. Portal Colegio Maristas Cristo Rey.
Espaa. Consulta: 14 de diciembre del 2012.
<http://centros.edu.aytolacoruna.es/maristas/Apuntes%20Estadisti
ca%20P3.pdf>

PGINAS WEB:

EDICIONES UPC
2002 Cadenas de Markov. Consulta: 10 de diciembre del 2012.
<http://www.edicionsupc.es/ftppublic/pdfmostra/OE03502M.pdf>

INFOAMRICA.ORG
s/a Biografa Andrei Markov. 10 de diciembre del 2012.
<http://www.infoamerica.org/teoria/markov1.htm>
LABORATORIO DE CMPUTO
2005 Cadenas Ocultas de Markov. 10 de diciembre del 2012.
<http://www.alumnos.inf.utfsm.cl/~ntroncos/files/publish/hmm.pdf>

PLANETA SEDNA
La Divina Proporcin. Consulta: 10 de diciembre del 2012.
<http://www.portalplanetasedna.com.ar/divina_proporcion.htm>

MICROSIERVOS
2008 Fractales Imposibles. 10 de diciembre del 2012.
<http://www.microsiervos.com/archivo/arte-y-diseno/fractalesimposibles.
html>

MIT
2003 Modelos Ocultos de Markov. Consulta: 10 de diciembre del 2012.
<http://mit.ocw.universia.net/6.345/NR/rdonlyres/Electrical-
Engineering-and-Computer-Science/6-345Automatic-Speech-
RecognitionSpring2003/4C063D4A-3B8B-4F05-B475-
85AAD0D66586/0/lecture10.pdf>

UNAM
Procesos Estocsticos. Consulta: 10 de diciembre del 2012.
<http://verona.fi-p.unam.mx/boris/teachingnotes/estocasticos.pdf>