Sei sulla pagina 1di 5

En ocasiones resulta complicado determinar cual va a

ser la evolucin de ciertos aspectos empresariales sujetos


a variaciones constantes. Esto puede dificultar la
adecuacin de esfuerzos econmicos y de personal, entre
otros.
Una manera diferente de controlar ciertos factores de la
gestin de un negocio es realizar aproximaciones o
previsiones en base a la utilizacin de cadenas de Markov.
No es un mtodo totalmente exacto pero si til
para previsiones a largo o muy largo plazo.
A diferencia del mtodo clsico de utilizar el ao
inmediatamente anterior como gua, la cadena de Markov
utiliza todos los estados anteriores para determinar una
evolucin ms realista de lo que cabe esperar de los
prximos ejercicios. Es una tcnica curiosa aunque algo
complicada para quien no domine la materia.
Toda consecucin numrica cuando se repite tiende a
descubrir cifras relevantes y patrones. Dado el gran nmero
y variedad de cifras existente en los balances lo mejor es
realizar el estudio en base a los ratios. Esto descubre ms
posibilidades pues tambin podemos utilizar los ratios de
RRHH, que cuantifican valores cualitativos y miden factores
humanos.
Ms all de los patrones lo complicado est en descubrir
cual va a ser el siguiente estado que va a producirse en el
proceso estudiado. Es decir, tenemos que adivinar el
siguiente paso, que no tiene por qu ser parte del patrn
aunque est influenciado por el mismo.

Para empezar voy a dar una definicin de lo que es esta


cadena. Se trata de una herramienta creada por el
matemtico ruso "Andrei Markov" en el ao 1907 que
mezcla principios algebraicos y estadsticos para analizar
procesosestocsticos (que evolucionan a lo largo del
tiempo en un conjunto de estados).
Es posible aplicar este principio a campos tan diferentes
como la meteorologa, astrologa, biologa... o a
las empresas (entre otras muchas reas, por supuesto).
En lo que nos interesa, se ha aplicado para analizar
patrones de morosidad, necesidades de personal, prever
defectos en maquinaria, etc... (os dejo elenlace a un
documento bien detallado con un ejemplo prctico aplicado
a la contabilidad donde incluso se utiliza la ley de ChapmanKolmogrov).
Existen varios tipos de cadena segn el nmero de estados
esperados, siendo ms sencillo aplicar una cadena de
nmero finito. Todo depende de lasprobabilidades de
transicin en "x" pasos.
Personalmente he jugado con este tipo de cadenas por la
capacidad de mostrar datos futuros con criterio y en base a
la historia de la propia empresa. Por ejemplo, en base a
ratios de rotacin de personal (del que tendr que hablar
algn da) podemos estipular de forma aproximada las
necesidades a largo plazo de medios, entrevistas, formacin
interna y bajas que se producirn en el futuro segn lo
acontecido en los ltimos 5 aos ( por ejemplo ). La
previsin ayuda a la planificacin y al ser un mtodo
matemtico con "memoria" a largo plazo es un aliado
perfecto para un empresario con visin estratgica.

El problema de estas cadenas radica en la dificultad de su


clculo en casos donde el nmero de estados es muy
grande (por eso recomiendo realizarlo en base a ratios
relevantes) y en la bsqueda de factores que respondan a
las "propiedades markovianas".
Adems, requiere de personal cualificado para crear un
sistema eficiente para esos casos. Para ello se puede hablar
con un informtico ya que deber realizarse una base de
datos y este deber estudiar las frmulas para aplicarlas de
la mejor manera posible.

Utilizar las cadenas de Markov para


tomar mejores decisiones
Uno de los principales objetivos de la ciencia de datos es ayudar a que
tomemos mejores decisiones. Las cadenas de Markov (MLN, por su siglas
en ingls Markov Logic Networks) proporcionan un sistema muy til para
crear e implementar un proceso de toma de decisiones que sopese
posibles escenarios y se utilice para predecir con mayor exactitud
comportamientos futuros. Las MLNs tienen muchas aplicaciones en el
mundo real, destacando su uso en negocios, poltica, finanzas, deportes,
salud, gentica, fsica, economa y un largo etctera.

Fuente Data Science Association

El trabajo terico del matemtico Andrey Markov en el campo de los


procesos en los que estn involucrados componentes aleatorios
(procesos estocsticos) derivaran en un instrumento matemtico que
actualmente se conoce como cadena de Mrkov: secuencias de valores
de una variable aleatoria en las que el valor de la variable en el futuro
depende del valor de la variable en el presente, pero es independiente
de la historia de dicha variable.
El proceso de decisin de Markov es un proceso de control estocstico
en tiempo discreto, muy til para la toma de decisiones en escenarios
donde los resultados son en parte azar y en parte decisiones previas. Los
procesos de Markov pueden ayudar a hacer predicciones para el futuro,
basndose en datos actuales, datos pasados y probables condiciones
futuras.
Una cadena de Markov consiste en una serie de estados, en los cuales la
probabilidad de que un evento ocurra depende del estado
inmediatamente anterior. En efecto, las cadenas de ese tipo tienen
memoria: Recuerdan el ltimo estado y esto condiciona los posibles
estados futuros. En otras palabras, el siguiente estado depende
nicamente del estado anterior, y no de la secuencia de estados que le
preceden. Estos cambios de estados se llaman transiciones. Cada
proceso tiene un estado inicial y una matriz de transiciones que muestra
todas las posibles transformaciones futuras a partir de el.
Las cadenas de Markov pueden ser consideradas un conjunto de
frmulas, cada una de las cuales tiene asignados un nmero y un peso.
El objetivo es encontrar la distribucin estacionaria y, a continuacin,
realizar la inferencia de datos usando probabilidad condicional (es decir,
obtener la probabilidad de tenga lugar una frmula A dada una frmula
B que es cierta) .
Los procesos de decisin de Markov son frecuentemente utilizados por
cientficos para los siguientes casos de negocio:

Investigacin de operaciones.
Prediccin y optimizacin de marca.
Predicciones meteorolgicas.
Optimizar precios de productos y servicios
Marketing
Anlisis de ciclo de negocio.
Anlisis de producto.
Optimizacin de los modelos de planificacin de plantillas.
Optimizacin de calidad de servicio al cliente.
Prediccin del comportamiento de los consumidores.
Prediccin de prdida de clientes
Optimizacin de las relaciones con clientes.

Optimizacin del rendimiento de los trabajadores.


Optimizacin de la ubicacin de la tienda.
Determinar la probabilidad de morosidad.
Optimizacin de financieros, inventarios, bienes y capital humano.
Otros ejemplos de casos de uso de MLNs incluyen: algoritmos de
posicionamiento web (en este caso la cadena de Markov puede ser
utilizada para hacer predicciones futuras de navegacin para los
usuarios individuales); modelos financieros para optimizacin de
acciones; anlisis de juegos como el bisbol; seal y procesamiento de
imgenes; reconocimiento de imgenes; reconocimientos de patrones;
seguros de vida y diversas aplicaciones en marketing.

Potrebbero piacerti anche